Conversazione, assistenza vocale, linguaggio e contesto sociale

La conversazione è uno dei punti fondamentali dell’interazione fra persone, un atto di socializzazione. Grazie alla conversazione ci mettiamo in relazione con gli altri e non è fine a se stessa. La conversazione è un atto che mette (anche) in chiaro qual è il nostro posto nella società. Quando conversiamo con gli altri, infatti, scambiamo informazioni. Siamo un nodo nell’immenso grafo della realtà.

Conversazione e assistenza vocale

La scorsa settimana ho approfondito il tema dell’architettura dell’informazione conversazionale.  Cosa ne pensa Peter Morville ed alcune mie osservazioni.

Scrivevo che è difficile per un assistente vocale sostenere una conversazione reale. La conversazione è un atto complesso e come vedremo qui di seguito è sottoposta a numerose regole e variabili che solo un essere umano può comprendere a pieno.

In una conversazione l’assistenza vocale dovrebbe non solo comprendere quello che gli viene detto, cosa che già fa, ma anche il contesto. La macchina dovrebbe mettersi in relazione con noi e con quello che ci circonda. Dovrebbe ascoltare alla lettera ma poi non dovrebbe eseguire i comandi alla lettera.

Non  possiamo semplificare una conversazione nel solo ascolto letterale di quello che viene detto. Ascolto letterale che corrisponde, al momento, all’ascolto di un comando.

La conversazione come sistema di scambio linguistico

Interviste, dibattiti,  cerimonie, conversazioni varie, sono “sistemi di scambio linguistico”. E come tali possono essere osservati e analizzati.

La Treccani definisce la conversazione come

uno scambio verbale tra due o più partecipanti, come tipo di attività socialmente organizzata, prevalentemente di carattere informale e basata sulla lingua parlata. La conversazione, nella sua forma canonica faccia a faccia, è caratterizzata dall’uso del codice verbale, dal mezzo fonico-acustico, dalla sincronia temporale, dal contesto fisico comune e dalla compresenza di parlante e interlocutore/i.

In questa definizione ci sono parole che mi colpiscono e che vorrei sottolineare. Scambio, attività socialmente organizzata, codice verbale, contesto fisico comune, compresenza di parlante e interlocutore/i.

E’ interessante, secondo me, chiedersi. L’assistente vocale è compresente all’utente che ne fa uso?

Connessi, presenti, umani

Federico Badaloni scrive nel suo libro Architettura della comunicazione

E’ attraverso l’interazione, cioè lo scambio di informazioni e di feedback su di esse, che due o più persone, in un o stesso spazio e nello stesso tempo, creano legami fra di loro con l’ambiente circostante.

Tra umani che conversano questo è naturale, ma gli umani non comunicano con le sole parole. Anzi! (Mi sa che ci dobbiamo tornare su questo).

E’ l’esperienza di una relazione che “dà senso”, cioè da significato.

In una conversazione c’è un turno

In una conversazione esiste un turno tra i partecipanti. Diciamo delle regole non scritte che subiscono variazioni. Nell’essere sociale i turni sono parte della nostra convivenza. I turni sono usati per giocare, per distribuire incarichi, regolare il traffico, per servire i clienti. E appunto anche quando parliamo c’è un turno. Se parlassimo tutti in contemporanea non ci capiremmo.

I primi ad occuparsi di queste analisi conversazionali furono Harvey Sacks, Emanuel A. Schegloff e Gail Jefferson. I loro studi furono presentati in un saggio dal titolo “L’organizzazione della presa del turno nella conversazione” del 2000 e scrivevano:

L’organizzazione per turni è un esempio importante di organizzazione sociale, che si può ritrovare in molte altre attività.

Il fatto che esistano dei “turni” suggerisce l’esistenza di una economia, dove i turni stabiliscono l’accesso ad un qualche tipo di valore – e dove si sono messi per allocare questi turni che influenzano la loro distribuzione relativa, come nell’economia.

C’è un contesto

I tre studiosi, presero in esame diverse registrazioni audio naturali e con questo saggio hanno sottolineato la duplice caratteristica della conversazione:

quella di essere indipendente dal contesto e allo stesso tempo essere straordinariamente sensibile al contesto.

L’organizzazione della presa del turno nella conversazione ha una sorta di astrattezza generale e allo stesso tempo un potenziale di particolarizzazione locale

Una conversazione tra individui in contesti diversi può avere significati diversi. Pur tuttavia l’analisi accademica richiedeva e richiede una decontestualizzazione.

Il saggio affronta molti aspetti a cui rimando nella versione cartacea. Anche se non so se sia ancora disponibile. Io lo posseggo come reperto dei miei anni universitari.

In che modo il sistema rende conto dei fatti

Harvey Sacks, Emanuel A. Schegloff e Gail Jefferson hanno individuato delle regole, dei meccanismi, dei fatti.

In una conversazione:
1. il cambiamento dei parlanti si ripete almeno una volta;
2. i parlanti si alternano e parlano uno alla volta;
3. se avviene una sovrapposizione i tempi sono brevi;
4. il passaggio di turno avviene senza pause e sovrapposizioni comunemente;
5. l’ordine della successione dei turni non è stabile, ma varia;
6. la dimensione dei turni non è stabile, ma varia;
7. la lunghezza della conversazione non è data in anticipo;
8. il numero dei partecipanti non è stabilito;
9. la distribuzione dei turni non è specificata in anticipo;
10. il numero dei parlanti può variare;
11. il flusso può essere continuo o discontinuo;
12. il parlante può scegliere chi avrà il prossimo turno o il partecipante può autoselezionarsi;
13. i turni hanno una composizione che varia da una parola o intere frasi;
14. esistono meccanismi di riparazione (repair) per violazioni o errori nella presa del turno.

Analisi senza soluzione

I tre studiosi hanno voluto analizzare la conversazione, perché ritenevano fondamentale conoscerne i meccanismi

Le conversazioni vengono usate in molte ricerche scientifiche e applicate, c’è il rischio che venga usato uno strumento i cui effetti non siano conosciuti.

Conversazione con l’assistenza vocale

Arriveremo mai a conversare (amabilmente) con un assistente vocale?

Al momento, la risposta mi pare volta più verso il no.  Non solo perché le varianti sono davvero tante, come abbiamo visto.

Ma soprattutto perché in una conversazione si deve instaurare una relazione. E per quanto affezionati al nostro device, o per quanto distopici diventeremo, una relazione con il nostro smartphone è difficile, al momento, da pensare nella realtà. O quanto meno non c’è da augurarselo del tutto.

I risultati raggiunti sono davvero notevoli e non sono da sminuire. Quello che dobbiamo augurarci è di restare tutti con i piedi per terra. Se accettiamo i passi avanti e veloci che ha fatto l’intelligenza artificiale e gli assistenti vocali, possiamo approfittare dei vantaggi che ci offrono, fin da subito.

E le relazioni è bene averle, ancora, attorno ad un tavolo, in una stanza o in una piazza, tra persone fisiche e vere, qualunque siano gli esiti e i risvolti.

Fonte

Per la scrittura di questo articolo ho ripreso un vecchio testo del mio corso di studi universitario – Giglioli, Pier Paolo & Fele, Giolo (a cura di) (2000), Linguaggio e contesto sociale, Bologna, il Mulino. Non più disponibile online.

Per approfondimenti L’analisi della conversazione di Giolo Fele.

Architettura dell’informazione conversazionale

Peter Morville dedica un post all’Architettura dell’informazione conversazionale e ritiene che con l’aiuto dell’architettura dell’informazione gli assistenti vocali miglioreranno e, aggiungo io, riceveranno la giusta diffusione. Questo non significa che le interfacce vocali sostituiranno o addirittura cancelleranno le interfacce grafiche. Morville è scettico a riguardo. Io sono convinto che per alcuni contesti l’interazione vocale sarà utile e migliorerà la produttività.

Architettura dell’informazione conversazionale

Peter Morville, il padre dell’architettura dell’informazione, racconta di come l’assistenza vocale sia al centro dell’attenzione di un gran numero di persone e di quanto le aziende stiano investendo in questa tecnologia.

Morville lo dice. E’ scettico e proprio perché scettico ha comprato, secondo me, l’assistente vocale più interessante, Amazon Echo. Certo adesso dovrebbe provare Google Home e Google potrebbe ascoltare quanto dice Morville. Ma andiamo con ordine.

Sia la luce

Morville, nell’utilizzare Echo, ha apprezzato le funzioni musicali, che sono le più immediate, Spotify e Music Prime. In aggiunta ad una sveglia se dovesse addormetarsi.

Tuttavia, troppo spesso, la nostra conversazione va in questo modo:

Peter (al buio): “Alexa, accendi la lampada.”
Alexa (accende la lampada): “Va bene.”
Susan (urla dalla cucina): “Cosa?”
Peter (urla di nuovo): “Niente, stavo solo parlando con Alexa.”
Alexa: “Non sono del tutto sicuro su come aiutarti in questo.”
Susan (urla dalla cucina): “Non dimenticare di ringraziare Alexa.”
Alexa: “Mi spiace, non so la risposta.”

In questo dialogo a tre, a me pare importante sottolineare due cose.

  • L’assistente vocale entra in un contesto di cui non fa (ancora) parte.
  • Un assistente vocale ti ascolta alla lettera.

Poi scrive

Il problema più grande di Alexa è che lei mi fa sentire stupido. Alexa mi costringe ad ammettere che non riesco a ricordare il nome di una delle mie canzoni preferite di Vienna Teng.

Su Spotify, posso cercare Vienna Teng, selezionare Warm Strangers, e avviare Harbor senza interruzione. Questa è la magia del Recognition over recall. Ed è difficile da fare con un interfaccia vocale.

Esperienza sonora? Quale esperienza?

Quale esperienza ti fa vivere l’assistente vocale? Evidentemente questa esperienza non è ancora stata progettata. Gli ingegneri non sono tenuti a pensare all’esperienza dell’utente se non per le funzioni proprie di funzionamento, spinti alla soluzione di numerosi problemi. Nessuno al momento si è (ancora) chiesto quale esperienza vive l’utente. O quanto meno nessuno se lo è chiesto in termini di ricerca antropologica e culturale.

Ancora, Morville

Che cosa posso chiedere? Qual è la sintassi corretta?

In teoria la macchina, l’assistente vocale, dovrebbe apprendere dal nostro linguaggio. Ma ad oggi l’assistenza vocale non comprende il contesto di quello che dice l’uomo.

Un assistente vocale non può impegnarsi in una conversazione reale. Sono tante le varianti e le regole (non rispettate) che coinvolgono una conversazione. Ne approfondisco gli aspetti sul post  “Conversazione, assistenza vocale, linguaggio e contesto sociale“.

Così l’onere cognitivo ricade su di noi. Lei ci fa sentire stupidi.

L’onere cognitivo ricade su di noi, sull’essere umano. L’uomo, infatti, si adatta più velocemente della macchina. La capacità di calcolo dei nostri telefonini o di dispositivi come Google Home non sono equiparabili al nostro cervello. E quindi… finisce che siamo noi a studiare lo strumento. Siamo noi che vogliamo capire come funziona, come può funzionare al meglio. Cerchiamo e ricerchiamo l’affordance dell’assistenza vocale.

Progettare un assistente vocale

Peter Morville lancia degli spunti da approfondire. Alcune linee guida che l’architettura dell’informazione sonora e questo blog dovremo seguire e approfondire nel tempo.

Potrebbe essere utile se Alexa avesse una architettura dell’informazione distinguibile. Se potessimo selezionare una categoria come la musica, le notizie, o lo shopping. Potrebbe essere più facile navigare in ogni sottoinsieme di casi d’uso e comandi.

Alexa dovrebbe aiutare a capire e ricordare. Per fare questo Peter Morville invita Alexa a interfacciarsi con Siri (cosa che non è possibile perché nessuno delle due aziende, al momento, lo prevede)  o imitarla per una interazione multimodale (acustico/visivo).

Quando si chiede una canzone a Siri, infatti, l’assistente vocale di Apple risponde proponendo visivamente, sullo schermo dell’iPhone, la canzone presente nell’app iTunes.

Immaginate che cosa potrebbe fare Alexa con un ampio display sulla parete del soggiorno. Mentre ha solo i vantaggi dell’audio (ad esempio, l’utilizzo multi-room, l’accessibilità per i non vedenti), Alexa, senza lo schermo, non può renderci utenti forti. Chiedere non è sufficiente. Deve anche mescolare input e output audiovisivi per consentire una migliore visualizzazione e una migliore ricerca.

Alexa ha bisogno di una architettura delle informazioni multi-canale (cross-channel) che abbracci l’interazione multi-modale.

Cross channel e Multi-Channel e la luce fu!

peter-morville-cit

Per spiegare la differenza tra Cross channel e multi-channel è necessario riprendere un articolo di Luca Rosati e Andrea Resmini autori del libro ancora attualissimo, Architettura dell’informazione pervasiva. Rosati e Resmini lavorano su questi temi dal 2007.

A me pare che Morville inviti ad una pervasività dell’architettura dell’informazione sempre più spinta. Dove il sonoro e la voce sono e devono essere solo una parte del sistema.

Peter Morville e la sua compagna dopo un mese hanno rinunciato ad Alexa, perché hanno ritenuto difficile l’uso e pensano che Echo debba essere ancora migliorato.

Per ora, i nostri telefoni, tablet e computer portatili offrono una migliore esperienza. Ma io credo che Alexa vedrà presto la luce con un piccolo aiuto da parte dei suoi amici dell’architettura dell’informazione.

Ecosistemi di conversazione

E’ tutto l’anno che scrivo riguardo interfacce e nuove frontiere. E senza nessun assurdo tecno-entusiasmo mi pare che i segnali siano molto forti.

ChatBot

Peter Morville conferma che non si può parlare dell’interazione vocale tra uomo e macchina senza parlare dei servizi di messaggistica, già esistenti e che fanno uso di Intelligenza artificiale (chatbot).

In Italia ancora non sono molto diffusi, ma esistono già assistenti intelligenti che aiutano l’utente che ha delle specifiche necessità. Operator è un chatbot che ti connette con gli esperti per scoprire e comprare ciò che ami.  Magic è un numero di telefono a cui inviare SMS per ricevere tutto quello che vuoi, su richiesta e senza problemi.

Oppure ci sono le intelligenza artificiali con supporto umano come Facebook M.

Morville ricorda anche i chatbot usati dai media, ma questi, già alla loro uscita, hanno creato più fastidio che consenso tra gli utenti. Aumentando, secondo me, lo scetticismo nei confronti di questa tecnologia.

La questione mi pare sempre la stessa. Ossia che in tanti, anzi, in troppi, pensano, o vogliono pensare,  che un chatbot, o un assistente vocale, o l’intelligenza artificiale, possano fare qualsiasi cosa. Così non è.

la chat occuperà una nicchia specializzata nell’ecosistema conversazionale più ampio.

Le buone pratiche di bot e AI: il servizio

Morville porta ad esempio il chatbot CourtBot. Si tratta di un progetto creato dalla Code for America che invia SMS alle persone che devono avere a che fare con il tribunale o la polizia. Il bot ricorda le date del processo, la scadenza per il pagamento delle multe e così via. Il ChatBot rende un servizio.

Ma il bot non fa tutto e non si organizza da solo. Il bot è solo una delle tante parti dell’ecosistema. L’ecosistema è molto più ampio, in un percorso cross e multi channel che coinvolge agenti di polizia, citazioni di carta, il bot stesso, un call center, un sito web e il palazzo di giustizia.

La soddisfazione degli utenti è raggiunto quando le parti si incastrano per creare un intero ecosistema.

Deus ex machina

E’ inevitabile che le forze della tecnologia ci spingano ad usare nuovi strumenti e a vivere diversamente. Ma non vivremo mai in un film. Non dobbiamo affrontare la tecnologia con la Tecnologia ma con la Cultura.

Mentre io credo che la consapevolezza sia tra le forze più dirompenti per plasmare il nostro futuro, non sto trattenendo il fiato per il deus ex machina della super-intelligenza. Consapevolezza e conversazione sono tra le cose più complesse, contestuali, disordinati e incorporati che possiamo conoscere.

L’intelligenza artificiale ha bisogno dell’Architettura dell’informazione

Lo sa Morville, ma lo sa bene ciascun architetto dell’informazione, che l’Uomo crea confusione. Ma se già sappiamo che il Design è una conversazione sappiamo pure che

Per trovare quello che ci serve o per fare le cose, un sito web è un conversatore megliore di qualsiasi bot.

Un linguaggio naturale debole ci farà andare solo lontano. Alexa non capisce il significato o il contesto, così le nostre “conversazioni” richiedono organizzazione, progettazione dello spazio e interazione multimodale.

Un po’ di chiarezza e di realismo

Spesso chi pone dubbi sull’assistenza vocale ne parla in relazione agli assistenti vocali che ha visto al cinema o in televisione, o peggio ancora, nei fumetti.

La colonizzazione dello spazio è sempre stato un mito della cinematografia fantascientifica.  Ma chi paragona le spedizioni spaziali della NASA a quei film?

Paragonare Siri, Cortana, Alexa e tutti gli altri assistenti vocali a Jarvis di Iron Man (un fumetto), a Her o a Deus Ex Machina (film di fantascienza), sarebbe come paragonare la NASA alla flotta stellare di Star Wars, lo Space Shuttle all’ USS Enterprise (NCC-1701) del capitano Kirk di Star Trek.

Allora se vogliamo parlare e capire l’assistenza vocale, i risultati raggiunti, le opportunità e le potenzialità dello strumento, dobbiamo proprio toglierci dalla testa la letteratura, i film e i cartoni animati di fantascienza che fanno riferimento a questa tecnologia.

La realtà è che uno smartphone riesce a fare operazioni straordinarie. La realtà è che, come dice Peter Morville, i nostri telefonini, al momento, fanno quello che pensiamo ci basti. I telefonini soddisfano, oggi, i bisogni della maggior parte delle persone. Ma la realtà è anche che un dispositivo elettronico alto un palmo di mano non riuscirà a sostituire il nostro cervello. Almeno, non nel breve e medio periodo.

Pensiamo che l’assistente vocale non sia  utile perché la maggior parte delle persone ha imparato a chattare, inviare messaggi e telefonare anche mentre guida, (quasi) senza guardare. Il pollice di alcuni ragazzi e ragazze ha una velocità che sfida le leggi dell’ergonomia. Per chi guida sarebbe più logico guidare e basta, oppure usare un vivavoce. Sarebbe più sicuro e produttivo usare un assistente vocale, che seppur lontano dalla Supercar KITT, potrebbe rendere la guida sicura e aiutare comunque in molte attività. Eppure così (ancora) non avviene.

La realtà è che l’esperienza dell’assistenza vocale non è ancora soddisfacente. La realtà è che gli assistenti vocali devono essere migliorati e testati ulteriormente.

E ad Oriente? WeChat

wechat

Mentre l’occidente vive questo scetticismo diffuso, in Cina l’uso dei bot è cosa abbastanza comune. Ed è guardando a questo mercato che si investe in questo campo. Gli Stati Uniti e l’Occidente sviluppano assistenza vocale, ma non ne fanno uso.

I chatbot stanno influenzando le aziende.

Certo, a differenza dell’internet occidentale, l’Internet cinese è regolamentato e WeChat, in buona sostanza, è una piattaforma di messaggistica. I chatbots che funzionano su WeChat sono più simili ad applicazioni leggere dove è possibile prenotare un dentista o svolgere attività più complesse. Ma gli usi insoliti sono tanti.

Michael Yuan, autore del libro Chatbots: Building Intelligent Bots, spiega come i bot sono percepiti in Cina:

Se si avvia un business in Cina oggi, si creerà un wechat pubblico bot ben prima di avere un sito web.

Sorprendentemente, vi è una nuova generazione di società di contenuti finanziati VC che operano esclusivamente in wechat – non hanno nemmeno i siti web pur essendo valutati decine di milioni di dollari.

Questo non significa che i bot avranno lo stesso successo nel nostro caos occidentale. I fallimenti di Kinect della Xbox o del bot Tay della Microsoft sono notevoli e da tenere ben presenti. Quello che possiamo dire è che

I chatbots sono ancora in grado di fare un’enorme quantità di cose, da semplici conversazioni alla pianificazione e analisi dei contenuti. Il futuro è sulla buona strada!

Ma stiamo andando troppo lontano ed è bene concludere tornando a noi e all’architettura dell’informazione conversazionale.

La singolarità

Peter Morville conclude ricordando che invece della catastrofica estinzione dell’uomo sostituita dall’intelligenza artificiale si potrebbe vivere una nuova era tecnologia grazie all’architettura dell’informazione sonora. Studio del contesto, progettazione dell’esperienza, progettazione cross canale e multisensoriale.

La singolarità potrebbe essere vicina. Che ne pensi Alexa?

Insomma, il nostro futuro sta tutto nella nostra umanità, nella nostra capacità singolare di mettere l’Uomo al centro, nella nostra unicità, nella nostro essere singolare, addirittura singolare-plurale.

Essere consapevoli di questo, certamente, aiuterà ad usare meglio gli strumenti che la tecnologia ci offrirà.

Siri, Cortana, Alexa, Ok Google?

Siri,

Cortana,

Alexa,

Ok Google.

Non vi pare uno di quei giochi tipo,

trova l’intruso?

Stiamo parlando

dei quattro assistenti vocali

più importanti sul mercato.

Avete trovato l’intruso?

A me pare che l’intruso sia

Ok Google.

Una premessa: Google Home

La notizia della settimana è stata la presentazione da parte di Alphabet di Google Home durante il Made By Google. Tra i vari prodotti Google Home è pensato come un assistente personale gestito da Google Assistant, appunto, lintelligenza artificiale della casa. Nello specifico Home è uno speaker con un microfono integrato che sarà sempre in ascolto. Una sorta di Google Now più avanzato e ora concretizzato in un apparecchio che dà forma fisica e tangibilità a tutti i servizi di casa Google.

Nome proprio di persona o nome comune di cosa?

AGGIORNAMENTO Ho dedicato Dedicherò, spero prima della sua uscita sul mercato il 4 novembre, un articolo a Google Home. Nel frattempo mi preme riflettere sul nome, o meglio sul comando necessario da vocalizzare per attivare Google Home: “Ok Google”

Vi ricordate l’analisi grammaticale della scuola elementare? Una volta c’era il nome proprio di persona o il nome comune di cosa. Con gli assistenti vocali, a cui vengono dati nomi propri di persona si dovrebbe, forse creare una nuova classe grammaticale come il “nome proprio di cosa”.

Apple, Microsoft e Amazon hanno dato dei nomi propri di persona ai loro assistenti vocali. Mentre Google ha fatto una scelta diversa.

Io sono pienamente d’accordo con la scelta effettuata da Google di non dare un nome proprio a Google Assistant. E ritengo, al momento, azzardato dare un nome proprio di persona ad un assistente vocale.

Echo Plus (2ª generazione)Tessuto antracite + Philips Hue White Lampadina.

Una questione di genere

Io ci ritorno e insisto. Ma se gli assistenti vocali vengono umanizzati riflettiamo su di essi tutte le questioni etiche e di genere che viviamo. Insomma, non si tratta di un argomento neutro.

Dennis Mortensen, il CEO e co-fondatore di x.ai, che ha costruito un assistente digitale che si può programmare attraverso le mail e organizza le riunioni al vostro posto sostiene che “la prima domanda che dobbiamo porci è: abbiamo scelto di umanizzare l’assistente? Se non lo fai, si chiama Google Now. Non sto dicendo che è meglio o peggio. Se si sceglie di umanizzarlo, poi torniamo inevitabilmente a chiederci quale nome dovrebbe avere”.

Confermo, non si tratta di meglio o peggio, appunto, ma è una questione di cui essere consapevoli.

Personificazione dell’assistente vocale

Apple, Microsoft e Amazon hanno voluto personificare i loro assistenti vocali. Per azionare i rispettivi assistenti vocali si devono chiamare per nome. E il loro nome è un nome femminile.

Si tratta di un immaginario collettivo, una moda, tutta cinematografica e fumettistica.

È vero che l’intelligenza artificiale ha fatto passi da gigante. Presto molti lavori meccanici e ripetitivi saranno eseguiti dalle macchine senza l’ausilio dell’uomo.

Come più volte ho detto, l’intelligenza artificiale fa parte della nostra quotidianità senza che ce ne accorgiamo. Di tutto questo io ne sono un entusiastico sostenitore. Il processo di sviluppo è avviato e le potenze di calcolo di cui disponiamo sono molto più veloci di quelle degli anni passati.

Eppure bisogna essere onesti e realistici nelle analisi.

E la realtà è che gli assistenti vocale o le intelligenze artificiali sono ancora lontano dall’essere esseri umani. Semmai sta cambiando e migliorando l’ambiente con cui si vanno a relazionare. Ma questa è un’altra storia.

Siri, Cortana, Alexa, Ok Google. Con chi sto parlando?

Microsoft ha scelto di avere un’assistente vocale personalizzata e con un volto. Ma alla fine dei conti, gli ingegneri e gli sviluppatori, si sono posti un bel po’ di problemi.

Cortana è stata sviluppata in base a studi e analisi condotti su Siri, la diretta concorrente di casa Apple. I progettisti sono arrivati alla conclusione che Siri è troppo umana. La voce di Siri è quella di una attrice, una persona vera. E gli utenti che ne fanno uso la trattano come se parlassero ad una persona reale.

Microsoft ha deciso dunque di utilizzare una filosofia diversa e si è impegnata a rompere l’illusione che Cortana fosse una persona, uomo o donna. Non solo, le intenzioni sono quelle di spingere l’utente a pensare che Cortana è parte integrante del prodotto Microsoft.

In un senso più ampio, come indica la relazione pubblicata da Fast Company, Microsoft si è rivolta a una filosofia di design centrata sull’utente e non sull’applicazione. Microsoft ha cercato di capire l’uso che gli utenti fanno dell’assistenza vocale e perché.

Ad ogni modo si parte da ipotesi e presupposti grafico/visivi. Il direttore generale alla progettazione di Microsoft, Kat Holmes, dice

“The assumptions about computing are that our devices are one-on-one with visual interactions. The design discipline is built around those assumptions. They assume that we’re one person all the time,”

Ti presentiamo Blink Mini Videocamera di sicurezza intelligente per interni, plug-in, compatta, con video in HD a 1080p, rilevazione di movimento, compatibile con Alexa – 1 videocamera.

Come si chiama la vostra app?

Dare un nome ad una applicazioni è un qualcosa di importante. Il nome può fare la fortuna di una app. Non è detto che sia l’inizio del progetto. Anzi. Spesso e volentieri (giustamente) è l’ultima cosa che viene elaborata.

Lo vogliamo chiamare marketing? Secondo me è di più.

Da un lato, il nome di una applicazione, identifica la vostra applicazione. Chi è o cosa è? Cosa fa? Come verrà utilizzata dall’utente? Cosa vi ha portato a creare quella app? Cosa ne sarà del suo futuro?

Ma dall’altro lato identifica anche voi stessi. Cosa voi pensate della vostra app? Come volete voi che sarà utilizzata? Quale futuro volete dare, voi, all’app?

Insomma, argomento delicato e da indagare. Momento utile anche per mettere un punto alla progettazione. E soprattutto momento importante in cui ascoltare se stessi.

Chi siamo? Cosa facciamo? Dove andiamo?

AGGIORNAMENTO 16 Ottobre 2016

Questa settimana ho chiesto ai miei follower su Twitter

Che nome dareste alla vostra app? E al vostro assistente vocale? https://t.co/KC5plzzoM3

— Toni Fontana (@toni_fontana) 14 ottobre 2016

Ed ho avuto due belle risposte esplicative. JeegRobot d’acciaio® @KotetsuJeegu mi ha risposto che la chiamerebbe Franca.

Voleva essere ironico. Ma oltre all’ironia il nome Franca ci dice molte cose sull’applicazione e assistenza vocale come di chi ha deciso il nome. Cosa vi dice?
Personalmente mi dice che si tratta di una applicazione o una assistenza vocale schietta, sincera e leale.

Claudio Chianura si unisce al dialogo e dice che chiamerebbe la propria app o il proprio assistente vocale: Drugo.

La prima cosa che mi viene in mente è il personaggio de Il grande Lebowski e penso ad una applicazione che vivacchia senza troppi problemi.
E Claudio aggiunge … e sopravvive flemmaticamente alla furia insensata dei tempi moderni.

Potreste continuare nei commenti con il nome della vostra app e il significato che date.

Aggiornamento 6 febbraio 2017

Mi erano sfuggite le 5 lezioni di Anna Maria Testa che sul suo blog si è occupata dell’argomento.

Penso che meritano la nostra attenzione.

Idee 111. Nominare, cioè possedere. Forse
Idee 112. Dare un nome. Cioè creare, quasi
Idee 113. Inventare un buon nome per un prodotto
Idee 114. Se il nome non basta: pseudonimi e altri slittamenti di identità
Idee 115. Se il nome non basta. Soprannomi e altri accessori identitari

Lettura e ascolto

Lettura e ascolto mi paiono essere due facce della stessa medaglia. Se da un lato c’è la scrittura e il parlato, dall’altro c’è la lettura e l’ascolto. Da un lato c’è la produzione di un testo e di un testo orale e dall’altro lato c’è la ricezione di un testo e di un testo parlato. Quando leggiamo in fondo non facciamo altro che ascoltare quello che qualcun altro vuole dirci.

Si usano due canali ricettivi diversi, ma il fine ultimo, quello della comprensione, è uguale.

Linguaggio, lettura e comprensione del testo

Sara Menini, Psico-Neurologa, in un capitolo in cui si occupa di “Linguaggio, lettura e comprensione del testo” scrive.

La relazione esistente tra linguaggio orale e linguaggio scritto è molto stretta, anche se esistono alcune differenze sia relative alle caratteristiche del materiale scritto nei confronti di quello orale sia ai processi attivati nei due casi. Senza entrare nel dettaglio vengono citate alcune delle differenze esistenti:

il linguaggio orale può avvalersi, per la sua comprensione, della prosodia che manca invece nel linguaggio scritto;

nel linguaggio parlato il contesto è comune a chi parla e chi ascolta e questo può facilitare la comprensione del messaggio;

la sintassi dello scritto è più complicata di quella del linguaggio parlato, perché contiene più frasi subordinate e correlate.

Una corsa continua di Luisa Carrada

Luisa Carrada (donna che non si ringrazia mai abbastanza per la sua generosità sul web e durante le sue lezioni) sul suo blog dedica molti post alla lettura, almeno quanto alla scrittura di cui è esperta. Ed in uno dei suo post parla di come le neuroscienze abbiano studiato il fenomeno della lettura.

La mente che legge lo fa con accelerazioni e decelerazioni continue, di cui non ci rendiamo conto. Gli occhi saltano da un gruppo di parole a un altro, si fermano, riprendono. Gli occhi vedono, ma è il cervello che legge, interpreta, connette, ricorda: prima riconosce le singole parole, poi le individua alla luce delle parole che precedono e seguono (così capisce se la pesca riguarda i pesci o è un frutto), poi le connette tra loro per dare senso al messaggio, infine le connette al vissuto, alle letture, alle conoscenze della persona.

La velocità di queste operazioni – e quindi la fluidità e l’agio della lettura – dipendono in gran parte dalle scelte dell’autore. Ma c’è una cosa che le sottende tutte: la mente che legge è come un indovino al lavoro, non fa altro che fare ipotesi su quello che viene dopo, verificarle, procedere oltre, fare un’altra ipotesi, verificarla, andare avanti. Più quello che segue conferma ipotesi e aspettative, più si corre veloci, fluidi, soddisfatti. Solo che di solito non ce ne accorgiamo. Ci accorgiamo benissimo, invece, quando la lettura è faticosa.

Un’arte divinatoria

“Mentre gli occhi scorrono sulla pagina, il cervello è tutto intento a fare previsioni sul contenuto del documento, così come sul contenuto del paragrafo, persino sulla fine della frase.”

Non leggiamo, insomma, prevediamo quello che gli altri ci vogliono dire. E prevediamo bene se chi scrive è capace di guidarci in un percorso di comprensione. Perché se prevediamo bene, capiamo meglio.

Tiriamo ad indovinare?

Sulla parola divinatoria a me è venuto in mente quel giochino delle lettere mischiate che leggiamo senza troppi problemi che circola periodicamente sui social. Si tratta di un ever green.

Sceodno una rcircea dlel’Uvitrisenà di Cmbairgde non ipromta l’odirne dlele lrteete in una proala, l’uicna csoa che cntoa è che la pimra e l’utlmia ltetrea saino al psoto gusito. Ttute le atlre lrteete dlela poalra psonoso esrsee itinvtere snzea carere prleobmi alla letutra.

Qstueo acdcae pcherè la mtene non lgege ongi lteetra senigolnarmte ma la proala cmoe un ientro qudini il clrveelo è cnouqmue in gdrao di assblemare le lterete e ietprntarere la ploara crottrea.

Senza fare neanche tante verifiche, non c’è nessuna ricerca della Cambridge University a riguardo e ce lo dice chi lavora presso la Cognition and Brain Sciences Unit della prestigiosa università, che si occupa di queste cose.

Anzi! Da Cambridge ci dicono che

Ci sono elementi di verità in questa frase, ma ci sono anche alcune cose che gli scienziati che studiano la psicologia del linguaggio (psicolinguisti) sanno essere scorrette.

Ossia che grazie alla predittività riusciamo a capire questo testo. Ma perché è davvero semplice da leggere e non contiene frasi complesse. Testi più complessi che adottassero questa pratica potrebbero portarci all’incomprensione del testo.

Abbiamo dunque sempre bisogno di una via da seguire. Eppure questo andare avanti della mente pare essere una abitudine del nostro cervello. Nella lettura verifichiamo cosa ci aspetta dopo. Nell’ascolto, mentre l’altro parla, pensiamo già a cosa rispondere, a cosa aggiungere. Interrompiamo l’altro, tanto più che l’Italiano lo permette. E non ascoltiamo veramente l’altro. In realtà ascoltiamo solo noi stessi.

Non ascoltiamo

Per esempio, quando veniamo presentati ad un gruppo di persone, spesso dimentichiamo i nomi di chi ci viene presentato, proprio perché non ascoltiamo. Siamo rivolti verso noi stessi. Pensiamo a dire bene il nostro nome; pensiamo a come gli altri ci stanno giudicando; pensiamo a come gli altri ci stanno stringendo la mano. E via di seguito… Ci sarà un post a riguardo.

Non ascoltare permette al cervello di funzionare perfettamente e per inerzia. Tante sono le sue attività che la sua tattica si rivolge a fare il minimo possibile, il minimo sforzo, a dimenticare il più possibile.

Luca Rosati ce lo ricorda

L’interazione delle persone con l’informazione tende all’inerzia. Non è una questione di pigrizia, ma la conseguenza di un principio di funzionamento del nostro cervello: il principio del minimo sforzo (least effort principle).

è il modo più semplice.

Ascoltare che fatica!

Per questo leggere, così come, ascoltare, intesa come azione attiva è una fatica.

La lettura, sebbene a prima vista possa sembrare un’attività automatica, è costituita da diverse sottocomponenti che la rendono un’abilità molto complessa. Secondo la ricerca psicologica, la comprensione della lettura si compone di due ordini di processi:

il primo è percettivo e riguarda la corretta identificazione e decodifica delle lettere che compongono le parole e le frasi;

il secondo, di livello più elevato, riguarda la costruzione di una rappresentazione mentale del significato del testo, a partire dalla decodifica svolta dal primo processo.

La nostra mente pensante, deve bloccare il flusso divinatorio, l’inerzia e seguire con cognizione di causa i processi che ci ricorda la Menini.

Ascoltare per progettare

La nostra mente dovrebbe cominciare ad ascoltare veramente quello che dice l’altro. Per ascoltare, veramente, l’altro, bisogna esercitarsi, essere educati a la pratica dell’ascolto, mettere da parte le proprie domande, i propri problemi, i propri bisogni (anche fisiologici, a volte), sospendere il giudizio. Porsi davanti all’altro o accanto all’altro significa aprirsi e instaurare un rapporto di fiducia. E’ quando ci si ascolto a vicenda che si dicono le più profonde verità. E’ quando sappiamo di essere ascoltati veramente che riveliamo il nostro io più profondo.

Progettare insieme richiede una apertura tale da mettere da parte pregiudizi e costumi. Non è da tutti. La progettazione è dialogo, è ascolto. Perché in fondo Il design è una conversazione.