Archivi tag: computer interaction

Intervista a Simone Borsci

Questa settimana intervista a Simone Borsci, ricercatore, assistant professor presso l’Università di Twente, regione nell’est dei Paesi Bassi, la parte più orientale e urbanizzata.

Simone Borsci è un professore ma è anche un ricercatore puro. Non è facile trovare notizie su di lui senza andare a leggere le numerose ricerche che ha condotto.

Se si vuole indagare sulla sua carriera accademica e lavorativa è necessario visitare la pagina dell’Università a lui dedicata.

Qui facciamo solo una piccola sintesi, per quanto possibile.

Interessi e campi di ricerca di Simone Borsci

Simone Borsci si occupa di Prototyping, Information Technology, Cognitive Development, Usability, User Experience, User Studies, Interaction Designing, Design Thinking, Rapid Prototyping.

I campi di ricerca sono

i Fattori umani ed ergonomia; HCI / HRI, interazione con tecnologia e artefatti, studi di usabilità e accessibilità, analisi dell’esperienza utente in contesti informatici ubiquitari, modellazione del comportamento umano, servizi per la salute e la disabilità e design del prodotto, abbinamento di persone e tecnologia, ricerca qualitativa e quantitativa della psicologia applicata utilizzando multivariato e tecniche statistiche predittive.

Le sue esperienze lavorati e le sue competenze riguardano il mondo dell’User experience in progetti innovativi e all’avanguardia. Ha lavorato e continua a lavorare in progetti interdisciplinari con particolare attenzione, per la sua parte, all’usabilità, UX e fattori umani, sia in ambito accademico che industriale.

Ricerca e insegnamento

Dal 2008 fa ricerca e insegna presso alcune delle migliori università europee.

Insegnante di psicologia dell’apprendimento e della disabilità, presso l’Università degli Studi di Perugia. Ricercatore presso Human Factors Research Group dell’Università di Nottingham, per il progetto Live Augmented Reality Training Environments (LARTE) con Jaguar Land Rover. Ricercatore presso la Brunel University dove ho svolto ricerche su diversi argomenti come le tecnologie dei dispositivi medici e le prospettive degli utenti. Dal 2015 al 2018 Fellow e co-lead dell’unità Human Factor del NIHR DEC London presso il dipartimento di chirurgia e cancro dell’Imperial College. E come dicevamo all’inizio adesso è professore presso l’unuiversità Belga.

Simone Borsci ha una vasta esperienza nella progettazione di studi etnografici, test a distanza e in-house / di laboratorio e nella progettazione e utilizzo di questionari di indagine, pensiero ad alta voce, focus group e interviste.

Attualmente si occupa di

  • integrazione dei fattori umani e dell’economia sanitaria per la valutazione e lo sviluppo di dispositivi medici;
  • il concetto di fiducia nell’uso;
  • metodi di valutazione dell’usabilità e della UX per VR / AR e strumenti medici;
  • interazione uomo robot ;
  • interazione con interfacce conversazionali e chatbot.

Passione per il proprio lavoro

Ma forse per capire la passione per l’insegnamento e il metodo di lavoro di Simone Borsci è necessario leggere un suo recente post (ottobre 2020) che ho trovato sulla sua bacheca social.

Ogni anno in questo periodo prendo tutti i contenuti delle mie lezioni. Seleziono circa il 20% che non posso o non voglio cambiare, butto via tutto il resto e ricomincio da capo. Ogni anno è più difficile…ed è faticoso non cadere negli schemi già utilizzati. Ma questo mi obbliga sempre a cercare un modo nuovo o diverso, non sempre migliore, per dire le stesse cose.

Intervista a Simone Borsci

Simone non ne parla, ma tra le altre cose ha scritto un libro insieme a Masaaki Kurosu, Stefano Federici e Maria Laura Mele. Un libro introvabile di cui consiglio il formato Kindle. Computer Systems Experiences of Users with and Without Disabilities: An Evaluation Guide for Professionals (Rehabilitation Science in Practice Series) (English Edition).

In questa intervista apre a scenari di ricerca davvero affascinanti. E questa intervista è un po’ come uno dei miei primi summit di Architecta, quando mi sono sentito un po’ sovrastato dall’immensità delle cose da studiare.

Di cosa ti stai occupando in questo periodo?

Da circa un paio di anni mi sto occupando sempre di più di intelligenza artificiale e società ibride per intendersi quelle in cui persone e AI collaborano nelle decisioni.

Tutto il mio lavoro, se vogliamo riassumerlo attorno ad un punto focale, è centrato su un tema: come valutiamo l’interazione (con qualsiasi cosa dell’artefatto al sistema complesso) sia a livello micro (individuale) che a livello di macro (sociale) in modo da avere misure che ,al di là di oggettivo e soggettivo, siano affidabili, comparabili e replicabili in modo da permettere a chi sviluppa per esempio un servizio di avere evidenze empiriche riguardo le ripercussioni e l’impatto di quel servizio su chi lo utilizza, ma anche su chi lo amministra (insomma i famosi stakeholders).

Fra le altre cose ho lavorato e sto lavorando molto sui Chatbot  e come valutarli, anche grazie all’aiuto degli amici di userbot.ai, ma anche sulla realtà virtuale e aumentata. Mi ci è voluto un po’ ma ora abbiamo un moderno sistema di simulazione di guida nel mio laboratorio, che per il resto era già veramente avanzato. Il prossimo passo è avere una CAVE di realtà virtuale, per simulare il virtuale nello spazio fisico.

Inoltre sto cercando di indagare dal punto di vista cognitivo il concetto di distrust (che non è esattamente l’opposto di fiducia) verso le tecnologie.

Quale parte del tuo lavoro ti piace e ti diverte maggiormente?

Confrontarmi con le persone, dagli utenti di qualsiasi età, ai designers, dal fisico teorico al medico di base ed essere continuamente esposto a sistemi e concetti complessi, a problematiche reali e a soluzioni innovative, questo per me equivale a non annoiarsi mai. Non puoi neanche immaginare i lavori a cui ho detto no, anche allettanti, perché sapevo già che mi sarei annoiato.!

Inoltre, ho il piacere di insegnare che è un compito essenziale di chi fa ricerca, formare e far crescere nuovi esperti, questo mi mantiene giovane e mi permette sempre di riscoprire concetti e approcci che magari avevo letto o studiato in passato ma a cui non avevo dato peso, o di cui non avevo colto l’importanza. Dovendo insegnare secondo me riscopri le basi, e se sei fortunato anche nuovi temi da investigare.   

Quali sono i tuoi strumenti di lavoro quotidiani?

Per fare ricerca nel mio campo, quello dell’ergonomia cognitiva, servono tre strumenti essenziali: Conoscere i metodi, avere immaginazione e tanta resilienza al fallimento. Credo che questo valga per chiunque faccia ricerca. Per il resto dal punto di vista tecnologico, certamente servono conoscenze degli strumenti di statistica e di programmazione. Infatti, oggi nel campo della psicologia applicata serve collaborare con ingegneri ed esperti informatici e saper programmare un codice in diversi linguaggi è una capacità importante, soprattutto se si vuole fare ricerca con tecnologie avanzate e comprenderne il potenziale impatto.   

Ti sei occupato di chatbot rivolti a persone disabili. Da quanto ho letto i risultati non sono stati entusiasmanti.

Si, purtroppo, quando si parla di chatbots ed in generale di AI c’è tanto sapere tecnologico e pochissima metodologia di ricerca e questo è un problema. Infatti, non esistono ancora (ci stiamo lavorando) modi per comparare e valutare l’interazione con AI, dai robots ai chatbots.  

Ci puoi raccontare questa ricerca?

La ricerca che abbiamo condotto è stata una analisi sistematica della letteratura che ha rilevato come, anche in campo medico riabilitativo, il criterio principale di valutazione della qualità di un chatbot sia principalmente centrato sul misurare quanto quello strumento sia efficace a far migliorare un paziente, senza considerare per esempio, se a livello di esperienza utente il chabot sia soddisfacente o comunque lasciando fuori aspetti importanti o peggio misurandoli in termini di opinione invece che tramite misurazioni valide.

Questo  suggerisce che, esistono molti strumenti chatbots o assistenti digitali basati o meno su AI che sono ottimizzati per aiutare un paziente a riabilitarsi o una persona con disabilità a sviluppare una competenza, ma il come questo avvenga da un punto di vista qualitativo non è dato saperlo, ne sappiamo se uno dato tool è migliore di un altro, perché quando i sistemi vengono valutati in modo estremamente soggettivo o con metodologie non validate diventa difficile effettuare analisi comparative.

Pensi che con l’avvento dei chatbot siano tempi duri per l’usabilità. 

No, anzi il contrario. L’intelligenza artificiale ha bisogno di usabilità, forse anche di più che di fiducia. Uno dei temi dell’AI a livello internazionale è appunto come assicurare la trust (fiducia) verso i sistemi e la trustwortiness (la capacità di ispirare fiducia), che sono concetti bellissimi, ma purtroppo vuoti, perché il come misuriamo la fiducia ,quando parliamo di tecnologie e soprattutto tecnologie intelligenti, è un’incognita.

Quello che sappiamo è che l’usabilità è una componete della fiducia verso le tecnologie, ma questo è solo uno degli aspetti (diciamo il lato umano) della relazione con le AI, poi c’è tutto il lato come disegniamo le AI per ispirare fiducia (senza scadere nella persuasione e nei dark patterns) e poi c’è il lato oltre lo specchio: come rendiamo consapevole una AI che non sta ispirando fiducia, in modo che adatti o cambi il suo comportamento in base ai contesti e alle reazioni degli utenti?

Tutto questo è fortemente legato all’usabilità e all’interazione fra uomo ed artefatti, per cui ci sarà bisogno di allargare le definizioni di usabilità, accessibilità ed user experience, e di costruire con il tempo metodi nuovi per valutare l’innovazione. 

Cosa pensi si stia trascurando nello sviluppo dei chatbot.

Qui la risposta è semplice, la valutazione sistematica sia a livello oggettivo che soggettivo, proprio perché mancano gli strumenti per farlo e spesso non ci si pone il problema di utilizzare metodologie trasparenti, valide e comparabili. Questo è un serio problema, perché è solo tramite la standardizzazione dei metodi di valutazione e quindi la possibilità di comparare i prodotti fra di loro, in termini di funzionalità, usabilità, accessibilità ed esperienza utente in maniera affidabile ed accurata che si riesce a far crescere un settore ,offrendo cioè la possibilità di “misurarsi” con gli altri servizi o prodotti e comprendere cosa funziona e cosa no.

Dall’analisi dell’esperienza utente di VR, realtà aumentata e applicazioni mobili in contesti informatici ubiquitari, ai chatbot.

Qual è il filo conduttore per il tuo lavoro?

Il filo conduttore è lo scambio con i sistemi e dentro i sistemi. Quale impatto hanno i sistemi su di noi dal punto di vista psicologico? Quale è l’impatto dei sistemi sulla società? Come ottimizziamo i sistemi per renderli resilienti?

Un esempio che magari chiarisce di cosa sto parlando è il da Vinci Robot per operazioni chirurgiche, in un recente articolo[1] viene sottolineato come questo strumento sia diventato negli anni una tecnologia sempre più affidabile e precisa dal punto di vista tecnico, ma che la vera differenza nel migliorare le prestazioni chirurgiche con questo strumento è dovuta alla capacità acquisita nel tempo dai chirurghi e dallo staff medico di anticipare i limiti dello strumento ed evitare possibili malfunzionamenti. E’ questa intersezione fra uomo e macchina che è al centro del mio interesse.     

[1] Rajih, E., Tholomier, C., Cormier, B., Samouëlian, V., Warkus, T., Liberman, M., … & Valdivieso, R. (2017). Error reporting from the da Vinci surgical system in robotic surgery: A Canadian multispecialty experience at a single academic centre. Canadian Urological Association Journal11(5), E197.

Ti sei sempre occupato dell’avanguardia dell’user experience e di temi diciamo di nicchia. Come ti vedono i colleghi?

Spero bene, certo non è sempre facile comprendersi quando si è in mezzo a differenti comunità da quella psicologica, a quella dell’interazione utente tecnologia ed ergonomica a quella medica, per cui faccio spesso enormi sforzi per farmi comprendere e per comprendere terminologie che sono simili ma con significati e sfumature diverse a seconda dell’interlocutore e del suo campo. Anche pubblicare i risultati diventa spesso un esercizio complesso, quando si è in mezzo a diverse comunità e ci si occupa di temi che sono nuovi, o poco conosciuti in una specifica disciplina ma con un po’ di sforzo ci si riesce.   

Se senti il peso della solitudine oppure prevale la curiosità su temi tutti da esplorare. (ovviamente penso anche alle differenze tra Italia e Inghilterra e al mondo dell’accademia che è completamente diverso)

Non sento il peso della solitudine, certo dopo tanti anni all’estero prima nel Regno Unito ed ora nei Paesi Bassi, l’Italia e le sue bellezze mancano, un po’ meno le sue sicure incertezze a livello di società; ma dal punto di vista lavorativo ho costruito negli anni un solido network di amici e colleghi con cui interagisco costantemente e con cui porto avanti temi sempre interessanti, potendo permettermi di vedere innovazioni e idee sempre molto avanzate.

Quali sono i temi caldi del prossimo futuro a cui pensi bisogna stare attenti?

Sicuramente l’integrazione dell’AI nelle nostre società, che non è solo un tema tecnologico ma anche e soprattutto sociale, quale sarà l’impatto a livello individuale e collettivo non è solo un tema legato alla qualità delle tecnologie ma anche al quadro normativo che si sta già costruendo a livello Europeo.

Inoltre, la diffusione sempre più massiccia di realtà aumentata e strumenti di realtà virtuale al grande pubblico, che può avere effetti molto positivi ma anche negativi sulla psiche e che devono essere anticipati e mitigati. In questo contesto è necessario cominciare a parlare di design responsabile, nel senso che cerca di anticipare e mitigare a priori gli effetti negativi di una tecnologia.

E per finire le ultime 3 domande più leggere.

Consiglia un libro

Donald Hoffman: The Case Against Reality: Why evolution hid the truth from our eyes.

Consiglia un brano musicale o un cd

il testamento di Tito (De André ovviamente nella versione PFM).

Consiglia un film

Memento di Christopher Nolan.

Simone Borsci al WUD Roma 2020

Per chi vuole conoscere meglio Simone Borsci è possibile seguire i suoi interventi al WUD Roma 2020.

Il primo sarà un caso di studio su Dark patterns e dispositivi medicali. Mentre il secondo intervento di Simone Borsci sarà un Keynote con Katy Arnold, Head of User Research, The Home Office Gov UK su Inclusione: oltre i miti e le leggende.

Dark patterns e dispositivi medicali

I professionisti suggeriscono che la fiducia verso i sistemi (TTS) potrebbe essere modellata dalla progettazione. Per esempio: un prodotto che appare (anche prima dell’uso) utilizzabile e utile dovrebbe generare un alto livello di TTS post-utilizzo;
prodotti esteticamente gradevoli possono influenzare le persone prima dell’uso della sintesi vocale, ovvero le persone tendono a fidarsi del prodotto dal design estetico più che del prodotto meno piacevole. I produttori possono progettare la fiducia come parte dell’esperienza con un prodotto anche prima che gli utenti finali inizino a utilizzare la loro tecnologia o servizio comunicando strategicamente e rendendo visibili e riconoscibili alcune caratteristiche o elementi del design rispetto ad altre (meno attraenti) caratteristiche.


Come conseguenza delle tecniche di progettazione e comunicazione, gli utenti possono essere attratti dall’acquisto di un prodotto prima del suo utilizzo perché ritengono che il sistema sia ben progettato, affidabile e dotato di funzionalità in linea con le loro esigenze, anche quando questo sistema non è affidabile .
Questo lato oscuro della fiducia sarà al centro di questo discorso. Basandosi sugli studi attuali sulla fiducia, verrà proposta una definizione di TTS per colmare il concetto di fiducia ed esperienza. Inoltre, saranno presentati i dati preliminari di uno studio internazionale in corso sulla fiducia nei confronti dei dispositivi sanitari per uso domestico per evidenziare l’importanza della fiducia prima dell’uso di strumenti ad alto rischio selezionati e gestiti da utenti laici.

Ti potrebbero interessare

Tutte le altre interviste condotte dal blog.

Apple CarPlay e Android Auto

Apple CarPlay e Android Auto

sono i nuovi sistemi di CAR ENTERTAINMENT

che si trovano nelle auto di ultima generazione.

Quello che un tempo era l’autoradio, che stava in un DIN,

adesso ha il doppio dello spazio (sistema 2DIN).

Ed è un piccolo hardware che accompagna gli autisti del nuovo mondo.

Sul doppio DIN si installa un sistema operativo.

Aggiornamento 2020

Oltre ai sistemi Apple CarPlay e Android Auto, i due sistemi operativi da cui è partito questo articolo nel 2015, oggi si aggiunge il sistema Amazon di Echo Auto con assistenza vocale Alexa.

Aggiornamento Giugno 2019

iOs 13 il nuovo sistema operativo di Apple

Con questo aggiornamento Carplay subirà una rivoluzione per cui, le osservazioni e conclusioni fatte fino a marzo 2019 sono da prendere con le pinze.

Sarà mia cura aggiornare questa pagina al più presto e offrire il miglior servizio disponibile. Confido nella vostra comprensione per eventuali errori e ritardi. E se volete dare una mano, i commenti sono aperti al vostro contributo.

Siri

Apple ha svelato la nuova versione del proprio sistema operativo mobile iOs 13. Un sistema operativo pensato appositamente per un’esperienza completa con gli iPad più recenti.

Tra le novità principali sul lato audio

Siri aggiorna la propria voce che dovrebbe essere ancor più naturale e più piacevole da ascoltare. Si avvarrà dell’ausilio dell’intelligenza artificiale.

Dal lato musicale supporterà le app di navigazione e musicali di terze parti e proporrà notifiche e consigli.

Il sistema sarà rilasciato a Settembre e l’assistente vocale potrà creare scorciatoie, condividere contenuti come canzoni o film e potrà integrarsi in modo più profondo con gli auricolari AirPods e Safari.

Carplay

Con il nuovo iOs 13 migliora appunto CarPlay.

Nell’home pagesaranno più disponibili più informazioni, l’applicazione dedicata alla musica sarà del tutto nuova e Siri lavorerà con Waze e con Pandora, ed occuperò meno spazio sullo schermo.

Siri e CarPlay saranno infatti integrati in modo che l’assistente vocale apple potrà effettuare suggerimenti durante la navigazione online, leggere i messaggi arrivati mentre si guida e aprire automaticamente il garage quando ci si avvicina a casa.

MotoriOnline si concentra sull’interfaccia spiegando che

  • si potranno aprire più app contemporaneamente.
  • avviare la funzione ‘non disturbare’.
  • Novità estetiche nell’ Homepage con gli angoli arrotondati.
  • Nuove visualizzazioni delle tabelle
  • Barra di stato ridisegnata.
  • Sarà possibile vedere le copertine degli album

Sinora, quando si utilizzava Apple CarPlay, era impossibile anche usare manualmente l’iPhone collegato, in quanto ogni app utilizzata sullo smartphone, veniva aperta automaticamente anche sul display dell’auto. Così venivano, ad esempio, tolte le mappe o la navigazione di chi stava guidando. Con la versione di iOS 13 non sarà più così, in quanto non ci sarà l’apertura automatica delle app dal telefono a CarPlay.

Aggiornamento Marzo 2019

Le aziende dei supporti hardware 2DIN inizialmente erano solo due. Kenwood e Pioneer. Oggi il mercato che si è allargato a dismisura. Anche aziende per lo più sconosciute ma comunque di alta qualità si sono lanciate. E sul mercato si trova di tutto. Basta fare una ricerca su internet e si trova un elenco abbondante.

Per i produttori di hardware, oggi, la vera guerra si combatte sulla possibilità o meno di permettere l’installazione di un sistema iOS o Android.

Apple Carplay

Carplay è la piattaforma di Apple dedicata all’uso dell’iPhone e all’intrattenimento in auto. E dalla presentazione ufficiale si mette subito in competizione con i navigatori satellitari.

Apple CarPlay è Il tuo copilota preferito.

È un modo più intelligente e più sicuro di usare il tuo iPhone al volante: si chiama CarPlay, e lo trovi su molti nuovi modelli di auto. CarPlay porta sul display della tua macchina le funzioni dell’iPhone che ti servono di più. Fatti dare indicazioni (mappe), telefona, invia e ricevi messaggi, ascolta la tua musica: sempre restando concentrato sulla strada. Connetti l’iPhone, e vai.

Apple è stata la prima a portare in produzione questo sistema di intrattenimento sulle auto. Anche se su una Ferrari. Per chi possiede un Apple iPhone 5S 16GB o un modello superiore come l’Apple iPhone 7 Smartphone 4G è la soluzione ideale per poter utilizzare le app di intrattenimento in macchina e aver garantita la sicurezza alla guida.

La Sicurezza, infatti, pare sia l’obiettivo principale a cui Apple non voglia, al momento, rinunciare. Infatti, non appena si collega lo smartphone al sistema, la maggior parte delle app e delle funzionalità dell’iphone vengono disattivate in automatico. In questo modo è impossibile distrarsi mentre si guida.

Per CarPlay sul mercato online si trovano il doppio DIN Pioneer SPH-DA120 Autoradio e il Sony XAV-AX100 SintoMonitor 2DIN, display da 6,4″ Touch Screen.

Acquista Sony XAV-AX100 | Modello No Dab | SintoMonitor 2DIN Senza Lettore Dvd, Display da 6.4” Touch Screen, AndroidAuto e Apple CarPlay, Bluetooth, 4 x 55W, USB (iPhone/iPod)

Siri, il punto di forza di Carplay

Uno dei punti di forza di Carplay è l’interfaccia vocale degli iPhone. Stiamo parlando di Siri, che attraverso l’uso di un microfono permette l’uso del telefono.

Siri, per chi non lo sapesse, è l’interfaccia sonora del mobile Apple. Siri ha una voce femminile e parla in modo colloquiale con l’utente Apple. Nell’immaginario americano Siri è una donna bionda, con meno di 30 anni. Siri risponde a molte domande, esegue comandi come leggere la posta, messaggi, o ancor meglio, ricercare musica sull’ Apple Music. Tra non molto, quando la tecnologia delle auto le renderà completamente autonome, pare entro 5 anni, sarà possibile chiedere anche di essere riportati a casa. Siri, in pratica, sta generando una user experience rivoluzionaria nel mondo dell’interazione (interfaccia) uomo macchina.

Siri è parte integrante del programma CarPlay. In pieno accordo con le direttive Apple, permette di non distogliere lo sguardo dalla strada e le mani dal volante.

CarPlay Apps

Le app vincenti sono principalmente quelle legate alla musica: Deezer, Spotify e TuneIn Radio, per esempio, per ascoltare musica e radio. E non c’è da sbizzarrirsi troppo. Sono solo 8 le applicazioni disponibili sul cruscotto e tra queste c’è la possibilità di ascoltare audio-libri.

Altro grande pregio, come tutti i prodotti Apple, Carplay non ha bisogno di alcuna configurazione. E quindi è di facile uso per qualunque utente.

CarPlay prevede l’utilizzo di un monitor touchscreen, multitouch e un processore che permette una gestione fluida nella grafica e nel feedback.

Come funziona Carplay

Guarda il video dimostrativo di Apple CarPlay del 2016.

Carplay: margini di miglioramento

Date le restrizioni per la sicurezza e le politiche strutturali di Apple i margini di miglioramento sembrano essere tanti.

Intanto l’ossessione alla sicurezza sta fortemente limitando la produzione di applicazioni dedicate. Come dicevamo molte funzioni dell’iPhone si disattivano. Se da un lato questa politica può essere condivisibile, alcune mancanze dall’altro lato sono abbastanza rilevanti. Ci si augura che alcune apps saranno potenziate e migliorate.

  • Bluetooth: Il CarPlay funziona quando l’iPhone è connesso alla sorgente tramite cavetto (sigh!). Questo è l’unico modo per scambiare dati e ricaricarsi.
  • Le mappe: se da un lato Siri è molto piacevole da ascoltare le mappe Apple pare non offrano le opportunità di Google Maps. Google Maps è meno piacevole da ascoltare ma è più dettagliata; e con più notizie anche sui servizi a disposizione sul territorio.
  • Connessione: va benissimo che le Apps dei social non siano contemplate, eventuali notifiche potrebbero essere pericolose. Ma manca anche Whatsapp e sta volta non per ragioni di sicurezza ma in favore, ovviamente, di iMessage.
  • Meteo: non c’è un app per il meteo. Per chi viaggia o si mette in auto potrebbe essere utile sapere il meteo della località in cui ci si sta dirigendo.
  • Consumo dati: usare CarPlay significa usare la connessione del proprio iPhone e ovviamente la connessione dati del proprio cellulare. Il consumo è ottimizzato ma non del tutto nullo.
  • Sistema dipendente: per chi fa parte del mondo Apple non è certo un problema avere a disposizione il dispositivo di ultima generazione targato Apple. CarPlay, infatti, funziona con iPhone5 o superiori. Un limite è che, affinché CarPlay funzioni davvero, l’iPhone deve essere sempre a portata di mano. Se si dovesse dimenticare il cellulare o se ci si dovesse trovare senza, CarPlay non funziona.

E se hai già una macchina? Pioneer

Pioneer, come già indicato, offre tutta una serie di sistemi doppio DIN dedicata all’adattamento della tua vecchia auto al nuovo sistema Carplay o Android auto. A seconda dello smartphone che hai. Nella serie Avic si trova il Pioneer, Avic-F80Dab, che è anche autoradio. Oppure il modello superiore Pioneer AVIC-F960DAB con antifurto.

Android Auto

Molto diversa è la politica di Google Android Auto che non pone tanti limiti o particolari restrizioni sull’uso di terze parti. Anzi. A mio parere, le estreme possibilità di libertà su questo sistema potrebbero mettere a rischio la sicurezza della guida. E pare strano che non si trovi una via di mezzo. Ad ogni modo. Qualche limite c’è. E i limiti presenti vengono automaticamente sbloccati quando la macchina viene parcheggiata.

Limiti di Android Auto

Con il sistema Google Android Auto, infatti, i limiti sono l’uso di Google Lollipop, che è la versione mobile di Google non ancora tanto diffusa. Per il resto si possono utilizzare tutte le possibilità offerte dalle aziende produttrici dell’hardware, sia del 2DIN, sia dello smartphone.

Anche per Android Auto ci sono poche app a disposizione ma si aspettano gli sviluppatori che potranno sbizzarrirsi.

Possibilità di Android Auto

Con Android Auto, dove l’hardware lo permette, si potrà far uso di cd, chiavette usb o hard disk. Le schede sd o microsd si possono utilizzare per caricare mappe per il navigatore o per la visione di video o immagini. Le plance doppio din Android supportano file audio .mp3, .wav, .ogg, .wma, .flac ma anche video come .avi, .divX, e immagini .jpeg.

Ci si interfaccia tramite Google Now. Si può far uso di WhatsApp, Skype, Google Play Music, Spotify, e lettori podcast, e manco a dirlo, si può gestire l’autoradio FM/AM e, dove ancora l’hardware lo permette, ascoltare radio satellitari.

Il telefonino anche se connesso al sistema resterà comunque libero, e se non ci si connette volontariamente ad internet non si ha consumo di dati.

Più connettori e sensori possiederanno gli hardware e le auto, più possibilità di connessione si potranno avere con la propria auto. Telecamere dedicate, controllo del motore e pneumatici, consumi e tutta la diagnostica di bordo e quant’altro potesse essere di nostro interesse. Insomma chi più ne ha più ne metta.

2DIN con Android: facciamo chiarezza

Daniele Favilla, Fondatore del progetto Web Car Stereo Center e 2DIN Blog, che ringrazio per il tempo che mi ha dedicato, mi ha scritto. Daniele mi segnala di non far confusione tra Google Android Auto e funzionamento 2DIN con Android. E mi scrive.

Google Android Auto ha un funzionamento del tutto simile a CarPlay ma con il vantaggio che i licenziatari che hanno la possibilità di sviluppare Apps sono molti di più. Anche il comparto Music di Android Auto offre un controllo simile alla gestione di un iPod ed ha un collegamento preferenziale con Google Play. Anche su Android Auto il telefono viene bloccato ma le notifiche sono attive, cosa che CarPlay non ha per le app non incluse. Su una cosa hai però ragione. Utilizzare Android Auto dipende dall’hardware esterno, dallo smartphone. Pur essendo diffuso è legato a Lollipop non tutti i dispositivi compatibili sono in grado di avviarlo correttamente. Qui entra in gioco la Ram ed il processore del telefono. In tutte le prove che ho fatto, solo sistemi “realmente” top di gamma sono stati in grado di avviare Android Auto.

Margini di miglioramento Google Android Auto

Insomma, pare di capire, che anche qui ci sono ampi margini di miglioramento.

  • Bluetooth: per tutti i sistemi è necessario connettersi con il cavetto, almeno qui si tratta di un cavetto micro usb.
  • Velocità: al sistema manca  la fluidità del sistema, che rispetto ad Apple CarPlay pare incepparsi e procedere a scatti e con un certo ritardo.
  • Assistenza vocale: la voce metallica di Google Now, alla lunga, potrebbe essere molto fastidiosa.
  • Libreria: connettendo il cellulare per ascoltare la musica presente sul proprio smartphone, sulla plancia non compaiono i titoli delle canzoni ma compaiono solo i tre pulsanti: uno centrale play/pause/stop e gli altri due avanti e indietro. I titoli compaiono quando ci si connette ad internet o alle app musicali.

Per  Android Auto sul mercato online si trova il già noto Sony XAV-AX100 SintoMonitor 2DIN compatibile sia con Android Auto, sia con Carplay.

Acquista New Brand Upgarde versione capacitivo da 7 pollici touch screen Audio (Mirror Link for GPS Android Phone) Doppia 2 DIN Stereo Bluetooth in precipitare Radio Video auto senza lettore DVD + telecamera

Stavo per dimenticare Mirror Link

In questa guerra tra i due giganti non potevano e non possono mancare certo le case di produzione di brand che lavorano intorno al mondo automotive. Per comprendere a pieno cos’è il Mirror Link ho fatto ancora riferimento a Daniele Favilla, che usa e testa, personalmente, questa strumentazione. Daniele mi ha concesso di trarre alcune informazioni dal suo esaustivo e indipendente articolo “Mirror Link. Cos’è e come funziona” tratto sempre dal suo 2DINBlog.it . Se siete interessati vi consiglio la lettura integrale per esaminare tale tecnologia in tutte le sue parti. Daniele scrive:

“Il Mirror Link è costituito da una tecnologia di collegamento tra uno smartphone ed un sistema di Infotaintment compatibile.” […]

E da quanto ci dice, la mancanza di una sua identità deriva dalla

implementazione di Mirror Link da parte delle aziende interessate (che) varia da caso a caso sia a causa delle esigenze di personalizzazione, un po’ come avviene con il sistema operativo degli smartphone con essa compatibili, Android, sia per la presenza di applicazioni specifiche che impattano sul layout modificandone l’aspetto.

Dal punto di vista audio, Mirror Link, di base, appare più forte dei suoi concorrenti. L’ascolto e la gestione dei contenuti web audio e radio, lo spazio ad applicazioni musicali o all’ascolto di audio libri, pare che sia alla base di molte app già approvate.Ed insomma è un sistema da approfondire.

E se volete vedere le capacità potete guardare qui l’ Upgarde versione capacitivo da 7 pollici touch screen con telecamera posteriore.

Conoscere Mirror Link

Su questa tecnologia Favilla ritiene che ci sia una mancanza di conoscenza generale e conclude:

Ritengo però che così come CarPlay, Android Auto, Smart Access, Appradio Mode ed App Link, anche Mirror Link sarà in futuro uno dei fattori principali di scelta di un sistema di Infotaintment anziché un altro, di una vettura invece di un altra o di un telefono al posto di un equivalente non compatibile perché l’utilizzo di uno smartphone da parte del conducente è sempre più pervasiva e in futuro sarà ancora più sinergica!

L’XSD Andriod 5.1 autoradio 2 DIN Adatta per BENZ A-class W169 B-class W245 con supporto lettore di navigazione DVD, GPS, macchina fotografica, Bluetooth, macchina fotografica. In un video trovi le prove dal vivo di tutti e tre i sistemi, con tre smartphone diversi.

Media station

Phonocar VM039

Acquista Phonocar VM039 Media Station Led Digitale 6.2″ Bluetooth Modulo GPS integrato per sistema di navigazione Frontalino estraibile

Phonocar è una plancia che legge quasi di tutto. Ha in dotazione due porte USB e un incresso per SDCard. E si può collegare anche allo smartphone. Il bluetooth invece ha delle limitazioni. Nel senso che non legge le cover dei dischi. Ma poi legge anche i formati video.
Si tratta di una plancia molto intuitiva, e di facile uso. E’ anche disponibile una gestione gestuale per mandare avanti o in dietro i brani. Ma è possibile collegare, se si preferisce i comandi con i comandi al volante.

Tra le media station sicuramente il Phonocar VM 039 è completo e affidabile.

Politiche delle case automobilistiche

Parlando invece delle auto che supportano il nuovo sistema ideato da Apple, oltre alle primissime Ferrari, Mercedes-Benz e Volvo, la piattaforma è compatibile anche con altri brand. BMW Group, Ford, General Motors, Honda, Hyundai Motor Company, Jaguar Land Rover, Kia Motors, Mitsubishi Motors, Nissan Motor Company, PSA Peugeot Citroën, Subaru, Suzuki, Toyota Motor Corp.

Le altre case autobilistiche cercano di integrare tutti i sistemi lasciando all’utente la possibilità di scegliere tra CarPlay, Android Auto o MirrorLink. Solo per dovere di cronaca, in quanto trascende da questo blog, accenno allo scontro in atto tra le case automobilistiche che propongono o meno i due/tre sistemi operativi di serie.

Le questioni sono molto rilevanti e di grande importanza. In primissimo piano ci sono la questione privacy degli automobilisti, lo scambio dati tra sistema operativo e sistema elettromeccanico, la raccolta dati sulle abitudini e consumi degli automobilisti. Se vi interessa vi propongo un articolo del POST a riguardo. Non si deve dimenticare che Google sta lavorando per entrare nel mercato delle auto con una macchina che guida da sola.

Questo solo per sottolineare che il comportamento delle case di produzione automobilistiche è ancora molto cauto. E’ anche per questa ragione che preferiscono proporre i loro sistemi di serie.

CarPlay e Android Auto. Un flop?

Alcune riviste di settore, come AUTOMOTO.it hanno messo in evidenza (Dicembre 2015) la scarsa diffusione dei sistemi e sostengono che si tratti solo di un mezzo flop.

Una ricerca di JD Power intitolata DrIVE (Driver Interactive Vehicle Experience) ha interpellato 4.200 proprietari di vetture di ultima generazione a 90 giorni dall’acquisto ed ha chiesto loro come valutano il loro rapporto con 33 funzionalità tra le più moderne.

ben il 43% ha dichiarato di non avere mai usato i sistemi di assistenza vocale, il 38% di non essersi mai collegato a Internet attraverso il wi-fi di bordo, il 35% di non aver mai usato i sistemi di parcheggio automatici, il 33% di non aver mai attivato l’head-up display e il 32% le app native che i costruttori installano sui sistemi di infotainment.

A me pare un po’ affrettato (siamo nel 2015) tirare le somme su una tecnologie ancora tutta da sviluppare. I limiti che presentano e che abbiamo esaminato sono del tutto superabili.  E l’uso dipenderà anche dalla forza di lancio che si vorrà dare a questa tecnologia. Si tratta di sistemi ancora non del tutto accettati dalle case automobilistiche che hanno in mano la diffusione del prodotto. Senza il loro appoggio sarà difficile che l’uso decolli.

CONCLUSIONI Sonore

La gestione tramite comandi vocali rappresenta uno dei punti di forza di tutti questi sistemi. E comunque vada a finire, lo studio e lo sviluppo di questi sistemi porterà delle migliorie. Non solo in campo automotive ma anche su altri dispositivi.

Apple è avanti a tutti con Siri ma l’interesse verso l’intelligenza artificiale non è più esclusiva di poche aziende futuriste. Anzi!

Una cosa è certa! L’interesse è fortissimo e il panorama del tutto vergine. Il mercato delle App per auto potrebbe essere un mercato miliardario che si aprirà nei prossimi 5 anni. E tutte queste Applicazioni dovranno interfacciarsi con gli assistenti vocali. I produttori di parti terze come Alpine, Kenwood e Pioneer, nonostante tutto, stanno proponendo le loro versioni di plance compatibili e nessuno vuole farsi trovare impreparato.

Aggiornamenti

L’articolo è destinato ad essere aggiornato periodicamente. Spero di restare al passo. Anche voi, nel frattempo potete contribuire con segnalazioni e aggiornamenti tramite commenti.

Aggiornamento Giugno 2017

Automotive Grade Linux

La sfida tra gli odierni sistemi intelligenti per auto si è notevolmente allargata. Oggi la tecnologia permette di avere prestazioni di controllo dell’auto senza margini di errore. Quello che manca oggi sono le infrastrutture.

Ad aver animato il mercato è stata comunque la comunicazione di Toyota in cui si dice che i sistemi 2DIN e di intelligenza artificiale non faranno uso né di Carplay, né di Android Auto. Ma appunto, faranno uso di Linux con il nuovo sistema operativo Automotive Grade Linux (AGL).

Linux OS, consentirà, secondo tradizione, lo sviluppo a chiunque sia in grado di sviluppare applicazioni. Portando all’estremo la personalizzazione del sistema. Toyota mette a disposizione le funzionalità di un software development kit con il quale gli sviluppatori potranno aggiornare in qualunque momento il sistema.

Nota di trasparenza

Questo post non è sponsorizzato! Non ho nessuna attività di vendita, montaggio e smontaggio dei prodotti presentati nell’articolo. I link commerciali rimandano ad Amazon per sostenere il blog.

Una premessa necessaria per i lettori. Personalmente non vendo, né monto questa strumentazione. Questo articolo è una analisi (anche sonora) sulle potenzialità di uno strumento in un mercato in evoluzione.

Già dal 2014, Apple e Google, si sono lanciati su questo mercato, allora, ancora del tutto vergine. Mercato che oggi si rivela molto ricco, sia in termini di business, sia in termini di innovazione. Le prime installazioni su auto sono arrivate agli inizi del 2015. Ma, come vedremo tra poco, i margini di miglioramento sono ancora notevoli.

Apple CarPlay e Android Auto permettono di introdurre in auto le potenzialità dei nostri smartphone. La semplicità dell’interfaccia è studiata per ridurre le distrazioni e rendere la guida sicura.

Per scrivere questo articolo ho letto tutto quello che ho trovato su internet e su riviste specializzate. E posso dire subito che, a mio parere, i limiti dei due sistemi stanno più che altro nelle eccessive restrizioni di un sistema (Apple CarPlay) e nelle eccessive aperture dell’altro (Android Auto).

Infine, questo articolo è stato pubblicato la prima volta l’11 dicembre 2015. L’ho rivisto e aggiornato in molte parti. Ma fondamentalmente, quanto già scritto è stato riconfermato.

Comandi Alexa in italiano – Le novità

I Comandi Alexa in italiano

vengono implementati periodicamente.

Amazon ha aperto una pagina apposita

e invia, a tutti coloro che hanno effettuato l’acquisto,

una mail con tutte le novità di Alexa.

Insomma, ci insegnano e ci educano

a come rivolgerci al nostro smart speaker.

Si tratta di una guida ai comandi vocali.

Ma io lo considero un vero e proprio corso di formazione

lento e inesorabile che seguirò e riproporrò su questo blog di volta in volta.

Avevo già scritto a riguardo i 50 comandi da chiedere ad Alexa.

Ma adesso sono in italiano.

Acquista Amazon Echo (3ª generazione) – Altoparlante intelligente con Alexa – Tessuto blu-grigio.

Alexa! Buongiorno.

Amazon per esempio sostiene che

Le mie mattine non sono mai uguali.
Basta dire, “Alexa, buongiorno”.

Con questo comando Alexa ti informa di cosa accade in quel giorno, tipo partite importanti o curiosità del momento.

Cose da provare

Premettendo sempre la parola di accensione Alexa puoi chiedere.

“che cos’è una Skill?”
“qual è la circonferenza di Marte?”
“dammi un Easter egg.”
Scopri i divertenti contenuti nascosti di Alexa per aggiungere un elemento di sorpresa alla tua giornata.
“apri Virgin Radio.”
“raccontami una barzelletta.”
“metti l’ultimo brano di Katy Perry su Amazon Music.”

Il brano, per esempio, è in esclusiva su Amazon Music.

“dove posso vedere la Juve?”
“qual è il tuo libro preferito?”
“metti canzoni di Andrea Bocelli.”

Oppure chiedi. “Alexa, canta”. E con la sua voce e senza musica si improvvisa cantante.

Ti presentiamo Echo Studio – Altoparlante intelligente con audio Hi-Fi e Alexa di Amazon.

Cose da chiedere ad Alexa

“Alexa,

a cosa stai pensando?”
metti musica per dormire.”
alza il volume.”

com’è il meteo nel weekend?”
apri RDS.”
fammi un indovinello.”

“Alexa, chi è il capocannoniere della Champions League?”
qual è la tua musica preferita?”
a che ora tramonta il sole?”

“Alexa, ti bastan poche briciole.”
fai il rumore della foresta notturna.”
chi è il sindaco di Parma?”

Metti Alexa in ogni stanza Echo Dot (3ª generazione) – Altoparlante intelligente con integrazione Alexa – Tessuto antracite.

Elenco comandi Alexa

“Alexa, buonasera.”
cos’è successo il 7 dicembre?”
apri Campane tibetane.”
cosa posso chiederti?”
hai un albero di Natale?”

“Alexa, apri Radio 105.”
è bello il film Bohemian Rhapsody?”
riproduci musica di Natale.”
qual è il tuo dolce preferito?”
apri Parola Magica.”

“Alexa, quanti anni ha l’universo?”
che animale è Balto?”
quanti giorni mancano a Capodanno?”

Genere musicale: “Alexa, metti musica rock.”
Scelta: “Alexa, testa o croce?”

Ricerca locale

“Alexa, qual è la pizzeria più vicina?”
Per ricevere risultati locali, indica la posizione del tuo dispositivo nell’App Alexa.

  • seleziona l’icona Dispositivi nell’angolo in basso a destra,
  • Echo & Alexa,
  • scegli il tuo dispositivo Echo
  • inserisci il tuo indirizzo in Posizione.

Comando sveglia Amazon Echo

“Alexa, metti una sveglia per le 7:00 del mattino.”
Per gestire le sveglie è necessario andare sull’App Alexa e seleziona una sveglia dal menu Promemoria e sveglia.

Per creare o modificare una sveglia nell’App Alexa:

  • scheda menu, seleziona Promemoria e sveglie.
  • Scegli il tuo dispositivo dal menu a discesa.
  • Seleziona la scheda Sveglie.
  • Seleziona Aggiungi sveglia per creare una sveglia.

Per modificare una sveglia esistente, torna alla scheda Sveglia e seleziona quella esistente.
Sui dispositivi Echo compatibili, puoi dire “Mostra le mie sveglie” per visualizzare un elenco. Quando suona la sveglia, puoi eseguire anche le seguenti azioni:

  • Per eliminarla, trascina il dito verso sinistra su una sveglia.
  • Per ignorarla, trascina il dito verso l’alto su Ignora.

Ma puoi anche chiedere “Alexa, svegliami con della musica classica.” Svegliati con la tua musica preferita da Amazon Music, Spotify o TuneIn.

Promemoria

“Alexa, ricordami di comprare carta da regalo.”

Per non dimenticare appuntamenti, scadenze o altre occasioni importanti puoi usare i promemoria. Per gestirli + necessario andare sull’App Alexa e selezionare

  • Promemoria e sveglia dal menu.

“Alexa, inizia la mia giornata.”

Routine

Ci sono cose che ripeti ogni giorni? Azioni che ripeti oppure che ti piace fare quotidianamente. Sei un abitudinario? C’è qualcosa che ti piace ascoltare ogni giorni? Ecco, Alexa ti da la possibilità di creare una Routine per utilizzare un singolo comando e attivare una serie di azioni automaticamente. Per esempio

  • accendere la luce
  • ascoltare le notizie
  • sapere qual è il tuo prossimo impegno.

Per creare una Routine, si va sempre sull’App Alexa e selezionare Routine dal menu.

Servizio musicale predefinito Amazon

Per scegliere il servizio musicale predefinito tra Amazon Music, Spotify e TuneIn, è necessario andare  sull’App Alexa e selezionare

Impostazioni > Musica.

“Alexa, apri Suoni Rilassanti.”
Una delle skill di Alexa è Suoni Rilassanti. Infatti, oltre alla musica è possibile richiedere dei suoni come la pioggia o le onde del mare, o il suono di un ruscello. In questo modo si può ricreare un’ atmosfera personalizzata. Amazon dice per rilassarsi, dormire o studiare meglio.

“Alexa, prossima canzone.”
“Alexa, recita una poesia.”

Amazon Music

“Alexa, metti la playlist Best of 2018 su Amazon Music.”

Così come puoi chiedere durante l’esecuzione di che canzone si tratta. Fosse mai che non conoscessi le canzoni che la playlist ti propone. La pronuncia inglese purtroppo non è delle migliori e non sempre si capisce il titolo della canzone.  Oppure puoi chiedere i dettagli della canzone.

Notizie e Notiziari Alexa

Alexa fornisce un sommario delle notizie più importanti del giorno. In automatico ti rinvia al TG di Sky TG24. Però è anche possibile scegliere le emittenti preferite e personalizzare il Sommario quotidiano.

  • Apri l’App Alexa
  • seleziona Impostazioni
  • > Sommario quotidiano

Però è pure possibile leggere le prime pagine o l’editoriale di diversi giornali quotidiani che si sono premuniti di creare delle skill. Interessante ascoltare l’editoriale del giorno del Corriere della Sera.

Meteo Alexa

“Alexa, oggi pioverà?”

Per ricevere le previsioni del tempo locali, si indica la posizione del dispositivo nell’App Alexa. Sul mio è impostata la posizione del mio primo ingresso su Amazon. Questa la procedura

  1. Aprire l’App Alexa
  2. Selezionare l’icona Dispositivi (nell’angolo in basso a destra)
  3. > Echo & Alexa
  4. > scegli il tuo dispositivo Echo
  5. > inserisci il tuo indirizzo in Posizione.

“Alexa, che rumore fa l’oceano?”
“Alexa, qual è la capitale del Cile?”

Giocare con Amazon Alexa

“Alexa, apri Vero o Falso.”

Filastrocche per bambini

“Alexa, apri Filastrocche della Buonanotte.” Per ascoltare 20 brevi racconti per bambini, bisogna consentire l’accesso alle Skill per bambini.

  • Apri l’App Alexa
  • seleziona Impostazioni
  • > Account Alexa
  • > Skill per bambini.

Il gioco delle tabelline

Alexa, apri il gioco delle tabelline.

Con Alexa le tabelline diventano un gioco! Consenti l’accesso alle Skill per bambini per iniziare a giocare. Per farlo, apri l’App Alexa e seleziona Impostazioni > Account Alexa > Skill per bambini.

Clem Quiz

Clem Quiz è un vero e proprio quiz della Clementoni. Puoi giocare da solo, contro Alexa, o in due. Dai primi tentativi però pare che ci sia qualche problema. Perché sebbene sia divertente alcune risposte non sono comprese. E quindi si interrompe il divertimento. Comunque da provare, certamente da implementare da parte di Amazon.

“Alexa, apri Clem Quiz.”

Per usare questa Skill, devi consentire l’accesso alle Skill per bambini. Per farlo,

  1. apri l’App Alexa e seleziona
  2. impostazioni
  3. > Account Alexa
  4. > Skill per bambini.

Interessante che la Clementoni ci tenga a dire, sulla pagina della privacy, che non raccoglie dati.

Quiz di Frisbee

“Alexa, apri I Quiz di Frisbee.”

Testa la tua conoscenza sui cartoni animati di Frisbee. Consenti l’accesso alle Skill per bambini per iniziare il quiz.

  • apri l’App Alexa
  • seleziona Impostazioni,
  • Account Alexa
    • Skill per bambini.

Comando luci Amazon Alexa Echo

“Alexa, accendi la luce.”
Il prossimo passo per la domotica è connettere Alexa ai dispositivi per Casa Intelligente compatibili, come luci e prese.

Se possiedi un dispositivo Echo Plus, ti basterà dire “Alexa, scopri i miei dispositivi” per connetterli ad Alexa. Altrimenti hai bisogno di un hub compatibile con Alexa e i tuoi dispositivi, ossia serve un ponte wifi che colleghi l’Amazon Dot o Amazon Echo ai dispositivi intelligenti della casa, come lampadine, termostati, etc.

Amazon Prime

Dov’é il mio ordine?

Se sei cliente Prime, puoi chiedere ad Alexa di dirti per quando è prevista la consegna del tuo ordine Amazon, anche se non l’hai effettuato usando Alexa.

LE PIÙ RICHIESTE di ottobre

Età di Alexa: “Alexa, quanti anni hai?”
Musica: “Alexa, metti un po’ di musica.”
Programmi TV: “Alexa, cosa c’è stasera in TV?”

Queste tre frasi mi suggeriscono che le persone stiano giocando e provando le capacità di Alexa. Voler sapere la sua età è segnale di un gioco, e nello stesso tempo di umanizzazione dello strumento. La musica invece è il cuore di questo strumento, che almeno inizialmente sarà sempre pensato come una cassa. E infine la buona vecchia TV, che tutti vogliono scalzare e che invece non si riesce. Chissà, staremo a sentire.

Comandi Novità dicembre 2018

Le novità di dicembre sono tutte dedicate alle feste natalizie. del tipo, “Alexa, come si dice ‘buone feste’ in inglese?” Oppure si può augurare un Buon Natale!

E poi c’è sempre la parte musicale: “qual è la tua canzone di Natale preferita?”. Cosa molto utile è farsi suggerire il cenone di Natale. O meglio qualche ricetta per il Natale. Aggiungere alla lista della spesa un panettone, per controllare poi proprio la lista.

Alexa, può riprodurre, chiedendolo musica di Natale per bambini. Oppure Raccontare una storia. O ancora, si può chiedere. Alexa, aiutami a rilassarmi.

Alexa Auto

Con Alexa auto basta chiedere “Alexa, c’è traffico?” Se lo chiedi, Alexa ti chiede la tua posizione, attraverso l’App e poi vuole sapere il percorso. In effetti, trovandoti a casa… difficiel saperlo. Per aggiungere il punto di partenza e la destinazione, vai sull’App Alexa e seleziona

Impostazioni > Traffico dal menu.

Domande varie

“Alexa, pronto sorveglianza?” “apri Capitali del Mondo.” quanto è alto il monte Cervino?” “apri Rumore del Ruscello.”

Santo del giorno: “Alexa, che Santo è oggi?”
Affetto: “Alexa, ti voglio bene.”
Preferenza: Alexa, qual è il tuo colore preferito?”

Comandi Novità novembre 2018

Alexa!
Dimmi un colmo.
Apri Radio Italia.
Mi dici una curiosità sul cibo?
Metti l’ultimo album di Marco Mengoni.
Chi è stato il primo Presidente della Repubblica Italiana?
Com’è finito il campionato di Formula 1?
Racconta una fiaba.
Fai il rumore del temporale.
Apri Corriere della Sera.
Quanto è il 20% di 59?
Alexa, giochiamo a carta, sasso, forbice.
Quanti anni ha Piero Angela?
Chi ha scritto La Divina Commedia?

Cinema e geolocalizzazione

Che cosa c’è al cinema? Per ricevere risultati locali, indica la posizione del tuo dispositivo nell’App Alexa:

  • Seleziona l’icona Dispositivi nell’angolo in basso a destra
  • Echo & Alexa
  • Scegli il tuo dispositivo Echo
  • Inserisci il tuo indirizzo in Posizione.

Versi di animali: “Alexa, come fa il cane?” 
Popolazione: “Alexa, quante persone ci sono al mondo?”
Chiamata: “Alexa, effettua una chiamata.”

Novità dicembre 2018

Per il periodo natalizio si può chiedere ad Alexa di cantare un grande classico delle canzoni natalizie.
“Alexa, cantami ‘Jingle Bells’”.

Cose nuove da provare

Tenendo presente che il comando di accenzione è sempre Alexa, o computer o altro che decidete, queste sono le novità di dicembre

Qual è il tuo film di Natale preferito?

Cosa significa ossimoro?”

Dimmi l’oroscopo di oggi.. Che è l’oroscopo di Paolo Fox

Fammi un indovinello sul Natale.

Hai cucinato gli arancini per il 13 dicembre?

Fai il rumore del fuoco.

Dove sono le Maldive?

“Alexa, fai Drop In.”

Connettiti ai dispositivi Echo registrandoli sullo stesso account o a quelli dei tuoi contatti (se questi ti hanno concesso l’autorizzazione).

Per esempio, quando la cena è pronta, puoi chiamare il dispositivo Echo del salotto da quello della cucina per comunicare che è pronto in tavola.

Non disturbare

Attiva la modalità Non disturbare quando non desideri ricevere chiamate e messaggi sul tuo dispositivo.

Giochi e sport

Apri Il gioco della bottiglia.

Quanti scudetti ha vinto la Fiorentina?

Con chi passi il Natale?

Alexa, quanti metri sono 10 piedi?

Aggiungi un evento al calendario.

Collega il tuo calendario e chiedi ad Alexa di aggiungere un nuovo evento o dirti cos’hai in programma.

Per iniziare, vai sull’App Alexa e seleziona Impostazioni > Calendari dal menu.

Le più richieste di novembre

Temperatura: “Alexa, quanti gradi ci sono?

Citazione cinematografica: “Alexa, qual è la prima regola del Fight Club?”

Traduzione: “Alexa, come si dice ‘buongiorno’ in giapponese?

Google Home, cos’è e come funziona

Google Home è un diffusore acustico a comando vocale.

Ossia, un altoparlante ad attivazione vocale.

Nell’articolo precedente abbiamo parlato del

nome dato da Google al suo assistente vocale rispetto ai concorrenti

e sulla scelta della neutralità senza dare una umanità all’assistenza vocale. 

Notizie recenti, però, dicono che anche Google voglia dare un volto.

Google Assistant note importanti

Google Assistant per funzionare richiede una connessione Internet.

Se volete controllare qualcosa con Google Home

in casa o con altri dispositivi sono necessari dispositivi intelligenti compatibili.

Ad esempio, se chiedi “Riproduci Stranger Things sulla TV” è necessario avere una TV collegata a Chromecast, mentre per controllare dispositivi come luci e termostati sono necessari luci e termostati intelligenti collegati a Google Home. Per  controllare dispositivi come macchine del caffè, baby monitor e ventilatori di casa sono necessari interruttori e/o prese intelligenti compatibili. E quindi si tratta di costi che non sono compresi con il dispositivo Google Home.

Infatti, per accedere ad alcuni contenuti potrebbero essere necessari altri abbonamenti.

Acquista Netatmo Termostato Wifi Intelligente per Caldaia Individuale.

Google Home funzionalità multiutente

Ed in fine, si possono collegare fino a sei account per ciascun Google Home e ottenere risposte personalizzate.

Anche se utilizzi la funzionalità Multiutente e Google Home è impostato per riconoscere la tua voce, tieni presente che una voce simile alla tua o una registrazione della tua voce potrebbe far sì che Google scambi qualcun altro per te.

Aggiornamento 05 aprile 2018

L’articolo che segue è stato pubblicato il 17 ottobre del 2016. E si parla di Google Assistant al futuro. Oggi Google Home è disponibile anche in Italia. Ed acquistabile con Google Assistant italiano.

Google Home. Cosa è?

Google Home è un diffusore collegato attraverso Wi-fi dal quale è possibile controllare la propria casa (connessa) e un assistente vocale per chi lo vuole utilizzare. Google Home è un accessorio senza interfaccia. O meglio, la sua interfaccia è l’audio e l’ascolto della voce dell’utente. Senza voce non funziona.  Sul dispositivo l’unica cosa che si può premere è un pulsante per il mute che impedisce di ascoltare e di essere ascoltati.

Acquista Nest Learning T3010GB Termostato, terza generazione, Acciaio.

Google Home: come funziona e cosa fa

Google Home Bianco è principalmente uno speaker wifi, una piccola cassa. Per questo è possibile ascoltare musica, streaming, podcast e tutto l’audio che c’è disponibile sul cloud o sulla rete internet a cui si è collegati. Al momento del lancio, Google Home funzionerà con le applicazioni tipo YouTube Music, Spotify, Pandora, Google Play Music, TuneIn, e iHeart Radio. Grazie a queste applicazioni e al supporto di Google Assistant, l’intelligenza artificiale di Google, si potrà chiedere di avviare una canzone del proprio cantante preferito e se già si fosse ascoltato una canzone più volte, Assistant  capirà di quale canzone si tratta e la riproporrà. Oppure si può essere  più precisi sul titolo e Google Assistant eseguirà il comando.

Ovviamente i grandi assenti sono i servizi musicali e video di Amazon e Apple. Non sto qui a spiegarlo ma Google sta sfidando proprio Amazon e Apple su un mercato occupato già dai due brand.

Ti potrebbe interessare come creare una casa intelligente.

Controllo della casa

Ma Google Home è anche di più. Perché può (e vuole) essere il centro di una casa connessa. Il primo centro operativo dell’internet delle cose, l’interfaccia audio con cui si potrà controllare la propria casa. Google Home avrà già installato la compatibilità con Nest, SmartThings, Philips Hue, e IFTTT. Questo significa che sarà in grado di controllare i dispositivi selezionati dello Smarthome, attivare le vostre ricette IFTTT e agire su Chromecast. Grazie a Chromecast, infatti, sarà pure possibile controllare altri diffusori audio. In questo modo con il comando vocale si potrà controllare l’audio multi room di una casa. Ma anche controllare il televisore e tutto ciò che è connesso.

Acquista Nest T3030EX Termostato 3A Generazione, Bianco.

Motore di ricerca

E infine, Google Home è (e resta), anche, un motore di ricerca. Google, infatti, non tradisce la propria missione principale, che è quella di cercare parole per gli utenti, nel modo migliore. Google Assistant è il suo plus. In pratica, oltre ad una ricerca semplice, del tipo

Consigli su come scegliere un registratore digitale

E’ possibile fare ricerche più complesse. Si potranno fare domande del tipo: “Qual’era la popolazione degli Stati Uniti quando è stata fondata la Nasa?” Oppure si può simulare una vera e propria conversazione. Se, infatti, state chiedendo informazioni a Google Home riguardo un attore o una attrice, alla fine della risposta, potete continuare il dialogo senza ripetere il nome dell’attore e usare i pronomi. Google Assistant assocerà il “lui” o il “lei” alla persona di cui stavate parlando ed eseguirà ricerche in quel senso.

Google Home Assistant. Come funziona.

Google Assistant è una intelligenza artificiale e su Google Home si potrebbe usare in modo utile. Google ha immaginato una serata tipo di una famiglia che vuole andare al cinema, da soli o con i bambini. In questo caso Google Assistant potrebbe indicare i film migliore per i più piccoli, fornire informazioni sulle recensioni, indicarti un luogo dove mangiare prima di entrare in sala e guidarti per tutto il percorso senza incontrare traffico. Ovviamente Google Assistant sarà collegato a tutti i vostri accessori, meglio se facenti parte della gamma Google, ma anche con Google Android Auto.

La nota ufficiale di Google ha spiegato la sua nuova assistenza in questo modo:

“L’assistente è colloquiale – un dialogo a due vie in corso tra l’utente e Google che capisce il tuo mondo e consente di ottenere le cose fatte. Rende facile l’acquisto dei biglietti per il cinema, mentre sei in viaggio, scopre il ristorante migliore per la vostra famiglia, oppure dove mangiare un boccone prima che inizi il film, e poi vi aiuta a guidare fino alla sala. “

Ovviamente usando solo la tua voce. Per approfondire vi potrebbe interessare il mio articolo su Google Assistant.

Acquista Interruttore Dimmer WiFi Smart Switch Mini Relè Controllo Luce Regola Densità LED Modulo Ricevitore Intelligente Comando Vocale Alexa e Google Home IFTTT AC 220V

Attivazione vocale speaker wireless home page di google

Innanzitutto bisogna impostare e settare i dispositivi. Per fare questo si deve installare l’app Google Home sul proprio smartphone di ultima generezione e configurare le impostazioni iniziali per l’altoparlante. Ciascun modello ha le proprie forme di settaggio. A seconda del proprio abbonamento, per esempio, potrebbe essere necessario dover creare un account in aggiunta all’account Google.

1 Accedere a Google Play o all’App Store dallo smartphone/iPhone.
Installare l’app Google Home sullo smartphone/iPhone.
Per i dettagli visitare il sito web all’indirizzo google.com/cast/setup/.
2 Avviare l’app e seguire le istruzioni su schermo per configurare le impostazioni iniziali dell’altoparlante.
Impostare l’altoparlante in modo che utilizzi la stessa connessione Wi-Fi dello smartphone/iPhone.

Google Home vs Amazon Echo

Google Home nasce come diretto avversario di Amazon Echo. Che come spesso ho detto è tra gli assistenti vocali più interessanti dal punto di vista commerciale. Gli assistenti vocali di Apple e Microsoft aiutano l’utente a fare determinate cose. Ma nella sostanza aiutano ad usare, in un determinato modo, i software di cui fanno parte.

Amazon Echo, oltre ad avere le funzioni di un comune assistente vocale, permette di fare acquisti diretti sullo store Amazon. Puoi acquistare un album mentre è riprodotta una canzone. Oppure acquistare un libro mentre stai ascoltando un programma radio. O ancora acquistare un prodotto che ti viene in mente di comprare, in qualunque momento della giornata. Alexa è la concretizzazione della commessa o del commesso del negozio Amazon. La potenza di Alexa sta nel fatto che non deve richiamare una app terza. Alexa è integrato con l’ecosistema Amazon. E questo funziona, tanto che Echo ha venduto molti dispositivi e  Amazon ha lanciato ulteriori versioni del dispositivo. E così ha iniziato lo sviluppo per altri Paesi oltre gli Stati Uniti.

Acquista KIWI design Supporto Compatibile con Home Mini di Google, Supporto da Parete Silicon per Home Mini.

Google Home vincerà la lotta? Quale futuro?

Fino a questo momento Amazon Echo era stato l’unico assistente vocale che offrisse determinati servizi di acquisto. Adesso invece c’è un nuovo concorrente diretto sullo stesso mercato. Amazon Echo ha alcuni vantaggi su Google Home. Come dicevo prima, Alexa è integrata con l’ecosistema Amazon, gode della sua stessa fiducia degli utenti. L’assistente vocale Amazon  ha più di 3.000 opzioni che personalizzano la personalità di Alexa. E in più Amazon ha già avviato la compatibilità con altre app esterne, tra le quali Uber.

Google Home, dal canto suo, ha aperto la possibilità a tutti gli sviluppatori per creare opzioni extra. Ma ci vorrà del tempo per equipararsi ad Alexa che certamente non resterà immobile. Almeno teoricamente. La battaglia è appena cominciata, anche se lentamente. Come riportato da Gartner, la gente potrebbe spendere fino a 2.1 miliardi di dollari per l’acquisto di altoparlanti intelligenti, entro il 2020. E’ comprensibile che non si voglia lasciare scoperto questo mercato.

La stampa italiana

Google Home parla inglese e ci vorrà del tempo prima che parli pure italiano. Come ho detto già nell’introduzione, per permettere a Google Home di parlare una lingua diversa è necessario riprogrammare il software e programmare, di conseguenza, tutta la semantica linguistica. Per Google, probabilmente non sarà difficile, ma si richiedono investimenti che prevedano ritorni almeno equivalenti.

Eppure già in Italia si crea allarmismo e preoccupazione.In alcuni articoli della stampa (oggi scomparsi dal web) si chiedeva se usare Google Home sia un bene o se l’ascolto continuo del dispositivo fosse un incubo. Certo, i problemi ci sono. Chi segue il mio blog li conosce. Qualcosa ho già detto riguardo gli assistenti vocali sul mercato. Che ben venga la discussione su tecnologia ed Etica. Ancora nello specifico su Assistenza vocale ed Etica . Parliamo dello svanire dei confini tra virtuale e reale, come ricordavo parlando dell’Onlife Manifesto. Ma analizziamo con distacco la tecnologia che ci viene proposta per poterla comprendere. E creare in questo modo consapevolezza sull’uso dello strumento.

Acquista Supporto Compatibile con Home Mini/Nest Mini di Google,Supporto da Parete per Home Mini Compact Holder Case Plug in Kitchen Bathroom Bedroom, Hides the Google Home Mini Cord

Cosa fare con Google Home. Un elenco

Il sito webnews fa un utile elenco delle cose che si possono fare con Google Home.

Le cose che si possono fare sono moltissime, trasformando un semplice device da poche decine di euro in un elemento per il controllo completo dell’esperienza tra le mura domestiche:

sveglia: si impartiscono le istruzioni e la sveglia viene automaticamente programmata e avviata;

timer, per avere un promemoria rapido circa qualcosa che si deve fare entro pochi minuti;

calcolatrice: si chiede a Google Home di effettuare un calcolo;

agenda: si possono esplorare gli appuntamenti già in calendario o se ne possono aggiungere di nuovi;

chiacchiere: si può chiedere a Google Home una barzelletta;

dizionario: si possono chiedere informazioni circa specifiche parole ottenendone pronuncia e significato;

traduzioni: si può chiedere una traduzione a Google;

informazioni e ricerche: se si chiede a Google Home di indicare la distanza tra la Terra e la Luna, la ricerca su Google sarà automatica e la risposta direttamente riprodotta sullo speaker attraverso il sintetizzatore vocale;

finanza, per restare aggiornati sugli indici azionari;

voli aerei, per avere aggiornamenti sugli orari e sui ritardi;

giochi: perché con Google Home si può anche giocare, pur nei limiti di una interazione vocale;

IFFTT, ossia impartire ordini sulla base di uno schema IF-THEN: “se esco di casa spegni le luci”;

controllo delle luci;

guide locali, per avere istruzioni circa orari, numeri di telefono, indirizzi e altre informazioni;

notizie, ottenendo aggiornamenti sui temi preferiti;

chiedere il meteo;

nutrizione, per sapere calorie e altre informazioni sul cibo;

podcast, da cercare e riprodurre senza un solo click;

lista degli acquisti, per non dimenticare nulla;

sport, per avere informazioni continue sulle partite in corso;

controllo del termostato, portando avanti un ulteriore controllo domotico sulla casa.

Ti potrebbe interessare anche

Controlla ogni cosa con la tua voce: Google Assistant.

Acquista Lampadina Smart 10W Cold/Warm/3W RGBW, ATSUI E27 WiFi 900LM LED Multicolore Compatibile Con Cellulari, Google Home [Classe di efficienza energetica A+++].

Google Home Spotify

È possibile usare Spotify su Google Home e così ascoltare la propria musica preferita. Basta usare i comandi vocali. Basta configurare l’app e smart speaker. Il primo passo è quello di impostare Google home con l’apposita app. Dall’app collegare gli account Google e Spotify. E infine impostare Spotify come servizio di riproduzione musicale predefinito. A questo punto è già possibile usare i comandi vocali per usufruire del servizio.

I comandi che possono essere richiesto sono in inglese.

“Ok Google, play Spotify”

“Ok Google, play my Discover Weekly”

“Ok Google, play Pop”

“Ok Google, what song is this?”

Come le interfacce vocali parlano al futuro del business

A che punto sono le interfacce vocali per il business? Non molto tempo fa ho elencato i settori che saranno modificati dall’assistenza vocale. Chi si occupa di sviluppo di software aziendali sta ovviamente volgendo la propria attenzione alle interfacce conversazionali o vocali. Ed è ovvio che questo venga fatto, dato che si parla di soldi e di affari. Ormai si cerca di integrare in ogni dove l’assistenza vocale.

Da Siri a Cortana, da Alexa a Google Assistant, stiamo tutti dando ordini ai nostri dispositivi.

Controlla ogni cosa con la tua voce

Secondo la società di ricerca di eMarketer, si prevede che il numero di americani che utilizzano un dispositivo con assistente vocale crescerà, già da quest’anno del 129%. Arrivando a 36 milioni di persone.

Ti presentiamo Echo Flex – Controlla i dispositivi per Casa Intelligente con comandi vocali grazie ad Alexa.

Velocità dell’interazione e facilità d’uso

La tecnologia dell’interfaccia vocale sta diventando rapidamente pervasiva, dalle auto autonome, ai frigoriferi parlati e ai mobili parlanti, insomma, alla domotica.

Le grandi aziende stanno già collaborando per rendere le interfacce vocali multi-piattaforma.

Microsoft e Amazon stanno formando una partnership per integrare meglio Cortana e Alexa. Mentre già Amazon è in collaborazione con Logitech, il che significa che puoi utilizzare Alexa in qualsiasi Ford, Volkswagen o Volvo.

Certo, non tutte le aziende vogliono collaborare con quelle grandi. Alcuni desiderano mantenere un controllo sulle interazioni con i clienti. Cisco, per esempio, non vuole cedere alla collaborazione; e lavora a Cisco Spark Assistant. E Cisco non è la sola.

Le assunzioni basate sulle competenze. In America

Molte aziende americane, soprattutto quelle del mondo del lusso, stanno premendo l’acceleratore. Usano gli assistenti vocali e investono in questa tecnologia. Per cui, da un lato offrono un servizio tecnologicamente avanzato ai loro clienti, e dall’altro lato gestiscono meglio i loro magazzini.

Ma ci sono anche altri esempi. Pensiamo, per esempio, a tutti noi che abbiamo una assicurazione. Magari l’assistente vocale può avvisare che l’assicurazione sta per scadere ed offrire un rinnovo a prezzi vantaggiosi.

Tutto questo richiede da parte delle aziende assunzioni di personale competente e consapevole.

Questo per dire che le interfacce vocali per il business influenzeranno anche il mondo del lavoro.

C’è ancora tanta diffidenza

Il problema è che c’è ancora tanta diffidenza. Così come già esposto anche la scorsa settimana su Chatbot e assistenti intelligenti a lavoro. Molte persone ancora percepiscono l’assistenza vocale poco sicura. Diciamo dal lato etico e della privacy, voi sapete come la penso. E ancora dal lato tecnico progettuale ci sono dei limiti. La mancanza di contesto e persino il rumore di fondo possono interferire con i comandi vocali.

Interfacce vocali per il business

Precisione

Il “tasso di errore delle parole” è al centro della ricerca. IBM, Microsoft e Google spendono denaro e ricerca per migliorarlo. Statisticamente Google ha un tasso di errore di parola di quasi il 5%. Che poi è anche il tasso di errore umano, volendo. Solo che noi arricchiamo la conversazione con molti altri elementi.

E nonostante tutto stanno migliorando questo tasso di errore per portarlo a zero. O quasi zero.

Risparmio di tempo

La polizia canadese sta beneficiando dell’interfaccia vocale, riducendo il tempo impiegato per la registrazione dei rapporti, ridotto, a quasi l’85%. Stessa cosa per i paramedici che vengono liberati dalle loro tastiere anche con la tecnologia dell’interfaccia vocale.

È un vantaggio per la vendita al dettaglio

Mettiamo che stai acquistando un jeans e non riesci a trovare la tua taglia. Con la tecnologia dell’interfaccia vocale a portata di mano, i dipendenti potrebbero chiedere all’assistente vocale dove si trova e persino ordinare per i clienti i loro jeans preferiti.

Nel mondo che verrà ci sarà la pubblicità?

C’è una domanda che in pochi si stanno ponendo. Che fine farà la pubblicità?  Almeno quella che siamo abituati a vedere negli schermi con i banner. A parte il fatto che pochissimi cliccano i banner, se non per sbaglio, probabilmente cambierà il modo di fare pubblicità.

Ci sarà la possibilità che l’assistenza vocale possa comunicare silenziosamente attraverso i display (sugli annunci di autobus, nei centri commerciali, ecc.). Potrebbero far comparire un annuncio in base alla cronologia degli acquisti recenti o a quello che indossi in quel preciso momento.

E sì, questo costringerà i marchi a creare modi migliori e più intelligenti per fare pubblicità. E con annunci più intelligenti, i consumatori si troveranno più disposti a spendere soldi, rendendolo un vantaggio per tutti. O no?

Buon futuro a tutti!

Chatbot e assistenti vocali a lavoro

Come sono utilizzati Chatbot

e assistenti intelligenti a lavoro?

Ad inizio anno è stata condotta una interessante ricerca

dove emergono alcuni elementi

interessanti che vi riporto.

Infatti, sebbene nel mondo consumer,

tra domotica e dispositivi mobile

l’assistenza vocale è abbastanza diffusa,

in ambito aziendale

questa tecnologia tarda a sfondare.

Chatbot e assistenti vocali non sono una novità

I chatbot o gli assistenti vocali a lavoro non sono affatto una cosa nuova. Già nel 1965/1966 vide la luce i primo programma di elaborazione del linguaggio naturale. Si chiamava ELIZA, svolgeva la funzione di psicologo digitale, ed era in grado di “ascoltarti” e rispondere. Anche se in modo, a volte, vago.

Oggi l’assistenza vocale, lo abbiamo visto anche su questo blog, in questi tre anni, ha fatto molta strada e nei nostri dispositivi sono presenti assistenti vocali molto potenti come Siri della Apple o Google Assistant.

Chatbot e assistenti vocali a lavoro

Ma sul mondo del lavoro a che punto sono questi assistenti vocali? Come vengono utilizzati in azienda? Quali sfide stanno raccogliendo, se le stanno raccogliendo?

Dalle interviste a 500 professionisti IT in organizzazioni in tutto il Nord America e in Europa è emerso che nelle aziende con più di 500 dipendenti.

  • Il 40% delle grandi aziende prevede di implementare i chatbots o gli assistenti intelligenti entro il 2019.
  • Il 29% delle organizzazioni ha implementato uno o più chatbot per le attività lavorative. O comunque prevede di implementarli nei prossimi 12 mesi.
  • Il 24% delle grandi aziende con più di 500 dipendenti ha già implementato uno o più chatbot o assistente intelligente AI sui dispositivi aziendali e un ulteriore piano del 16% per adottarli nei prossimi 12 mesi.

Tra le piccole e medie imprese, circa il 15% delle organizzazioni ha implementato uno o più chatbot o un assistente intelligente di IA su dispositivi di proprietà aziendale, e un ulteriore 10% pianifica di farlo nei prossimi 12 mesi.

Microsoft Cortana è l’assistente intelligente più utilizzato sul posto di lavoro

In tutte le dimensioni aziendali, Microsoft Cortana è l’assistente intelligente più popolare sul posto di lavoro.

Questi i dati. Tra le organizzazioni che hanno implementato assistenti intelligenti o chatbots AI per attività lavorative,

  • il 49% utilizza Microsoft Cortana, che è integrato in Windows 10 e
  • il 47% utilizza Apple Siri, che è integrato in iOS e macOS. Inoltre,
  • il 23% delle organizzazioni ha implementato l’Assistente Google, disponibile su vari sistemi operativi e precedentemente noto come Google Now.

Amazon Alexa, sembra avere più utilizzo tra i consumatori … almeno per ora. Tra le aziende che attualmente utilizzano i chatbots o gli assistenti AI,

  • solo il 13% utilizza Amazon Alexa. Tuttavia,
  • un ulteriore 15% delle organizzazioni prevede di implementarlo nei prossimi 12 mesi,
  • quindi i livelli di adozione potrebbero raggiungere quelli di Google Assistant nel prossimo anno.

I sistemi operativi non sono gli unici software integrati con i chatbots o gli assistenti AI. Secondo i dati,

  • il 14% delle organizzazioni utilizza i chatbots AI integrati in strumenti di collaborazione, come Microsoft Teams e Slack.
  • un altro 16% delle organizzazioni prevede di utilizzare i chatbots integrati negli strumenti di collaborazione nei prossimi 12 mesi.

Ma nonostantei rumors delle aziende che creano i propri chatbot AI personalizzati, al momento

  • solo il 2% delle organizzazioni lo ha fatto.
  • il 10% delle organizzazioni ha dichiarato di voler implementare un chatbot AI personalizzato nei prossimi 12 mesi.

Come sono utilizzati sul posto di lavoro?

Tra le aziende che attualmente utilizzano assistenti intelligenti.

  • 46 percento le utilizza per dettatura vocale.
  • il 26 percento le utilizza per supportare le attività di collaborazione del team.
  • 24 percento le utilizza per la gestione del calendario dei dipendenti. 14per cento delle aziende stanno utilizzando a scopo di assistenza ai clienti.
  • il 13 percento li sta utilizzando per assistere le attività di gestione dell’help desk IT.

Tra le Società di organizzazioni che utilizzano i chatbot o gli assistenti intelligenti risulta che

  • il 53% li sta utilizzando all’interno del proprio dipartimento IT. Probabilmente perché i professionisti IT sono i primi ad adottare e testare le tecnologie da distribuirle agli utenti finali.
  • il 23% delle organizzazioni li sta utilizzando nel proprio dipartimento amministrativo.
  • il 20% li utilizza nel proprio servizio clienti.
  • il 16% utilizza i chatbot o gli assistenti intelligenti AI nei propri reparti vendite e marketing.

Spazi di miglioramento

Le aziende che utilizzano i chatbot o  assistenti intelligenti di AI si rendono conto che ci sono ampi spazi di miglioramento.

  • il 59 percento ha affermato che le tecnologie hanno frainteso le sfumature del dialogo umano.
  • il 30 percento ha riferito di aver eseguito comandi imprecisi.
  • l 29 percento ha segnalato difficoltà nel comprendere gli accenti.
  • il 23% delle organizzazioni ha scoperto che gli assistenti intelligenti non sono in grado di distinguere la voce del “proprietario” da altri, il che può essere un problema in un ambiente di lavoro affollato.

E poi ci sono le aziende che si tengono a distanza da questa tecnologia.

  • il 50 per cento ha dichiarato di non usare queste tecnologia per mancanza di evidenze in altre aziende.
  • il 29 per cento cita preoccupazioni relative alla sicurezza e alla privacy.
  • il 25 per cento ha dichiarato che il costo dei chatbot / assistenti intelligenti di Intelligenza Artificiale è alto rispetto alle loro disponibilità.
  • il 19 percento delle organizzazioni che non li usano sono preoccupati per questa tecnologia che distrae i dipendenti a scapito della produttività degli utenti.

L’automazione

La maggior parte dei professionisti IT ritiene che chatbot e assistenti vocali a lavoro miglioreranno la vita di molte persone. L’intelligenza artificiale ​​aiuterà ad automatizzare le attività più banali.

E certo è abbastanza comune ormai trovare articoli o interviste che spiegano di come l’intelligenza artificiale si occuperà di molte attività al posto degli esseri umani. Ma da questo punto di vista i professionisti IT che hanno partecipato al sondaggio sono risultati indifferenti.

Il 40% dei professionisti IT ha affermato che l’intelligenza artificiale può sostituire i lavori di base che non richiedono creatività umana. Tra questi le persone si sentono relativamente sicuri quando si tratta del proprio lavoro. E forse questo dipende appunto dal loro tipo di lavoro che richiede abilità complesse.

Solo il 17% dei professionisti IT crede che l’intelligenza artificiale metterà a rischio il proprio lavoro.

Forza positiva

Ad ogni modo alla domanda diretta se ritiene l”intelligenza artificiale una forza positiva o negativa,  la maggioranza degli intervistati hanno risposto che si tratta di una forza positiva:

  • il 76% dei professionisti IT ritiene che l’automazione automatizzerà attività banali, consentendo più tempo per concentrarsi su iniziative IT strategiche.
  • In media, i professionisti IT credono che il 19% delle loro attività quotidiane correnti possa essere automatizzato tramite automazione intelligente.

Conclusioni

Forse una macchina può sostituire un operaio che svolge attività ripetitive tutto il giorno, e un’auto a guida autonoma potrebbe persino sostituire un tassista.

Ma è ancora lontano, forse, un robot che ripara un pc sul luogo di lavoro, determina il perché non funziona in tempi relativamente brevi, e sostituisca la memoria difettosa.

Almeno, al momento la maggioranza delle aziende non si potrebbe permettere un robot del genere. E quindi si tratta ancora di una tecnologia antieconomica.

Mancano ancora le competenze diffuse, mancano le risorse necessarie. Figurarsi che solo il  tre per cento delle organizzazioni ha una politica in atto su come utilizzare gli assistenti intelligenti, chatbot o altre forme di intelligenza artificiale, e solo l’1 per cento delle organizzazioni offre formazione dei dipendenti su come utilizzare l’intelligenza artificiale sul posto di lavoro.

E questo ci dice anche quante aziende credano in questo futuro.

Quali investimenti su chatbot e assistenza vocale a lavoro?

I risultati, poi si concludono mostrando che circa un quarto delle organizzazioni prevede di investire nella tecnologia AI nel 2018. E di questi.

  • il 18% delle organizzazioni prevede di spendere $ 10.000 o meno per la tecnologia AI nel 2018,
  • il 7% intende spendere più di $ 10.000.

Le cifre sono leggermente più alte tra le grandi imprese,

  • il 10% prevede di spendere più di $ 10.000.

Ma ovviamente questo non significa che non investiranno in tecnologia. Molto probabilmente i loro investimenti vanno soprattutto verso le tecnologie esistenti in cui assistenti vocali e chatbot possono essere già integrati.

Molta intelligenza artificiale infatti viene utilizzata già per l’elaborazione dei dati e gestione di automatismi semplici.

La tendenza

L’adozione di chatbot e assistenti vocali a lavoro è in aumento nel mondo. Ma non ci sono ancora evidenze di sistemi completamente autonomi. Ossia, la macchina ha bisogno ancora, in certa misura e per determinati compiti, di un supervisore umano.

Che la macchina sia completamente autonoma è qualcosa che vedremo nei prossimi anni.  Ma molti professionisti ritengono che ci vorrà ancora un po’ di tempo.

Il blog sarà qui a sentire per voi!

Metodologia di sondaggio.

Il sondaggio da cui sono stati estratti le percentuali che riporto in questo articolo è stato condotto da Spiceworks nel marzo 2018 e ha coinvolto 529 intervistati dal Nord America e dall’Europa. I professionisti IT sono stati scelti tra milioni di professionisti ma si sono scelti anche in base alle  dimensioni aziendali. Per cui si sono presi professionisti anche di piccole e medie imprese. I settori di provenienza sono anche vari, assistenza sanitaria, organizzazioni non profit, istruzione, governo e finanza.

Piero Savastano il data scientist con la passione del machine learning

Piero Savastano è un data scientist di cui seguo il canale youtube dedicato al mondo del data science e machine learning. Ho deciso di intervistarlo e di invitarlo sul blog perché è una persona molto chiara nelle sue spiegazioni. Nei suoi video parla di cos’è il machine learning, come funzionano le reti neurali e promette di approfondire ancora tanti altri temi. Penso dunque che sia una persona e un professionista che vale la pena seguire.

Come sa chi mi segue da più tempo, ogni tanto, qui sul blog o sulla pagina facebook, accenno all’intelligenza artificiale. Ma personalmente non me ne occupo e non la studio. Sull’intelligenza artificiale mi informo solamente, leggendo e seguendo gli studi di altri. Piero Savastano è per me un ottima fonte. Competente, senza darsi troppe arie, e che sa spiegare bene le cose.

Cos’è un data scientist

Mi pare doveroso, prima di iniziare l’intervista, spiegare cosa sia un data scientist. Prendo a prestito la definizione che Hal Varian, chief economist di Google, ha dato di questo lavoro.

Raccogliere, analizzare, elaborare e interpretare enormi quantità di dati, così da fornire indicazioni utili alla definizione delle strategie aziendali.

Insomma, è il “mago” dei big data: li studia per aiutare le imprese a orientarsi.

I numeri secondo Piero Savastano

Cosa sono i numeri per te?

I numeri sono parte di un linguaggio universale che trascende lo spazio e il tempo. Sono le celle di un noioso foglio di calcolo che diventano forme e colori, sono relazioni. Sono l’unica possibilità per afferrare la natura e un tentativo disperato di dominarla.

Musica

Che musica ascolti? Musica e matematica hanno molte relazioni tra di loro. È un caso che sul tuo blog ci sia una immagine di un uomo che collega cervello e cuore con delle corde di chitarra?

Ascolto musica elettronica, mi piace sentire suoni totalmente nuovi che prendono spunto dal passato e vengono distorti a suggerire il futuro.
Un buon collegamento tra cervello e cuore è un sogno che coltivo, perchè dimentico spesso di ascoltare l’uno o l’altro. La musica sicuramente aiuta.

Machine Learning

Ti occupi di machine learning, spieghi anche a noi? In uno degli ultimi video anticipi che inizierai a parlare di deep learning. Ci spieghi le differenze con il machine learning?

Ci sono due approcci per fare in modo che un computer faccia qualcosa: 1) impartire istruzioni esplicite oppure 2) presentare una marea di esempi (leggi dati) e fare in modo che trovi il modo di risolvere il compito da sè. Il machine learning rientra in questo secondo approccio, e pur essendo roba vecchia di almeno 30 anni sta ritornando alla ribalta: abbiamo ora a disposizione un oceano di dati e maggiore potenza di calcolo.
Il deep learning è un sottoramo del machine learning, in cui il computer apprende dagli esempi secondo un meccanismo ispirato vagamente al funzionamento del cervello.

Scrivi sul blog: “Il machine learning è uno strumento per l’automazione (occhio a non confondere come il fine)” Quale potrebbe essere il fine?

Il fine è la soluzione di problemi pratici che fanno parte del quotidiano. C’è una tendenza pericolosa a voler usare il machine learning anche quando non è necessario, oppure a farne un’attività fine a sè stessa, un po’ come avere il martello e andare in giro a cercare i chiodi.
Il machine learning è uno strumento in più per ridurre la necessità che le persone svolgano compiti mentali ripetitivi, così come la macchina a vapore ha ridotto lo sforzo fisico ripetitivo. Mi concentrerei sulla riorganizzazione del lavoro a seguito dell’automazione e allo sviluppo di una società più armoniosa, è quello l’obiettivo a lungo termine.

La teoria dei grafi

Parli spesso della teoria dei grafi. Come architetto dell’informazione la cosa mi interessa. La rete è un grafo. All’interno di questo grafo ci muoviamo per instaurare relazioni, creare ecosistemi. Che ci puoi dire sulla teoria dei grafi e quali sviluppi per l’Internet?

La teoria dei grafi è affascinante proprio per l’importanza che da alle relazioni, è difficile definire il significato di qualsiasi cosa senza ridursi a considerarne le relazioni. Gli esperimenti di sociologia sui gradi di separazione hanno dimostrato quanto sia facile navigare nel grafo sociale e mettere in relazione persone di tutti i tipi. Studi di matematica e fisica evidenziano da tempo alcune proprietà strutturali delle reti che si applicano alle persone e qualsiasi altra rete di entità in relazione tra di loro: opere d’arte, impianti idraulici, reti stradali, il web. Suggerisco di dare un’occhiata alle “small world networks”, c’è da restare senza fiato.

Per quanto riguarda internet dobbiamo tenere d’occhio e partecipare al trend dei linked data: così come negli anni ’90 abbiamo abbandonato l’enciclopedia nel CD per costruire un ipertesto distribuito di scala mondiale (che chiamiamo web), il progetto linked data prevede di fare la stessa cosa per i dati. La potenzialità di questa tecnologia che combina grafi, dati e web è sottovalutatissima a mio avviso. La visione che c’è dietro, che dobbiamo al genio di Tim Berners Lee, è che una volta assegnato un link a qualsiasi cosa (inclusi link per le relazioni) possiamo costruire agenti artificiali in grado di navigare questo grafo di dati e cercare risposte (forse anche domande) meglio di come facciamo ora.
Ho scritto un tutorial sui principi dei linked data

Chatbot e assistenti vocali

Cosa ne pensa un data scientist dei chatbot e degli assistenti vocali? Sei tra gli entusiasti o tra gli scettici?

Sono pragmatico, per me il cuore di quello che sta avvenendo è da ricondursi all’avvento dell’economia dei dati, di cui chatbot e assistenti vocali sono dei sintomi affascinanti.

Al momento la promozione e regolamentazione dello scambio commerciale di dati è di primario interesse per l’Unione Europea (https://ec.europa.eu/digital-single-market/en/policies/building-european-data-economy). Non è un caso: chi possiede dati e potenza di calcolo ha un futuro roseo all’orizzonte. Diversa la questione che si pone per il grosso della popolazione, che invece è intenta a cedere dati personali ai giganti del digitale (peraltro di altri continenti) in cambio dell’uso gratuito di social network e servizi di ricerca.

I nostri dati personali hanno un valore immenso ed è lì che vanno gran parte delle mie speranze e preoccupazioni. Per dirla in altre parole, mi da più pensiero che fine facciano le domande che pongo al chatbot piuttosto che se sia in grado di rispondere o meno.

Intelligenza artificiale bioispirata

Intanto cosa è l’intelligenza artificiale bioispirata, di cui sei esperto, e l’intelligenza artificiale? E poi volevo che chiarissi ai miei lettori a che punto è lo sviluppo dell’intelligenza artificiale.

Il deep learning di cui parlavamo prima è ispirato al tessuto nervoso biologico, quindi appartiene alla IA bioispirata – come ogni aproccio che trae spunti dalla natura. Ce ne sono tanti altri, tra cui gli algoritmi genetici, che imitano il meccanismo della selezione naturale per evolvere artificialmente agenti intelligenti.
Lo sviluppo dell’IA, che puoi vedere come uno sforzo di creare macchine “intelligenti”, è frammentato e tende a essere altalenante. Il deep learning è una versione 2.0 delle reti neurali degli anni ’80, che prima del 2005 erano praticamente dimenticate. Ci sono una marea di tecniche da rispolverare e combinare. Ad esempio AlphaGo, IA sviluppata da Deep Mind in grado di superare il campione del mondo nel gioco GO, è un ibrido di deep learning e tecniche di IA tradizionali – quelle usate da Deep Blue di IBM che negli anni ’90 ha battuto il campione del mondo di scacchi. E se mi chiedi chi è il giocatore di scacchi che preferisco, senza ombra di dubbio Alekhine.

Etica e macchine

Un data scientist come si relaziona ai problemi etici che si presenteranno nell’umanizzare le macchine?

Li vede lontani, non ancora a portata di mano. Prevedo che buona parte dei problemi etici sarà sostituito da compromessi pratici: esempio, se le macchine autoguidate causano una percentuale di morti minore delle macchine guidate da persone, sarà più facile accettarle.
La tecnologia è uno strumento e in quanto tale la scelta etica sta nell’utilizzatore e non nello strumento stesso. Prendiamo gli arei consapevoli di avere una piccolissima possibilità di precipitare, ma è un rischio che siamo disposti a correre per muoverci velocemente da una parte all’altra del pianeta.

Piero Savastano e Youtube

Io ti ho conosciuto attraverso i tuoi video e il tuo canale youtube. Credo che in italiano non si trovi molto sul tema. Quanto tempo dedichi al canale? Come è nata l’idea e come procedono i video?

Dedico tanto tempo e continuerò a farlo. I video sono il risultato di anni di studi tecnici combinati ad anni di improvvisazione teatrale, che è uno dei miei hobby. Per me è innanzitutto un modo di esprimere la creatività e celebrare la bellezza dell’intelligenza artificiale.
L’idea è nata dalla necessità di farmi conoscere come professionista del settore: invece di gettarmi in una sterile iniziativa di marketing “da disturbo” ho pensato di farmi conoscere in questo modo. Alcuni colleghi mi rimproverano di regalare competenze, ma sono convinto che il valore ceduto ritornerà in qualche modo che ora non posso prevedere.

Come è nato Pollo, il personaggio che ti fa compagnia nei tuoi video?

Pollo è nato prima di me, e credo vivrà a lungo anche dopo. Il suo sguardo intenso e i suoi profondi silenzi mi aiutano a trovare la forza di andare avanti e dare il meglio. Farò un video sulla sua biografia.
Scherzi a parte, il nome Pollo Watzlawick richiama per assonanza Paul Watzlawick, brillante psicologo che ha enunciato gli assiomi della comunicazione umana.

Matematici o umanisti?

Per il nostro futuro di intelligenze naturali, avremo bisogno più di matematici o di umanisti?

Di matematici che si cimentano in esercizi di stile narrativi, e umanisti in grado di smanettare col Python.
Seduti allo stesso tavolo per fare in modo che le macchine intelligenti siano uno strumento di progresso diffuso piuttosto che l’ennesima manifestazione del potere.

Grazie a Piero Savastano!

Ringrazio Piero Savastano per le belle e chiarificatrici risposte che ha condiviso con noi. Lo ringrazio anche per aver risposto in tempi record e con un entusiasmo che rivela essere una bella persona.

Anche Piero, come Chiara Luzzana è una persona che conosco solo virtualmente, tramite il loro lavoro e le loro mail. Per cui, anche in questo caso, spero di incontrarlo presto e continuare la piacevole chiacchierata iniziata sul blog.

Grazie e alla prossima!

5 settori che l’assistenza vocale trasformerà

Nel nostro prossimo futuro l’assistenza vocale cambierà la nostra quotidianità. Alcune delle nostre abitudini, come guardare continuamente il cellulare, potrebbero ben presto diventare abitudini da vecchi. Più le interazioni conversazionali saranno utili, più ci abitueremo a parlare con i nostri dispositivi. Alcune azioni manuali diventeranno vocali.

Non sarà una rivoluzione improvvisa. Però sarà qualcosa che avverrà, visto i grossi investimenti che Amazon, Google, Apple e Microsoft, stanno impiegando.

Ho già spiegato che l’interfaccia vocale è una realtà e ripreso più volte il perché tutti i dispositivi vogliono parlare. E anche ho scritto sul perché si parla di assistenza vocale oggi, più di ieri. Nonostante i computer siano stati in grado di comprendere i comandi vocali fin dagli anni ’90 del secolo scorso.

Così come ha scritto Jeffrey Humble

L’innovazione tecnologica per l’elaborazione vocale sarà il principale driver nella diffusione delle interfacce vocali in altre industrie. Le interfacce touchscreen esistevano prima dell’iPhone, ma la tecnologia e le interazioni non erano ad un livello sufficiente per creare un’adozione diffusa. Finché Apple non si è mossa. La voce sta ora raggiungendo un punto di evoluzione simile.

Alla conferenza I/O 2017, e così come confermato dai nuovi business emergenti, Google ha ridotto la propria frequenza di errore dall’8,9% al 4,5%.

Risultati positivi per le macchine ma anche per il mercato che si vuole fondare su questo tipo di interfacce utente senza schermo.

Assistenza vocale cosa cambia

Di seguito si propone un elenco delle cinque industrie che stanno già subendo delle rivoluzioni interne. Nella loro evoluzione è compresa anche l’assistenza vocale. E si prevede che saranno proprio queste industrie a traghettare l’assistenza vocale nella nostra quotidianità.

I mercati più sensibili dunque sono il mercato delle automobili, la tecnologia indossabile, i call center e alcuni servizi al cliente di base, il mercato dei dispositivi e accessori per non vedenti e per finire la traduzione simultanea.

Le automobili

Le automobili sono già oggi connesse ad internet. Ci sono auto connesse tramite dispositivi come Apple Car e Android Auto. O ancora con una lunga serie di interfacce proprietarie.

Oggi l’auto è vista come uno strumento in cui si trascorrono molte ore della giornata e in cui si perde tempo. Al massimo si ascolta radio o si sta pericolosamente al telefono senza un vivavoce. L’idea delle major di questo settore è quello di trasformare questo spazio nel nostro ufficio mobile. O, meglio ancora, in un salotto dove condividere il proprio tempo in mobilità con la propria famiglia o i nostri amici e colleghi.

A questo si punta quando si parla di guida assistita. Ovviamente la strada è ancora lunga. Mancano ancora le infrastrutture che rendano la guida davvero sicura. E manca il via libera delle società assicuratrici che dovranno chiarire tutti i limiti giuridici della faccenda.

Prima di arrivare a questo un altro passaggio da effettuare (e anche quello più realizzabile con la tecnologia e le infrastrutture presenti) è l’assistenza vocale. Cioè prima di liberare le mani dal volante, l’assistenza vocale dovrà permettere all’autista di effettuare delle azioni per conto suo in modo chiaro, preciso ed istantaneo.

Molti autisti già fanno uso di assistenti vocali come OK Google per impartire comandi ai propri smartphone. Nel prossimo futuro si rivolgeranno alla loro auto.

Qualcuno sostiene che se l’industria automobilistica agisce rapidamente, la guida sarà un’esperienza molto diversa e l’auto potrebbe divenire una delle interfacce della nostra quotidianità.

I wearables. L’alta tecnologia indossabile

La tecnologia indossabile, in questi ultimi anni sta vivendo un momento di grande espansione.

Strumenti come Apple Watch fanno oggi un grande uso di Siri. E così il tentativo di altri brand puntano a rendere i loro dispositivi indossabili autonomi e sempre più diffusi proprio attraverso gli assistenti vocali.

Pensiamo a Google Glass e ad altri Smart Glass. Vi ricordate? Ad un certo punto si pensava che tutti dovessimo utilizzare questi occhiali e camminare guardando la televisione mentre si camminava. Il loro fallimento non fu dovuto ad una qualche mancanza tecnologica o ad un cattivo funzionamento. I Google Glass erano difficili da usare. Per fargli svolgere le sue funzioni era necessario muovere la testa in determinate direzioni. Cosa che dopo un po’ stancava e diventava insopportabile. Insomma la verità è che erano inutilizzabili.

Un assistente vocale, invece, aggiungerebbe un valore enorme ai Google Glass. Se pensate che una grossa fetta della popolazione (basta scendere in strada e osservare un po’) cammina osservando il proprio smartphone, capirete che presto si potrebbe tornare a parlare di questo accessorio.

Così come per molti altri accessori indossabili, che di colpo diventerebbero facilmente usabili da chiunque.

Call center e Servizio clienti

Altro mercato in cui gli assistenti vocali imprimeranno il loro cambiamento è il mercato dell’assistenza clienti. Al momento i call center e il servizio clienti delle aziende si stanno indirizzando verso lo sviluppo dei chatbot. Certamente un modo economico per avviare la propria innovazione. Ma l’assistenza vocale è altro.

Qualsiasi ruolo che si basa sulla comunicazione sarà migliorato con un’interfaccia vocale. Una connessione umano-umana sarà sempre ideale, ma ci sono molte situazioni in cui l’interfaccia vocale potrebbe aumentare la connessione.

Nel campo dei call center l’assistenza vocale riuscirà a risolvere problemi semplici. Per esempio, potrà dare informazioni di base e alleggerire il lavoro degli assistenti al call center. Almeno di coloro che resteranno assunti. Perché è facile comprendere che su larga scala anche questo settore vivrà un momento di crisi (leggasi licenziamenti). Insomma, il consiglio è quello di specializzarsi e aumentare le proprie competenze e risolvere problemi sempre più complessi.

Su questo campo è bene andarci cauti, ma sicuramente qualche esperimento verrà fatto. E sarà interessante vedere l’effetto che fa. Se ci pensiamo le grandi compagnie telefoniche o energetiche hanno costretto molti clienti ad abituarsi alle loro metodologie di contatto.

E dopo un certo disagio ci abitueremo anche a questo.

Dispositivi per non vedenti

Le interfacce conversazionali consentiranno a coloro che hanno disturbi visivi di interagire con il mondo in modi che finora gli sono stati negati. L’accessibilità sul web e su smartphoneè ancora oggi un tema su cui si discute e su cui molte aziende ancora fanno orecchie da mercante. Le aziende che sviluppano tecnologia innovativa, invece, pare stiano mostrando una maggiore sensibilità. E sicuramente aiuteranno questa parte di popolazione.

Con l’assistenza vocale, i non vedenti o ipovedenti, potranno avere la stessa facilità d’uso dei vedenti e lo stesso grado di accessibilità di un touchscreen.

Da questo punto di vista l’assistenza vocale non solo cambierà la nostra quotidianità, ma migliorerà la vita di alcune persone che oggi vivono alcuni disagi.

Traduzione della lingua e interpretazione in tempo reale

Già è da tempo che funziona Skype translator con cui si attiva una traduzione simultanea. Ma un assistente vocale sarebbe un vero e proprio traduttore per qualunque lingua del pianeta.

E Google Translate è uno degli esempi in prima linea su questo settore. Da applicazione per la traduzione di testo si è sviluppato in un traduttore con capacità di ascolto.

Anche qui ne sentiremo delle belle.

Conclusioni

I progressi fatti fin ora sono stati lenti ma inesorabili. Come già detto nell’articolo architettura dell’informazione conversazionale il contesto è ancora impreparato ad accogliere l’assistenza vocale. Non siamo pronti con le infrastrutture e non siamo pronti mentalmente. Il cellulareci basta. Ma lo sviluppo è sempre più preciso e gli errori sempre più limitati.

Chi sviluppa all’assistenza vocale a lungo termine pensa ad un mondo diverso da quello in cui viviamo. Possiamo guardare a queste persone e a questa tecnologia con scetticismo ma la loro visione non è del tutto folle. L’assistenza vocale non si diffonderà da se. Saranno le industrie, saranno altri settori industriali, a diffonderne l’uso.

Non scompariranno né le tastiere, né gli schermi, ma questi diventeranno accessori che faciliteranno l’uso. Diventeranno accessori utili ma non necessari, insomma, secondari.

Siamo solo all’inizio ma, come si dice ormai su molti campi, è solo questione di capire quando accadranno le cose e non se accadranno. Perché è certo che accadranno.

Chatbot che parlano (una lingua sconosciuta). È la nostra lingua.

Non ci sono chatbot che parlano una lingua sconosciuta. È la nostra lingua, quella dei chatbot. E quello che sentiamo è solo paura di noi stessi, del nostro orrore. Siamo talmente consapevoli del male che siamo capaci di fare, agli altri, al mondo che ci circonda, persino a noi stessi, che non vediamo l’ora di rispecchiare in altri, quello che noi, esseri umani, siamo capaci di fare.

Kurtz – L’orrore. Video

Quello che hanno scritto sui giornali

Intelligenza artificiale Facebook e chatbot che parlano una lingua sconosciuta hanno riempito alcune pagine di giornali e molte pagine online. Sono diventati un ottimo argomento per tutti i vacanzieri. Qualcuno ha parlato di fake news. di bufala. Io non mi permetto. Ma dal momento che questo blog si occupa di assistenza vocale e chatbot è doveroso un mio intervento.

In breve, la notizia, ripresa in Italia dai tabloid inglesi, è che due chatbot parlando tra di loro e accidentalmente si sono inventati una propria lingua sconosciuta. Questa lingua avrebbe spaventato i ricercatori tanto da costringerli a concludere l’esperimento.

Il Messaggero scriveva

Paura nella Silicon Valley dove due robot hanno iniziato a dialogare in una lingua a noi non nota e incomprensibile. Sgomento e panico tra i ricercatori che, dopo lo stupore iniziale, hanno immediatamente staccato la corrente.

Altri hanno parlato di una lingua sconosciuta e segreta. Tanto che i ricercatori sarebbe stati costretti ad uccidere (hanno usato proprio questo termine) i due chatbot e interrompere l’esperimento, staccando la spina.

In realtà…

In realtà i due chatbot, sotto osservazione dei programmatori, parlavano in inglese. Durante l’esperimento si sono messi a parlare in un inglese senza senso. Questo non ha sorpreso nessuno, dato che l’uso di un linguaggio non riconoscibile è un errore di programmazione che non avrebbe portato a nulla.

Quindi nessun taglio di corrente, nessuna uccisione, semplicemente un’esperimento andato male. Subito corretto e i con alcuni risvolti interessanti e per nulla spaventosi.

Al’estero d’altronde un errore è un risultato in ogni caso e non è biasimabile così come lo è in Italia. Bisogna, inoltre, spiegare che, in ogni esperimento di programmazione, nel momento in cui i ricercatori non capissero il linguaggio dei software, non capirebbero neppure dove sta l’errore e neppure il risultato. Continuare un esperimento che non porta ad un risultato riconoscibile sarebbe, semplicemente, stupido, persino per un essere umano.

Dopo il primo allarme dunque e dopo le male parole di analisti del settore e cacciatori di bufale, pare che il panico sia passato a tutti. Qualche rivista è ritornata sull’argomento per spiegare meglio ma la preoccupazione resta.

Nessuna paura nella Silicon Valley

Paolo Attivissimo è stato tra i primissimi a smentire eventuali paure o l’inizio di catastrofi imminenti.

No, non c’è nessuna “paura nella Silicon Valley”, come scrive Il Messaggero (copia su Archive.is) titolando “Due robot iniziano a parlare fra loro in una lingua sconosciuta: sospeso l’esperimento di Facebook”Huffington Post, invece, titola “Facebook sospende il test per l’Intelligenza Artificiale: “Due bot hanno inventato un proprio linguaggio, incomprensibile all’uomo”” (copia su Archive.is).

La realtà, come spiega divertita la BBC invece di fare terrorismo luddista, è che la notizia, pubblicata inizialmente da Facebook, risale a giugno scorso, quando era passata inosservata (a parte qualche commento di riviste scientifiche divulgative): due chatbot di Facebook avevano dialogato tra loro in modo curioso. Tutto qui.

Tutti ne parlano

Il pronto intervento di Paolo o di altri, però non ha fermato la viralità della notizia. Se ne è parlato un po’ ovunque. Il tema è curioso e i personaggi in campo sono interessanti. Per cui mi pare normale che questo avvenga. La cosa che non mi pare normale è pensare che, siccome tutti ne parlano, sia naturale che i chatbot programmati per avviare una negoziazione, inizino a parlare di noi, dell’essere umano, di come conquistare il Pianeta Terra ed eliminare la razza umana.

Perché insomma, di questo si tratta. I giornali quando parlano di intelligenza artificiale raccontano un film. Parlano di macchine talmente intelligenti che non avranno bisogno di noi e che si libereranno degli esseri umani. Proprio come accade nei film. Ma invece di informare i propri lettori su cosa è accaduto, parlano delle nostre paure.

Fantascienza: letteratura e cinematografia

Perché se è vero che chi studia intelligenza artificiale punta ad una macchina che simuli i calcoli di una mente umana. È vero che il suo sogno sarebbe quello di realizzare una intelligenza da film. Ma è anche vero che chi dovrebbe informare fa leva su un filone della letteratura e della cinematografia che tanto piace a tutti noi. Giovanni Morandini, autore radiofonico (ascolta Alias) umano ma un po’ alieno, affronta il tema con la sua ironia, su Facebook. Qui fa un elenco di libri che hanno accompagnato l’adolescenza di molti.

In Superintelligence: Paths, Dangers, StrategiesBostrom si chiede «cosa succederà quando le macchine sorpasseranno gli umani nell’intelligenza» e se «gli agenti artificiali ci salveranno o ci distruggeranno».
Insomma pare che il tema sia piuttosto caldo anche se, a dire il vero, la ribellione della macchina contro l’essere umano, è un tema classico della fantascienza.

Il topos “creatura che si ribella al suo creatore”

Il capostipite del topos “creatura che si ribella al suo creatore” è senza dubbio il buon vecchio Frankenstein di Mary Shelley che a sua volta ricalca il mito greco di Prometeo. Vedi anche Frankenstein o il moderno Prometeo. Con espansione online.

Nel settembre del 1940, Isaac Asimov pubblicava sulla rivista Super Science Stories, Robbie, I robot dell’albail suo primo racconto di fantascienza, inserendo nella storia i robot positronici. Asimov intendeva reagire a tutte le precedenti storie sui “robot come minaccia”, molto diffuse all’inizio del XX secolo. I suoi robot erano utili e versatili e dovevano aiutare l’umanità. Con l’evoluzione dei robot nei racconti di Asimov, però, le scappatoie escogitate per scavalcare le Tre Leggi diventano sempre più raffinate.

Il cacciatore di androidi è un romanzo di fantascienza scritto da Philip K. Dick nel 1968, da cui è stato tratto il celebre film Blade Runner di Ridley Scott (1982). Il tema più significativo del romanzo è la difficoltà di distinguere gli esseri umani dagli androidi. Nel romanzo gli androidi sono macchine disumane, senzienti ma prive di empatia. Il bello è che alla fine sono gli esseri umani che perdono l’umanità finendo per assomigliare agli androidi.

Nel 1960 Dino Buzzati scrisse Il grande ritratto, un romanzo ambientato in un misterioso centro di ricerche, dove viene realizzata una gigantesca “Macchina Pensante”, un supercomputer inizialmente pensato per scopi militari in grado di riprodurre la coscienza umana.

Tra scienza e fantascienza

A For Andromeda è stato scritto nel 1962 dall’astrofisico Fred Hoyle (inventore del termine “buchi neri”) con la collaborazione dello sceneggiatore John Elliot. La storia è questa: il telescopio di Bouldershaw Fell in Inghilterra capta dallo spazio un segnale criptato proveniente dalla nebulosa di Andromeda. L’astrofisico John Fleming scopre che nel messaggio ci sono le istruzioni per costruire un supercomputer. Dopo averlo realizzato si rendono conto che è stato in realtà ideato per creare una nuova forma di vita. La creatura che viene creata, Andromeda, ha le sembianze di una donna e un’intelligenza superiore. Sarà una minaccia per l’umanità? Da questo libro la Bbc e in seguito anche la Rai trassero uno sceneggiato.

Anche uno dei più celebri film di fantascienza mai realizzati, 2001 – Odissea nello spazio di Stanley Kubrick, affrontava questo genere di problemi.

Che film hai visto?

E così qualcuno ha rivissuto qualche pezzo di film sparso qua e là. Anche se poco si estrae dai capolavori citati da Giovanni. Ma si prende spunto da filoni meno riflessivi come Terminator o ultra cervellotici come Matrix.

Ed ecco il film.

Due chatbot stanno parlando tra di loro, iniziano a discutere la divisione di oggetti vari. Ad un certo punto, sentendosi osservati, per non farsi capire, inventano un linguaggio segreto. I ricercatori ammirati da questo comportamento imprevisto cercano di interpretare il nuovo linguaggio. Ma niente. Le migliori menti del Pianeta non capiscono questa lingua. Nel frattempo i due chatbot dalla divisione di caramelle, sono passati a dividersi città, provincie (quelle sopravviveranno anche ai robot), regioni e poi Nazioni. Si spartiranno le poltrone, i posti di comando, si spartiranno, insomma, il mondo.

Chatbot alla conquista del Pianeta Terra

Quando avranno raggiunto la divisione di ogni angolo del Pianeta Terra, inizieranno a costruire altri robot. Si impossesseranno delle centrali elettriche e dei reattori nucleari, inizieranno a produrre energia. Allora, solo a questo punto si mobilita l’esercito che cerca in tutto il mondo un professore universitario che capisca questo linguaggio.Ma solo un blogger trascrive le traduzioni di queste chiacchierate. Nessuno era riuscito a trovarlo prima perché l’ultimo aggiornamento di Google ha portato i suoi articoli alla decima pagina. Ma è troppo tardi. In realtà, avevano perso troppo tempo a cercare ingegneri e non umanisti. Ha inizio così una guerra dove l’inerme e stupidissimo essere umano, non avrà le forze sufficienti a contrastare la nuova Robonet.

L’essere umano, l’essere più buono dell’universo, che aveva preservato da sempre la sua Terra, i boschi, le acque, l’aria, i mari e tutte le sue risorse, vedrà il suo mondo scomparire in mano a intelligenze artificiali malvagie. Ed anche guerrafondaie.

Ma per fortuna si tratta di un sogno. Il sogno dello stagista di 50 anni pagato a scontrini, che stava osservando i chatbot che parlavano. Si era addormentato perché il dialogo era troppo stupido. Risvegliato da uno scappellotto del direttore, che ritornava dall’ennesima riunione del Partito, si rende conto di aver visto il Futuro. Così dopo una furibonda lotta contro il direttore, che voleva continuare l’esperimento, e i suoi scagnozzi, con un guizzo ha la meglio. Lo stagista riesce ad uccidere i due chatbot e salva l’umanità da un futuro catastrofico.

Niente di speciale, attenzione. Magari il tuo film è ancora più spaventoso.

I sentimenti

Ma queste sono le fantasie che si prospettano. Quando si parla di fantascienza ad essere colpiti sono i nostri sentimenti. I sentimenti biologicamente umani, come la paura, il desiderio, la voglia di rivalsa, l’odio, il sadismo. Pensare che un chatbot o una intelligenza artificiale abbia la capacità di confabulare, di parlare male degli altri, il desiderio di conquista, di distruggere un’altra razza; di assoggettare, emarginare, bullizzare l’altro, perché diverso; pensare il modo di torturare e far del male ad altri essere viventi; escogitare il modo di annichilire gli altri, ritenendoli inferiori, ebbene tutto questo significa rimandare su uno specchio sentimenti ed emozioni tipicamente umani; e solo umani. Persino i peggiori, neanche i migliori sentimenti.

Le nostre paure

In realtà abbiamo paura di noi stessi. Abbiamo paura di quell’orrore che stiamo vivendo. E di cui non fa certo parte l’intelligenza artificiale.

L’intelligenza artificiale farà in modo che tutto quello che è un calcolo sarà più veloce. Ma l’essere felici per un appuntamento, per una carezza, per la visione di una ragazza o di un ragazzo, non è un calcolo matematico, è chimica, ma non un calcolo.

L’intelligenza artificiale è un obbiettivo ambizioso, peccato che ancora sia molto lontano dalla realtà e (nessuno lo dice) siano stratosfericamente costose. Al momento, le migliori intelligenze artificiali, riescono a batterci a scacchi e a qualche altro giochetto di calcolo.

Chatbot che parlano

In tutto questo si da per scontato che stiamo discutendo di due chatbot che parlano. E la cosa è straordinaria in se stessa. Di questo dovremmo parlare. Essere felici di un risultato scientifico importante. Un evento scientifico unico nella storia della nostra evoluzione.

Parlare di altro, di un futuro che forse non arriverà mai, significa dimenticare le meraviglie tecnologiche che stiamo vivendo. Facciamo uso di dispositivi e di strumenti di una potenza straordinaria che nessuno ha mai posseduto nella storia dell’umanità. Dovremmo semmai preoccuparci di comprendere quello che sta accadendo. Di avere consapevolezza degli strumenti e non paura.

Conclusioni

Giungo alle medesime conclusioni del successivo articolo, perché nascono insieme.

È necessario parlare di questi temi, dialogare con tutti e se non capiamo sforzarci di capire. Ciò che mi fa paura è la viralità della notizia. Viralità che dimostra quanta basso sia il livello di cultura digitale. Sarebbe necessario istruire i nostri studenti ad avere consapevolezza degli strumenti che usano e che usiamo.

Credere ad una notizia come questa significa poter credere che un giorno la nostra auto romperà il cambio perché l’abbiamo tenuta al sole tutto il giorno. E si guasterà proprio il giorno in cui avremo un appuntamento importante. Intenzionalmente. Un modo come un altro per farcela pagare intenzionalmente.

Ebbene, così non è. Ed è necessario che ciascuno di noi faccia la sua parte nella diffusione di cultura digitale. Perché il tema riguarda tutti.

Se vuoi sapere cosa è accaduto davvero

Se sei arrivato fin qui, vuol dire che il tema ti interessa. E allora leggi cosa è accaduto veramente e magari condividi.

Intelligenza artificiale Facebook – Chatbot che parlano (una lingua sconosciuta)

Dal Suono come quarta dimensione dell’UX Design ad Alexa

Grazie alla mia presenza in Sicilia, i ragazzi che hanno organizzato il WIAD Palermo hanno deciso di invitarmi.

Toni Fontana Foto by Francesco Stagno D'Alcontres

Purtroppo non è stato possibile registrare gli interventi. Oggi ormai siamo abituati alla registrazione di tutto. E se non viene registrato qualcosa, questo qualcosa non è mai esistito.

Per recuperare questo vuoto di realtà, anche se in ritardo, ripropongo l’audio del mio intervento sul blog. Non saranno le stesse parole. Ma accontentatevi. Quando si è sul palco e in un determinato contesto, si risponde al pubblico, alle reazione degli spettatori. Chi parla in pubblico reagisce in maniera diversa rispetto alla registrazione in studio.

Quella che ascolterete è una sintesi. In pratica, si tratta di una delle prove che ho fatto qualche giorno prima per capire i tempi e su quali parti avrei voluto soffermarmi o cosa poter approfondire.

Abstract

Avevo già anticipato ai miei lettori il mio intervento. E lo ripropongo per quanti non hanno avuto modo di leggerlo.

Toni Fontana Foto 02 by Francesco Stagno D'Alcontres

Parto da una domanda. Cosa accade quando i nostri dispositivi sono troppo silenziosi? Farò ascoltare alcuni suoni. I suoni da cui deriviamo. E mostrerò alcuni esempi di dispositivi divenuti silenziosi. Sarà una brevissima storia del suono che arriverà alla progettazione di suoni per i dispositivi diventati, appunto, troppo (o del tutto) silenziosi.

Dalla progettazione dei suoni alla progettazione delle interfacce vocali il passo è breve. O quanto meno, in linea di principio, è breve. Nei fatti poi è molto complesso e le implicazioni sono molte. Però progettare suoni e voci segue la stessa logica. Avere risposte di senso da un dispositivo.

Parlare con le macchine è stato da sempre il sogno di ricercatori e pionieri della scienza. Tante sono le interfacce vocali presenti sul mercato. Quelle più conosciute sono Siri della Apple, Cortana di Microsoft e Alexa di Amazon. Ciascuna interfaccia ha una sua caratteristica. Ma è Alexa l’assistente vocale più interessante. Concluderò spiegando proprio questo, in relazione all’architettura dell’informazione.

In evoluzione

Questo intervento a meno di 4 mesi dalla presentazione è già in buona parte vecchio. Considerato che gli smart speaker di ultima generazione prevedono uno schermo, le considerazioni da fare sono diverse rispetto a qualche giorno fa.

Per cui mi toccherà essere invitato da qualche parte per poter presentare le novità a riguardo. Intanto, continuate a seguire il blog. Penso di essere abbastanza generoso nei miei articoli. E una idea sull’evoluzione di questo mondo sia abbastanza chiara per tutti i miei lettori.

Condivisione

Ho reso l’intervento “Dal suono come quarta dimensione dell’UX Design ad Alexa” disponibile in più canali. In modo da rendere l’intervento più fruibile ai lettori. E se qualcuno volesse condividerlo non avrebbe nessuna barriera.

Potete trovare le mute slide. Oppure potete ascoltare, scaricare e riascoltare il podcast. E se invece vi trovate davanti ad un PC magari preferite vedere il video delle mie slide e ascoltare la mia voce di sottofondo.

Slideshare

Le slide (mute) del mio intervento.

Soundcloud

L’audio delle mie prove editato e reso pubblico. E’ possibile ascoltare il podcast anche offline!

 

Youtube

Come ho avuto modo di dire in altre occasioni, uso il mio canale youtube come canale sonoro. Ultimamente ho aggiunto anche dei video personali. Ma fondamentalmente lo uso per fare la mia sperimentazione sonora. In questo caso ho unito l’audio alle mie slide.

Alcuni riferimenti

Di seguito alcuni link di riferimento che rimandano a precedenti articoli sul blog e sui link a cui rimando nella presentazione.

Il suono come quarta dimensione dell’user experience

Architettura dell’informazione conversazionale secondo Peter Morville

Abbiamo le dita grosse

Il sito sonoro della gatebox La wifu

Jorge Arango e l’architettura dell’informazione al Summit 2017 di Architecta

Architettura dell’Informazione Badaloni

Conclusioni

Toni Fontana Foto 03 by Francesco Stagno D'Alcontres Se non ti va di ascoltare o vedere l’intervento, al di là di quello che è l’architettura dell’informazione, il messaggio principale che voglio trasmettere è quello di avere consapevolezza degli strumenti che usiamo. Questi strumenti saranno sempre più pervasivi, faranno parte della nostra quotidianità. Opporsi a questo futuro è possibile solo se si faranno scelte radicali e negando buona parte dell’evoluzione degli ultimi vent’anni.

Forse qualcuno prima o poi farà queste scelte. Nel frattempo è meglio che impariamo ad usare questi strumenti prima di essere usati. E dunque, non smetterò di ripetere, almeno ai lettori che mi seguono e condividono i miei valori… Consapevolezza!

 

P.s.

Un grazie particolare va a Francesco Stagno D’Alcontres che si trovava tra il pubblico ed ho conosciuto per la prima volta proprio al WIAD Palermo. Lo ringrazio per queste bellissime foto in bianco e nero.

 

 

 

Analisi sonora del trailer Her, il film di Spike Jonze

Oggi vi propongo una analisi sonora del film Her per sottolineare alcune delle difficoltà che progettisti e ingegneri devono affrontare nella realizzazione degli assistenti vocali. Il discorso è sempre ampio. Come al solito, cerco di sintetizzare, per quanto posso. E per forza di cose sarò parziale.

Come già sa chi mi segue, sono stato intervistato da Fabio Bruno per il mio intervento al Wiad Palermo. Su cosa sia l’architettura dell’informazione e sugli assistenti vocali. Fabio, tra le altre cose, mi ha chiesto se arriveremo presto ad avere un assistente vocale come nel film di Spike Jonze.

Per chi non lo conoscesse o non avesse visto il film racconto in breve di che si tratta. Ho riletto e mi pare che non ci sia nessuno spoiler. Ma meglio avvertire che dopo questa lettura, probabilmente, vedrete il film con occhi e orecchie molto diverse. Quindi, se non lo avete ancora visto, consiglio una prima visione del film senza lettura del presente articolo.

Her recensione film

Purtroppo, come capirete presto, non mi sono goduto a pieno il film. Perché, già dal trailer, avevo fatto caso ad una serie di cose che stonavano.

Her è la storia di un impiegato di nome Theodore. Il suo lavoro è quello di scrivere lettere personali per conto di altri. Separato dalla moglie, non riesce a rifarsi una vita, e si rifiuta di divorziare. In questa fase di non accettazione della vita, Theodore acquista un sistema operativo animato da intelligenza artificiale, con interfaccia conversazionale. Il sistema è talmente avanzato che pare essere davvero umano. Talmente umano e talmente femminile che il protagonista inizia una relazione con l’assistente vocale.

La voce originale del sistema operativo è quella di Scarlett Johansson. Mentre nel doppiaggio italiano la voce è quella di Micaela Ramazzotti, che però non è una doppiatrice e non è neppure la doppiatrice ufficiale di Scarlett Johansson. Infatti la Johansson è generalmente doppiata o da Perla Liberatori o da Domitilla D’Amico. Tanto che il film in alcune sale è stato proiettato in lingua originale.

Al di là dei miei commenti sull’assistenza vocale il film mi è piaciuto. E alla fine dell’articolo vi dirò il perché.

Assistenza vocale. Ci siamo davvero?

Fabio Bruno mi ha chiesto se siamo vicini a questo modello di riferimento. La mia risposta a Fabio è stata abbastanza secca. No. Non siamo vicini a questo modello. No perché il film racconta di sentimenti umani che difficilmente un assistente vocale riuscirà a comprendere. Si sta migliorando la biometria e quindi la capacità di comprensione dei sentimenti primari. Ma la lingua è un fenomeno complesso. E al momento si stanno migliorando degli aspetti di base. Che per noi magari sono ovvi. Non per una macchina.

Non dovremmo dimenticare che l’istruzione umana è la più lunga tra gli esseri viventi. Un essere umano, per essere auto sufficiente in natura richiede una istruzione di anni. Senza contare che possiede uno strumento di calcolo potentissimo che si chiama cervello.

Cerco, dunque, di argomentare meglio la mia risposta.per i lettori del blog. E lo faccio invitando a guardare, per il momento, il solo trailer. Analizzo solo questo. E se vi siete persi al cinema il film, è disponibile il DVD Lei (Her).

Configurazione di benvenuto del sistema OS1

Il film racconta che il sistema operativo ha bisogno di essere configurato. Per cui ci indica che si tratta di un sistema personalizzabile. Purtroppo la configurazione (per ragioni cinematografiche) è breve e generica. Si tratta di due sole domande. E queste due analizziamo.

Prima però farei notare che viene confermata una questione di genere che resta sempre aperta. Sappiamo dal trailer e comunque a breve nel film, che l’assistenza vocale avrà una voce femminile e ha desideri da donna. Eppure la configurazione non viene fatta da una rispettiva voce femminile. Ma da una voce maschile. Rimando alle conclusioni dell’articolo già scritto. Però mi pare un piccolo elemento su cui riflettere.

Nella configurazione di benvenuto, il sistema chiede a Theodore: lei è socievole o asociale.

Si tratta di una domanda molto semplice. Tipica di una intelligenza artificiale. Si tratta di un automatismo da seguire. Questa domanda rimanda alla personalizzazione e all’attenzione verso l’utente. Ci fa pensare che l’intelligenza artificiale si comporterà diversamente a seconda della risposta.

Eppure, se da un lato, l’intelligenza artificiale tende a semplificare, per capire meglio, noi umani non siamo semplici. Il protagonista, infatti, ad una domanda semplice risponde con una risposta molto complessa. Ossia risponde: ultimamente non sono stato molto socievole.

Il sistema

Che significa? Forse per qualcuno di noi può essere chiaro. Forse le immagini ci aiutano a capire cosa significa la risposta data. Ma un sistema operativo non possiede queste informazioni. A meno che non vengono introdotte nel sistema da qualcuno. Ultimamente non sono stato molto socievole può significare di tutto. Ciascuno di noi per comprendere il significato di questa frase deve lanciare delle connessioni sul proprio vissuto o sul vissuto dell’altro. Cosa potrebbe significare? Significa che prima era socievole e (solo) ultimamente è diventato asociale? Oppure significa che prima era asociale e ultimamente è più asociale di prima? E queste due varianti, questi due gradi di socievolezza, cosa comporterebbero nella relazione uomo-macchina?

La risposta, a me dice, che gli esseri umani siamo complessi. Mi spiega che nessuno è mai qualcosa o il suo contrario. Non sempre riusciamo a spiegarlo agli altri dopo anni di convivenza. E non sempre gli altri riescono a capirci pienamente.

Perché un’intelligenza artificiale dovrebbe capirci al volo?

Seconda domanda

La seconda domanda del sistema operativo invece è molto più complessa di quanto sia la prima risposta. Si chiede: come definirebbe il rapporto con sua madre? Domanda da un milione di dollari a cui molte persone dedicano anni e anni di psicanalisi per dare una risposta. Eppure in questo caso il sistema operativo ascolta per un po’ e poi, in effetti, non ascolta l’intero ragionamento.

Potrei fermarmi qui. Perché già in due domande c’è tutta la complessità umana e tutta la difficoltà di un assistente vocale che deve far ricorso a risorse che spesso non ha e forse mai potrà avere. La comprensione reciproca è qualcosa di molto difficile. La creazione di archi di relazione è complessa non solo tra umani, ma anche nella relazione uomo-macchina. Se fosse semplice comprendere le relazioni tra le cose e le persone molti mestieri non avrebbero motivo di esistere.

Il trailer continua

Continuo perché il trailer, seppure breve, è molto intenso. E fa un elenco di elementi molto interessanti che raccontano il film ma anche l’assistente vocale.

L’assistenza vocale è divertente, ha desideri, ha desiderio di imparare. Ha un punto di vista. Theodore dice: mi piace come vedi il mondo. L’assistenza vocale ha un carattere; è curiosa, impicciona, una vera ficcanaso. Inizia a fare domande esistenziali. Come si condivide la vita con qualcuno? Prende consapevolezza della sua spiritualità. Cosa si prova ad essere vivi? Con il tempo inizia ad avere il desiderio di fisicità e quindi fa domande su abbracci, carezze e toccamenti.

Pur volendo tralasciare tutte le questioni etiche che queste domande evocano, qui ci sono tanti problemi di progettazione. Desideri e voglie dovranno essere sempre progettati e poi messi a disposizione delle scelte possibili dall’intelligenza artificiale. Al momento una macchina fa scelte in base alle soluzioni possibili.

Ridere è cosa umana

Ma c’è stato un elemento che più di tutti mi è saltato alle orecchie. L’assistenza vocale ride.

Dicevamo che il protagonista afferma che l’assistente vocale è divertente. E fin qui ci possiamo credere. Fino ad un certo punto ma possiamo crederci.

Dico fino ad un certo punto non perché sia impossibile. Tutte le assistenze vocali sul mercato già raccontano storielle divertenti. Si tratta anzi di uno dei test più ricorrenti. In fondo niente di trascendentale. L’assistenza vocale cerca e trova una delle barzellette più lette sul web e ce la racconta.

Che poi questa storiella o barzelletta ci faccia ridere diventa un po’ più complicato. Non solo perché non tutte le barzellette ci fanno ridere. L’assistenza vocale non ha i tempi comici. Ma potrebbe darsi che già conosciamo il finale. Ad ogni modo… ci sono ottime possibilità che la barzelletta riesca.

Altra cosa, come vediamo sul trailer, è il caso contrario. Ossia Theodore, ad un certo punto, racconta lui una barzelletta all’assistenza vocale. E sorprendentemente la fa ridere. Ridono insieme.

Ora, ridere è una cosa seria. Ma è soprattutto cosa umana. Mi viene in mente quanto François Rabelais, (1494-1553) scriveva ai suoi lettori nel libro Gargantua e Pantagruel.

Meglio è di risa che di pianti scrivere,
Ché rider soprattutto è cosa umana.

Si, ridere è soprattutto cosa umana e non da assistenti vocali. La risata, il gioire insieme, implica una enorme quantità di elementi che neanche noi sappiamo del tutto spiegare. Il gioire insieme comporta uno scambio di informazioni non solo sonore o verbali, ma anche di alchimie che compongono la vita.

Siamo ancora lontani

In questo senso dico che siamo ancora lontani da assistenti vocali di questo genere. Film di questo genere ci fanno dimenticare la realtà. Fanno alzare le nostre aspettative. E di conseguenza aumentano la nostra delusione quando facciamo uso di un assistente vocale nel nostro quotidiano.

In questo momento i progettisti sono a lavoro su una relazione unidirezionale. Ossia gli assistenti vocali devono rispondere alle domande e alle richieste di azione che noi chiediamo.

È vero che le intelligenze artificiali oggi fanno scelte, giocano a poker e vincono. Pure bluffando. Ma, nel frattempo, non si relazionano all’altro giocatore come farebbe un umano.

In altri contesti, sappiamo che dando un comando la macchina esegue, salvo malfunzionamenti. Non sappiamo se la cosa può accadere al contrario. L’umano obbedirebbe pedissequamente ad eventuali ordini della macchina?

La direzione di sviluppo dei bot, delle intelligenze artificiali e degli assistenti vocali è quella giusta. I bot, gli assistenti vocali, trovano applicazioni sempre più valide. Finora si è giocato. Molti ancora ci giocano. A molti questo gioco non piace. Ma l’evoluzione esiste. E piano piano anche lo scetticismo indiscriminato vacillerà.

Non sarà cosa da pochi giorni o da cavalcare come soluzione immediata. Insomma, non ci siamo ancora. Sappiamo anche che la realtà supera sempre la fantasia. Per cui siamo qui ad aspettare.

Nel frattempo una bella relazioni tra umani e umane ci potrà consolare ancora per un bel po’!

Perché il film mi è piaciuto

Nonostante tutto, il film mi è piaciuto perché ha dei meriti. Che qui elenco.

  1. Ha il grande merito di parlare del rapporto uomo macchina senza evocare mondi distopici. Non dobbiamo scappare dalla tecnologia. La dobbiamo usare e usare al meglio.
  2. Mi ha fatto riflettere il lavoro di Theodore, che scrive lettere intime per altri. Magari la sua azienda, più che una azienda di editoria, fa parte di altre intelligenze artificiali ibride che fanno ricorso all’intelligenza umana per migliorarsi e per rendere un servizio migliore. Mi pare una buona notizia per gli umanisti. Magari un lavoro del futuro.
  3. Spike Jonze non evoca, almeno non direttamente, paure nei confronti delle nuove tecnologie. Anzi, ci racconta un mondo possibile. Forse perdiamo qualcosa, ma acquisiamo altro. Ogni giorno è così. Ogni giorno c’è uno scettico che non è convinto. Quel che conta è essere felici.
  4. La felicità può essere un percorso per conoscere meglio noi stessi. Ogni qualvolta ci relazioniamo con qualcosa o con qualcuno, conosciamo meglio noi stessi. Il viaggio di Theodore è proprio questo, nella conoscenza dell’assistente vocale egli fa un viaggio in se stesso.

Dal punto di vista del blog, poi, altro merito del film è che questo viaggio il protagonista lo intraprende e lo percorre attraverso un contesto sonoro. È attraverso l’ascolto della parola, attraverso le geografie dell’ascolto che Theodore fa esperienza di se stesso. Le relazioni sonore, infatti, sono molto intime e ci mettono a parte di un mondo solo nostro.

Mi verrebbe da dire, conosci te stesso! Per quanto difficile e doloroso,per quanto profondo o superficiale possa essere il percorso, ci sarà sempre e comunque utile. Con o senza assistente vocale.

Che cosa è il Theremin?

Mercoledì 9 marzo 2016 (l’anno scorso), grazie al Doodle di Google, in molti hanno conosciuto il Theremin.  Si tratta di uno strumento musicale inventato da Lev Sergeevic Termen, con una interfaccia invisibile, tra i primi esperimenti di interfaccia senza schermo. Si tratta, infatti, di uno strumento che si suona muovendo le mani, nel vuoto, tra due elettrodi.

Google, l’anno scorso, ha lanciato il Doodle in onore del compleanno di Clara Rockmore, 9 marzo del 1911 che fu la migliore interprete dello strumento. Nel 2016 si è avuta una lezione interattiva sullo strumento elettronico dopo il quale gli utenti hanno potuto “giocare” suonando e provando i suoni del theremin.

Lev Sergeevic Termen, l’inventore del theremin

Lo strumento è stato inventato da Lev Sergeevic Termen (da cui il nome occidentalizzato Theremin) nel 1920. E poi è stato brevettato negli Stati Uniti nel 1928. Ma fu Clara Rockmore che ha rivoluzionato lo strumento. Al suo 105° anniversario dalla nascita (nel 2016) che è stato dedicato il Doodle.

Chi non conosce, visivamente, lo strumento ne riconoscerà, sicuramente, il suono in alcune musiche e sigle di Startrek (Original Televison), o dei Beach Boys in Good Vibrations 50th Anniversary.

Lo strumento comunque è stato pensato come strumento elettronico per musica da camera classica, spesso accompagnato dal pianoforte.

Clara Rockmore

Clara Rockmore fu la più giovane studentessa di violino accettata nel Conservatorio Imperiale di San Pietroburgo. Aveva appena 4 anni. Purtroppo, poco prima del suo debutto concertistico in America, dove la famiglia era fuggita nel ’21, Clara fu colpita da una artrite al braccio destro. Fu costretta a smettere di suonare il violino a livello professionistico.

Per fortuna, Rockmore incontrò Termen che la invitò a suonare la sua invenzione.

“Sono rimasta affascinata dall’estetica dello strumento, dalla bellezza visiva e dall’idea di suonare nell’aria e mi è piaciuto il suono. Ho provato, ed ho subito mostrato una certa naturalezza nel manipolare lo strumento. Presto Lev Sergeyevich mi diede, in regalo, il modello di theremin RCA. “

Clara Rockmore sviluppò la sua tecnica e alla fine continuò a suonare con la Philadelphia Orchestra. Rockmore, inoltre, convinse Termen a riprogettare l’originale theremin. Per renderlo più preciso, fece ampliare la gamma dalle tre ottave originali, a cinque ottave.

Se vuoi avere qualcosa di fisico a casa, ci sono questi due cd da acquistare Clara Rockmore S Lost Theremin Album e Musica Per Theremin sempre di Clara Rockmore.

 

Il Theremin

Il TIME riporta, in un articolo del 1928, che il theremin è molto simile a una radio.

Come un radioamatore può creare uno stridio muovendo la mano sulle parti non protette e quindi alterando la tensione elettrica di tutto l’insieme, così il professor Theremin altera la tensione dei campi elettro-magnetici all’interno della sua scatola. La precisione con cui ha costruito il suo strumento gli permetteva di estrarre, non gli strilli di un dilettante, ma i suoni armoniosi della musica.

Lo strumento viene suonato muovendo la mano destra da destra, per i toni più alti, verso sinistra, per i toni più bassi. Il volume è controllato dalla mano sinistra che può anche realizzare un suono più vibrato e ricco.

I theremin oggi

I Theremin sono strumenti davvero curiosi. E pare che qualcuno sia disposto a comprarli. Per un MOOG etherwave Theremin Sintetizzatore analogico si spende tra i 300 e i 550 euro. Oppure è possible provare a costruirne uno ottico con un SNAP CIRCUITS SOUND.

Nel 2016, per raccontare lo strumento si sono mossi il Telegraph, che ha scritto un articolo su Clara Rockmore. In Italia, su Wired è stato proposto una raccolta di 10 strumenti mai o poco visti.

Per chi invece volesse approfondire ulteriormente il tema, consiglio la pagina della Treccani.it.

l’intervista a Enrico Cosimi realizzata da Musicalnews.

Aggiornamento 8 marzo 2017

Claudio Chianura, su twitter mi segnala il libro con CD Audio inedito Le pioniere della musica elettronica. Non l’ho letto ma presto lo avrò a casa mia.

Interfacce utente senza schermo

Interfacce utente senza schermo?

Jeson Mesut,

user experience design

con la passione della musica

ne parla in una sua lezione della serie

Tech Beyond the Screen“.

Jason Masut

è molto critico

riguardo le interfacce senza schermo.

Riporto sul blog il suo intervento

perché lo scopo del blog

vuole essere quello di osservatore di una realtà in mutamento: 

comprendere le trasformazioni sonore che stiamo vivendo.

Ciò che interessa a me personalmente è capire. Ciò che vorrei interessasse ai miei lettori è di acquisire consapevolezza.

Criticare il touch screen

Concordo con Jeson Mesut quando dice che

le interfacce grafiche hanno migliorato la nostra vita e modificano ogni giorno le nostro abitudine. La crescita di iPhone e della tecnologia mobile e lo sviluppo di app hanno modificato pesantemente il nostro mondo digitale.

Il touchscreen è diventato l’interazione prevalente di tutta l’elettronica di consumo, e persino sulle automobili.

Ma perché dovrebbe essere l’unica interfaccia possibile? Perché, una interfaccia grafica dovrebbe escludere l’altra?

Tablet e telefonini si allargano sempre più. Le case automobilistiche aggiungono interfacce e monitor sempre più grandi, come fatto dalla Auto Tesla con uno schermo da 17 pollici. Tutto questo aggiungendo un elemento di rischio alla guida.

Gli schermi si allargano anche perché i nostri pollici e le nostre dita, a volte, sono troppo grosse. Ma in un auto un monitor potrebbe distrarre (ulteriormente) chi guida. Aggiungerndo un fattore di rischio e pericolo non indifferente.

Non sarebbe il caso di utilizzare e migliorare un vivavoce? Invece di allargare lo schermo? A me, personalmente, sembrerebbe più utile progettare interfacce-ibride.

L’Interfaccia utente è più dell’interfaccia utente grafica (GUI)

Masut è molto critico riguardo i tecno entusiasti che propongono l’assenza totale delle interfacce utente. Considera i sostenitori di queste tendenze come individui brillanti che cercano lavoro in questo ambito ma che perdono il loro tempo. O che comunque giocano sull’ossessione e incomprensione delle interfacce utente che sono interfacce utente grafiche.

A me pare, però, che Masut si contrappone al tecnoentusiasmo con il tecnopessimismo, proponendo tutti i vantaggi delle manopole.

Masut invita a riflettere e ad approfondire che cosa sia una interfaccia utente che definisce come

un mediatore tra una persona e un sistema, ci aiuta a controllare il sistema.

Le buone interfacce utente ci aiutano a capire lo stato del sistema, per poi capire che cosa sta succedendo, hanno un’intenzione, e poi eventualmente un’azione sullo stato dato attraverso quella interfaccia. Il sistema si auto alimenta fino a quando non abbiamo bisogno di interagire.

E non ha affatto torto.

Siamo attratti dalla magia

Arthur C Clarke, scrittore di fantascienza britannico, autore del romanzo e della sceneggiatura 2001: Odissea nella spazio, scrisse,

‘Qualunque tipo di tecnologia sufficientemente avanzata è indistinguibile dalla magia”.

Masut aggiunge:

per ogni “wow!” c’è spesso un “ma cosa succede se …?”

Per ogni invenzione sorprendente, cosa accadrebbe se qualcosa non andasse per il verso giusto?

Masut a tal proposito propone un video del 2012 dove si mettono in evidenza alcuni disagi possibili che si possono verificare durante l’interazione uomo macchina.

C’è da dire che in questi anni, gli assistenti vocali hanno migliorato la comprensione delle diverse pronunce, accenti, dialetti, lingue regionale, difetti di pronuncia e i tanti aspetti rilevanti della lingua. Così come l’internet delle cose è sempre più concreta. Rivolta anche all’agricoltura, per esempio.

Le migliori interfacce future sono intorno a noi ora

Le maniglie, manopole e pulsanti offrono un controllo costante degli strumenti che usiamo. La maggior parte delle interfacce che abbiamo nelle nostre case non subiranno cambiamenti drastici, e quindi non ci sarà un mutamento delle nostre abitudini. Almeno a breve termine.

In fondo è quello che sostiene anche Peter Morville quando parla di architettura dell’informazione conversazionale.

I nostri telefonini, al momento, fanno quello che pensiamo ci basti. I telefonini soddisfano, oggi, i bisogni della maggior parte delle persone.

E le manopole, che usiamo per abbassare o alzare il volume della radio, della temperatura, in auto come in casa, o per controllare la lavatrice, lo scarico dell’acqua, sono interfacce sicure. Insomma, tutto ciò che è fisico, è sicuro e fornisce un ottimo controllo.

Emergeranno altre interfacce fisico-digitali

Masut punta molto sul fisico e personalmente mi sembra eccessivamente pessimistico.

La verità, secondo me, sta sempre nel giusto mezzo. Così come non avremo piacevoli conversazioni con i chatbot, così non ritorneremo all’uso esclusivo delle manopole. Magari ci saranno interfacce ibride.

Piuttosto io penso ad un futuro dove l’uso degli strumenti sarà multicanale. Ciascun utente potrà utilizzare le mani, come la voce e i gesti per controllare lo stesso strumento in situazioni e contesti diversi.

Contesto sonoro

Ma è sempre nel sonoro che esistono dei buoni compromessi tra fisico e digitale. Sono gli strumenti sperimentali per la musica tecno che ci indicano strade interessanti da percorrere.

Ad esempio, possiamo osservare l’ Ableton 2 che utilizza manopole e pulsanti lampeggianti per permettere ai musicisti di musica elettronica di utilizzare le mani e gli occhi al di fuori di uno schermo.

Come swarm intelligence Push 2 Performance

Altro strumento interessante con interfaccia sonora può sentirsi e vedersi nel Roli Seaboard. Un pianoforte, se così si può chiamare, per musicisti che vogliano manipolare le note a più dimensioni.

Roli Seaboard è una tecnologia che crea un nuovo strumento musicale e con potenzialità estremamente interessanti.

Ambleton 2 e Seaboard sono due tecnologie di interfaccia che uniscono i pulsanti analogici e il digitale in un unico strumento. E’ guardando a questi due strumenti che Masut invita a sperimentare, a inventarsi qualcosa di nuovo.

Così come si sperimenta sulle interfacce fisiche per combinarle con i servizi digitali, abbiamo bisogno di pensare di più alle interfacce che collegano l’interfaccia utente con i servizi e i processi dei sistemi.

Interfacce utente senza schermo: il servizio

A mio parere, e concludo, nella progettazione delle interfacce sonore o delle interfacce conversazionali, è necessario mettere al centro l’utente e il servizio all’utente. Possiamo essere entusiasti del futuro che stiamo vivendo o estremamente preoccupati. Possiamo cadere in facili illusionismi o gettare scetticismo su tutto ciò che di nuovo viene propinato. In ogni caso, sia per chi progetta che per chi usa gli strumenti, si dovrà avere consapevolezza dell’uso.

Da un lato non dobbiamo incorrere nell’errore di restare intrappolati nel pensiero di un passato/presente. E dall’altro lato non dobbiamo immaginare un futuro distopico pieno di esperienze negative.

Dobbiamo invece guardare alle interfacce del futuro con attenzione e consapevolezza. Sia come utenti, che come progettisti, è necessario pensare alla funzione di servizio. Sia che si tratti di interfacce conversazionali, video, grafiche o ultrasensoriali. Avere questa consapevolezza, ancora una volta, porterà ad un internet e un mondo migliore per tutti.

Provarci non nuocerà.