9 giugno 2015

Noi non seguiamo mappe di tesori nascosti e la x non indica, mai, il punto dove scavare (cit.)


Qualche giorno fa ho iniziato a raccontarvi quelle che sono state le mie impressioni sul Google I/O di quest'anno. In particolare, ho individuato una più-o-meno-netta suddivisione temporale tra le tematiche affrontate nella due-giorni dedicata al mondo di BigG.

Da una parte c'è il presente, rivolto allo stato di avanzamento dell'ecosistema Android (con l'anticipazione di M e l'evoluzione di Androidwear) e conquista del mondo (Androidone, il mondo Chrome OS ed il supporto offline); ai suoi servizi (come Android Pay) e a quelli di Google sempre più avanzati e predittivi (vedi Google Now o Photos); ai tools (tra cui il Play Store & Services, il Cloud Test Lab e le Nanodegree) messi a disposizione degli sviluppatori per realizzare applicazioni sempre migliori.

Dall'altra c'è il futuro, non ben inquadrato temporalmente, che a volte si sovrappone con il presente stesso (i progetti Brillo e Cardboard); altre volte ne svela la direzione (con Fi, Loon, le Self-Driving Car e Tango); o ci stupisce con ostentata meraviglia (la Google's ATAP Division e le sue creazioni).

Bene, oggi è proprio di questo futuro che andremo a parlare, concludendo il percorso iniziato nella prima puntata, che se ancora non lo aveste fatto vi consiglio di non perdere!



Tutti ormai vi sarete resi conto che Google non è più solo cloud computing e organizzazione delle informazioni.
Grazie al grandissimo lavoro svolto in quegli ambiti, il gigante americano è oggi in grado di affrontare qualsiasi sfida e muoversi trasversalmente in qualsiasi campo.

Ciò che spinge BigG a farlo è l'interesse per la ricerca di soluzioni a problemi non ancora affrontati, o che possono essere visti con ottica differente.

Tutti i servizi più famosi di Google, come Search, YouTube, Maps, Gmail, Android o Chrome, sono nati e soprattutto si sono evoluti per risolvere determinate problematiche che o non erano ancora state inquadrate dalla concorrenza, oppure ne erano state proposte soluzioni inefficaci, limitate o migliorabili.

Sia chiaro che ogni cosa può essere perfezionata: lungi da me affermare che i servizi o i prodotti creati da Google siano inarrivabili dalla concorrenza, che siano giunti all'ottimo o che non siano superabili da qualsiasi altra soluzione offerta o in arrivo in futuro sul mercato.
Quello che voglio dire è che Google non si lancia alla cieca su qualche sfida se non ha l'interesse a capire come portarla a termine.

La maggior parte dell'interesse è (purtroppo) gran parte lì: trovare la soluzione al problema. Dico purtroppo perché una volta trovata la soluzione, spesso, ne diminuisce l'interesse, e tante volte lo strumento realizzato a partire da quelle idee viene abbandonato a sé stesso perché non più stimolante.
Succede troppe volte che Google si affacci e proponga una soluzione per un qualche settore o problematica, ma che dopo un certo periodo ne stacchi la spina.

E se una cosa non è stimolante per il suo creatore, ne risente anche la stessa diffusione e con essa la successiva voglia di continuarne l'evoluzione.
Abbiamo visto davvero tantissimi progetti venire abbandonati nel tempo da Google e tantissimi altri venirne alla luce.

Stare dietro a tutto quello che esce fuori dalle brillanti menti di Mountain View è davvero complicato, ma allo stesso tempo affascinante.
Per questo motivo ho voluto dedicare un intero articolo a tutti i nuovi progetti lanciati in questi giorni. E visto che sono tutti meritevoli di grande interesse, ho deciso di parlarvene senza ordine di importanza, ma riportarli alfabeticamente cercando di non recare torto a nessuno :D


Brillo & Weave (...e NEST!)



Google domina il mercato degli smart-phone e quello dei tablet (grazie ad Android ed Androidone), sta con forza espandendosi in quello dei wearable (con Androidwear), e cerca di portare ordine nel mondo dell'intrattenimento domestico (Androidtv e Chromecast) e dell'infotainment in automobile (Androidauto).

Quante volte ho scritto la parola Android nella precedente frase?

Un mercato che sta esplodendo negli ultimi anni (ve lo avevo anticipato a Gennaio) è quello dell'Internet of Things e dell'Home Connectivity: entro il 2020 miliardi di dispositivi saranno in grado di comunicare tra loro (e con noi) in modo del tutto autonomo, grazie alla connessione con la grande rete mondiale.

Unite Android all'IoT e otterrete quello su cui sta lavorando Google per non restare fuori da questo mercato potenzialmente molto fruttuoso. Mercato su cui si stanno lanciando tutti, ognuno con una personale visione/soluzione: non solo player come Google, Apple (con il suo HomeKit), Microsoft (con Windows10) ma anche realtà come Ubuntu (con Snappy), Facebook, ARM, Qualcomm, Broadcom, Intel, Samsung (anche con chip dedicati), Huawei, LG, BlackBerry o aziende semi-sconosciute.

Brillo è il nome del progetto per l'IoT di BigG, ed è il collante tra Android (da cui deriva parte dell'architettura) e Chrome (con cui possiamo in qualche modo identificare lo strato applicativo di Google).

Essendo basato su Android da esso deriva sia la compatibilità con una vasta gamma di hardware, ma anche le tantissime API (come il riconoscimento vocale, il supporto al BT o al WiFi...).
La Developer Preview di Brillo arriverà nel Q3, mentre ci si aspetta che l'intero stack e relativi protocolli vengano completati per il Q4 2015.


Ma come funzionerà questo stack?

Tanto per cominciare Brillo è solo una parte dell'equazione. Oltre a tale sistema operativo minimale, infatti, per far funzionare tutto è stato necessario creare un nuovo linguaggio, Weave (da non confondere con il vecchio Google Wave).

Weave è un insieme di schemi semantici, una sorta di blueprint, creati (da Google e da chiunque voglia pubblicarne di propri -certificandoli con un apposito processo-) per standardizzare la comunicazione, e per far capire a chi interagirà con lo specifico dispositivo cosa esso è in grado di fare ed in quale stato si trovi.

Weave, quindi, serve per far dialogare tra loro i vari dispositivi, ma la cosa interessante è che esso non necessita di Brillo per "funzionare": qualsiasi produttore di apparecchi "evoluti" potrà integrare Weave e riuscire a far comunicare i propri device con altri Brillo-powered e non.

Google in sostanza ha creato un linguaggio comune che i dispositivi possono utilizzare per parlare tra loro. E gli smart-phone (Android) potranno "inserirsi nel discorso": in modo del tutto automatico saranno in grado di rilevare tutti gli oggetti che usano Weave, per permettere all'utente di controllare quello che sta succedendo od impartire comandi.

Il sistema operativo creato da BigG, Brillo, è essenzialmente una comodità aggiuntiva che i produttori di apparecchi possono adottare per qualsiasi appliance senza doverne andare a creare di appositi. Il vero protagonista qui è Weave.

Ovviamente il progetto è molto più ampio ed in futuro davvero qualsiasi oggetto potrà essere connesso e dialogare con gli altri.
E Weave e Brillo sono sicuramente due ottimi punti di partenza, decisamente ambiziosi.

Che sia la strada verso la giusta realizzazione dell'IoT?


Spunti di approfondimento sull'IoT:

Ora rimane solo da capire che cosa potrà mai annunciare NEST (produttrice di due dei più famosi "prodotti IoT" al momento sul mercato, il termostato omonimo e Dropcam) di così rivoluzionario nella conferenza del 17 Giugno, visto che la compagnia è stata acquisita da Google tempo fa...


Cardboard & Jump (...e Magic Leap!)



Durante il Google I/O del 2014, BigG presentava l'ennesimo progetto nato durante le ore di "libertà creativa" dei propri dipendenti. Quelle ore -per capirsi- durante le quali sono nati Gmail e tantissime altre idee di successo.

Tale progetto sembrava poco più di uno sfottò alla mossa di Facebook di acquisizione di Oculus e l'inizio della corsa all'oro della realtà virtuale.

A metà 2015 il VR (assieme all'AR), però, non è più un gioco, lo abbiamo visto. Ed anche qui, come per l'IoT, tantissimi si sono lanciati nella speranza di catturare una fetta della torta (in ultimo Apple con la sua recente acquisizione di Metaio, od anche Nvidia con GameWorks).

La cosa più divertente di tutte è che Google ha presentato essenzialmente un giocattolo in cartone, Cardboard, mentre tutti gli altri stanno realizzando HW sofisticati o dispositivi in materiali pregiati. E BigG ha già venduto più di 1 milione di pezzi con il suo programma di certificazione per partner.

In pratica a conti fatti è Google che sta guidando la corsa al VR. Ed ora, con la presentazione della versione 2 del suo visore "amatoriale", ha rifinito il prodotto e lo ha portato anche nell'ecosistema della mela morsicata (qui e qua qualche prova sul campo, anche di varianti non ufficiali, e qui una piccola review).

Il Cardboard con la versione 2 è diventato più spazioso, permettendo di inserirvi dentro qualsiasi dispositivo fino a 6" (più è grande il display, meglio si può consumare il contenuto -e qui vi ho parlato di tale fenomeno-). E, essendo essenzialmente solo un visore, esso è agnostico alla piattaforma che muove il device in esso inserito.

Il nuovo modello si assembla in soli 3 passi (invece dei 12 necessari per il vecchio) ed ha un tastino che permette in qualche modo di interagire con il display del device in esso inserito.


Ma c'è di più!
Google ha rilasciato un'app, Cardboard Design Lab, per spiegare come creare contenuti in VR, ed in generale sembra molto più seria sul mondo della realtà virtuale di quanto si pensasse...

Per chiudere il cerchio sulla VR, Google ha dato vita non solo al suddetto visore che ne permette "il consumo". BigG ha pensato anche ad una piattaforma per "mostrare" il contenuto da consumare (YouTube con i video a 360°), ed al sistema per la "creazione" di tali contenuti.

Oltre a YouTube, comunque, si è pensato anche a mercati di nicchia: ecco arrivare le Expeditions. La realtà virtuale sarà soprattutto dei bambini, perché non utilizzarla allora anche per fini didattici?

Un set composto da un tablet, 30 visori Cardboard ed altrettanti smartphone permetterà un'esperienza collettiva per l'insegnamento. Il docente con una apposita app in esecuzione sul tablet potrà immergere i bambini in queste spedizioni di gruppo, spiegando loro con l'ausilio diretto di immagini e video tematici.



Come dicevo, Cardboard permette di visualizzare, YouTube/Expeditions di accedere, ma come realizzare contenuti VR?

Jump è un intero ecosistema per la creazione di contenuti in realtà virtuale nato da un accordo tra il gigante americano e GoPro.
Esso è composto da due componenti (oltre a YouTube per la riproduzione): ovviamente l'hardware ed il software.


Come in tutte le cose un po' pazze in cui si lancia Google, anche Jump non poteva essere da meno. L'hardware di riferimento (qui una prova sul campo) è composto da una basetta circolare (vogliamo o no creare video a 360°? :D) di cui sono state rilasciate le specifiche tecniche cosicché chiunque possa stamparsene una personale tramite la stampa 3D, e da 16 action-cam GoPro -acquistabili a parte-. Non è necessario utilizzare proprio tali camere, ma la scelta è consigliata perché l'altra parte del progetto, il software, è già ottimizzato e calibrato su di esse.

Parlando di software esso vive sul cloud, nei data center di Google, per vari motivi. Quello principale è perché elaborare l'output di 16 videocamere e creare immagini da esso è un lavoro estremamente pesante. Il software creato nei laboratori di Mountain View è in grado di ricreare l'esperienza (stereoscopica in 3D) partendo dai RAW delle action-cam, rielaborando il tutto e fornendo un risultato che dalle prime prove sembra essere eccezionale!

Google non ha comunque dimenticato i propri prodotti, ed una versione potenziata di Street View incorporerà in estate la tecnologia appena descritta al fine di ottenere mappe sempre più realistiche.

Spunti di approfondimento sulla realtà virtuale:


Come per l'IoT (Brillo e Nest), Google ha anche per il mondo della realtà virtuale ed aumentata due (o più, lo vedremo tra poco) progetti in corso. Per questo rimaniamo in attesa di Magic Leap (anch'essa acquisita tempo fa da BigG), che sta aprendo il proprio SDK agli sviluppatori, mentre veniamo alla scoperta che non si tratterà di un semplice progetto di realtà aumentata, piuttosto una miscela tra realtà aumentata e virtuale!


Fi & Fiber



Dopo aver raggiunto numeri incredibili di market-share per il suo sistema operativo per smart-phone (Android), dopo aver creato tantissimi servizi per organizzare e farci cercare informazioni su internet (Search & Now), sulla Terra (Maps), e dopo aver centralizzato la nostra posta elettronica (Gmail), l'intrattenimento (YouTube e Play Store) e controllato il nostro accesso alla rete (Chrome), BigG si è lanciata in una nuova avventura per chiudere il cerchio: Fi.

Fi è un MVNO (mobile virtual network operator) che cerca di cambiare (o per lo meno modificare) le carte in tavola nella fornitura del servizio di telefonia mobile.

In America con Fiber, Google ha già avviato un processo di mezza rivoluzione della connettività via cavo (fibra ovviamente) e TV, muovendosi città per città: siamo a 20 dopo 3 anni dall'inizio del progetto, con al momento circa 27.000 utenti abbonati.

Fiber è disponibile in 3 varianti: internet gratuito, in versione 1Gbit/s, oppure con abbonamento televisivo in aggiunta. La cosa sconvolgente per noi è che l'abbonamento gratuito richiede 300$ una tantum per l'installazione e poi si ha connettività a 5Mbit/s (down e 1Mbit/s up) gratis per almeno 7 anni. Stop. Cose che da noi sono probabilmente fantasmagoriche...
L'opzione per la variante 1Gbit/s (velocità sia per il down che per l'up!) costa 79$/mese (70€ ca.) più tasse. Ok non è economicissima ma stiamo parlando di fibra a velocità che da noi sono impensabili, senza contare che i nostri fantastici operatori ci chiedono cifre come 45€/mese per una scarsa 30Mbit/s (in down e dell'up è meglio non parlarne... si è no 3Mbit/s).
La variante con TV costa ovviamente di più ma prevede tante piccole funzioni per il servizio televisivo.

Inutile dire che da quando c'è Fiber, nelle città in cui è già attiva il mercato ha cambiato completamente volto. E Google spera di fare lo stesso con Fi. O per lo meno di modificare le regole del gioco.

Fi, come dicevo, è un operatore virtuale che si appoggia sulle reti di altri carrier, a differenza di Fiber che sfrutta il cablaggio di proprietà di Google. Ma la cosa interessante è che Fi è in grado di sfruttare più reti e di scegliere al momento dell'uso quella con segnale più forte. Quindi rispetto ai classici MVNO, insomma, che si appoggiano solitamente su un solo carrier, con Fi gli utenti avranno più chance di copertura. In più il sistema è in grado di switchare in modo silente tra reti mobili e hotspot Wi-Fi pubblici/privati, e veicolare su di essi i servizi telefonici (visto che sono comunque VoIP): l'idea insomma è quella di avere sempre la massima banda possibile per scambio dati, voce e messaggi (nell'ordine -scelta automatica- Wi-Fi, 4G, 3G, 2G).

Altra peculiarità del servizio è il costo (escluse tasse) a livelli, e per i dati si paga solo per quello che si è consumato. C'è una base di partenza al prezzo fisso di 20$ per chiamate illimitate in USA e messaggi illimitati in tutto il mondo, più 10$ per ogni GB di traffico desiderato. Ma, a fine mese, quello che non sarà stato consumato verrà restituito al cliente: ad es. si acquista 1GB a 10$? Se se ne consuma solo metà, a fine mese verranno restituiti 5$, e così a salire.
Non è previsto alcun contratto in abbonamento: stiamo parlando di un piano ricaricabile.

In USA, mercato in cui questo progetto è destinato (per il momento solo sotto forma di invito al servizio e solo per i possessori del Nexus 6), la maggior parte delle persone ha abbonamenti telefonici con costi maggiori di quelli richiesti da Google. In più stiamo parlando di un mercato immenso, in cui non è necessariamente detto di avere copertura totale in tutto il territorio con lo stesso carrier, ed in cui gli hotspot Wi-Fi pubblici sono molto diffusi (soprattutto nelle grandi aree metropolitane).

Il tutto poi gestibile da una comodissima app su telefono e associato all'account Google, il che significa che è possibile utilizzare chiamate e messaggi anche da computer o qualsiasi altro dispositivo (anche se il telefono è scarico o se per qualche motivo non ha copertura di rete).

Google non punta a guadagnare direttamente dai servizi di fibra e connettività dati in mobilità, quello a cui punta è una rivoluzione (per lo meno per il mercato domestico) dell'accesso alla rete: abbattendo i costi e aumentando il servizio e la sua affidabilità può portare sempre più persone a connettersi alla rete e ad usare i propri servizi.

Difficilmente potremo vedere soluzioni simili da queste parti (tralasciando i costi che al momento sono comunque più elevati rispetto ai nostri, anche se il servizio è sicuramente migliore...): ma non sarebbe male avere qualcosa del genere rapportato al nostro mercato.


Hands Free



Android Pay è stato annunciato durante il keynote di apertura del Google I/O, e sembra essere già vecchio.

Google infatti è già al lavoro su di un altro sistema di pagamenti, che sfrutta solamente la nostra voce. Sì, avete letto bene: nessun tipo di input aggiuntivo, semplicemente una specifica frase scandita dalla nostra voce.

L'annuncio di tale progetto è avvenuto "molto in fretta" durante uno speech secondario, non ci sono molti dettagli, ed il prototipo prenderà il via in forma sperimentale in autunno nell'area metropolitana di San Francisco e con un paio di partner, tra cui McDonald's.

Ora le questioni sono due: perché e come?

Per quanto riguarda il come, non essendone stato spiegato il funzionamento, si può andare per supposizioni: probabilmente la somma di 1) riconoscimento vocale in cui Google eccelle, 2) la nostra posizione geografica recuperata dallo smart-phone, e 3) qualche strumento in possesso del negoziante che può identificarci, permetterà di riconoscere la nostra persona e addebitare correttamente il conto sulla nostra carta di credito registrata e a noi associata. Ma di più non è ancora dato sapere.

Il perché invece è pura speculazione. Il servizio presentato con Android M si chiama Android Pay e non Google Pay. In qualche modo andrà a rimpiazzare il vecchio Google Wallet, come abbiamo visto nell'altra puntata di questo articolo sull'I/O 2015. In più tale servizio sarà trasversale per tutti i produttori e non avrà alcun costo per il suo utilizzo. Insomma per farla breve Google non ci guadagnerà nulla sulla sua adozione.

Tutti i servizi di pagamento in mobilità prevedono un fee, un dazio, da pagare a chi ci offre il servizio: con Pay, Apple prenderà lo 0.15% da ogni transazione (dalle banche fortunatamente), con Pay, Samsung ha deciso di rinunciare -almeno per ora- ad ogni fee. E con Pay, anche Google come già detto non ricaverà nulla. "Simpatico" si chiamino tutti uguali :P
Lo stesso discorso vale per tutti gli altri servizi esistenti come PayPal, le varie carte di credito, etc.

Google Hands Free potrebbe permettere quel guadagno a Google: stiamo parlando infatti di un servizio di Google e non di Android, che potrebbe essere inoltre anche multi-piattaforma e non solo limitato al mondo del robottino verde.

Tutte mie supposizioni che saranno chiarificate nel corso del tempo.


Loon & Solar-Fueled Drones



Durante il keynote di apertura dell'I/O, Sundar Pichai si è soffermato sulla sfida di portare connettività dati in tutti quei paesi che oggi non ne dispongono. Con Androidone BigG sta cercando di risolvere il problema dell'adozione degli smart-phone con prodotti a prezzi contenuti; ma con altri due progetti più avveniristici, invece, il focus è la diffusione dell'accesso stesso alla grande rete.

Fi & Fiber sono per gli USA e magari in futuro per mercati più evoluti, e chiaramente richiedono cablatura o installazione di antenne. Tali operazioni non sono fattibili in ogni zona della terra, sia per motivi fisici sia spesso per i costi elevatissimi. Così Loon ed i Solar drones sono stati ideati e pensati per quei paesi in cui sarebbe impensabile portare connettività dati con i metodi tradizionali.

Entrambi i progetti sono in fase sperimentale da qualche mese (più di 3), ed ora sono stati anche potenziati. I Loon sono dei palloni aerostatici che portano connettività dal cielo (:D): un solo pallone offre una connessione dati a 10Mbit/s (insomma perfettamente in grado di farci stremmare un video da YouTube, e probabilmente superiore a quella presente in tantissime città italiane...).

Ma la cosa più interessante è che inizialmente tali palloni avevano la necessità di un link diretto con la Terra (potevano flottare fino ad un massimo di 50 miglia dalla stazione di partenza) per poter ripetere ed estendere il segnale.

Questo limite non è più necessario ed i vari palloni possono essere collegati tra di loro creando reti "volanti" (fino ad una distanza massima di miglia comprese tra le 250 e 500 dalla stazione di partenza): sono in grado di coprire intere regioni!

Con la creazione, poi, di uno strumento apposito per il lancio di questi palloni, Autolauncher, capace di bloccare il vento e di essere installato in zone impervie, si è riusciti a ridurre i tempi di lancio da 45 a 15 minuti.
Ci si aspetta di coprire intere aree dell'America Latina, Africa dell'Ovest e parte dell'Asia per metà del 2016.

I droni ad energia solare sono, invece, il secondo approccio intrapreso da Google per raggiungere lo stesso obiettivo: questa volta la connettività viene fornita da droni volanti anziché palloni aerostatici. Purtroppo, per ora, questa soluzione ha ancora qualche problemino.


BigG non è ovviamente l'unica a tentare strade (in questo caso dal cielo) innovative per portare connettività a chi ancora non la ha. Altri player, come Facebook con i suoi droni e con Internet.org, oppure Elon Musk con SpaceX ed i suoi satelliti, stanno cercando di affrontare il problema.

Ora, non stiamo parlando di onlus od operazioni nazionali/statali e nemmeno umanitarie. Siamo di fronte al lavoro di privati che, per quanto possano pubblicizzare le loro operazioni per il bene comune o qualsiasi altra cosa benefica vi possa passare per la testa, da qualche parte devono guadagnarci.

L'intento di Facebook, ad esempio, è chiaro: ti do accesso alla rete "che dico io", erogata tramite "il mio portale", e "ti fornisco" il servizio gratuitamente ma in cambio di un controllo a monte.

Ci sono anche soluzioni simili offerte localmente da vari provider che decidono un set di app a cui l'utente può accedere gratuitamente (ed in alcuni mercati, come l'India, anche Google ha stretto contratti simili con alcuni carrier in modo che gli utenti possano accedere ai propri servizi senza sborsare cifre esose).

SpaceX, invece, punta a rivoluzionare la "vecchia idea" di copertura globale tramite satelliti intorno alla Terra. La differenza rispetto alle vecchie ed inefficienti soluzioni è che il costo per l'utente finale sarà decisamente basso. Ma è troppo presto per parlarne ora, visto che il progetto non è ancora iniziato.

Tra le varie soluzioni proposte, quella dei palloni e dei droni di Google -ai miei occhi- sembra la più "etica", se non altro. Google si è sempre battuta per la neutralità della rete, dalla quale ha avuto tantissimo, ed è per questo motivo che alle soluzioni controllate come quella di Facebook, o al momento poco chiare come quella di Musk, è stata scelta una via più neutrale.

Se la rete deve essere neutrale, chi fornisce la connettività non può controllare quali servizi possono avere l'esclusività o la precedenza.


Self-Driving Cars



Ci siamo: sono passati diversi anni da quando il progetto delle automobili di Google con guida autonoma è stato svelato al mondo. E presto inizierà la sperimentazione libera su strada per le vie di Mountain View.

Finora le macchinine di BigG hanno coperto più di 1 milione di miglia (1.8 se si contano anche quelle guidate in modalità manuale) senza alcun incidente, e gli ingegneri sono davvero confidenti nella bontà del progetto.

Al contrario, i cittadini del luogo non sembrano del tutto convinti dell'idea: al momento le automobili automatiche guidano in maniera mooolto prudente (il che è un bene ovviamente), ma questo può causare problemi finché ci sono alla guida di altre vetture anche gli esseri umani.

Avete presente il nonnetto che crea una fila infinita perché va a 30 Km/h in strade a scorrimento veloce? Bene l'idea è grosso modo la stessa: le auto di Google attualmente non tentano sorpassi, non superano ovviamente i limiti anzi vi si tengono ben stretti dentro, etc. Ogni operazione che eseguono è eseguita con la massima prudenza e controllo, e questo ovviamente cozza con la quotidianità del traffico cittadino, in cui l'errore umano è imprevedibile.

Tant'è che, in realtà, quando ho scritto che le auto di Google non hanno mai avuto incidenti sono stato appositamente vago: è vero, non hanno mai avuto incidenti dipesi direttamente da loro.
Dal 2009, anno di inizio della sperimentazione, in verità sono stati 13 gli incidenti totali in cui sono state coinvolte le vetture di BigG. Nessuna delle volte, però, si è trattato di incidenti gravi (nessun morto o ferito, nessun danno particolare) e mai la colpa è stata attribuita direttamente a tali vetture: in tutti i casi l'errore è stato sempre umano.

Si tratta comunque di numeri irrisori, se si pensa a quelli che solitamente si verificano nel quotidiano.


E visto che l'idea è proprio quella di ridurre al minimo il numero di incidenti (e non di creare automobili perfette), Google ha deciso di pubblicare online, tramite un apposito sito dedicato (http://www.google.com/selfdrivingcar/), report mensili dettagliati di tutti gli incidenti che si sono verificati e che si verificheranno con le proprie macchine.


Anche in questo settore, comunque, Google non è l'unica a tentare il controllo automatico di guida, o per lo meno di creazione di tecnologie che assistano l'uomo, per un futuro più sicuro in strada dove muoiono ogni anno milioni di persone.


Tango (...e Glass?)



Anche di Tango ne avevamo già sentito parlare durante il vecchio I/O, ma da allora esso è evoluto ed è stato graduato dall'ATAP (di più fra poco) a progetto Google.

Inizialmente previsto come tablet (in vendita esclusiva dietro invito, ma ora libero per tutti in USA a 512$), l'eccentrico strumento arriverà anche in forma di smart-phone, tramite un accordo tra Google e Qualcomm.

Ma che cos'è il progetto Tango?
Essenzialmente si tratta di uno strumento in grado di calcolare la profondità di uno spazio e di ricrearla virtualmente via software. Eh?

Immaginate di trovarvi in una stanza: voi, in quanto esseri umani, sarete perfettamente in grado di capire che c'è dello spazio intorno, che siete in una ambiente tridimensionale. Per un computer lo stesso ragionamento non è altrettanto immediato.

Con accelerometro e giroscopio è possibile calcolare lo spostamento sugli assi o gli angoli e quant'altro. Ma se siamo fermi? Inoltre non a caso ho parlato di spostamento: è possibile capire di quanto ci si è spostati, ma non di sapere se ci sono ostacoli davanti, le misure della stanza, etc.

Grazie, invece, ad un sistema di camere e ad un software, Tango è in grado di capire lo spazio che c'è attorno a noi, e una volta ricreato virtualmente... beh, non c'è limite all'immaginazione (qui un hands-on).

Ad esempio, tale strumento può essere utilizzato per l'Indoor Mapping, per capire dove ci troviamo all'interno di un edificio, cosa non sempre fattibile con gli strumenti tradizionali quali GPS o Wi-Fi, oppure altre soluzioni come i beacon che necessitano di rilevatori esterni installati nel luogo.

Ma questa è solo un'idea: si può pensare a sfruttare lo spazio intorno a noi per ricrearlo virtualmente sul dispositivo e sfruttare tale ambiente per creare dinamicamente -a tempo di esecuzione- degli scenari (senza quindi doverli creare prima dell'uso) per videogiochi, o per simulare situazioni reali in cui muoversi.
Esempi possono essere sparatutto in 3D in tempo reale, e volendo anche con più dispositivi connessi in contemporanea; oppure ricreare oggetti di grandi dimensioni, come case o automobili in cui muoversi all'interno e valutare colori, arredamenti e quant'altro in tempo reale.
O ancora avere misure automatiche degli oggetti che ci circondano...

Insomma di idee ne possono venire fuori infinite.
Ma non è a questo che punta il team di sviluppo di Tango.


L'idea è quella di arrivare a creare dei chip o comunque delle componenti che un giorno possano essere integrate all'interno di qualsiasi dispositivo e che ne diventino parte integrante. Un tempo sembrava assurdo avere il chip del GPS nei telefoni: oggi nessuno ne comprerebbe uno senza tale strumento.
L'idea è quella di arrivare ad una situazione simile.

Anche perché pensare di attirare masse di utenti su device ad-hoc solo per avere mappature di interni, demo o giochi 3D spaziali, non credo porterebbe a molto.

Tango perciò ha una sua dignità come progetto ed è completamente differente a quanto si prefiggono Cardboard per il VR ed i Google Glass per l'AR.


Già i Google Glass, ma che fine hanno fatto?
Li ho provati per un po' lo scorso anno ed effettivamente erano poco più di un giochino molto costoso.

Ma a Mountain View sono ancora aperti al progetto, che evolverà sicuramente in qualcos'altro visto soprattutto l'arrivo del fondatore di Nest come capo del team di ricerca.


Google's ATAP division



Ed ora inizia il bello!
Dopo aver finito "le lettere" di Google, iniziano quelle dell'ATAP.

Che cos'è l'ATAP? Ve ne avevo parlato un po' di tempo fa, ma fondamentalmente si tratta di una divisione altamente sperimentale incorporata in Google al tempo dell'acquisizione di Motorola (e non ceduta all'atto di svendita della casa dalla m alata ai cinesi di Lenovo).

Questa divisione è organizzata in modo da investigare su una determinata tecnologia, o più precisamente problema a cui trovare una soluzione, in tempi strettissimi e con budget ben definiti e limitati. Non è detto che queste idee arriveranno mai sul mercato, ma l'obiettivo non è quello: per la commercializzazione o l'evoluzione c'è Google, l'ATAP deve solo incanalare nel più breve tempo possibile le ricerche in una determinata direzione.

Quando scade il termine possono accadere tre cose: 1) il progetto è finito, viene passata la palla a Google (ad es. è quello che è successo per Tango) per le fasi successive; 2) il progetto non è finito e quindi viene abbandonato perché non realizzabile; 3) raramente, il progetto necessita di più tempo e gliene viene concesso con la condizione di una riorganizzazione delle attività e cambio di focus (come vedremo fra poco è successo ad uno dei progetti seguiti).


Il gruppo ATAP è formato da pochissime persone interne a Google e guidate da Regina Dugan (ex DARPA, da cui ha portato quel modus operandi appena descritto). Ma il team può fare accordi con esterni, e c'è un programma specifico a cui hanno aderito ben 500 enti tra università, governi, start-up, e così via. Questi accordi permettono di aggregare menti brillanti e portare a termine prima e con più probabilità di successo le varie sperimentazioni in corso (Google comunque continua a detenere i diritti di commercializzazione delle varie scoperte).

Al team che ama definirsi "una piccola banda di pirati" è stato affidato il compito più arduo di tutto l'I/O: ammaliare la folla.

E devo dire che i ragazzi hanno saputo come catalizzare l'attenzione.


Project Abacus



"Passwords sucks!".
Questa è stata l'apertura per la presentazione di Abacus.

Google è entrata in partnership con diverse università e a 25 esperti da separate istituzioni per una 90 giorni di ricerca al fine di continuare gli studi (già avviati dalle stesse) su una specifica tematica: eliminare le password dalla nostra vita digitale.

Con l'aiuto di circa 1500 persone, il team è riuscito ad impostare un sistema valutato come 10 volte più sicuro delle nostre impronte digitali.

Ma come funziona?
Essenzialmente tenendo conto di come digitiamo su tastiera o schermo, come camminiamo e ci muoviamo, come parliamo ed un'altra serie di vari segnali che emettiamo, il sistema è in grado di identificarci. E divenendo confidente della nostra persona, esso è in grado di autenticarci senza la necessità di richiedere PIN o Password.

Tutto il sistema si basa su punteggi di fiducia: lo score più alto è richiesto per l'accesso ad attività ad alto rischio, come applicazioni bancarie, mentre a livelli di sicurezza più bassi possono essere posizionati ad esempio giochini o altre applicazioni che non necessitano di dati personali.

Si tratta comunque di esperimenti e prima che essi riusciranno ad arrivare a livello commerciale potranno passare anche anni. Ma la strada è stata sicuramente indirizzata.


Project ARA



Che dire... non credo ci sia bisogno di molte presentazioni qui...

Di Project ARA, di come è nato e di come sta evolvendo ne ho parlato già più volte. Ed effettivamente non avevano molto da aggiungere nella presentazione (molto è stato spiegato durante la Embedded Linux Conference 2015, qui il video).

Un solo piccolo accenno al fatto che ora, ufficialmente, il prototipo del dispositivo funziona -così sembra- perfettamente (e scusate se è poco!), con l'attivazione "a caldo" dei moduli sull'Endo, e che il device è pronto per il lancio sperimentale estivo in Puerto Rico.

E sicuramente lo Spyral 2 sa scattare fotografie! :D

Just watched a man put together a smartphone in under a minute and take a photo with it. Google, hey. #io15 #atap

Ha sicuramente fatto la parte del leone, forse perché di tutti i progetti mostrati è quello che è in dirittura (anche se non è chiaro il quando) di graduazione dall'ATAP.

ARA è pronto, Google e l'ATAP ci tenevano a mostrarlo. Ma il tempo per il progetto è scaduto e viste le dure regole della divisione è stata scelta la terza tra le varie possibilità: riorganizzare il team e cambiare il focus.

Per questo motivo, Paul Eremenko (ex team leader del gruppo di ricerca) è andato via. E visto che ARA, come detto, è pronto, il focus è stato spostato sul progetto pilota che partirà nei prossimi mesi.


Sta per iniziare una nuova era, quella dei device modulari, e Google ovviamente è -scontato dirlo- in prima linea.

Ma in tanti fortunatamente si stanno affacciando all'idea di device scomponibili, configurabili a nostro piacimento, riparabili e potenzialmente utili per la riduzione dell'e-waste (inquinamento dovuto ai vecchi dispositivi elettronici non più utilizzati).

Sto parlando di Blocks, ad esempio, lo smart-watch modulare che ha finalmente svelato qualche carta in più rispetto agli annunci del passato: sarà mosso da un processore Qualcomm e avrà una versione modificata di Android Lollipop. Niente Androidwear, insomma, ma la scelta è comprensibile: sicuramente la versione ridotta del robottino verde non era sufficiente per gestire i moduli sostituibili.

Del resto anche per ARA si sono dovute apportare modifiche al cuore dell'OS per gestire i blocchetti.

Ci sono poi altri approcci, come quello intrapreso da Nexpaqs che punta alla creazione di una cover aggiuntiva compatibile con alcuni modelli già esistenti di smart-phone (come l'Apple iPhone ed alcuni Samsung Galaxy) ai quali aggiungere moduli esterni, gestiti da una applicazione studiata appositamente.

Personalmente ritengo la soluzione di Google molto più interessante, perché più completa e volta ad un pubblico decisamente più ampio (con tanto di MDK per gli sviluppatori, etc...). Ma sono contento ed eccitato dal fatto che la modularità stia prendendo davvero piede!


Project Jacquard & Soli




Se ARA ed Abacus non erano idee completamente inaspettate (del primo se ne parla da fine 2013-inizi 2014, ed il secondo è una estensione di ricerche accademiche), altre due sono state le vere sorprese svelate durante lo speech della divisione ATAP.

Proejct Jacquard e Project Soli sono le soluzioni proposte da Google ad un problema che sta sorgendo con l'avvento dei wearable.

Più una superficie di input, come lo schermo di un telefono o tablet, è grande più è facile impartire comandi. Ma allo stesso tempo è scomoda da maneggiare.
Più una superficie di input, come negli smart-watch o altri dispositivi wearable, è piccola più è facile renderla "invisibile" e trasportabile. Ma allo stesso tempo è scomodo interagirvi.

Affrontare questo problema può portare a due soluzioni: trovare il modo di migliorare l'interazione con superfici ridotte, mantenendo o riducendo ancora le dimensioni; oppure migliorare la portabilità di superfici grandi.

Jacquard è la proposta per migliorare la portabilità di superfici di input, e Soli quella per migliorare l'interazione con quelle di dimensioni ridotte.

Il lavoro del team di ricerca si è mosso, quindi, in entrambe le direzioni, presentando due prodotti per certi versi strabilianti. Le sfide da affrontare sono state differenti non solo per la natura del problema, ma anche per direzione stessa degli studi in merito.

Con Jacquard, l'ATAP ha cercato di estendere la gamma di superfici utilizzabili come input andando oltre ai classici schermi capacitivi: l'idea era quella di rendere qualsiasi materiale tessile uno strumento capace di dare input e controllare i nostri dispositivi elettronici. Chiaramente andando oltre a problemi puramente tecnologici: quali materiali? Come fare in modo che chi produce questi tessuti riesca a farlo senza dover stravolgere le proprie catene produttive? E così via...

Con Soli, invece, l'idea era quella di trovare modi alternativi di interagire con i device che andassero oltre al semplice tocco del display. Qui il problema era ovviamente più tecnologico: quale tecnologia utilizzare per superare i limiti dei display capacitivi?

Dopo mesi di ricerca, il team c'è riuscito: da una parte ha trovato il modo di integrare facilmente al classico processo produttivo di materiali tessili parte della tecnologia necessaria per far interagire i vestiti con il nostro smart-phone; e, dall'altra, ha trovato una soluzione per poter controllare un'interfaccia utente tramite gesti della nostra mano realizzando un chip a sensori radar di una precisione strabiliante.

La tecnologia per Jacquard, non è ancora completa del tutto: il team sta cercando il modo di minimizzare tutte le componenti necessarie per renderle completamente wearable. La direzione però sembra ben chiara, e se anche il progetto non dovesse arrivare direttamente sul mercato nella forma corrente, sicuramente vi arriverà sotto una futura evoluzione.

Ho parlato di mercato? Si perché Google ha stretto un accordo con Levi Strauss (Levi's), la nota marca di Jeans californiana, che dal 2016 immetterà appunto sul mercato tali tessuti "evoluti". E la presenza sul palco dell'I/O di Paul Dillinger ha sancito e confermato la partnership tra le due aziende, partnership che probabilmente è solo la prima di altre che verranno.


Durante l'evento, alcune demo dedicate al progetto hanno mostrato (qui, quo e qua degli hands-on) come sia possibile controllare la musica sul nostro telefono semplicemente toccando il materiale, oppure rispondere a telefonate o, in generale, controllare determinate azioni.
Sono chiaramente solo dei piccoli esempi di quello che è possibile fare con tale tecnologia, e non c'è limite all'immaginazione.
Per questo motivo gli sviluppatori sono invitati ad affrontare questa sfida assieme ai vari designer di moda.

Jacquard sfrutta dei sensori in grado di comunicare via protocollo Wi-Fi (a bassissimo consumo) con il nostro smart-phone. Qui una analisi completa del progetto.



L'obiettivo di Soli era invece quello di creare un chip che potesse essere integrato in futuri dispositivi wearable.
Questo chip è stato realizzato ed è in grado di analizzare un ampio fascio radar generato per misurare immagini doppler, IQ e spettrogramma. Con i gesti della nostra mano saremo in grado di controllare la UI per eseguire operazioni, semplicemente sfruttando il "vocabolario naturale di gesti" di cui disponiamo. Qui un'analisi approfondita.

Hardware e API per lo sviluppo saranno disponibili dalla fine di quest'anno.

Pronti per vivere Minority Report nella vita reale?


Spotlight Stories



Spotlight Stories non è una novità, ma se ne è parlato molto sul palco dell'I/O.

Perché?
Fondamentalmente per due motivi: è figo :P, ed è stato graduato (come successo a Gennaio per Tango), proprio in occasione dell'evento, dall'ATAP a Google.

Non tutti si ricorderanno, forse, che il Motorola Moto X (nelle sue due varianti 2013 e 2014) è stato l'unico dispositivo al mondo a poter installare una applicazione, Spotlight Stories appunto, in grado di far vivere storie originali che avevano anche un sistema di interazione innovativo.


La storia raccontata prevedeva interazione da parte dell'ascoltatore, il quale in realtà la rendeva viva interagendo con il proprio smart-phone, ad esempio sfruttando accelerometro e gli altri sensori.

Poco prima dell'I/O, però, è successo qualcosa: quella applicazione è diventata disponibile per molti altri dispositivi ed è passata dal team di sviluppo Motorola a quello Google. Segno che qualcosa doveva essere accaduto...

Ed infatti, come abbiamo scoperto durante lo speech dell'ATAP, il progetto è stato ampliato: tanto per cominciare quell'app arriverà anche per iOS, e poi l'intero progetto è stato trasformato in un vero e proprio kit pronto all'uso per registi che vogliano realizzare storie interattive per dispositivi mobili.

Per inaugurare questa nuova avventura è stata realizzata una storia interattiva in collaborazione con il regista Justin Lin (famoso per la serie Fast & Furious): Help!. Sono state utilizzate 6 videocamere RED, ed il risultato è veramente d'impatto.


Se è chiaro come l'utente può approcciarsi alla storia, come funziona lato regia Spotlight Stories?
Vi è un SDK (SoftwareStory Development Kit) che aiuta il regista nella creazione della storia: tutto ciò è stato costruito per affrontare dei problemi che in circostanze tradizionali non si verificano.

Pensate al classico film per il cinema: lì tutti gli spettatori guardano verso un unico punto ed è più facile studiare la scena, decidere come organizzare la sequenza, studiare le fonti e direzioni dei suoni.
Con l'intrattenimento a 360° sommato all'uso dei sensori di uno smart-phone, può capitare che l'utente non sia concentrato esattamente sul punto desiderato dal regista, oppure che lo sguardo dell'utente sia diretto in un punto errato rispetto a quello ottimo per la ricezione di suoni e rumori.

Per questi motivi il kit di sviluppo è in grado di aiutare per gli effetti audio, e può ad esempio permettere di bloccare la prosecuzione della scena finché l'utente non sposti lo sguardo nella giusta direzione. E tante tante altre possibilità creative!

A me questa cosa intriga molto!
Non vedo l'ora di poter giocare un po' con queste nuove storie interattive.


Project Vault



L'ultima idea presentata riguarda una soluzione per rendere definitivamente sicuri i nostri dati: Project Vault.

Essenzialmente si tratta di una microSD che può essere inserita in qualsiasi dispositivo in grado di supportane una. Ma in realtà non è una vera e propria microSD.

Si tratta di un computer miniaturizzato nella stessa identica forma di una schedina di memoria. Una volta che tale dispositivo viene inserito in un lettore microSD standard, Vault è in grado di generare istantaneamente una memoria di scambio fittizia da 4GB con due cartelle di accesso: una per scrivere contenuti e l'altra per leggerli.

Lo stesso dispositivo mette a disposizione uno strumento di scambio di messaggi criptati completamente affidabile poiché nulla passa per il telefono o computer ospite, e qualsiasi testo cifrato generato non può essere decifrato prima di arrivare a destinazione.

Attualmente non è previsto (per lo meno non nel breve termine) l'arrivo sul mercato di massa di tale strumento, ma esso sarà probabilmente proposto a enti governativi o a chi ha interesse in questo tipo di sicurezza estrema.

Assieme a Project Abacus, Project Vault è anche uno strumento rivolto all'eliminazione delle password.


What's Next?



Tra le tante presentazioni, interventi, sessioni e annunci, Google ha fatto trapelare informazioni anche su tantissimi altri progetti su cui sta lavorando.

Sappiamo come il gigante si stia muovendo nel campo della medicina, con progetti come le Smart Lenses (e simili studi sono in corso anche da parte di altri grandi nomi come Microsoft o la Thiel Foundation), oppure Calico (di cui, invece, si sa veramente poco).
Secondo alcuni dirigenti di Google entro il 2030 gli esseri umani saranno una specie di ibridi (già oggi con tutta la tecnologia che indossiamo non ci andiamo lontani).

Non so quanto di queste affermazioni possa essere preso con serietà o no, ma di certo la medicina e l'health in generale sono campi in cui la tecnologia si sta muovendo rapidamente. E tra le cose meno futuristiche, ma sempre semi assurde, su cui Google sta lavorando vi è una applicazione per Android, iOS e Chrome (che arriverà nei prossimi mesi) Study Kit -come viene denominato- creato in collaborazione con alcune università: esso dovrebbe essere in grado di capire cosa rende un essere umano perfettamente in salute.

Apple ha creato un kit, ResearchKit, tramite il quale gli utenti che utilizzano l'ecosistema della mela possono partecipare ad esperimenti e test creati sulla piattaforma (open-source) da ricercatori e quant'altro. Ma nel caso di Google il progetto sembra essere decisamente più ambizioso, e potrà coinvolgere tutte quelle tecnologie che BigG stessa sta costruendo nei suoi laboratori medici.



Altro settore in cui Google sta investigando è quello dei robot. Ricerche nel campo vengono fatte da tantissime aziende, anche nazionali (come la DARPA negli USA), e si stanno facendo dei passi da gigante.

Per approfondire sui robot:


Per rimanere nell'ambito dello sviluppo, Google ha annunciato che in autunno si terrà una conferenza sull'ubiquitous computing: unire le forze per realizzare delle linee guida da seguire nello sviluppo di applicazioni in modo che esse siano in grado di girare su diverse piattaforme.

Niente di più vago: dovremo attendere per capirne di più!


Wrap Up!



Il Google I/O è terminato il 29 Maggio 2015, ma delle tonnellate di idee e progetti di cui si è parlato riecheggeranno le voci per diversi mesi ancora.

A molte cose trapelate non ho nemmeno fatto accenno, altrimenti anche questo articolo non sarebbe più terminato :D
Ma ci sono diversi altri articoli sulla rete in cui è possibile trovare maggiori dettagli.

Google è un'azienda che ha molta pazienza: avvia n-mila progetti (moonshot) e ne segue lo sviluppo nel lungo periodo. Grazie alla divisione ATAP può sperimentare in brevissimi tempi in direzioni completamente slegate da quelle del business tradizionale. E con gli X Labs può arrivare in settori a grandissima riservatezza (chissà che diavolo uscirà fuori da lì!).

Le attività che vengono avviate non hanno fretta di giungere alla monetizzazione (cosa che invece accade in altri lidi) grazie ai grandissimi investimenti (anche se non tutti gli investitori sono poi così bravi a capire come funzioni Google) ed immensi proventi che arrivano dai servizi più utilizzati (come Search, Maps e Gmail).

Google sfida costantemente se stessa e questo è sicuramente uno dei motivi per cui difficilmente fallirà nel corso del tempo: sia indagando in nuove direzioni, sia mettendosi in competizione con sé stessa con approcci differenti agli stessi problemi (lo abbiamo visto anche oggi, come per praticamente ogni ambito ci sono sempre almeno 2 o più proposte di soluzione).
Di realtà come quella di Mountain View non ce ne sono molte: sicuramente non ce n'è nessun'altra dello stesso calibro e peso a livello mondiale.


E secondo voi quale è stata la cosa più "figherrima" (:D) presentata da BigG in questa due-giorni ricchissima?

Io sono indeciso...!
Per ora, quindi, vi saluto... E ci sentiamo presto :)