Seguici anche su

14 giugno 2017

Realtà aumentata, se scatti una foto ti arriva la pubblicità

Snapchat, Facebook, Google... I big del digitale vogliono spiare ciò che vediamo attraverso lo smartphone. Per mostrarci réclame intelligenti

Federico Gennari Santori

Cos’è la pubblicità? La pagina all’interno di una rivista. Uno spot televisivo. Da qualche anno, un post sponsorizzato su Facebook. Gli strumenti sono diversi, i linguaggi anche. Il metodo, però, non è mai cambiato: le aziende si servono di media e celebrità per fare arrivare messaggi alle persone. Oggi, rispetto a dieci anni fa, possono usare le informazioni rilasciate in rete dagli utenti, ma nella maggioranza dei casi continuano a sparare nel mucchio, con il rischio di essere invasivi e inefficaci.

Cosa accadrebbe se si potessero mostrare avvisi in base a ciò che l’utente sta facendo in un preciso momento? E se, senza più intermediari, fossero i consumatori stessi a pubblicizzare un brand? Sono le due domande a cui le società di comunicazione più innovative vogliono rispondere cambiando radicalmente non solo lo storytelling, che ci ha accompagnato da Carosello a YouTube, ma la stessa concezione dello spot, persino quella del recentissimo social media advertising.

L’ultimo arrivato è Google, che durante la recente conferenza I/O, dedicata alle novità più importanti dell’anno, ha lanciato Google Lens, un’applicazione in grado di riconoscere gli oggetti che inquadriamo nel nostro obiettivo che arriverà «presto» sui dispositivi Android, ha detto dal palco l’ad Sundar Pichai. Passato perlopiù in sordina sui giornali italiani, Google Lens è lo strumento che segna un definitivo cambio di passo nella strategia di business del motore di ricerca. Per la prima volta Google sceglie di andare oltre le parole e le indicizzazioni, e trasforma la fotocamera dello smartphone in un motore di ricerca alternativo.

Pichai ha promesso che, puntando lo smartphone su un fiore Google saprà dirci a quale specie appartiene. Nel caso di un cartello con caratteri giapponesi, potrà fornirci una traduzione istantanea. Se passeremo di fronte all’ingresso di un ristorante, ci mostrerà come si chiama, a che ora chiude e quali recensioni ha ricevuto da parte degli utenti. Sarà anche possibile chiamare in causa l’assistente virtuale di Google, Assistant, per chiedergli valutazioni su un’immagine. Ma l’applauso più fragoroso, nella sala della I/O, è esploso quando il telefonino di Pichai ha letto e inserito in pochi secondi un interminabile codice di accesso a una rete wifi: tutto in automatico.

Per spiegare la nuova strategia Pichai parla di Google come di un’azienda «A.I. first», prima di tutto l’intelligenza artificiale. Il cambiamento è drastico: fino a oggi, per conoscere a quale specie appartiene un fiore, un utente deve tuffarsi negli sterminati database di Google; ora, grazie all’intelligenza artificiale dovrà solo dare l’input e aspettare una risposta univoca fornita direttamente dal sistema, come in un dialogo. E gli inserzionisti potranno raggiungere l’utente in base a ciò che ha appena visto e inquadrato. Qualche esempio? Un vivaio potrà mostrare un’offerta di piante simili a quelle che un utente ha appena inquadrato. E un ristorante potrebbe segnalare la sua offerta agli utenti che inquadrano trattorie nelle vicinanze…

► Continua sul numero di pagina99 in edicola dal 9 giugno o in edizione digitale

Altri articoli che potrebbero interessarti