Direttamente dal blog di Cristiana Falcone, riteniamo molto interessante pubblicare il suo articolo in cui parla di Google e delle nuove applicazioni di intelligenza artificiale.
Negli ultimi tempi, l’intelligenza artificiale è sempre più al centro della scena, in quanto i grandi colossi del Web 2.0, come Google, cercano di farsi sempre più spazio con nuovi strumenti tecnologici performanti e soluzioni innovative. In effetti, per garantire il rispetto dei diritti fondamentali delle persone, i sistemi di intelligenza artificiale sono fondamentali per la loro natura accurata, non discriminatoria e trasparente.
Ad esempio, una delle ultime tecnologie sviluppate da Google è la tecnologia LaMDA, acronimo di “Language Model for Dialogue Applications“. Il suo obiettivo è quello di utilizzare l’intelligenza artificiale per simulare una conversazione umana. Si tratta infatti di una tecnologia AI in grado di spaziare su un numero infinito di argomenti, dotata di una capacità di interazione piacevole e reattiva, istruita a comprendere vari contesti e a rispondere sempre in modo appropriato. Si tratta di un’estensione di quello che viene chiamato NPL, acronimo di Natural Language Processing, in cui si cerca appunto di elaborare il linguaggio naturale, in modo da comprendere le parole generate dall’uomo e saper rispondere ad esse. Un esempio certamente familiare a tutti in questo settore è l’assistente vocale, un’applicazione dell’intelligenza artificiale in cui si cerca di interagire con l’uomo per fornirgli informazioni, eseguire comandi (soprattutto nella domotica), fargli utilizzare applicazioni, condividere musica e molto altro.
Un altro esempio di applicazione che sta diventando sempre più di moda sono i chatbot, spesso conosciuti anche semplicemente come bot (abbreviazione di robot). Si tratta di software basati sull’intelligenza artificiale in cui viene simulata una conversazione intelligente in chat. In questo modo, viene spesso facilitato un servizio di assistenza sempre attivo, 24 ore su 24, 7 giorni su 7, completamente autonomo, che fornisce agli utenti aiuto, risposte, traccia i loro interessi e le loro preferenze in termini di marketing. Per questi motivi, questa tecnologia viene utilizzata nei servizi di assistenza nei social network come Facebook, WhatsApp, Telegram, ma anche da testate giornalistiche, servizi di assistenza bancaria, e-commerce e molti altri servizi agli utenti.
Ma questi nuovi strumenti sono davvero sicuri e rispettosi della privacy? Consideriamo ad esempio Amazon Echo: con il solo uso della voce può fornire assistenza e aiuto pratico agli esseri umani, ma in cambio di cosa? Quanto sappiamo della protezione dei dati personali nel campo dell’intelligenza artificiale? A questo proposito, Google ha annunciato tra le sue ultime novità l’arrivo dell’algoritmo Mum, acronimo di Multitasking Unified Model. Si tratta di una nuova tecnologia basata sull’Intelligenza Artificiale, che simula le sinapsi nervose del cervello umano per restituire risultati di ricerca ancora più pertinenti alle richieste degli utenti, grazie al suo funzionamento multimodale (include informazioni testuali, immagini, audio e video) e al suo “addestramento” in 75 lingue diverse. Questa tecnologia imita il comportamento del cervello umano in quanto non viene istruita come le normali reti da un particolare algoritmo, ma è in grado di individuare la soluzione ai problemi che gli vengono posti, basandosi sulle esperienze accumulate nel tempo e quindi sui vari esempi che ha incontrato. Proprio come un cervello, inoltre, le reti neurali artificiali sono composte da tanti semplici processori (i neuroni artificiali) interconnessi tra loro, simili ai neuroni biologici. Anche in termini di privacy queste reti neurali si differenziano da altre tecnologie di IA, perché sono caratterizzate da una certa trasparenza che rende l’utente consapevole di interagire con una macchina. È l’utente a decidere se interagire o meno con la macchina, quindi i diritti fondamentali delle persone interessate, in particolare il diritto alla libera circolazione, alla non discriminazione, alla protezione della privacy e dei dati personali, alla protezione internazionale e alla buona amministrazione, sono garantiti da questi sistemi di IA. Tutto ciò, a condizione che vengano utilizzati adeguati sistemi di valutazione e mitigazione dei rischi, appropriate misure di supervisione umana ed elevati livelli di robustezza, sicurezza e accuratezza.
A proposito di Cristiana Falcone
- Cristiana Falcone vanta oltre 20 anni di esperienza professionale nella elaborazione di strategie ed implementazione di partnership per lo sviluppo del business maturata collaborando con i leader di aziende multinazionali (SONY, Shell, Revlon), interagendo con organizzazioni governative internazionali (ILO, IFAD, FAO, UNDCCP, IADB) e operando nel mondo dei media (Radio Televisione Italiana, Gruppo Espresso, Univision, Viacom).
- Nel 2004 dirige la sezione Media, Intrattenimento, Informazione e Sport del World Economic Forum per poi diventare Senior Advisor dell’Executive Chairman e Fondatore che le affida in particolare la responsabilità dello sviluppo di servizi e prodotti innovativi e la valutazione del rischio geopolitico legato alle tecnologie emergenti. Dal 2006 è CEO e membro del Consiglio di Amministrazione della JMCMRJ Sorrell Foundation che promuove iniziative innovative globali nell’ambito della salute, dell’educazione e della riduzione della povertà per il raggiungimento degli obiettivi UN SDG. È membro dei Consigli di Amministrazione del Paley Center for Media, di Internews, della Tufts University, del Summit Institute e della Fondazione Guido Carli.