A che punto siamo con l’intelligenza artificiale generale?

Intelligenza Artificiale

25 Genn, 2021 - Fonte: https://www.wired.it/attualita/tech/2021/01/25/a-che-punto-siamo-con-lintelligenza-artificiale-generale/

Potrebbero mancare pochi anni o non essere nemmeno all'orizzonte: perché prima di tutto bisogna capire di che cosa parliamo, quando parliamo di Agi

“Arriverà tra noi in tempi molto rapidi e poi dovremo capire che cosa possiamo fare. Sempre che si possa fare qualcosa”. Il soggetto di questa frase è la superintelligenza artificiale, mentre le funeste previsioni sul suo impatto – come forse avrete immaginato – appartengono al solito Elon Musk, uno che non si è mai tirato indietro quando c’è da prefigurare l’imminente avvento di una Ai in stile Skynet capace di mettere a rischio l’umanità.

Questa volta, però, qualcuno ha deciso di mettere mano alla tastiera e rispondere alle esternazioni del fondatore di Tesla e SpaceX: “Elon Musk non sa di cosa parla quando parla di Ai”, ha scritto su Twitter Jerome Pesenti, uno dei massimi esperti mondiali di intelligenza artificiale oggi a capo del dipartimento Ai di Facebook. “Non esiste nulla di simile alla Agi [Artificial General Intelligence, Ndr] e non siamo neanche lontanamente vicini a raggiungere l’intelligenza umana” (Elon Musk ha replicato: “Facebook fa schifo”).

Chi ha ragione? Siamo davvero a pochi anni di distanza da un’intelligenza artificiale di livello umano oppure non è nemmeno ancora in vista? A dare retta ai pesi massimi del deep learning (il sistema algoritmico oggi sinonimo di Ai) ha ragione Pesenti: Andrew Ng (co-fondatore di Google Brain), Yann LeCun (vincitore del Turing Award 2018 oggi a Facebook), Yoshua Bengio (anche lui Turing Award 2018) e altri pionieri del settore sono concordi che l’avvento di una Agi – un’intelligenza artificiale dalle caratteristiche simili, pari o superiori a quelle umane – sia oggi fantascienza.


I progressi della AI

Eppure non si possono negare i costanti e impressionanti progressi che sono alla base di queste fantasie sci-fi. Oltre agli arcinoti esempi di AlphaGo (algoritmo capace di sconfiggere il campione mondiale di un gioco incredibilmente complesso come il Go) e di AlphaZero (che dopo sole nove ore di allenamento è diventato imbattibile a scacchi), possiamo guardare anche al recente Gpt-3: il più vasto algoritmo di deep learning mai creato (175 miliardi di parametri, l’equivalente digitale delle nostre sinapsi) e addestrato con 450 gigabytes di dati all’interno dei quali è contenuta anche l’intera Wikipedia in lingua inglese.

Progettato per scrivere testi di ogni tipo, Gpt-3 è stato in grado di redigere un lungo editoriale dal sapore filosofico per il Guardian in cui – citando Matrix, la Rivoluzione industriale e lanciandosi in sottili ragionamenti logici – ha smontato la tesi secondo cui dovremmo temere le intelligenze artificiali troppo intelligenti. Eppure, neanche in questo caso ci troviamo di fronte a una vera dimostrazione di intelligenza. Per farla molto breve (qui trovate una spiegazione più dettagliata), Gpt-3 non ha la più pallida idea di cosa sta scrivendo e si limita a calcolare statisticamente – in seguito a un lunghissimo addestramento con milioni di dati – quale frase abbia più probabilità di completare logicamente quella precedente. Più che vera intelligenza, siamo di fronte a un’immensa opera di taglia e cuci probabilistico.

Tutto questo, comunque, non significa che nei più avanzati laboratori del mondo non si stia realmente cercando di progettare l’intelligenza artificiale generale. Tutt’altro: sono in particolare due i centri di ricerca che lavorano esplicitamente a questo obiettivo: la londinese DeepMind (che ha progettato AlphaZero) e la statunitense OpenAi (ideatrice di Gpt-3 e finanziata inizialmente proprio da Elon Musk), che punta a diventare la prima società a costruire una macchina in grado di ragionare come un essere umano.

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *