“In questo momento, non sono più intelligenti di noi, per quanto ne so. Ma penso che presto potrebbero esserlo”, queste le parole di Geoffrey Hinton sull’intelligenza artificiale, dopo aver lasciato Google la scorsa settimana. Hinton ha anche riferito tramite Twitter di aver rinunciato al ruolo che ricopriva nella Big Tech per “parlare liberamente dei pericoli dell’IA”. Perché, dunque, dei pericoli ci sono.
Non è un caso che abbiamo voluto iniziare questa riflessione facendo riferimento alle parole di quello che, nell’ambiente, viene definito “il padrino dell’intelligenza artificiale”. Se il monito arriva da uno come lui, che da oltre dieci anni collaborava con Google per sviluppare nuove tecnologie, c’è da porsi alcune domande. Lavoro, vita privata, approccio alla realtà virtuale: l’intelligenza artificiale sta pian piano conquistando e “controllando” ognuno di questi aspetti. Di recente, ad esempio, abbiamo visto come presto – nei prossimi cinque anni – l’IA potrebbe mettere a rischio migliaia di posti di lavoro, andando a rendere totalmente infruttuoso il fattore umano in determinate professioni (clicca qui per approfondire).
Inoltre, vi abbiamo anche parlato di ChatGPT e delle disposizioni del Garante della Privacy italiano per interrompere la raccolta illecita dei dati da parte del chatbot di OpenAI (leggi qui). In proposito, bisogna specificare che, proprio durante la scorsa settimana, ChatGPT è tornato disponibile in Italia, dopo aver introdotto nuove funzioni per la privacy.
Quando Hinton si dice preoccupato per il futuro dell’intelligenza artificiale pone, volente o nolente, chi lo ascolta in una posizione scomoda: perché lo racconta proprio oggi? Cosa sta accadendo? Quali sono i suoi interessi? Domande legittime, che forse trovano la risposta sia in delle interviste che l’informatico ha rilasciato a New York Times e BBC, sia nell’ultimo recentissimo annuncio di Google.
Geoffrey Hinton: “Se non lo avessi fatto io, l’avrebbe fatto qualcun altro”
Alla BBC Hinton ha raccontato: “Mi consolo con la solita scusa: se non l’avessi fatto io, l’avrebbe fatto qualcun altro” riferendosi al suo lavoro sull’intelligenza artificiale e sul deep learning. Poi ha aggiunto: “In questo momento, quello che stiamo vedendo è che cose come GPT-4 oscurano una persona nella quantità di conoscenza generale che ha e la oscura di gran lunga. In termini di ragionamento non è così buono, ma fa già un semplice ragionamento. E dato il ritmo dei progressi, ci aspettiamo che le cose migliorino abbastanza velocemente. Quindi dobbiamo preoccuparcene”. Secondo Hinton, dunque, la linea di demarcazione è stata superata: l’intelligenza artificiale formula ragionamenti, anche se non complessi, li formula.
L’informatico non si dice rammaricato, anzi, specifica che non avesse investito lui energie e competenze nel lavoro sull’intelligenza artificiale, lo avrebbero fatto altri. Però, adesso, abbandona la nave e lancia un allarme.
Il caso Lemoine
La scorsa estate, un caso simile aveva già alimentato il dibattito pubblico sul tema. Blake Lemoine, ingegnere del software in forze all’organizzazione Responsible A.I. di Google, era stato messo in congedo forzato dal colosso di Silicon Valley, per aver definito il LaMDA (language model for dialogue applications), ovvero il modello di IA a cui lavorava, senziente, quindi capace di sviluppare pensieri e, forse, di provare sentimenti.
Lemoine, nel giugno 2022, aveva riferito ai media di aver avuto una lunga conversazione con il suo modello. Al Washington Post, infatti, specificava che: “Se non sapessi esattamente cos’è, ovvero questo programma informatico che abbiamo costruito di recente, penserei che si tratta di un bambino di sette, otto anni che per caso conosce la fisica”. Google aveva allora prontamente ribattuto che Lemoine da tempo non sembrava più essere in sé, tanto da richiedere una visita specialistica con uno psichiatra, e che era stato posto in congedo perché aveva violato le politiche di riservatezza dell’azienda.
Attualmente il Google non ha ufficialmente commentato le parole di Hinton, né le sue dimissioni. Però, per caso o no, ha fatto trapelare una grande novità che per certi versi lo riguarda.
Google cambia (inter)faccia: il nuovo modello, in rodaggio, del motore di ricerca
Ad annunciarlo è il Wall Street Journal: il prossimo mercoledì 10 maggio Big G. svelerà, in occasione di una conferenza per sviluppatori Google, un enorme cambiamento. Sembra, infatti, che verrà lanciata una prima versione del motore di ricerca potenziato con l’intelligenza artificiale Bard, ovvero quella che può definirsi la risposta di Google a ChatGPT.
La nuova versione non solo aprirà un varco per i social network, quindi spingerà i contenuti derivanti dalle piattaforme (foto, video, post…) tra i primi risultati di ricerca, ma andrà anche a scavare più a fondo nelle intenzioni degli utenti: ovvero la navigazione su Google diventerà quasi del tutto personalizzata. Big G saprà quali corde toccare, ancor prima che lo capiscano gli utenti stessi. Una soluzione sempre a portata di mano. Umano chiede, Google risponde, dispone, e indirizza.
“In questo momento, non sono più intelligenti di noi, per quanto ne so. Ma penso che presto potrebbero esserlo”…