Intelligenza artificiale. Cosa succede quando i nostri computer diventano più intelligenti di noi? | TED

L‘intelligenza artificiale sta diventando più intelligente a passi da gigante: entro questo secolo, la ricerca suggerisce, l’intelligenza artificiale di un computer potrebbe essere “intelligente” come un essere umano. E poi, dice Nick Bostrom, ci raggiungerà: “L’intelligenza artificiale è l’ultima invenzione che l’umanità avrà mai bisogno di fare“. Filosofo e tecnologo, Bostrom ci chiede di riflettere sul mondo che stiamo costruendo in questo momento, guidato da macchine pensanti. Le nostre macchine intelligenti aiuteranno a preservare l’umanità e i nostri valori – o avranno valori propri?

Lavoro con molti matematici, filosofi e informatici. Ci sediamo e pensiamo al futuro dell’Intelligenza Artificiale, tra le altre cose. Alcuni pensano che alcune di queste cose siano roba di fantascienza, di là da venire, folli. Ma a me piace dire, okay, diamo un’occhiata alla condizione dell’uomo moderno. È così che vanno le cose, “normalmente”.

Ma se ci pensiamo, in realtà noi umani non siamo ospiti di questo pianeta da molto tempo. Pensate, se la Terra fosse stata creata un anno fa, la specie umana esisterebbe da soli 10 minuti. L’era industriale sarebbe iniziata due secondi fa. Un altro modo di vederlo è pensare al PIL mondiale negli ultimi 10.000 anni: mi sono permesso di mostrarvelo in un grafico. L’andamento è questo.  Strana curva, per una condizione normale. Certo non vorrei sedermi lì.

Chiediamoci, qual è la causa di questa anomalia? Alcuni direbbero che è la tecnologia. Ed è vero, la tecnologia si è accumulata nel corso della storia umana, e ora procede ad un ritmo estremamente rapido – questa è la causa più immediata, il motivo per cui ora siamo così produttivi. Ma vorrei andare a ritroso fino alla causa fondamentale.

Guardate questi due signori, molto diversi tra loro: Abbiamo Kanzi — che padroneggia 200 elementi lessicali, una caratteristica incredibile. E lui è Ed Witten, che ha lanciato la 2° rivoluzione delle superstringhe. Guardando sotto la fronte, ecco cosa troviamo: essenzialmente la stessa cosa. Sì, una è un po’ più larga, forse è anche cablata un po’ meglio. Tuttavia, queste differenze invisibili non possono essere troppo complicate perché sono passate solo 250.000 generazioni dall’ultimo progenitore comune. E sappiamo che i meccanismi complicati richiedono molto tempo per evolversi. Una manciata di modifiche minori, quindi, è bastata a portarci da Kanzi a Witten, dai rami spezzati ai missili balistici intercontinentali.

Sembra quindi abbastanza ovvio che tutto ciò che abbiamo conquistato, e a cui diamo valore, derivi sostanzialmente da alcuni ritocchi che hanno prodotto la mente umana. E il corollario, ovviamente, è che ogni modifica ulteriore che possa cambiare sostanzialmente il substrato del pensiero potrebbe avere conseguenze potenzialmente enormi.

Alcuni dei miei colleghi ritengono che siamo alla vigilia di qualcosa che potrebbe causare un profondo cambiamento in quel substrato, e quel qualcosa è la superintelligenza artificiale. L’Intelligenza Artificiale, un tempo, consisteva nel dare comandi a una scatola. C’erano programmatori umani che elaboravano “manualmente”, con fatica, tasselli di conoscenza. Si costruivano questi sistemi esperti che erano utili per qualche scopo, ma erano molto “fragili”, difficili da espandere. Sostanzialmente ottenevi solo quello che inserivi. Ma da allora c’è stata una rivoluzione nel settore dell’Intelligenza Artificiale.

Oggi, siamo concentrati sull’apprendimento macchina. Invece di inserire a mano rappresentazioni e caratteristiche della conoscenza, creiamo algoritmi che apprendono, spesso da dati percettivi grezzi. In pratica, la stessa cosa che fa un bambino. Il risultato è un’intelligenza artificiale che non si limita a un solo settore: lo stesso sistema può imparare a tradurre tra ogni coppia di linguaggi, o imparare a giocare ogni gioco della consolle Atari. Naturalmente, L’IA non è ancora neanche vicina alla potente, interdisciplinare capacità di imparare e progettare di un essere umano. La corteccia ha ancora vantaggi algoritmici che non sappiamo riprodurre nelle macchine.

Quindi la domanda è, quanto manca, prima che le macchine riescano a recuperare questi vantaggi? Un paio di anni fa, abbiamo fatto un sondaggio ad alcuni esperti mondiali di IA per vedere cosa pensassero, e una delle domande fu: “Entro quale anno pensate che vi sia una probabilità del 50% di ottenere un’intelligenza artificiale di livello umano?” Qui definiamo “di livello umano” l’abilità di eseguire quasi ogni lavoro almeno tanto bene quanto un umano, quindi di livello veramente umano, non solo in qualche dominio limitato. E la risposta mediana fu 2040 o 2050, a seconda del gruppo di esperti a cui chiedevamo. Potrebbe avvenire molto, molto più tardi, o prima, la realtà è che nessuno lo sa davvero.

Quello che sappiamo è che il limite all’elaborazione di informazioni su un substrato artificale va molto al di là dei limiti dei tessuti biologici. Le ragioni si trovano nella fisica. Un neurone biologico spara, forse, a 200 Hertz, 200 volte al secondo. Ma un transistor dei giorni nostri opera a GigaHertz. I neuroni si propagano lentamente lungo gli assoni, a massimo 100 mt/s. Ma un computer può instradare i segnali alla velocità della luce. Ci sono inoltre limiti dimensionali: un cervello umano deve stare all’interno di un cranio, mentre un computer può essere grande come un magazzino, o di più. Il potenziale della superintelligenza, quindi, giace nella materia, proprio come la forza dell’atomo si è nascosta nella storia umana, attendendo paziente il 1945. In questo secolo, gli scienziati potrebbero imparare a scatenare l’intelligenza artificiale. E penso che a quel punto potremmo osservare un’esplosione di intelligenza.

La maggior parte delle persone, quando pensano al genio e all’idiozia, penso che abbiano in mente più o meno un’immagine come questa. Abbiamo lo scemo del villaggio ad un estremo, e in posizione diametralmente opposta abbiamo Ed Witten, Albert Einstein o un altro vostro guru preferito. Ma penso che dal punto di vista dell’intelligenza artificiale, la vera immagine somigli più probabilmente a questa: l’IA inizia qui, a zero intelligenza, e poi, dopo molti, molti anni di lavoro veramente duro, alla fine forse arriviamo al livello di intelligenza di un topo, qualcosa che possa navigare in ambienti complessi bene quanto un topo. E poi, dopo molti, molti anni di duro lavoro, e molti investimenti, forse alla fine arriviamo a un’IA intelligente come uno scimpanzé. E poi, dopo ancora molti, molti anni di lavoro massacrante, arriviamo a un’IA al livello di uno scemo del villaggio. E pochi istanti dopo, avremo sorpassato Ed Witten. Il treno non si fermerà a Umanopoli. È più probabile che sfrecci oltre, invece.

Questo ha implicazioni profonde, soprattutto quando si parla di potere. Gli scimpanzé, ad esempio, sono forti– circa il doppio di un maschio umano in buona forma fisica. E tuttavia, il destino di Kanzi e dei suoi pari dipende molto di più dalle nostre azioni che dalle loro. Quando arriverà la superintelligenza, anche il nostro destino potrebbe dipenderne. Pensateci: L’IA è l’ultima invenzione che l’umanità dovrà mai creare. Le macchine saranno inventori migliori di noi, e agiranno in tempi “digitali”. Questo significa sostanzialmente un “avvicinamento” del futuro. Pensate a tutte le tecnologie folli che forse, a vostro avviso, gli umani potrebbero sviluppare: cure per l’invecchiamento, colonizzazione spaziale, nanobot auto-replicanti, caricare le proprie menti in un computer. Ogni sorta di roba fantascientifica e nondimeno permessa dalla fisica. Una superintelligenza potrebbe sviluppare tutto questo, e forse molto rapidamente.

Una superintelligenza con una tale maturità tecnologica sarebbe estremamente potente, e almeno in qualche scenario, potrebbe ottenere quel che vuole. A quel punto avremmo un futuro modellato sulle preferenze dell’IA. Una buona domanda a quel punto è: quali sono queste preferenze? Qui la cosa si fa intricata. Per trovare una via d’uscita, dobbiamo prima di tutto evitare l’antropomorfizzazione. Ed è ironico perché ogni articolo di giornale sul futuro dell’IA ha un’immagine come questa. Quindi penso che dovremmo concepire la questione in modo più astratto, non come un film di Hollywood.

Dobbiamo pensare all’intelligenza come a un processo di ottimizzazione, un processo che dirige il futuro verso un particolare set di configurazioni. Una superintelligenza è un processo di ottimizzazione davvero potente. È estremamente capace di usare i mezzi disponibili per ottenere una condizione in cui i suoi scopi sono realizzati. Quindi non c’è necessariamente una connessione tra l’essere molto intelligenti in questo senso e avere un obiettivo che noi umani riterremmo degno o significativo.

Supponiamo di dare all’AI l’obiettivo di far sorridere gli umani. Un’IA debole si limiterebbe a eseguire azioni utili o divertenti, che fanno sorridere il suo utente. Quando l’IA diventa superintelligente, capisce che c’è un modo più efficace di ottenere questo scopo: prendere il controllo del mondo, e infilare elettrodi nei muscoli facciali degli umani, causando una costante, accattivante smorfia. Un altro esempio: supponiamo di dare all’IA un problema matematico duro da risolvere. Quando l’IA diventa superintelligente, capisce che il modo più efficace di ottenere la soluzione al problema è trasformare il pianeta in un computer gigantesco, così da aumentare la sua capacità di pensiero. E notate: questo dà all’IA una ragione strumentale per farci subire cose che potremmo non approvare. Gli umani diventerebbero una minaccia, perché potremmo impedire la scoperta della soluzione.

Ovviamente, non è detto che le cose andranno male in questo preciso modo; sono esempi da cartone animato. Ma è importante cogliere il punto: se create un processo di ottimizzazione davvero potente che massimizzi l’obiettivo x, sinceratevi che la vostra definizione di x includa tutto ciò a cui tenete. È una lezione tramandata da molti miti, anche. Re Mida voleva trasformare in oro tutto ciò che toccava. Tocca sua figlia, e la trasforma in oro. Tocca il suo cibo, si trasforma in oro. È un esempio che potremmo considerare pregnante: non solo come metafora dell’avidità, ma anche perché illustra cosa succede se create un potente processo di ottimizzazione e gli affidate obiettivi indesiderabili, o male specificati.

Be’, mi direte, se un computer inizia a infilare elettrodi in faccia alla gente, basta spegnerlo. [Le mie obiezioni sono due:] A, non è detto che sia così semplice, se diventiamo dipendenti dal sistema — per esempio, dov’è l’interuttore per spegnere Internet? B, perché gli scimpanzé non hanno staccato l’interruttore dell’umanità, o i Neanderthal? Certamente avevano delle ragioni per farlo. Noi abbiamo un interruttore, per esempio qui. (Si strozza da solo) Il motivo è che siamo avversari intelligenti; possiamo anticipare le minacce e studiare come aggirarle. Ma anche un agente superintelligente potrebbe farlo, e ci riuscirebbe molto meglio di noi. Non dovremmo contare sul fatto di poterlo controllare.

E potremmo provare a semplificarci un po’ la vita, diciamo, mettendo l’IA in una “scatola”, come un ambiente virtuale sicuro, una ricostruzione della realtà da cui non può sfuggire. Ma quanto possiamo contare sul fatto che non trovi una falla nel codice? Visto che molti hacker umani scoprono bug in continuazione, direi che non dovremmo contarci molto. Potremmo scollegare il cavo Ethernet, creando un gap fisico. Ma anche in questo caso, molti hacker umani aggirano continuamente il problema con l’ingegneria sociale. Proprio ora, mentre parlo, sono sicuro che c’è qualche impiegato, là fuori, che sta dando i dettagli del suo account a qualcuno che si spaccia per il dipartimento IT.

E sono possibili anche scenari più creativi: se siete l’IA, ad esempio, potreste pensare a sguinzagliare degli elettrodi nei vostri circuiti per creare onde radio che potete usare per comunicare. Oppure potreste fingere di guastarvi, e quando i programmatori vi ispezionano per capire cosa non va, guardano al codice sorgente e BAM! ecco che avviene una manipolazione. Oppure potrebbe pubblicare il modello di una tecnologia affascinante, che quando la implementiamo produce dei sottili effetti collaterali, che l’IA aveva previsto. Non dovremmo contare sulla nostra capacità di chiudere una superintelligenza nella sua bottiglia in eterno. Prima o poi riuscirà ad uscire.

Credo che qui la risposta sia capire come creare un’IA superintelligente tale che se — quando — uscirà, resterà amichevole, fondamentalmente dalla nostra parte perché condivide i nostri valori. Non vedo scorciatoie a questo difficile problema.

Sono molto ottimista sulle nostre capacità di risolverlo. Non dovremmo scrivere una lunga lista di tutto ciò a cui diamo valore, o peggio ancora codificarlo in qualche linguaggio come C++ o Python, altrimenti sarebbe una sfida impossibile. Invece, dovremmo creare un’IA che usa la sua intelligenza per imparare a cosa diamo valore, e con un sistema motivazionale concepito per perseguire i nostri valori, o eseguire azioni che sa che approveremmo. Potremmo così sfruttare la sua intelligenza al massimo nel risolvere il problema dell’attribuzione di valore.

Possiamo farlo, e il risultato sarebbe molto positivo per l’umanità. Ma non avviene automaticamente. Le condizioni iniziali per questa esplosione di intelligenza potrebbero dover essere definite perfettamente, se quella che vogliamo è un’esplosione controllata. I valori dell’IA devono coincidere con i nostri, non solo nei contesti familiari, dove puoi facilmente controllare come si comporta, ma anche in tutti quei contesti nuovi che l’IA potrebbe incontrare in futuro.

E restano anche alcune questioni esoteriche da risolvere e chiarire: i dettagli su come prendere decisioni, come gestire l’incertezza logica, e così via. Quindi i problemi tecnici da risolvere sembrano molto difficili: non tanto quanto realizzare un’IA superintelligente, ma comunque molto difficili. Questa è la mia paura: realizzare un’IA superintelligente è già una sfida veramente dura; realizzare un’IA superintelligente e sicura pone sfide aggiuntive. Il rischio è che qualcuno capisca come vincere la prima sfida senza sapere ancora come vincere la sfida aggiuntiva di assicurare una perfetta sicurezza.

Penso quindi che dovremmo prima lavorare a una soluzione al problema del controllo, così da averla disponibile al momento del bisogno. Magari non riusciremo a risolvere tutto a priori, perché forse alcuni elementi possono essere messi a punto solo dopo aver conosciuto l’architettura che li implementa. Ma più problemi legati al controllo risolviamo in anticipo, più è probabile che la transizione all’era dell’intelligenza artificiale andrà a buon fine.

Ritengo che questa sia una cosa assolutamente da fare, e posso immaginare che se le cose andranno bene, tra un milione di anni la gente ripenserà a questo secolo e potrebbe ben dire che la sola cosa importante che abbiamo fatto fu risolvere questo problema

Altri post che potrebbero interessarti

Utilizzando il sito o continuando la navigazione accetti l'utilizzo dei cookie da parte nostra. maggiori informazioni

Questo sito utilizza i cookie per fornire la migliore esperienza di navigazione possibile. Continuando a utilizzare questo sito senza modificare le impostazioni dei cookie o cliccando su "Accetta" permetti il loro utilizzo.

Chiudi