Intelligenza Artificiale. La nostra abilità a generarla ha sorpassato la nostra saggezza? | Big Think

Alcune delle persone più intelligenti delle società più finanziate al mondo non sembrano capaci di rispondere a questa semplice domanda: qual è il pericolo nel creare qualcosa di più intelligente di te? Hanno creato un’intelligenza artificiale così intelligente che il “deep learning” ha di fatto superato in astuzia le persone che l’hanno creato.

Introduzione

Il motivo è il codice di stile “blackbox” su cui si basa l’intelligenza artificiale. Esso è costruito esclusivamente per diventare più intelligente, e non abbiamo modo di regolamentare tale conoscenza.

Potrebbe non sembrare una cosa terribile se si vuole costruire una superintelligenza. Ma tutti noi abbiamo sperimentato qualcosa di piccolo che non va, o un bug, nella nostra attuale elettronica di largo consumo. Immaginiamo questo. Un Robogiudice che può condannare a 10 anni di prigione qualcuno senza altra spiegazione se non una semplice frase. “Sono stato alimentato con gli opportuni dati e questo è quello che calcolo“. Oppure un errore nell’intelligenza artificiale di un aeroporto trafficato. Potrebbe essere una catastrofe.

Abbiamo bisogno di regolamentazione adesso, prima di creare qualcosa che non possiamo controllare. Il libro di Max TegmarkLife 3.0: Essere umani nell’età dell’intelligenza artificiale” viene annunciato come uno dei migliori libri sull’intelligenza artificiale, punto. Ed è una lettura obbligata se si è interessati all’argomento.

La situazione passata

L’autore è ottimista sul fatto che si possa creare un futuro fantastico con la tecnologia finché si sarà capaci di vincere la gara tra la crescente potenza della tecnologia e la crescente saggezza con cui essa viene gestita. Questo è in realtà sempre più difficile a causa degli sviluppi tecnici nel campo dell’IA.

Una volta, quando si scrisse lo stato dell’arte di una IA come il computer Deep Blue di IBM che sconfisse Garry Kasparov negli scacchi un paio di decenni fa, tutta l’intelligenza era fondamentalmente programmata da umani che sapevano come giocare a scacchi; poi il computer ha vinto la partita solo perché poteva pensare più velocemente e ricordare di più. Ma, da allora, abbiamo capito bene il software.

Capire cosa fa un sistema di intelligenza artificiale è uno di quei pezzi di saggezza che bisogna avere per essere in grado di fidarsi davvero. Il motivo per cui oggi abbiamo così tanti problemi con i sistemi che vengono violati o bloccati a causa di bug è esattamente perché non abbiamo capito i sistemi così bene come dovrebbero essere.

La situazione attuale

Ora, quello che sta succedendo è affascinante; le più grandi scoperte dell’IA di oggi sono di un tipo completamente diverso. Sono di un tipo in cui anziché l’intelligenza è ampiamente programmata in un codice facile da capire, non si inserisce quasi nulla, tranne una piccola regola di apprendimento grazie alla quale un arco simulato di neuroni può prendere un sacco di dati e capire come fare le cose. Questo deep learning diventa improvvisamente in grado di fare cose spesso anche migliori di quanto i programmatori siano mai stati in grado di fare.

Si può allenare una macchina per giocare con i giochi per computer senza quasi nessun hard-code. Non gli si dice che cos’è un gioco, quali siano le cose sullo schermo, o anche che esista una cosa come uno schermo. Basta inserire un sacco di dati sui colori dei pixel e dire ” Ehi vai avanti e massimizza quel numero nell’angolo in alto a sinistra“, e quando si torna a rigiocare si scopre che gradualmente la macchina sta giocando un gioco molto meglio di quanto si sarebbe potuto fare noi umani.

La sfida con questo, anche se è molto potente, è molto “blackbox”, cioè molto oscura. La macchina ora, sì, fa tutte quelle cose grandiose, ma noi non capiamo come.

Un esempio pratico

Supponiamo di essere condannati a dieci anni di carcere da un Robogiudice in futuro e chiedere “Perché?”. E ci viene detto: “Sono stato alimentato con gli opportuni dati e questa era la decisione più giusta:” Non è così soddisfacente per noi, no?

Oppure, si supponga che la macchina che si occupa della nostra rete elettrica subisca improvvisamente dei malfunzionamenti e che qualcuno dica: “Beh, non abbiamo idea del perché. L’abbiamo allenata su molti dati e ha funzionato“. Questo esempio non infonde il tipo di fiducia che vogliamo mettere nei vari sistemi automatici.

Conclusione

Quando ottieni la schermata blu quando Windows si blocca o Ruota la ruota del destino perché il Mac si blocca, “fastidioso” è probabilmente l’emozione principale che abbiamo. Ma “fastidioso” non è l’emozione che abbiamo se si vola su un aeroplano e questo si schianta; o se il software che controlla l’arsenale nucleare degli Stati Uniti sballa, o qualunque cosa del genere.

Dato che l’intelligenza artificiale sta diventando sempre più importante nel mondo, dobbiamo assolutamente trasformare i sistemi IA pieni di errori di oggi in sistemi IA di cui ci possiamo davvero fidare.

Altri post che potrebbero interessarti