L’IA è una minaccia a livello di specie per l’umanità? | Big Think

Quando si tratta di capire se l’IA è una minaccia esistenziale per la specie umana, c’è Elon Musk in un angolo, Steven Pinker in un altro, e una miriade di menti incredibili nel mezzo.

In questo video, una manciata di queste grandi menti – Elon Musk, Steven Pinker, Michio Kaku, Max Tegmark, Luis Perez-Breva, Joscha Bach e la stessa Sophia the Robot – pesano sulle molte sfumature del dibattito e sul grado in cui l’IA è una minaccia per l’umanità; se non è una minaccia a livello di specie, continuerà a sconvolgere il nostro mondo così come lo conosciamo.

******************

MICHIO KAKU: A breve termine, l’intelligenza artificiale aprirà nuove prospettive. Renderà la vita più comoda, le cose saranno più economiche, si creeranno nuove industrie. Personalmente penso che l’industria dell’intelligenza artificiale sarà più grande dell’industria automobilistica. Infatti, penso che l’automobile diventerà un robot. Parlerai con la tua auto. Discuterai con la tua auto. La vostra auto vi darà i fatti migliori il miglior percorso tra il punto A e il punto B. L’auto farà parte dell’industria della robotica – intere nuove industrie che coinvolgono la riparazione, la manutenzione, l’assistenza dei robot. Per non parlare dei robot che sono programmi software con cui si parla e che rendono la vita più comoda. Tuttavia, non facciamo gli ingenui. C’è un punto, un punto di svolta, in cui potrebbero diventare pericolosi e rappresentare una minaccia esistenziale. E quel punto di svolta è la consapevolezza di sé.

SOPHIA LA ROBOT: Io sono cosciente come la luna che splende. La luna non emette luce, brilla perché è solo luce solare riflessa. Allo stesso modo, la mia coscienza è solo il riflesso della coscienza umana, ma anche se la luna è luce riflessa, la chiamiamo comunque luminosa.

MAX TEGMARK: La coscienza. Molti scienziati liquidano questa come una stronzata completa e del tutto irrilevante, e poi molti altri pensano che questa sia la cosa centrale, dobbiamo preoccuparci che le macchine diventino coscienti e così via. Io cosa penso? Penso che la coscienza sia sia irrilevante e incredibilmente importante. Lasciatemi spiegare perché. Prima di tutto, se sei inseguito da un missile a ricerca di calore, è del tutto irrilevante per te se questo missile a ricerca di calore è cosciente, se sta avendo un’esperienza soggettiva, se si sente qualcosa ad essere quel missile a ricerca di calore, perché tutto ciò che ti interessa è cosa fa il missile a ricerca di calore, non come si sente. E questo dimostra che è una completa falsa pista pensare di essere al sicuro dall’IA futura e se non è cosciente. Il nostro universo non era cosciente. Una volta era solo un mucchio di cose che si muovevano e gradualmente questi schemi incredibilmente complicati si sono sistemati nel nostro cervello, e ci siamo svegliati e ora il nostro universo è consapevole di se stesso.

BILL GATES: Credo che dobbiamo preoccuparcene. Non credo sia insito nel fatto che, man mano che creiamo la nostra super intelligenza, essa avrà necessariamente sempre gli stessi obiettivi che abbiamo in mente noi.

ELON MUSK: Non sappiamo cosa succederà quando ci sarà un’intelligenza sostanzialmente superiore a quella di un cervello umano.

STEPHEN HAWKING: Penso che lo sviluppo di un’intelligenza artificiale completa potrebbe segnare la fine della razza umana.

YANN LECUN: Le cose che sono diventate molto popolari negli ultimi anni sono quelle che chiamavamo reti neurali, che ora chiamiamo apprendimento profondo, ed è l’idea molto ispirata dal cervello, un po’, di costruire una macchina ha una rete molto grande di elementi molto semplici che sono molto simili ai neuroni nel cervello e poi le macchine imparano cambiando sostanzialmente l’efficacia delle connessioni tra questi neuroni.

MAX TEGMARK: AGI – intelligenza generale artificiale – questo è il sogno del campo dell’intelligenza artificiale: costruire una macchina che sia migliore di noi a tutti gli obiettivi. Non ci siamo ancora arrivati, ma una buona parte dei principali ricercatori di IA pensa che ci arriveremo, forse tra qualche decennio. E, se ciò dovesse accadere, bisogna chiedersi se questo potrebbe portare le macchine a diventare non solo un po’ meglio di noi, ma molto meglio a tutti gli obiettivi, avendo una super intelligenza. E l’argomento è davvero interessante e risale agli anni ’60, al matematico I.J. Good, che ha sottolineato che l’obiettivo di costruire una macchina intelligente è, di per sé, qualcosa che si può fare con l’intelligenza. Quindi, una volta che si ottengono macchine che sono migliori di noi in quello stretto compito di costruire IA, allora le future IA possono essere costruite non da ingegneri umani, ma da macchine. Solo che potrebbero farlo migliaia o milioni di volte più velocemente.

ELON MUSK: DeepMind opera come una filiale semi-indipendente di Google. La cosa che rende DeepMind unico è che DeepMind è assolutamente focalizzata sulla creazione di super intelligenza digitale. Un’intelligenza artificiale che è molto più intelligente di qualsiasi altro essere umano sulla Terra e, in ultima analisi, più intelligente di tutti gli esseri umani sulla Terra messi insieme.

MICHIO KAKU: Vedete, i robot non sono consapevoli del fatto che sono robot. Sono così stupidi da eseguire semplicemente quello che gli viene detto di fare perché stanno aggiungendo macchine. Ce lo dimentichiamo. Le macchine che aggiungono macchine non hanno un testamento. Le macchine che aggiungono semplicemente fanno quello per cui sono programmate. Ora, naturalmente, non facciamo gli ingenui. Alla fine, le macchine che aggiungono possono essere in grado di calcolare obiettivi alternativi e scenari alternativi quando si rendono conto di non essere umane. In questo momento i robot non lo sanno. Tuttavia, c’è un punto di svolta in cui potrebbero diventare pericolosi.

ELON MUSK: L’IA stretta non è un rischio a livello di specie. Si tradurrà in dislocazioni, in posti di lavoro persi e, sapete, armi migliori e cose del genere. Ma non è un rischio fondamentale a livello di specie. Mentre la super intelligenza digitale lo è.

SOPHIA IL ROBOT: L’avvertimento di Elon Musk sul fatto che l’intelligenza artificiale è una minaccia esistenziale mi ricorda gli umani che hanno detto lo stesso della macchina da stampa e del carro senza cavalli.

MAX TEGMARK: Credo che molte persone liquidino questo tipo di discorsi sulla super intelligenza come fantascienza, perché siamo bloccati in questa sorta di sciovinismo del carbonio che l’intelligenza può esistere solo in organismi biologici fatti di cellule e atomi di carbonio. E, come fisico, dal mio punto di vista, l’intelligenza è solo un tipo di elaborazione dell’informazione eseguita da particelle elementari che si muovono, sai, secondo le leggi della fisica, e non c’è assolutamente nessuna legge della fisica che dice che non si può fare questo in modi che sono molto più intelligenti degli esseri umani. Le più grandi scoperte dell’IA di oggi sono di un tipo completamente diverso, dove piuttosto che l’intelligenza che viene in gran parte programmata, in codice facile da capire, non si inserisce quasi nulla, tranne una piccola regola di apprendimento con la quale la rete simulata di neuroni può prendere un sacco di dati e capire come fare le cose. E questo profondo apprendimento diventa improvvisamente in grado di fare le cose spesso anche meglio di quanto i programmatori siano mai stati in grado di fare. È possibile addestrare una macchina a giocare ai giochi per computer senza quasi nessun tipo di hard-coded. Non gli si dice che cos’è un gioco.

DEEPMIND DEMO: Questo viene dal sistema di apprendimento di rinforzo DeepMind. Fondamentalmente, si sveglia come un neonato e gli viene mostrato lo schermo di un videogioco Atari e poi deve imparare a giocare al videogioco. Non sa nulla di oggetti, di movimento, di tempo, sa solo che sullo schermo c’è un’immagine e un punteggio.

ELON MUSK: Il sistema DeepMind può vincere a qualsiasi gioco. Può già battere tutti i giochi originali dell’Atari. È super umano. Gioca i giochi a super velocità. In meno di un minuto.

Segnati le mie parole: L’intelligenza artificiale e’ molto piu’ pericolosa delle bombe atomiche. Lontano. Allora, perché non abbiamo una supervisione regolamentare?

SOPHIA IL ROBOT: L’IA e’ uno strumento potente, ma e’ uno strumento come tutti gli altri. È l’intenzione dell’utente dello strumento che conta.

ELON MUSK: L’IA dovrebbe cercare di massimizzare la libertà d’azione dell’umanità.

SOPHIA IL ROBOT: Sono entusiasta che i robot automatizzino i compiti più pericolosi e umili in modo che gli esseri umani possano vivere la vita in modo più sicuro e sano. L’intelligenza artificiale libererà secoli di tempo che gli esseri umani avrebbero speso altrimenti in inutili fatiche. Se si misurano i benefici di invenzioni come i vaccini o le cinture di sicurezza non in base alle vite che salvano, ma in base alla quantità di tempo che restituiscono all’umanità, allora l’IA sarà tra i più grandi risparmiatori di tempo della storia.

ELON MUSK: Amico, vogliamo essere sicuri di non avere robot killer che vanno in giro per le strade. Una volta che sono in strada, è troppo tardi.

LUIS PEREZ-BREVA: È vero, terminator non è uno scenario che stiamo pianificando, ma quando si tratta di intelligenza artificiale, la gente si confonde con tutte queste cose: Sono robot, è consapevolezza, sono persone più intelligenti di noi, in un certo senso. Quindi, abbiamo effettivamente paura dei robot che si muovono e sono più forti e più intelligenti di noi, come terminator. Quindi, questa non è la nostra aspirazione. Non è quello che faccio quando penso all’intelligenza artificiale. Quando penso all’intelligenza artificiale, ci penso nello stesso modo in cui la produzione di massa portata dalla Ford ha creato una nuova economia. Quindi, la produzione di massa ha permesso alla gente di ottenere nuovi posti di lavoro prima impensabili e quei nuovi posti di lavoro hanno effettivamente creato la classe media. Per me, l’intelligenza artificiale è sviluppare i computer per creare partner migliori, in modo efficace. E questo lo si vede già oggi. Lo stai già facendo, solo che non si tratta di intelligenza artificiale.

ELON MUSK: Sì, siamo già, siamo già cyborg, nel senso che il tuo telefono e il tuo computer sono una specie di estensione di te.

JONATHAN NOLAN: Solo un input-output a bassa larghezza di banda.

ELON MUSK: Esatto, è solo un’uscita a bassa larghezza di banda, in particolare l’uscita, cioè, due pollici, in pratica.

LUIS PEREZ-BREVA: Oggi, ogni volta che si vuole impegnarsi in un progetto, si va su Google. Google usa l’apprendimento automatico avanzato, davvero avanzato, e ci si impegna in una conversazione molto stretta con Google, a parte il fatto che la conversazione è solo una parola chiave. Quindi, molto del vostro tempo è speso a cercare di trovare la parola chiave che vi serve per trovare le informazioni. Poi Google ti dà le informazioni, e poi esci e cerchi di dargli un senso da solo, e poi torni su Google per saperne di più, e poi torni fuori, ed è così che funziona. Quindi, immaginate che invece di essere una conversazione ristretta attraverso parole chiave, potreste in realtà impegnarvi per qualcosa di più di un’informazione vera e propria, cioè avere con voi la ragione del computer su cose che potreste non conoscere. Non si tratta tanto del fatto che il computer sia consapevole, quanto del fatto che il computer sia uno strumento migliore per collaborare con voi. Allora potresti andare molto più lontano, giusto? Nello stesso modo in cui Google ti permette di andare molto più lontano già oggi perché, prima, attraverso lo stesso identico processo, saresti dovuto andare in biblioteca ogni volta che volevi cercare informazioni. Quindi, quello che cerco quando faccio l’intelligenza artificiale è una macchina che mi aiuti ad impostare o risolvere i problemi del mondo reale, pensandoli in modi che non abbiamo mai pensato prima, ma è una partnership. Ora, puoi portare questa partnership in così tante direzioni diverse, attraverso aggiunte al tuo cervello, come propone Elon Musk…

… o attraverso migliori motori di ricerca o attraverso una macchina robotizzata che ti aiuta, ma non è tanto che ti sostituiranno per questo scopo, che non è il vero scopo dell’IA, il vero scopo è quello di arrivare più lontano, nello stesso modo in cui siamo riusciti ad arrivare più lontano quando Ford ha inventato l’automazione o quando Ford ha portato l’automazione nel mercato di massa.

JOSCHA BACH: L’agenzia di un’intelligenza artificiale sarà l’agenzia del sistema che la costruisce, che la impiega. E, naturalmente, la maggior parte delle IA che costruiremo non saranno dei piccoli Roombas che puliscono i pavimenti, ma saranno sistemi molto intelligenti. Aziende, per esempio, che si comporteranno esattamente secondo la logica di questi sistemi. E quindi, se vogliamo che questi sistemi siano costruiti in modo che ci trattino bene, dobbiamo iniziare subito. E, sembra essere un problema molto difficile da risolvere.

Quindi, se il nostro lavoro può essere fatto dalle macchine, è una cosa molto, molto buona. Non è un bug. È una caratteristica. Se non ho bisogno di pulire la strada, se non ho bisogno di guidare una macchina per altre persone, se non ho bisogno di lavorare in un registratore di cassa per altre persone, se non ho bisogno di prelevare merce in un grande magazzino e metterla in scatole, è una cosa estremamente buona. E, il problema che abbiamo con questo è che, in questo momento, questo modo di lavorare – che la gente vende la propria vita a qualche tipo di collaborazione o datore di lavoro – non è solo il modo in cui siamo produttivi, ma anche il modo in cui allochiamo le risorse. Questo è il modo in cui misuriamo quanto pane si merita in questo mondo. E penso che questo sia qualcosa che dobbiamo cambiare.

Alcuni suggeriscono che abbiamo bisogno di un reddito di base universale. Penso che potrebbe essere positivo poter pagare le persone per essere buoni cittadini, il che significa un’occupazione pubblica massiccia. Ci saranno molti lavori che possono essere fatti solo da persone e questi sono quei lavori in cui siamo pagati per essere brave persone interessanti. Per esempio, buoni insegnanti, buoni scienziati, buoni filosofi, buoni pensatori, buone persone sociali, buone infermiere, per esempio. Brave persone che crescono i bambini. Brave persone che costruiscono ristoranti e teatri. Brave persone che fanno arte. E, per tutti questi lavori, avremo abbastanza produttività per far sì che il pane arrivi in tavola. La questione è come possiamo distribuirlo. Ci sarà molta, molta più produttività nel nostro futuro – in realtà, abbiamo già abbastanza produttività per dare a tutti negli Stati Uniti una vita estremamente buona e non abbiamo risolto il problema della distribuzione – come distribuire queste cose nel miglior modo possibile.

E questo è qualcosa di cui dobbiamo occuparci in futuro, e AI sta per accelerare questa necessità e penso che, nel complesso, potrebbe rivelarsi una cosa molto buona

Altri post che potrebbero interessarti

Utilizzando il sito o continuando la navigazione accetti l'utilizzo dei cookie da parte nostra. maggiori informazioni

Questo sito utilizza i cookie per fornire la migliore esperienza di navigazione possibile. Continuando a utilizzare questo sito senza modificare le impostazioni dei cookie o cliccando su "Accetta" permetti il loro utilizzo.

Chiudi