L’intelligenza artificiale cosciente merita dei diritti? | Big Think

L’intelligenza artificiale – e, più specificamente, l’intelligenza artificiale cosciente – merita diritti morali? In questa esplorazione del pensiero, il biologo evoluzionista Richard Dawkins, la professoressa di etica e tecnologia Joanna Bryson, la filosofa e scienziata cognitiva Susan Schneider, il fisico Max Tegmark, il filosofo Peter Singer e il bioeticista Glenn Cohen pesano tutti la questione dei diritti dell’IA.

Data la grave tragedia della schiavitù nel corso della storia umana, i filosofi e i tecnologi devono rispondere a questa domanda prima dello sviluppo tecnologico per evitare che l’umanità crei una classe schiava di esseri coscienti.

Una potenziale salvaguardia contro questo? La regolamentazione. Una volta definito il contesto in cui l’IA richiede diritti, la soluzione più semplice può essere quella di non costruire quella cosa.

RICHARD DAWKINS: Quando si arriva all’intelligenza artificiale e alla possibilità di una loro presa di coscienza, si raggiunge una profonda difficoltà filosofica. Io sono un naturalista filosofico; sono convinto che non c’è nulla nel nostro cervello che violi le leggi della fisica, non c’è nulla che non possa, in linea di principio, essere riprodotto nella tecnologia. Non è ancora stato fatto; probabilmente ne siamo molto lontani, ma non vedo perché in futuro non si debba arrivare al punto in cui un robot fatto dall’uomo sia capace di percepire la coscienza e di provare dolore.

BABY X: Da. Da.

MARK SAGAR: Sì, proprio così. Molto bene.

BABY X: Da. Da.

MARK SAGAR: Sì.

BABY X: Da. Da.

MARK SAGAR: Esatto.

JOANNA BRYSON: Quindi, una delle cose che abbiamo fatto l’anno scorso, che è stato piuttosto fico, i titoli dei giornali, perché stavamo replicando alcune cose di psicologia su pregiudizi impliciti – in realtà, la migliore è qualcosa come ‘Gli scienziati dimostrano che l’IA è sessista e razzista ed è colpa nostra’, il che, questo è abbastanza preciso perché si tratta davvero di prendere le cose dalla nostra società. Comunque, il punto era, quindi ecco un sistema di Intelligenza Artificiale che è così umano che ha raccolto i nostri pregiudizi e quant’altro ed è solo un vettore. Non è una scimmia, non conquisterà il mondo, non farà nulla, è solo una rappresentazione, è come una fotografia. Non possiamo fidarci delle nostre intuizioni su queste cose.

SUSAN SCHNEIDER: Allora perché dovrebbe importarci se l’intelligenza artificiale è cosciente? Beh, visti i rapidi sviluppi dell’intelligenza artificiale, non sarebbe sorprendente se entro i prossimi 30-80 anni iniziassimo a sviluppare intelligenze generali molto sofisticate. Potrebbero non essere esattamente come gli esseri umani, potrebbero non essere intelligenti come noi, ma potrebbero essere esseri senzienti. Se sono esseri coscienti, abbiamo bisogno di modi per determinare se questo è il caso. Sarebbe terribile se, per esempio, li mandassimo a combattere le nostre guerre, li costringessimo a pulire le nostre case, li rendessimo essenzialmente una classe di schiavi. Non vogliamo commettere questo errore, vogliamo essere sensibili a questi problemi, quindi dobbiamo sviluppare modi per determinare se l’intelligenza artificiale è cosciente o meno.

ALEX GARLAND: Il Test di Turing è stato un test stabilito da Alan Turing, il padre dell’informatica moderna. Egli capì che a un certo punto le macchine su cui stavano lavorando potevano diventare macchine pensanti invece di semplici macchine calcolatrici e ideò un test molto semplice.

DOMHNALL GLEESON (NEL PERSONAGGIO): È quando un essere umano interagisce con un computer e se l’essere umano non sa di interagire con un computer il test è superato.

DOMHNALL GLEESON: E questo test di Turing è una cosa reale e non è mai, mai stato superato.

ALEX GARLAND: Quello che il film fa è impegnarsi con l’idea che prima o poi accadrà. La domanda è a cosa porta.

MARK SAGAR: Così può vedermi e sentirmi. Ehi, tesoro, sorridi a papà. Ora, non sta copiando il mio sorriso, sta rispondendo al mio sorriso. Abbiamo diversi tipi di neuromodulatori, che potete vedere quassù. Così, per esempio, io abbandonerò la bambina, me ne andrò via e lei comincerà a chiedersi dove sono andato. E se si guarda su dove si trova il topo, si dovrebbe iniziare a vedere i livelli di cortisolo e altri tipi di neuromodulatori che si alzano. Diventerà sempre più… questa è una risposta di angoscia da separazione materna da mammifero. Va tutto bene, tesoro. Va tutto bene. Aw. Va tutto bene. Ehi. Va tutto bene.

RICHARD DAWKINS: Questo è profondamente inquietante perché va controcorrente pensare che una macchina fatta di trucioli di metallo e silicio possa provare dolore, ma non vedo perché non dovrebbe. E così, questa considerazione morale su come trattare i robot artificialmente intelligenti sorgerà in futuro ed è un problema di cui i filosofi e i filosofi morali stanno già parlando.

SUSAN SCHNEIDER: Quindi, supponiamo di trovare il modo di concepire la coscienza nelle macchine, può darsi che vogliamo deliberatamente fare in modo che certe macchine non siano coscienti. Così, per esempio, consideriamo una macchina che invieremmo per smantellare un reattore nucleare e quindi, in sostanza, probabilmente la manderemmo a morire, o una macchina che invieremmo in una zona di guerra. Vorremmo davvero inviare macchine coscienti in queste circostanze? Sarebbe etico? Si potrebbe dire, forse possiamo modificare le loro menti in modo che si godano quello che stanno facendo o che non si preoccupino del sacrificio, ma questo entra in alcune questioni ingegneristiche molto radicate che sono di natura etica e che risalgono a Brave New World, per esempio, situazioni in cui gli esseri umani sono stati geneticamente modificati e hanno preso un farmaco chiamato Soma in modo da voler vivere le vite che gli sono state date. Quindi, dobbiamo davvero pensare al giusto approccio. Quindi, potrebbe essere il caso di concepire deliberatamente macchine per certi compiti che non sono coscienti.

MAX TEGMARK: Alcuni potrebbero preferire che il loro futuro robot aiutante domestico sia uno zombie inconscio, in modo da non doversi sentire in colpa per avergli dato compiti noiosi o per averlo spento, altri potrebbero preferire che sia cosciente, in modo che ci possa essere un’esperienza positiva lì dentro, e così non si sentono spaventati da questa macchina che finge di essere cosciente anche se è uno zombie.

JOANNA BRYSON: Quando sapremo con certezza che dobbiamo preoccuparci dei robot? Beh, ci sono molte domande, ma coscienza è un’altra di quelle parole. La parola che mi piace usare è “paziente morale”; è un termine tecnico che hanno inventato i filosofi e significa esattamente qualcosa di cui siamo obbligati a prenderci cura. Quindi, ora possiamo avere questa conversazione: Se per “paziente morale” si intende solo conscio, allora non è una grande supposizione dire bene, allora se è conscio, allora dobbiamo prendercene cura. Ma è molto più figo se si può dire: La coscienza richiede pazienza morale? E poi possiamo sederci e dire: beh, dipende da cosa intendi per coscienza. Le persone usano la coscienza per significare un sacco di cose diverse.

Molte persone che questo li frega, è perché hanno visto Blade Runner o AI il film o qualcosa del genere, in molti di questi film non stiamo parlando di AI, non stiamo parlando di qualcosa progettato dalle fondamenta, stiamo parlando fondamentalmente di cloni. E i cloni sono una situazione diversa. Se hai qualcosa che è esattamente come una persona, comunque sia stato fatto, allora va bene, è esattamente come una persona e ha bisogno di quel tipo di protezione. Ma la gente pensa che non sia etico creare cloni umani, in parte perché non vogliono appesantire qualcuno con la consapevolezza che si suppone che sia qualcun altro, giusto, che ci sia stata un’altra persona che li ha scelti per essere quella persona. Non so se riusciremo ad attenerci a questo, ma direi che i cloni di IA rientrano nella stessa categoria. Se tu stessi davvero per fare qualcosa e poi dicessi, ehi, congratulazioni, tu sei me e devi fare quello che dico io, non vorrei che fossi io a dirmi cosa fare, se questo ha senso, se ce ne fossero due di me. Giusto? Penso che vorremmo essere entrambi uguali e quindi non vuoi avere un artefatto di qualcosa che hai deliberatamente costruito e che possiederai. Se hai qualcosa che è una specie di servo umanoide che possiedi, allora la parola giusta è schiavo. E così, stavo cercando di stabilire che, guarda, noi possediamo tutto ciò che costruiamo e quindi sarebbe sbagliato farne una persona perché abbiamo già stabilito che la schiavitù delle persone è sbagliata e cattiva e illegale. E così, non mi è mai venuto in mente che la gente lo prenda per significare che oh, i robot saranno persone che noi trattiamo davvero male. È come se non fosse esattamente il contrario.

Diamo diritti alle cose perché è il modo migliore che possiamo trovare per gestire situazioni molto complicate. E le cose che diamo diritti sono fondamentalmente persone. Voglio dire, alcune persone discutono degli animali ma, tecnicamente, e anche questo dipende dalla definizione tecnica che si usa, ma tecnicamente i diritti sono di solito cose che vengono con le responsabilità e che si possono difendere in un tribunale. Quindi, di solito si parla di benessere degli animali e si parla di diritti umani. Ma con l’intelligenza artificiale si può anche immaginare di conoscere i propri diritti e di difendersi in tribunale, ma la domanda è: perché dovremmo proteggere l’intelligenza artificiale con i diritti? Perché è il modo migliore per proteggerla? Quindi, con gli esseri umani è perché siamo fragili, è perché c’è solo uno di noi e, in realtà penso che questo sia orribilmente riduzionista, ma in realtà penso che sia solo il modo migliore che abbiamo trovato per poter cooperare. È una sorta di riconoscimento del fatto che siamo tutti fondamentalmente la stessa cosa, le stesse cose, e abbiamo dovuto trovare una sorta di, il termine tecnico, ancora una volta, è equilibrio; abbiamo dovuto trovare un modo per condividere il pianeta e non siamo riusciti a farlo in modo completamente equo, come se tutti avessero la stessa quantità di spazio, ma in realtà tutti noi vogliamo essere riconosciuti per i nostri risultati, quindi anche completamente equo non è completamente equo, se questo ha senso. E non voglio essere faceto, è vero che non si possono fare tutte le cose che si vorrebbero per equità in una volta sola. Questo è solo un dato di fatto del mondo, è un dato di fatto del modo in cui definiamo l’equità. Quindi, visto quanto è difficile essere giusti, perché dovremmo costruire un’intelligenza artificiale che ha bisogno che noi siamo giusti nei suoi confronti? Quindi, quello che sto cercando di fare è semplificare il problema e concentrarci su ciò che non possiamo aiutare, ovvero la condizione umana. E raccomando che se si specifica qualcosa, se si dice ok, questo è il momento in cui si ha davvero bisogno di diritti in questo contesto, ok, una volta stabilito che non lo si costruisce.

PETER SINGER: Esattamente dove collocheremmo i robot dipenderebbe da quali capacità crediamo che abbiano. Posso immaginare che potremmo creare dei robot che si limitino al livello di intelligenza di animali non umani, forse neanche i più intelligenti animali non umani, potrebbero comunque svolgere compiti di routine per noi, potrebbero andare a prendere le cose per noi a comando vocale. Non è molto difficile da immaginare. Ma non credo che sarebbe necessariamente un essere senziente. E quindi, se fosse solo un robot che abbiamo capito come funzionava esattamente, non è molto lontano da quello che abbiamo ora, non credo che avrebbe diritto ad alcun diritto o status morale. Ma se fosse a un livello superiore, se fossimo convinti che si trattasse di un essere cosciente, allora il tipo di status morale che avrebbe dipenderebbe esattamente da quale livello di coscienza e quale livello di consapevolezza. È più simile a un maiale, per esempio? Beh, allora dovrebbe avere gli stessi diritti di un maiale – che, tra l’altro, penso che stiamo violando ogni giorno su larga scala per il modo in cui trattiamo i maiali nelle fattorie. Quindi, non sto dicendo che un robot del genere dovrebbe essere trattato come i maiali vengono trattati nella nostra società di oggi. Al contrario, dovrebbe essere trattato nel rispetto dei loro desideri e della loro consapevolezza e della loro capacità di provare dolore e della loro natura sociale, tutte cose di cui dovremmo tenere conto quando siamo responsabili della vita dei maiali anche noi dovremmo tener conto quando siamo responsabili della vita dei robot a un livello simile. Ma se creassimo dei robot che sono al nostro livello, allora penso che dovremmo dare loro davvero gli stessi diritti che abbiamo noi. Non ci sarebbe alcuna giustificazione per dire, oh, sì, ma noi siamo una creatura biologica e tu sei un robot; non credo che questo abbia nulla a che fare con lo status morale di un essere.

GLENN COHEN: Una possibilità è che lei dica: Una condizione necessaria per essere una persona è essere un essere umano. Quindi, molte persone sono attratte da questo argomento e dicono: Solo gli esseri umani possono essere persone. Tutte le persone sono persone. Ora, può darsi che non tutti gli esseri umani siano persone, ma tutte le persone sono esseri umani. Bene, c’è un problema con questo e questo è messo in evidenza con forza dal filosofo Peter Singer, il bioeticista Peter Singer, che dice di rifiutare una specie, la possibilità che una specie abbia dei diritti e debba essere un paziente per la considerazione morale, il tipo di cose che hanno considerazione morale sulla base del semplice fatto che non sono un membro della vostra specie, dice, equivale moralmente a rifiutare di dare diritti o considerazione morale a qualcuno sulla base della sua razza. Quindi, dice che lo specismo equivale al razzismo. E l’argomento è: Immaginate di aver incontrato qualcuno che è proprio come voi sotto ogni aspetto possibile, ma è venuto fuori che in realtà non era un membro della specie umana, era un marziano, diciamo, o era un robot e veramente esattamente come voi. Perché saresti giustificato a dar loro meno considerazione morale?

Quindi, le persone che credono nelle opinioni della capacità X devono almeno essere aperte alla possibilità che l’intelligenza artificiale possa avere le capacità rilevanti, anche se non sono umane e quindi qualificate per la personalità. Dall’altro lato del continuum, una delle implicazioni è che si potrebbero avere membri della specie umana che non sono persone e quindi i bambini anencefalici, bambini nati con molto poco sopra il tronco cerebrale in termini di struttura cerebrale, sono spesso dati come esempio. Sono chiaramente membri della specie umana, ma le loro capacità di avere il tipo di capacità che la maggior parte delle persone pensa che la materia sia relativamente poca e lontana tra loro. Quindi, ci si trova in questa posizione scomoda in cui si potrebbe essere costretti a riconoscere che alcuni esseri umani sono non-persone e alcuni non-umani sono persone.

Ora, di nuovo, se si morde il rospo e si dice: “Sono disposto a essere uno specialista; essere un membro della specie umana è necessario o sufficiente per essere una persona”, si evita del tutto questo problema. Ma se non lo si fa, bisogna almeno essere aperti alla possibilità che l’intelligenza artificiale in particolare possa a un certo punto diventare una persona e avere i diritti delle persone. E penso che questo spaventi molte persone, ma in realtà, a me, quando si guarda il corso della storia umana e si guarda come volentieri siamo stati nel dichiarare alcune persone non persone dalla legge, schiavi in questo paese, per esempio, mi sembra che un po’ di umiltà e un po’ di apertura a questa idea non sia la cosa peggiore del mondo.

Altri post che potrebbero interessarti

Utilizzando il sito o continuando la navigazione accetti l'utilizzo dei cookie da parte nostra. maggiori informazioni

Questo sito utilizza i cookie per fornire la migliore esperienza di navigazione possibile. Continuando a utilizzare questo sito senza modificare le impostazioni dei cookie o cliccando su "Accetta" permetti il loro utilizzo.

Chiudi