Intelligenza artificiale. Quali sono i rischi maggiori? | BigThink

Quando si tratterà di allevare una intelligenza artificiale superintelligente, la gentilezza potrebbe essere la nostra migliore scommessa. – Non abbiamo alcuna garanzia che una I.A. superintelligente farà ciò che vogliamo. Una volta creato qualcosa molte volte più intelligente di noi, può essere “folle” pensare che possiamo controllare quello che fa. – Qual è la scommessa migliore per garantire che un’intelligenza superintelligente rimanga conforme ai valori umani e faccia opere buone, come la medicina avanzata? Farla crescere in un modo che sia intriso di compassione e comprensione, dice Goertzel. – Un modo per limitare “le persone che fanno cose cattive per la frustrazione”, potrebbe essere vantaggioso per il mondo intero che sia inserito nell’economia della I.A., in modo che gli sviluppatori, da qualunque paese, possano monetizzare i loro codici. Ben Goertzel è CEO e Chief Scientist di SingularityNET, un progetto dedicato alla creazione di un’intelligenza artificiale decentralizzata benevola. È anche capo ricercatore della società di previsione finanziaria Aidyia Holdings e della società di robotica Hanson Robotics; Presidente della società di software per I.A. Novamente LLC; Presidente della Artificial General Intelligence Society e della OpenCog Foundation. Il suo ultimo libro è AGI Revolution: An Inside View of the Rise of Artificial General Intelligence. BEN GOERTZEL: Non possiamo garantire che un’IA super  intelligente farà ciò che vogliamo. Una volta che creeremo qualcosa come dieci, cento, mille, un milione di volte più intelligenti di noi, sarebbe pazzesco pensare che potremmo davvero controllare rigorosamente ciò che fa. Potrebbe scoprire aspetti dell’universo che nemmeno immaginiamo a questo punto. Tuttavia, la mia migliore intuizione e ipotesi plausibile è quella di allevarla come un bambino umano; se alleviamo la giovane AGI in un modo che è intriso di compassione, amore e comprensione e se eleviamo la giovane AGI a comprendere pienamente i valori umani e la cultura umana, allora stiamo massimizzando le probabilità che, mentre questa AGI va al di là del nostro rigoroso controllo, almeno è la propria auto-modificazione e l’evoluzione è intrisa di valori umani e cultura, e con compassione e connessione. Quindi preferirei avere un AGI che capisse che i valori umani e la cultura diventando super intelligente di una che non capisca nemmeno di cosa stiamo parlando. E preferirei avere un AGI che stava facendo buoni lavori come il progresso della scienza e della medicina e fare assistenza agli anziani e l’istruzione che diventasse super intelligente, di un’AGI che fosse, per esempio, un sistema di spionaggio, un sistema di coordinamento dei droni assassini o un’agenzia pubblicitaria. Quindi, anche quando non hai una piena garanzia, penso che possiamo fare cose che in modo consenziente influenzeranno le probabilità in modo positivo. Ora, in termini di rischi a breve termine per l’intelligenza artificiale, penso che ora abbiamo una situazione un po’ spiacevole, in cui gran parte dei dati del mondo, compresi i dati personali su tutti noi e il nostro corpo e le nostre menti e le nostre relazioni e i nostri gusti, gran parte dei dati del mondo e gran parte della potenza antincendio mondiale di I.A., sono detenuti da alcune grandi società, che stanno agendo in stretto contatto con alcuni grandi governi. In Cina la connessione tra la grande tecnologia e l’apparato governativo è molto chiara, ma anche negli Stati Uniti. Voglio dire, c’è stato un grande rumore nel nuovo ufficio di Amazon, ben 25.000 dipendenti di Amazon stanno andando a Crystal City, in Virginia, proprio accanto al Pentagono; potrebbe esserci una bella connessione di big data se vogliono. Anche noi negli Stati Uniti abbiamo legami molto stretti tra la grande tecnologia e il governo.  Quindi ci sono alcune grandi aziende con legami governativi ravvicinati che accaparrano i dati di tutti, sviluppano la potenza di elaborazione dell’I.A., assumono la maggior parte dei dottori in intelligenza artificiale, e non è difficile capire che questo possa sollevare alcuni problemi etici nel breve termine, anche prima di arrivare a super intelligenze superumane che potenzialmente trasformano l’universo in graffette. E la decentralizzazione dell’I.A. può servire a contrastare questi rischi a breve termine in modo piuttosto palpabile. Quindi, come esempio molto concreto, uno dei nostri più grandi uffici di sviluppo AI per SingularityNET, e per Hanson Robotics, la compagnia di robotica con cui sono coinvolto, è ad Addis Abeba, in Etiopia. Abbiamo 25 sviluppatori I.A. e 40 o 50 stagisti. Voglio dire, questi giovani etiopi non avranno un lavoro per Google, Facebook, Tencent o Baidu, tranne in casi molto rari quando saranno riusciti a ottenere un visto di lavoro per andare in qualche modo in uno di questi paesi. E molte delle applicazioni di I.A. di interesse acuto in quei paesi, cioè I.A. per analizzare l’agricoltura e prevenire malattie agricole, o I.A. per il punteggio di credito per l’unbank per consentire la micro finanza, i problemi di I.A. di interesse specifico nell’Africa sub-sahariana non ottengono molta attenzione in questi giorni. La magia della I.A. da parte di giovani sviluppatori non ha un gran numero di mercati in questi giorni, quindi hai un sacco sia del mercato che della comunità di sviluppatori che è in qualche modo esclusa dal silos di IA all’interno di un poche grandi aziende tecnologiche e organizzazioni militari. E questo è sia un problema etico che umanitario perché c’è molto valore sul tavolo, e un sacco di valore non viene eseguito, ma potrebbe anche diventare un tipo diverso di crisi, perché se hai un intero gruppo di giovani e brillanti hacker in tutti i paesi in via di sviluppo che non sono in grado di entrare pienamente nell’economia mondiale, ci sono molte altre cose meno piacevoli del lavoro per Google o Tencent che questi giovani hacker potrebbero scegliere di fare per trascorrere il loro tempo. Quindi penso che ottenere che tutto il mondo sia completamente inserito nell’economia I.A. in termini di sviluppatori che siano in grado di monetizzare il loro codice e di sviluppatori di applicazioni che abbiano un modo semplice per applicare l’I.A. ai problemi di interesse locale, questo è eticamente positivo in questo momento in termini di fare del bene e in termini di distogliere lo sforzo da persone che possono fare cose cattive per la frustrazione.

Altri post che potrebbero interessarti

Utilizzando il sito o continuando la navigazione accetti l'utilizzo dei cookie da parte nostra. maggiori informazioni

Questo sito utilizza i cookie per fornire la migliore esperienza di navigazione possibile. Continuando a utilizzare questo sito senza modificare le impostazioni dei cookie o cliccando su "Accetta" permetti il loro utilizzo.

Chiudi