- In:
- Posted By: Capuano Edoardo
- Commenti: 0
Un team internazionale di informatici ha utilizzato calcoli teorici per dimostrare che sarebbe fondamentalmente impossibile controllare un'intelligenza artificiale super intelligente.
Siamo affascinati dalle macchine in grado di controllare automobili, comporre sinfonie o sconfiggere le persone al gioco degli scacchi! Mentre vengono compiuti sempre più progressi nell'intelligenza artificiale (AI), alcuni scienziati e filosofi mettono in guardia sui pericoli di un'IA superintelligente incontrollabile. Utilizzando calcoli teorici, un team internazionale di ricercatori, inclusi scienziati del Center for Humans and Machines presso l'Istituto Max Planck per lo sviluppo umano, mostra che non sarebbe possibile controllare un'IA superintelligente. Lo studio è stato pubblicato sul Journal of Artificial Intelligence Research. (1)
Supponiamo che qualcuno debba programmare un sistema di intelligenza artificiale con intelligenza superiore a quella degli umani, affiché possa imparare in modo indipendente. Collegata a Internet, l'AI potrebbe avere accesso a tutti i dati dell'umanità. Potrebbe sostituire tutti i programmi esistenti e assumere il controllo di tutte le macchine online in tutto il mondo.
Questo produrrebbe un'utopia o una distopia?
L'IA curerebbe il cancro, porterà la pace nel mondo e preverrebbe un disastro climatico?
O distruggerebbe l'umanità e conquisterebbe la Terra?
Informatici e filosofi si sono chiesti se saremmo addirittura in grado di controllare un'IA superintelligente, per assicurarci che non rappresenterebbe una minaccia per l'umanità. Un team internazionale di informatici ha utilizzato calcoli teorici per dimostrare che sarebbe fondamentalmente impossibile controllare un'IA super intelligente.
«Una macchina super intelligente che controlla il mondo suona come fantascienza. Ma ci sono già macchine che svolgono determinati compiti importanti in modo indipendente senza che i programmatori comprendano appieno come l'hanno appreso. Si pone quindi la questione se questo possa a un certo punto diventare incontrollabile e pericoloso per umanità», afferma il coautore dello studio Manuel Cebrian, (2) leader del gruppo di mobilitazione digitale presso il Centro per gli esseri umani e le macchine, Istituto Max Planck per lo sviluppo umano.
Gli scienziati hanno esplorato due idee diverse su come controllare un'IA superintelligente. Da un lato, le capacità dell'IA superintelligente potrebbero essere specificamente limitate, ad esempio, isolandola da Internet e da tutti gli altri dispositivi tecnici in modo che non possa avere alcun contatto con il mondo esterno, ma ciò la renderebbe notevolmente inferiore. In mancanza di questa opzione, l'IA potrebbe essere motivata sin dall'inizio a perseguire solo obiettivi che sono nel migliore interesse dell'umanità, ad esempio programmando principi etici in essa. Tuttavia, i ricercatori mostrano anche che queste e altre idee contemporanee e storiche per il controllo dell'IA super intelligente hanno i loro limiti.
Nel loro studio, il team ha concepito un algoritmo di contenimento teorico che garantisce che un'IA superintelligente non possa danneggiare le persone in nessuna circostanza, simulando prima il comportamento dell'IA e interrompendolo se considerato dannoso. Ma un'attenta analisi mostra che nel nostro attuale paradigma di calcolo, tale algoritmo non può essere costruito.
«Se scomponi il problema alle regole di base dell'informatica teorica, si scopre che un algoritmo che comanderebbe a un'IA di non distruggere il mondo potrebbe inavvertitamente interrompere le proprie operazioni. Se ciò accadesse, non sapresti se l'algoritmo di contenimento sta ancora analizzando la minaccia, o se ha smesso di contenere l'intelligenza artificiale dannosa. In effetti, questo rende inutilizzabile l'algoritmo di contenimento», afferma il dottor Iyad Rahwan, (3) Direttore del Center for Humans and Machines.
Sulla base di questi calcoli il problema del contenimento è incomputabile, ovvero nessun singolo algoritmo può trovare una soluzione per determinare se un'IA potrebbe produrre danni al mondo. Inoltre, i ricercatori dimostrano che potremmo anche non sapere quando sono arrivate le macchine superintelligenti, perché decidere se una macchina esibisce un'intelligenza superiore agli esseri umani rientra nello stesso ambito del problema del contenimento.
Altri ricercatori dello studio includono Andres Abeliuk dell'Università della California meridionale, Manuel Alfonseca dell'Università Autonoma di Madrid, Antonio Fernandez Anta dell'IMDEA Networks Institute e Lorenzo Coviello.
Riferimenti:
(1) Superintelligence Cannot be Contained: Lessons from Computability Theory
(2) Manuel Cebrian
(3) Iyad Rahwan
Autore traduzione riassuntiva e adattamento linguistico: Edoardo Capuano / Articolo originale: Computer Scientists: We Wouldn’t Be Able to Control Superintelligent Machines