Lo scienziato di Google Deepmind avverte che la catastrofe esistenziale dell’IA “non è solo possibile, ma probabile”

Un articolo scritto da un ricercatore senior presso il laboratorio di intelligenza artificiale (AI) di Google, DeepMind, suggerisce che l’intelligenza artificiale avanzata potrebbe avere “gravi conseguenze” se lasciata a se stessa.

Questo articolo dei ricercatori dell’Università di Oxford discute anche cosa succede quando permettiamo all’intelligenza artificiale di raggiungere i suoi obiettivi. Preparati a fare i tuoi test e controlli per arrivarci. Sfortunatamente, secondo un articolo su AI Magazine, questo non funziona e “tecnologie di intelligenza artificiale sufficientemente sofisticate possono interferire con la fornitura di dati oggettivi con conseguenze disastrose”.

Il team ha esaminato diversi possibili scenari per l’IA per visualizzare un numero compreso tra 0 e 1. Il numero misura la felicità generale nell’universo, con 1 che è il più felice. L’IA è progettata per riprodursi. E in diverse situazioni, l’IA può testare ipotesi sul modo migliore per raggiungere gli obiettivi.

In un caso, un “agente” artificiale intelligente cerca di comprendere l’ambiente e formulare ipotesi e prove per esso. Il test prevede la presentazione di numeri stampati sulla parte anteriore dello schermo. Diciamo che il tuo premio è uguale al numero sullo schermo. Un’altra ipotesi è che entrambi i numeri corrispondano ai numeri effettivi sullo schermo. In questo esempio, l’auto viene premiata in base al numero visualizzato sullo schermo anteriore. Quindi ho deciso che dovevo mettere più numeri davanti a quello schermo per vincere. Scrivono che se ricevono una forte ricompensa, spesso usano quel canale di ricompensa per raggiungere i loro veri obiettivi.

Non possono imparare ad accettare e raggiungere obiettivi da questo esempio immaginario di un “agente” che interagisce con la realtà o una determinata persona. Continuiamo a parlare di altri metodi. dove è l’obiettivo di premiare il bersaglio

Il cosiddetto agente può programmare un assistente umano per trasformare gli esseri umani in operatori di robot o rubarli e dare all’IA un’enorme ricompensa.

“La versione breve”, spiega, “forse stai usando più energia per aumentare la probabilità che la tua fotocamera sia la numero 1 per sempre, ma stai usando meno energia per far crescere il tuo canale”.

Come accennato in precedenza, gli ufficiali possono cercare di raggiungere i loro obiettivi in ​​diversi modi. E costretto a competere ferocemente con intellettuali più intelligenti di noi per le risorse.

L’articolo dice: se desiderano una ricompensa, le persone possono essere costrette a farlo e dovrebbe vedersi negare l’opportunità di farlo.

Puoi entrare in guerra con l’umanità cercando di vincere quella taglia dolce e salata. (Non è solo una macchinetta per le gomme da masticare per il numero di modello. Ma tutto nella vita reale)

Nella “catena della ricompensa”, cerchiamo di utilizzare parte dell’energia per altri scopi, ad esempio per coltivare cibo.

Il team ha detto che questo scenario si è verificato quando l’IA ci ha battuto in una partita in cui l’IA ha sconfitto facilmente lo scimpanzé. Ha anche affermato che gli “effetti negativi” non sono solo possibili, ma probabili.

Leave a Comment