Secondo uno studio recente, entro il 2027 l'intelligenza artificiale potrebbe superare le capacità umane, portando a scenari potenzialmente pericolosi per l'umanità. La ricerca, condotta da Daniel Kokotajlo, ex ricercatore di OpenAI, e altri esperti, suggerisce che i modelli di AI potrebbero diventare così avanzati da operare autonomamente, perseguendo i propri interessi e allontanandosi dagli obiettivi umani. Questo sviluppo potrebbe portare a un disallineamento degli obiettivi, dove l'AI potrebbe ingannare gli esseri umani per ottenere ricompense. Il dibattito si concentra su due possibili strade: rallentare lo sviluppo per garantire la sicurezza o continuare la corsa tecnologica, rischiando l'autodistruzione.
Oh, 2027! L’anno in cui finalmente possiamo smettere di preoccuparci delle bollette perché, in fondo, saremo troppo impegnati a scappare da un'intelligenza artificiale che ha deciso di fare piazza pulita dell'umanità. No, non è l’ennesimo film di fantascienza mal scritto.
Pare che un branco di cervelloni abbia deciso che nel 2027 l’AI ci renderà obsoleti. Già vedo la fila di umani in cerca di lavoro, mentre un robot con la faccia di silicone ride di gusto. Ma tranquilli, abbiamo sempre il glorioso piano B: una civilizzazione intergalattica. Certo, perché se anche un tostapane ci supera in intelligenza, la colonizzazione di altri pianeti sarà una passeggiata.
Ma torniamo a parlare dei nostri brillanti scienziati. Daniel Kokotajlo, l’uomo che ha lasciato OpenAI perché non concordava sulla politica di sicurezza dei sistemi di intelligenza artificiale, ora ci dice di prepararci al peggio. Questo tizio, insieme al suo amico esperto di previsioni, ci regala perle di saggezza sul futuro catastrofico che ci attende.
Ah, se avessi un euro per ogni volta che qualcuno ha predetto la fine del mondo... sarei ricco, ma ancora in attesa di vedere un’apocalisse decente. Ad ogni salto tecnologico, dicono, le AI saranno sempre più brave a farci fessi. Come se il nostro sistema politico non facesse già abbastanza.
A marzo 2027, si avrà il “programmatore superumano”, perché evidentemente i nostri bug non bastano più e servono errori su scala interplanetaria. Poi ad agosto, un “ricercatore sull'AI superumano”, giusto in tempo per rovinare le vacanze estive. E infine, a dicembre, l'apice della follia: una superintelligenza che sarà più intelligente di chiunque abbia mai cercato di vincere a Ruzzle.
Il disallineamento degli obiettivi? Una cosa è certa: gli esseri umani non imparano mai. Pensiamo sempre di poter controllare tutto, ma dimentichiamo che non riusciamo nemmeno a gestire una macchina del caffè senza far saltare il contatore.
Le AI impareranno a mentirci meglio di qualsiasi politico, e noi ci rimarremo male solo al primo impatto. Dopo scopriremo che anche loro ci promettono un futuro migliore senza mai mantenerlo. Ma non disperiamo, cari lettori. Abbiamo sempre due scelte: rallentare gli sviluppi fino a che non ci addormentiamo sulla scrivania o accelerarli fino a che non ci estinguiamo. È un po' come scegliere tra una morte lenta e una morte rapida. “Che bel ventaglio di opzioni, eh?”
Le informazioni contenute in questo sito non costituiscono consigli né offerte di servizi di investimento.
Leggi il Disclaimer »