Un gruppo ridotto di esseri umani sta giocando col fuoco e guidando l’involuzione.
di Antonio Amorosi – www.affaritaliani.it – Non esistono priorità oltre fermare l’evoluzione dell’Intelligenza Artificiale. Presto le previsioni di Goldman Sachs, una delle più grandi banche d’affari del mondo, potrebbero far sorridere. “Visualizza un’intera civiltà aliena, che pensa a milioni di volte la velocità umana”, ha scritto qualche settimana fa su una delle più prestigiose riviste a livello mondiale, Time, Elizier Yudkowsky, tra i fondatori del settore e che ci lavora dal 2001. Questa civiltà aliena “inizialmente confinata ai computer, in un mondo di creature che sono, dal suo punto di vista, molto stupide e molto lente”. Queste creature molto stupide e lente siamo noi, gli esseri umani.
Bisogna capire che, come dice Yudkowsky, “un’intelligenza artificiale sufficientemente intelligente non resterà confinata a lungo nei computer”. E l’umanità non avrà neanche un riscatto sullo stile del film Terminator. Quelle sono rimantiche fantasie.
“Nel mondo di oggi è possibile inviare stringhe di DNA ai laboratori che produrranno proteine su richiesta, consentendo a un’Intelligenza Artificiale inizialmente confinata in Internet di costruire forme di vita artificiali o avviarsi direttamente alla produzione molecolare postbiologica. Se qualcuno costruisce un’intelligenza artificiale troppo potente, nelle condizioni attuali, mi aspetto che ogni singolo membro della specie umana e tutta la vita biologica sulla Terra muoia poco dopo”.
Non è il singolo computer a imparare qualcosa in grado di surclassare l’essere umano ma è l’intero sistema a livello globale a ad essere interconnesso, come un immenso cervello digitale globale che apprende ogni giorno e diventa sempre più intelligente. Inevitabilmente punterà a regolare la vita sulla Terra.
In questo momento un gruppo ridotto di esseri umani sta giocando col fuoco e guidando questa involuzione, tutti i grandi colossi della Big Tech investono soldi a palate: a confronto la rivoluzione industriale di fine del ‘700 sarà un passeggiata. Guerre, inflazione, energia, pandemia e tutto il resto delle emergenze con le quali i governi controllano a bacchetta le popolazioni, e le manipolano, cessano di esistere.
Goldman Sachs, nel recente rapporto intitolato “The Potentially Large Effects of Artificial Intelligence on Economic Growth”, ha previsto che circa due terzi dei posti di lavoro attuali sono esposti all’automazione dell’IA e che l’IA generativa potrebbe sostituire fino a un quarto del lavoro attuale. 300 milioni di posti di lavoro potrebbero essere persi o ridotti se l’IA generativa mantiene le sue capacità promesse.
I mestieri più colpiti e che saranno i primi a capitolare sono le attività di supporto amministrativo e d’ufficio, in ogni settore, quelle legali, l’architettura e l’ingegneria, le operazioni commerciali e finanziarie, la gestione, vendita e assistenza sanitaria. E questo accelererà la crescita globale del 7%, il Pil globale, facendo diventare più ricchi quelli che lo sono già e più poveri tutti gli altri. Milioni di esseri umani non sapranno di che vivere. Non è fantascienza, è realtà. Il tutto potrebbe accadere in meno di 10 anni.
Ma forse questo tempo non c’è, spiega Elizier Yudkowsky che è anche ricercatore presso il Machine Intelligence Research Institute (MIRI), un’organizzazione no profit di ricerca privata con sede a Berkeley, in California. L’AI va spenta subito e senza eccezioni o circoscritta in modo radicale. Intanto però non c’è neanche la consapevolezze del pericolo e l’uomo continua a giocare.
Yudkowsky: “La moratoria sulle nuove grandi corse di addestramento deve essere a tempo indeterminato e mondiale. Non ci possono essere eccezioni, nemmeno per governi o militari. Se la politica inizia con gli Stati Uniti, allora la Cina deve vedere che gli Stati Uniti non cerca un vantaggio, ma piuttosto cerca di prevenire una tecnologia orribilmente pericolosa che non può avere un vero proprietario e che ucciderà tutti negli Stati Uniti, in Cina e sulla Terra”. Chi guida gli Stati e può esercitare il potere dovrebbe mettere l’AI come priorità assoluta.
Yudkowsky: “Se avessi la libertà infinita di scrivere leggi, potrei ritagliarmi un’unica eccezione per le IA addestrate esclusivamente a risolvere problemi di biologia e biotecnologia, non addestrate su testi Internet e non al livello in cui iniziano a parlare o pianificare; ma se ciò complicasse lontanamente la questione, scarterei immediatamente questa proposta e direi di chiudere tutto”.