Oltre 800 tra scienziati, politici, imprenditori e personaggi del mondo dell’arte e della cultura hanno firmato una dichiarazione che chiede di sospendere lo sviluppo della superintelligenza artificiale, un livello ancora teorico dell’evoluzione dell’IA che, secondo molti, potrebbe rappresentare una minaccia per l’umanità.
L’appello, lanciato dal Future of Life Institute negli Stati Uniti, mira a porre un freno a una corsa tecnologica che rischia di oltrepassare il confine tra progresso e pericolo.
Un appello alla prudenza scientifica
Nella dichiarazione si propone un divieto temporaneo allo sviluppo della superintelligenza “finché non ci sarà un consenso scientifico sul fatto che possa essere realizzata in modo controllato e sicuro” e finché non verrà garantito il sostegno dell’opinione pubblica.
L’obiettivo non è fermare il progresso, ma garantirne la sostenibilità etica e la sicurezza collettiva.
Chi ha firmato la dichiarazione
L’iniziativa ha raccolto firme da ogni parte del mondo e da campi molto diversi tra loro. Tra i firmatari compaiono nomi di rilievo come Geoffrey Hinton, considerato uno dei padri dell’intelligenza artificiale e premio Nobel per la Fisica 2024, e Stuart Russell, professore di informatica all’Università della California, Berkeley.
Non mancano i rappresentanti dell’industria tecnologica, come Steve Wozniak, cofondatore di Apple, e figure politiche di primo piano come Steve Bannon e Susan Rice. Tra i firmatari europei anche l’eurodeputato Brando Benifei, relatore dell’AI Act, insieme a Michael McNamara e Markéta Gregorová.
Una convergenza tra scienza, politica e fede
L’appello ha unito mondi che raramente si trovano sullo stesso fronte. Hanno aderito anche leader religiosi come Paolo Benanti, consigliere del Papa e studioso di etica dell’intelligenza artificiale, oltre a figure note della cultura pop come il rapper Will.i.am e la coppia "reale o no" Principe Harry e Meghan Markle.
Un fronte eterogeneo che dimostra come il tema dell’IA non sia più riservato agli esperti di tecnologia, ma riguardi direttamente la società nel suo insieme.
Dalla semplice intelligenza artificiale alla superintelligenza
L’attuale IA è progettata per imitare alcune capacità umane — come il linguaggio, la visione o la logica — ma resta confinata all’interno di limiti stabiliti dai programmatori.
La superintelligenza artificiale, invece, punta a un salto radicale: creare sistemi capaci di superare l’intelletto umano in autonomia, elaborando pensieri, strategie e decisioni senza controllo diretto.
Un futuro da costruire con responsabilità
Le preoccupazioni non riguardano solo il potenziale dominio tecnologico, ma anche gli effetti sociali e politici di un’intelligenza fuori controllo. Chi sostiene la moratoria chiede che lo sviluppo avvenga in un contesto di trasparenza, regolamentazione e dibattito pubblico.
In altre parole, la scienza deve restare al servizio dell’uomo — e non il contrario.
L’IA come opportunità o come rischio?
Il dibattito resta aperto. Da un lato, c’è chi vede nella superintelligenza la prossima frontiera dell’evoluzione umana; dall’altro, chi teme che una tecnologia più potente della nostra stessa mente possa sfuggire a qualsiasi controllo.
L’appello del Future of Life Institute non è un grido contro l’innovazione, ma un invito a ripensare la direzione del progresso prima che sia troppo tardi.
25 Ottobre 2025
© team icoe, editoriale blozine
https://blozine.it/home.do?key=1761383547&dettagli=moratoria-sul-futuro-di-ia
__
Le informazioni contenute in questo articolo sono tratte e rielaborate da fonti ufficiali e/o agenzie di stampa riconosciute, nel rispetto del presente codice etico redazionale.
blozine editoriale no-profit della
Centro studi su innovazione, comunicazione ed etica.
www.icoe.it
Copywriters
Francesca S., Matteo R., Laura A., Antonella B., Giorgio F., Anna C., Miriam M., Stefano G., Adele P. e Francesca N.
Chi siamo

seguici sulla nostra pagina Facebook e non perderai nessuna notizia!
Un "segui" vale più di quanto pensi: non costa nulla, ma sostiene un progetto libero, indipendente e senza sponsor. Più persone ci leggono, più le idee circolano.

BLOZINE
EDITORIALE E DISCLAIMER
CODICE ETICO
PRIVACY E COOKIES (GDPR)
FEED RSS

per non perdere nessuna notizia
editoriale NO-PROFIT della

Centro studi su innovazione, comunicazione ed etica.
www.icoe.it

© blozine, l'editoriale dalla B alla Z della www.icoe.it. Tutti i diritti sono riservati.