l’appello degli esperti

Stop alla superintelligenza AI: l’allarme e l’appello di oltre 30.000 esperti (c’è anche Sam Altman)



Indirizzo copiato

Scienziati, accademici e leader del settore tra cui Sam Altman, Steve Wozniak e il Nobel Daron Acemoglu chiedono di fermare lo sviluppo dell’AI superintelligente finché non sarà dimostrata la sua sicurezza. Gli esperti definiscono questa tecnologia, capace di auto-miglioramento illimitato, come “potenzialmente ingestibile”, avvertendo che senza freni si va incontro a gravi rischi che vanno dalla perdita di libertà e diritti civili fino alla catastrofe esistenziale per l’umanità.

Pubblicato il 24 ott 2025



Data analytics concept
Immagine da Shutterstock



Vietare lo sviluppo della “superintelligenza” fino a quando non si avrà ampio consenso da parte della comunità scientifica e supporto dell’opinione pubblica: è questo l’appello firmato da oltre 30.000 esperti tra cui informatici, professori universitari e responsabili di aziende che si occupano proprio di sviluppo dell’AI, come OpenAI e Google Deepmind.

Continua a leggere questo articolo

Articoli correlati