Vietare lo sviluppo della “superintelligenza” fino a quando non si avrà ampio consenso da parte della comunità scientifica e supporto dell’opinione pubblica: è questo l’appello firmato da oltre 30.000 esperti tra cui informatici, professori universitari e responsabili di aziende che si occupano proprio di sviluppo dell’AI, come OpenAI e Google Deepmind.
l’appello degli esperti
Stop alla superintelligenza AI: l’allarme e l’appello di oltre 30.000 esperti (c’è anche Sam Altman)
Scienziati, accademici e leader del settore tra cui Sam Altman, Steve Wozniak e il Nobel Daron Acemoglu chiedono di fermare lo sviluppo dell’AI superintelligente finché non sarà dimostrata la sua sicurezza. Gli esperti definiscono questa tecnologia, capace di auto-miglioramento illimitato, come “potenzialmente ingestibile”, avvertendo che senza freni si va incontro a gravi rischi che vanno dalla perdita di libertà e diritti civili fino alla catastrofe esistenziale per l’umanità.

Continua a leggere questo articolo
Argomenti
Canali
Con o Senza – Galaxy AI per il business









