Le “invenzioni” dell’intelligenza artificiale – tecnicamente note come allucinazioni – sono forse l’elemento che più di tutti rischia di frenare l’adozione su vasta scala dell’AI in contesti critici, come ad esempio quello industriale. A fare il punto è Chris Howard, Chief of Research di Gartner, nel corso di uno degli ultimi episodi del podcast ThinkCast.
L’OPINIONE
Oltre l’errore: come l’industria sta addomesticando le allucinazioni dell’AI
Le clamorose sviste dell’AI, dovute alla sua natura di strumento probabilistico, ne stanno frenando l’adozione in contesti dove la certezza dell’output non è negoziabile. Ma non sempre le allucinazioni sono un problema irrisolvibile. Chris Howard di Gartner spiega come l’ingegnerizzazione di sistemi con dati “AI-ready”, agenti AI collaborativi e reti neurali che rispettano le leggi della fisica (PINN) stia trasformando i modelli da “macchine di predizione” a strumenti di precisione affidabili per i processi critici.

Continua a leggere questo articolo
Argomenti
Canali
Con o Senza – Galaxy AI per il business









