Quasi la metà dei CEO dichiara di non vedere ancora alcun ritorno sugli investimenti in IA. Solo il 5% li considera altamente positivi. Eppure tre quarti dei CIO riconoscono che anche una formazione base sul prompting influisce concretamente sulla realizzazione del valore. Il divario tra queste due evidenze racconta dove si trova il vero collo di bottiglia dell’adozione dell’intelligenza artificiale nelle imprese: non nei modelli, ma nelle persone che li usano.
È la tesi centrale che Mandi Bishop, Distinguished VP Analyst di Gartner con una specializzazione nel settore healthcare, porta avanti con dati e strumenti pratici nel framework che ha sviluppato, denominato Soft Skills Academy. La premessa è tanto semplice quanto spesso ignorata: le competenze trasversali, le cosiddette soft skills – il pensiero critico, la capacità di interpretare i risultati, il giudizio contestuale – non sono accessori opzionali nell’era dell’IA. Sono la condizione necessaria perché i modelli producano valore invece di amplificare errori. Più della metà dei CIO indica il giudizio umano tra i primi cinque criteri di assunzione, eppure si tratta delle competenze più difficili da misurare e sviluppare sistematicamente.
Indice degli argomenti
Automation bias: il rischio della fiducia acritica
L’IA, secondo Bishop, è come una monoposto di Formula 1: componenti sofisticatissimi, capacità di adattarsi alle condizioni del percorso in tempo reale, pattern recognition di altissimo livello. Ma il pilota deve comunque saper guidare. E soprattutto deve evitare di rilassarsi proprio quando il sistema funziona bene.
Il fenomeno che Bishop chiama automation bias – la tendenza a fidarsi acriticamente degli output dell’IA per il solo fatto che provengono da un sistema automatico – è la minaccia più concreta e meno discussa nell’adozione enterprise. È lo stesso meccanismo cognitivo per cui la maggior parte degli incidenti stradali avviene entro pochi chilometri da casa: si ottengono ripetutamente buoni risultati, il cervello abbassa la guardia, i tempi di reazione rallentano. Con l’IA il rischio non è un incidente fisico, ma la proliferazione silenziosa di errori nei processi aziendali, amplificata dall’automazione stessa fino a potenziali eventi catastrofici.
Per combatterlo, Bishop propone un esercizio pratico che chiama “hallucination hunt”: i team vengono invitati a individuare errori nelle risposte dei modelli su casi reali. L’esempio che porta riguarda uno sviluppatore che deve scrivere codice per la de-identificazione dei dati dei pazienti in ambito sanitario. Il modello genera una funzione che interpreta la sola presenza della parola “internal” come condizione sufficiente per applicare una redazione parziale, senza considerare i casi in cui un log interno possa comunque attivare la condivisione esterna dei dati. Il codice sembra corretto, è formalmente coerente, ma introduce un rischio di compliance che solo un revisore critico è in grado di rilevare – con conseguenze che possono andare dal danno reputazionale a violazioni normative dirette.
Il punto non è che l’IA abbia sbagliato: è che il developer deve saper riconoscere perché ha sbagliato, documentare i passaggi della verifica, articolare le conseguenze di un’eventuale messa in produzione. Bishop classifica i profili in tre livelli: il “passeggero passivo” che accetta l’output senza verificarlo, il “revisore scettico” che trova l’errore ma non ne comprende l’origine, e il profilo “master” che sa interrogare il modello per capire perché l’allucinazione si è prodotta e come prevenirla. È quest’ultimo profilo, secondo Bishop, a diventare il “context engineer” del prossimo ciclo di adozione dell’IA.
Prompting strutturato e interpretazione: le due competenze operative
Oltre il 75% dei CIO ritiene che anche una formazione base sul prompting abbia impatto diretto sulla realizzazione del valore dell’IA. Eppure la maggior parte delle iniziative enterprise si limita a fare onboarding sugli strumenti senza sviluppare la capacità di interagire con i modelli in modo strutturato e consapevole.
Bishop articola il prompting secondo un framework che chiama REFLECT, acronimo che identifica sei componenti: Role (ruolo), Format (formato), Language (registro e lingua), Example (esempio), Context (contesto), Task (compito). Il solo elemento strettamente obbligatorio è il Task, ma senza gli altri componenti il risultato è esposto a bias contestuali, ambiguità interpretative e iterazioni inutili che consumano risorse. L’esempio che porta è immediato: chiedere al modello di creare “una lista di attività generiche per un progetto di gestione dei record” può produrre un piano per archiviare dischi in vinile se il contesto delle conversazioni precedenti era dominato da argomenti musicali. Specificare il ruolo del richiedente elimina ogni ambiguità.
Per sviluppare questa competenza in modo sistematico Bishop suggerisce due esercizi. Il primo è il “reverse engineering”: si parte da tre prompt che contengono solo il Task e si chiede ai partecipanti di completarli con gli altri elementi REFLECT. Il secondo è il “variable swap”: si parte da un prompt completo e si modifica un solo elemento alla volta, tenendo fissi gli altri, per osservare come cambia l’output. È un metodo per rendere tangibile la sensibilità del modello alla costruzione del prompt, in particolare rispetto alla componente Role.
La terza competenza che Bishop mette a fuoco è quella che chiama “framing and interpretation” – la capacità di leggere gli output dell’IA rispetto al contesto e al ruolo di chi li riceve. La stessa sintesi tecnica di una gara automobilistica è una buona notizia per l’ingegnere che ha progettato le sospensioni e una pessima notizia per lo sponsor che voleva il podio. Saper riconoscere questa pluralità di prospettive, e anticiparla nel momento in cui si costruisce il prompt, è la competenza che separa un uso maturo dell’IA da uno superficiale. Ed è proprio quella competenza, osserva Bishop, che permette di trasformare le esercitazioni in assessment continuativi, integrabili nei processi di hiring e nei programmi di formazione aziendale su base ricorrente.











