Intelligenza artificiale

AI Agentica: oltre l’hype, verso l’autonomia decisionale intelligente



Indirizzo copiato

L’AI agentica è una tecnologia potente e in rapida evoluzione, capace di prendere decisioni autonome, apprendere e ottimizzare soluzioni, con applicazioni che vanno dall’interazione utente al controllo di infrastrutture complesse e all’interazione con il mondo fisico. Ma bisogna saper valutare, con capacità critica, le reali capacità di questi sistemi. L’opinione di Chris Howard, Global Chief of Research di Gartner: ecco che cosa si può e non si può fare con gli Agenti AI

Pubblicato il 4 giu 2025



shutterstock_2327096251-1



Il panorama tecnologico è frequentemente attraversato da termini che, pur promettendo innovazioni dirompenti, rischiano di inflazionarsi rapidamente, perdendo di significato specifico. “AI Agentica” o “Agentic AI” è una di queste espressioni, oggi sulla bocca di molti, ma spesso utilizzata con una genericità che ne offusca la reale portata. Chris Howard, Global Chief of Research di Gartner, ha fornito una disamina puntuale sull’argomento, delineando con precisione cosa si debba intendere per agenti AI, quali siano le loro capacità distintive e quali i modelli emergenti che ne stanno caratterizzando lo sviluppo. Comprendere appieno questa tecnologia è fondamentale, non solo per gli addetti ai lavori, ma per chiunque sia interessato a cogliere le direzioni future dell’innovazione nell’industria e nei servizi.

La specificità del concetto di “agency”

Il termine “agente”, nel contesto dell’intelligenza artificiale, non è una scelta casuale. Sottolinea una caratteristica fondamentale: l'”agency”, ovvero la capacità intrinseca di questi sistemi di prendere decisioni autonome. Sebbene tale autonomia operi, per necessità e sicurezza, entro limiti definiti, è proprio questa facoltà decisionale a costituire il nucleo del loro potenziale.

Un agente AI, secondo la visione di Howard, è in grado di percepire attivamente l’ambiente circostante, sia esso digitale o fisico, identificare un problema o un obiettivo, elaborare una strategia risolutiva e, aspetto distintivo, individuare il percorso ottimizzato per implementarla. Questa capacità di agire proattivamente per modificare lo stato delle cose, digitale o fisico che sia, segna una discontinuità rispetto a sistemi AI più tradizionali, spesso limitati a compiti di analisi o predizione passiva.

La percezione dell’ambiente, o “sensing mechanism”, rappresenta il primo stadio operativo di un agente. Può manifestarsi in forme relativamente semplici, come l’interpretazione del testo immesso da un utente o la comprensione del linguaggio naturale durante un’interazione conversazionale. L’agente non si limita a registrare l’input; ne comprende il contesto e guida attivamente la conversazione, adattando le proprie risposte in tempo reale in base a ciò che l’interlocutore esprime.

Un esempio illuminante, citato da Howard, è un’applicazione sviluppata in collaborazione con l’Università di Toronto e il CAMH (Centre for Addiction and Mental Health), progettata per aiutare le persone a smettere di fumare. In questo scenario, l’agente AI non fornisce risposte preconfezionate o giudicanti. Al contrario, analizza lo stato emotivo dell’utente – ad esempio, il senso di colpa per aver ripreso a fumare durante la pandemia – e modula la sua interazione per offrire incoraggiamento, porre domande mirate e costruire un rapporto di fiducia. Questo processo, che Howard definisce “chain of thought” (catena di pensiero) visibile dell’agente, dimostra come il sistema sia addestrato specificamente per agire in quel determinato ambiente terapeutico, apprendendo e adattandosi dinamicamente.

Ottimizzazione delle soluzioni e interazione con il mondo

Un’altra caratteristica saliente degli agenti AI è la loro capacità di ottimizzare le soluzioni ai problemi che vengono loro sottoposti. Questa è un’ulteriore manifestazione della loro “agency”. Di fronte a una sfida complessa, un agente può iniziare ad assemblare dinamicamente i componenti di un flusso di lavoro, attingendo a risorse esterne che gli sono state rese accessibili. Non si tratta di un processo magico, ma di un’orchestrazione intelligente di strumenti e informazioni. Tra queste risorse figurano le API (Application Programming Interfaces), che consentono all’agente di interagire con altri software e servizi, i “knowledge graph”, che forniscono una comprensione strutturata delle relazioni tra entità e concetti, e i cosiddetti “large action model”. Questi ultimi, in analogia ai più noti “large language model” che predicono sequenze di parole, sono addestrati a prevedere le combinazioni di azioni più appropriate per raggiungere un determinato scopo. L’agente, quindi, non si limita a eseguire istruzioni, ma compone attivamente la soluzione più efficiente.

L’interazione degli agenti AI non è confinata al solo dominio digitale. Una delle frontiere più interessanti è la loro integrazione con sistemi robotici, estendendo così la loro capacità di azione al mondo fisico. Un robot equipaggiato con IA agentica trascende i limiti della programmazione tradizionale, che lo vincolerebbe a un set predefinito di azioni in risposta a stimoli specifici. Al contrario, può navigare e operare in ambienti sconosciuti o mutevoli, adattando il proprio comportamento a circostanze impreviste.

Questa capacità si estende anche alla percezione sensoriale: un robot agentico potrebbe rilevare fughe di gas a livelli impercettibili per un essere umano, o analizzare l’ambiente visivo con una granularità e una velocità superiori, integrando queste informazioni per prendere decisioni e compiere azioni conseguenti. Le potenzialità applicative in settori come la manutenzione industriale, la logistica, l’esplorazione o l’assistenza sono immense.

Agenti invisibili e sistemi collaborativi

Mentre i primi esempi di AI Agentica, come l’applicazione per smettere di fumare o i robot autonomi, presentano interfacce utente chiare e dirette, Howard prospetta uno scenario in cui molte delle applicazioni più sofisticate opereranno in modo quasi invisibile, annidate profondamente nelle infrastrutture tecnologiche. Si pensi, ad esempio, alla gestione delle reti e delle operazioni IT. Sciami di agenti potrebbero collaborare per analizzare le cause profonde dei malfunzionamenti (mean time to failure analysis) o per implementare meccanismi di auto-riparazione (self-healing) su vasta scala. Sebbene queste tecniche non siano inedite, la tecnologia agentica offre la possibilità di applicarle con un grado di autonomia e scalabilità precedentemente irraggiungibile, conferendo agli agenti la facoltà di prendere decisioni operative direttamente nell’ambiente di riferimento.

Un ulteriore sviluppo significativo è rappresentato dai sistemi “multi-agent”, in cui più agenti AI, ciascuno con specializzazioni o compiti distinti, collaborano per raggiungere un obiettivo comune o per garantire determinati standard. Howard illustra alcuni pattern emergenti.

Un primo esempio è quello di un agente che genera un output (testo, codice, design) e un secondo agente, addestrato su normative specifiche – come quelle relative alla privacy dei dati sanitari (es. HIPAA o GDPR) – che interroga e valida l’output del primo per assicurarne la conformità. Si può immaginare un futuro in cui qualsiasi regolamentazione governativa possa essere “appresa” da un agente e applicata sia in fase di progettazione (design time) sia in fase di esecuzione (run time) per gestire la compliance in ambienti estremamente complessi. La capacità di riaddestrare rapidamente questi agenti normativi al variare delle leggi e delle policy ne garantirebbe l’aggiornamento costante.

Un altro modello di sistema multi-agente prevede diversi agenti che lavorano in parallelo, ciascuno esplorando una diversa via per ottimizzare la soluzione a un problema. Al termine di questo processo competitivo, un ulteriore agente, agendo come una sorta di meccanismo di voto o di supervisione, seleziona l’opzione che risulta essere la migliore per il contesto specifico. Questa architettura permette di esplorare un più ampio spazio di soluzioni possibili e di convergere verso quella ottimale con maggiore robustezza.

Apprendimento continuo e l’orizzonte dei “frontier model”

L’autonomia decisionale degli agenti AI è intrinsecamente legata alla loro capacità di apprendere. Gli agenti non sono entità statiche; al contrario imparano e si auto-ottimizzano attraverso l’interazione continua con il mondo, accumulando esperienza nel tempo, talvolta attraverso numerose interazioni distribuite su lunghi periodi. Questo processo di apprendimento “stateful”, che tiene conto della storia delle interazioni, permette all’agente di affinare progressivamente la sua capacità di scegliere il percorso risolutivo più efficace, diventando sempre più performante.

Questa evoluzione è strettamente connessa ai progressi nei cosiddetti “frontier model”, i modelli di intelligenza artificiale più avanzati. Howard cita specificamente i lavori di OpenAI (come i modelli della serie GPT), evidenziando come questi stiano iniziando a incorporare il ragionamento “chain of thought” direttamente nella loro fase di addestramento.

Si tratta di una svolta significativa: secondo Howard, si è quasi esaurita la quantità di dati testuali disponibili pubblicamente su internet per addestrare questi modelli con le tecniche tradizionali. Di conseguenza, la ricerca si sta spostando verso la comprensione delle relazioni logiche e causali tra le informazioni, strutturandole in una sorta di “graph environment”. La logica che connette i concetti diventa essa stessa oggetto di apprendimento e di esposizione da parte del modello. L’integrazione del “chain of thought” all’interno dei modelli, combinata con risorse esterne come i knowledge graph e i già menzionati large action model, rappresenta, secondo Gartner, la combinazione tecnologica che permetterà di affrontare alcuni dei problemi più ardui e complessi che la società e l’industria si trovano di fronte.

Distinguere il segnale dal rumore

In un momento di forte hype su questa tecnologia è fondamentale saper distinguere le reali capacità dell’AI agentica da semplici etichette di marketing. Howard mette in guardia dal considerare ogni chatbot, per quanto sofisticato, come un vero e proprio agente AI. Un chatbot tradizionale, pur potendo simulare una conversazione complessa e apparire reattivo, opera generalmente sulla base di script e flussi pre-programmati. Manca della capacità di reagire in maniera autenticamente “ad hoc” e in tempo reale a situazioni impreviste, e soprattutto non possiede quel grado di autonomia decisionale e di apprendimento continuo che definisce un agente. Pertanto, di fronte alle affermazioni dei vendor, è necessario applicare i criteri descritti – autonomia, percezione, ottimizzazione, apprendimento, capacità di agire – per valutare se si tratti effettivamente di AI agentica.

Gartner sta inoltre esplorando concetti come i “guardian agents“, agenti specializzati nel monitorare un ambiente (digitale o fisico) per prevenire il verificarsi di eventi negativi o dannosi, una sorta di sentinelle intelligenti. Questo filone di ricerca sottolinea ulteriormente la versatilità e l’impatto potenziale di questa tecnologia.

L’AI agentica, dunque, rappresenta ben più di una moda passeggera. È una traiettoria tecnologica con implicazioni profonde, che promette di dotare i sistemi di un’intelligenza più autonoma, adattiva e proattiva. Comprendere le sue specificità, al di là del clamore mediatico, è il primo passo per sfruttarne appieno le potenzialità e per governarne lo sviluppo in modo responsabile e consapevole, assicurando che la sua crescente autonomia sia sempre allineata con gli obiettivi e i valori umani. La strada è ancora in evoluzione, ma le fondamenta per una nuova generazione di sistemi intelligenti sono state gettate.

Articoli correlati

Articolo 1 di 5