Dopo l'arrivo dei LLM, le sperimentazioni a livello applicativo non si sono mai fermate. Dalla messa a punto dei prompt alla configurazione dei workflow, fino alla costruzione di agenti, l'obiettivo finale è sempre lo stesso: far lavorare meglio i LLM per l'umanità, spremendo le prestazioni delle macchine al massimo. La spremitura dei LLM può essere suddivisa in due dimensioni. La prima è aiutarli a trovare l'algoritmo ottimale, per rendere l'inferenza più diretta. A tal fine, abbiamo praticamente esplorato tutte le strade possibili, facendo in modo che i LLM imparassero a riflettere (reflection, self-consistency, self-critics), a ragionare e pianificare (reasoning, planning, chain-of-thought, tree-of-thought); a memorizzare (short-term memory, long-term memory), per non dimenticare durante conversazioni lunghe; a cercare conoscenza (RAG, knowledge graph), per integrare fatti dal mondo esterno; a costruire contesti (context building), per inserire più informazioni utili in un numero limitato di token; a utilizzare strumenti (tool-use, function calling, MCP), per delegare compiti a programmi esterni invece di generare tutto da soli; e così via. Queste cose, in fin dei conti, sono solo tecniche e meccanismi, il cui scopo essenziale è far sì che i LLM comprendano più rapidamente cosa vogliono gli esseri umani, cercando di trovare il percorso a costo minimo attorno a un obiettivo (goal-oriented), per arrivare alla soluzione ottimale. La seconda dimensione è la spremitura del tempo, per permettere ai LLM di operare 7×24 ore senza sosta. Quando abbiamo acquisito una comprensione più profonda dei LLM, è stato facile pensare di trasformarli in "dipendenti digitali" per noi o per le nostre organizzazioni, che non conoscono stanchezza, non si lamentano e possono operare continuamente, apprendendo costantemente. La maggior parte delle persone oggi utilizza l'AI in modi che si limitano a cercare informazioni, riassumere contenuti, scrivere report settimanali o mensili; se vogliamo davvero costruire un "dipendente digitale AI che non si ferma mai", non basta fare solo questo. Dobbiamo prima pianificare la nostra fabbrica digitale AI - chiarire quale "prodotto" vogliamo realizzare, che si tratti di un sistema di accumulo di conoscenze, di processi aziendali automatizzati o di un servizio che può essere iterato nel tempo. In questa fabbrica, l'AI è l'esecutore sulla linea di produzione, responsabile della lavorazione e della produzione concreta; mentre il ruolo umano cambia, da "lavoratore che svolge il lavoro manualmente" a "sorvegliante e gestore". Gli esseri umani non completano più ogni passaggio manualmente, ma devono progettare la catena di montaggio, stabilire regole, definire indicatori, monitorare la qualità e, se necessario, gestire le risorse. In altre parole, il valore dell'AI non sta nel sostituirci nel "fare un po' di lavoro", ma nel far funzionare l'intera catena di montaggio, mentre gli esseri umani assumono il ruolo di "gestori della fabbrica digitale". Quando queste due dimensioni si combinano, si verifica un vero e proprio punto di svolta. I LLM non sono più solo strumenti freddi, ma diventano gradualmente partner con cui collaborare a lungo termine. Possono svolgere lavori ripetitivi e fornire intuizioni su problemi complessi. Non sono solo "qui per aiutarti a lavorare", ma "qui per lavorare insieme a te". Il divario futuro non risiede in chi riesce a scrivere i prompt più belli, ma in chi riesce a integrare veramente i LLM nel proprio tempo e nella propria organizzazione, formando un modo di produzione stabile. Pertanto, la capacità di utilizzare, la profondità di utilizzo e la possibilità di ottimizzazione continua sono le vere fonti di competitività a lungo termine. Chi riesce a far funzionare l'AI come una "fabbrica", trasformando se stesso da esecutore a sorvegliante e gestore, potrà ottenere un vantaggio reale e riutilizzabile nelle proprie attività quotidiane e lavorative.