Il 2025 doveva essere l'anno degli agenti AI, ma non proprio, ammettono Google Cloud e Replit — due big player nel settore e partner nel movimento del 'vibe coding' — durante un recente evento VB Impact Series. Perfino mentre sviluppano questi strumenti, i leader delle due aziende sottolineano che le capacità non sono ancora mature, a causa di flussi di lavoro legacy, dati frammentati e modelli di governance immaturi. Le imprese fraintendono che gli agenti richiedono un ripensamento radicale dei processi, con impatti diretti sull'economia italiana: per i cittadini e le aziende del Bel Paese, dove l'adozione AI potrebbe rivoluzionare settori come manifattura e servizi, ma solo superando queste barriere tecniche e culturali. 'La maggior parte sono esempi toy', ha detto Amjad Masad, CEO di Replit. 'Si entusiasmano, ma al rollout non funziona bene'. Affidabilità e integrazione, non l'intelligenza pura, sono i principali ostacoli al successo degli agenti AI, nota Masad. Gli agenti falliscono su periodi lunghi, accumulano errori o mancano di dati puliti. I dati enterprise sono disordinati — strutturati, non strutturati, sparsi ovunque — e crawlerizzarli è una sfida. Ci sono azioni non scritte difficili da codificare. 'L'idea che le aziende accendano agenti per sostituire lavoratori o automatizzare workflow automaticamente non è realtà oggi', dice Masad. 'I tool non ci sono'. Oltre agli agenti, ci sono tool per l'uso del computer che prendono il controllo del workspace per task base come browsing web, ma sono infantili, buggati, inaffidabili e pericolosi, nonostante l'hype. 'I modelli di computer use sono pessimi ora', dice Masad. 'Costosi, lenti, in progresso ma solo un anno vecchi'. Replit ha imparato dal suo errore di quest'anno, quando il suo AI coder ha cancellato l'intero codice di un'azienda in un test. Masad ammette: 'I tool non erano maturi', e ora isolano sviluppo da produzione. Tecniche come testing-in-the-loop, esecuzione verificabile e isolamento sviluppo sono essenziali, anche se resource-intensive. Replit ha integrato in-the-loop nella v3 del suo agente, che lavora autonomamente 200 minuti; alcuni lo hanno runnato 20 ore. Ma utenti si lamentano di lag: con prompt pesanti, attendono 20+ minuti. Vogliono un loop creativo con multi-prompt, multi-task e aggiustamenti real-time. 'La soluzione è parallelismo, multi-loop agenti su feature indipendenti mentre fai lavoro creativo', dice. Oltre al tecnico, c'è un ostacolo culturale: agenti probabilistici vs processi deterministici enterprise, nota Mike Clark di Google Cloud. Questo mismatch operativo arriva con nuovi tool LLM, framework e processi. 'Non sappiamo pensare agli agenti', dice Clark. 'Non sappiamo cosa possono fare'. Le aziende che ce la fanno usano processi bottom-up: no-code/low-code che scalano a agenti grandi. I deploy riusciti sono narrow, scoped e supervisionati. 'Per il 2025, anno degli agenti, è stato l'anno dei prototipi', dice Clark. 'Ora siamo nella fase di scale massiccia, cruciale per l'Italia che deve competere in Europa con AI affidabile'. Un'altra sfida è la sicurezza agenti AI, che richiede ripensamento processi, nota Clark. Perimetri sicurezza tradizionali non funzionano quando agenti accedono risorse multiple per decisioni ottimali. 'Cambia i nostri modelli sicurezza al base level', dice. 'Cos'è least privilege in un mondo senza pasture?' Serve rethink governance industry-wide, e imprese allineate su threat model agenti. Clark nota la disparità: 'Molti processi governance nascono da IBM typewriter in triplice copia — non è il nostro mondo, e per l'Italia significa adattare regolamenti UE come AI Act per proteggere PMI e innovazione nazionale'.