Tre minuti.
Non è una metafora, né un modo di dire. Tre minuti reali, misurabili, quelli che passano mentre in aula qualcuno tossisce, qualcuno prende appunti, qualcuno controlla l’ora.
Durante un seminario sull’ai generativa in azienda, all’università, ho aperto Claude Cowork e gli ho dato tre file csv con dati e-commerce e un brief di poche righe. Vendite, clienti, marketing. Poi ho chiesto una cosa molto “da corso”: segmentazione, kpi, roas per canale, grafici, e un report strategico con raccomandazioni di budget.
In tre minuti l’ai ha fatto l’analisi, ha costruito una segmentazione rfm, ha calcolato il ritorno sulla spesa pubblicitaria, ha tirato fuori visualizzazioni interattive e ha scritto un report che, a colpo d’occhio, sembrava completo.
Non perfetto, no. Non pronto per essere presentato a un board senza una revisione seria. Però era esattamente il tipo di deliverable che spesso viene richiesto come progetto finale. Quello che un corso universitario programma per un anno.
Non lo scrivo per sminuire studenti o docenti. Lo scrivo perché quella scena mi ha costretto a guardare in faccia una cosa che, se devo essere sincero, preferirei non vedere: la divergenza silenziosa tra la velocità della tecnologia e la velocità delle istituzioni.
Due orologi che segnano tempi diversi #
L’università è progettata per muoversi lentamente. E non è necessariamente un difetto, anzi. È il modo in cui garantisce qualità: commissioni, accreditamenti, comitati, revisioni, consenso. È quasi nel DNA di queste istituzioni non correre.
Il problema è che fuori dall’aula, nel frattempo, il mondo non sta solo correndo. Sta cambiando scarpe ogni due chilometri.
Un curriculum universitario richiede spesso 12-24 mesi per essere progettato, approvato e implementato. I corsi vengono pianificati con largo anticipo. I libri di testo hanno cicli editoriali lunghi, e anche quando sono ottimi, arrivano in un mondo che nel frattempo si è già spostato.
L’innovazione invece ragiona per release. Strumenti di AI coding passano da “curiosità” a standard industriale in pochi mesi. Agenti AI completano lavori che prima richiedevano settimane. Startup fondate da neolaureati raggiungono valutazioni enormi in tempi che non assomigliano più ai vecchi cicli industriali.
E così ci ritroviamo con due orologi nella stessa stanza.
Uno scandisce semestri e piani di studio.
L’altro scandisce deploy, aggiornamenti, nuovi modelli, nuove interfacce.
La distanza tra i due non è solo organizzativa. Sta diventando culturale.
La mezza vita delle competenze: da decenni a mesi #
C’è un concetto che torna spesso quando si parla di lavoro e tecnologia: la half-life delle competenze. Il tempo dopo il quale metà di ciò che hai imparato diventa obsoleto o poco rilevante.
Quarant’anni fa poteva essere una decade. Oggi, per molte competenze tecniche, si parla di circa 2,5 anni.
Eppure non serve nemmeno chiedersi se 2,5 anni non siano un'era geologica quando parliamo di AI e sviluppo software. Gli assistenti AI per programmare sono passati da esperimento a presenza capillare in pochissimo tempo. Chi ha imparato a programmare nel 2022 senza toccare strumenti di AI coding oggi si trova a lavorare con un pezzo di cassetta degli attrezzi che manca.
Le stime globali mettono numeri ancora più netti sul quadro generale: entro il 2030, il 39% delle competenze chiave richieste nel mercato del lavoro cambierà. E il 59% della forza lavoro globale avrà bisogno di reskilling o upskilling.
Ora prendi una laurea triennale: tre anni. Aggiungi una magistrale: altri due. Cinque anni.
Nello stesso arco temporale in cui uno studente completa il percorso, una parte enorme di ciò che il mercato considera “chiave” sarà cambiata.
E qui la domanda smette di essere teorica. Diventa quasi intima: che cosa stiamo promettendo ai giovani che si iscrivono all'Università?
L’ingresso nel lavoro è un muro, non una porta #
Se fosse solo un disallineamento di contenuti, potremmo parlarne con calma. Il problema è che i numeri sull’entry-level raccontano una storia più dura.
Negli ultimi anni le assunzioni entry-level in molte grandi aziende tech sono calate drasticamente. In diversi mercati si parla di riduzioni importanti, e in europa nel 2024 molte posizioni tech per neolaureati sono diminuite sensibilmente, con prospettive non esattamente rosee.
Poi ci sono i tagli dichiarati apertamente come “abilitati” dall’AI. Aziende che riducono ruoli corporate perché l’ai permette strutture più snelle. C’è persino chi ha detto pubblicamente che l’ai gestisce ormai una parte enorme del lavoro.
E mentre questo succede, tra i giovani cresce una sensazione che si percepisce anche senza sondaggi: l’idea che il mercato sia diventato più chiuso, più selettivo, più difficile da attraversare.
Quasi la metà dei giovani in cerca di lavoro ritiene che l’ai abbia ridotto il valore della propria istruzione universitaria.
Non è fantascienza. È presente. E quando il presente ti bussa alla porta, non puoi più rimandare la conversazione.
Il paradosso dell’entry-level: quando l’ai mangia il primo gradino #
C’è un dettaglio che rende tutto più insidioso.
Il patto implicito dell’entry-level, per anni, è stato questo: fai lavoro ripetitivo, ti fai le ossa, impari. In cambio ricevi mentorship, contesto, crescita.
Quel lavoro ripetitivo però è esattamente ciò che l’AI assorbe meglio.
E quindi sparisce il primo gradino della scala.
Questa è la parte che mi inquieta di più, perché è un problema di “trasmissione” delle competenze. Se non assumi junior oggi, chi diventerà senior domani? Qualcuno ha descritto questa scelta come “mangiare il grano da semina”. Risparmi adesso, paghi dopo, e paghi con interessi.
Nel frattempo l’università rischia un circolo vizioso: forma persone per ruoli entry-level che si stanno restringendo, usando curricula che possono diventare vecchi prima ancora di arrivare a regime.
Il laureato del 2026 esce mediamente con conoscenze del 2023, perché quello era l’anno in cui il curriculum è stato pensato, per un mercato che nel frattempo ha fatto due o tre rivoluzioni.
Tre minuti vs un anno, e quello che ho visto negli occhi degli studenti #
Torno a quella demo perché lì, più che nei grafici, c’era la parte emotiva.
Il brief era una poche righe. Tre csv allegati. Zero configurazione.
In tre minuti l’ai ha prodotto metriche aggregate, segmentazione, roas, visualizzazioni, raccomandazioni.
Ripeto: non era perfetto. Ma era abbastanza buono da far scattare una domanda silenziosa.
E la domanda, in aula, si è vista negli occhi.
Non ho visto panico. Ho visto concentrazione. Ho visto quella forma di attenzione che arriva quando capisci che il terreno sotto i piedi si muove davvero.
Non so perché, ma questa cosa mi ha dato speranza. Forse perché mi è sembrato che gli studenti non stessero fingendo. Stavano guardando.
E forse è da lì che si passa: dal non fare finta.
Perché il messaggio, alla fine, era chiaro. Il “cosa” si impara sta diventando meno importante del “come” si impara a imparare.
Italia: buona volontà, tempi geologici #
In italia non siamo fermi. Sarebbe ingiusto dirlo.
Negli ultimi anni l’offerta formativa in AI è cresciuta, con nuovi corsi di laurea, percorsi magistrali, contaminazioni con altre discipline, alta formazione in ambiti specifici. Ci sono strategie nazionali, collaborazioni università-imprese, piattaforme di e-learning.
Sono passi importanti.
Ma c’è un “ma” grande: si muovono alla velocità istituzionale. Bandi, commissioni, organi collegiali. Nel frattempo fuori si va alla velocità dei deployment.
Quando un corso viene attivato dopo anni (o anche solo mesi) di iter, gli strumenti che insegna rischiano di essere già cambiati due volte. Non perché il corso sia fatto male. Perché il tempo è diventato un avversario.
E qui la divergenza fa più male, perché non è questione di incompetenza. È questione di architettura.
Le università garantiscono qualità attraverso la lentezza.
La tecnologia garantisce rilevanza attraverso la velocità.
Per anni queste due logiche hanno convissuto. Ora iniziano a scontrarsi.
Cosa stiamo insegnando, e cosa forse dovremmo insegnare #
Le competenze che crescono più in fretta nei prossimi anni sono un mix strano e bellissimo. Da un lato ai e big data, cybersecurity, literacy tecnologica. Dall’altro pensiero creativo, resilienza, flessibilità, curiosità, apprendimento permanente, leadership.
Tecnico e profondamente umano insieme.
E allora mi chiedo se il punto non sia proprio questo.
Non basta insegnare uno strumento. Bisogna insegnare a pensare, adattarsi, comunicare, decidere sotto incertezza. Perché gli strumenti cambiano. E cambiano in fretta.
C’è anche un fenomeno che secondo me stiamo leggendo male: la dipendenza diffusa degli studenti dall’AI.
Spesso la chiamiamo pigrizia. A volte lo è, certo. Ma a volte è un segnale. Gli studenti sentono quando gli si chiede di investire energie in competenze che sembrano irrilevanti o già superate. E cercano scorciatoie perché, dal loro punto di vista, il gioco non vale la candela.
Le università (o anche le scuole) che rispondono vietando l’AI stanno combattendo una guerra persa.
Quelle che la integrano in modo superficiale rischiano di fare un’altra cosa: normalizzare l’uso senza cambiare davvero l’obiettivo.
Forse serve un ripensamento più radicale di cosa significhi “competenza” nel 2026.
La fine del curriculum statico #
Non ho la presunzione di avere soluzioni definitive. Più ci penso e più mi sembra un problema pieno di compromessi reali.
Però alcune direzioni, almeno, si intravedono.
La prima è la modularità. Abbandonare l’idea del curriculum monolitico pluriennale e spostarsi verso moduli brevi, aggiornabili, componibili. Micro-credenziali che si aggiornano ogni semestre. Non è un capriccio “moderno”. È un modo per riallineare l’educazione a un mondo che non aspetta.
La seconda è portare dentro problemi reali, non esercizi. La differenza è semplice: un esercizio ha una soluzione nota, un problema reale no. L’AI è bravissima con le soluzioni note, e infatti rende obsoleti tanti progetti tradizionali. Ciò che resta difficile, invece, è scegliere la domanda giusta, gestire l’ambiguità, negoziare con stakeholder, capire quando un dato è “corretto” ma fuori contesto.
La terza è trattare l’AI come ambiente, non come materia. Non un corso isolato, ma una presenza trasversale, come la calcolatrice non ha ucciso la matematica ma ha cambiato cosa significa “saperla”. L’AI probabilmente non ucciderà la formazione, però cambierà cosa significa essere competenti.
E poi ci sono le collaborazioni operative con le imprese. Non partnership che producono un paper tra tre anni, ma lavori condivisi su problemi veri, con gli stessi strumenti, nello stesso arco temporale. È complesso, lo so. Però è anche uno dei pochi modi per recuperare tempo.
Infine, insegnare a imparare. Sembra una frase da poster, ma oggi è quasi l’unica cosa davvero a prova di futuro e che forse l'Università negli ultimi 30 anni ha perso. Metacognizione, pensiero critico, capacità di valutare strumenti nuovi, di integrarli senza diventarne dipendenti.
Il vero pericolo non è l’AI, è l’irrilevanza #
Se l’accademia viene percepita come troppo lenta, troppo costosa, fuori dal tempo, il rischio è che le persone inizino a bypassarla. Non per cattiveria, ma per necessità.
E qui arriva la domanda più scomoda, quella che temo molti studenti si stiano già facendo.
Quando scopri che puoi ottenere in tre minuti con un assistente AI quello che il tuo corso ti ha insegnato a fare in un anno, non pensi “che bello, ho basi solide”. Pensi: perché ho investito tre anni della mia vita e migliaia di euro?
La risposta esiste, ed è anche una buona risposta.
Il valore dell’università non dovrebbe essere il trasferimento di competenze puntuali. Dovrebbe essere un framework mentale, il pensiero critico, la capacità di argomentare, la rete di relazioni, l’esposizione a discipline diverse, la maturazione personale.
Ma se il curriculum è costruito come se il valore principale fosse “imparare a fare un dashboard”, quella risposta suona vuota. E fa male dirlo, perché dietro tanti corsi c’è dedizione vera.
L’urgenza di agire, senza panico #
Oggi nel mondo investiamo pochissimo, in proporzione, nell’apprendimento permanente degli adulti. Eppure aumentare quell’investimento potrebbe generare un valore enorme entro il 2030.
Non è solo un problema educativo. È economico. È sociale.
Le università hanno un vantaggio che nessuna piattaforma AI ha: possono insegnare a pensare in modo critico, a collaborare in profondità, a navigare l’ambiguità etica.
Ma solo se smettono di competere sul terreno dove l’AI vince, cioè la trasmissione di informazioni e l’esecuzione di compiti strutturati, e si concentrano su ciò che le rende insostituibili.
Il tempo per questa transizione non è “nei prossimi anni”. È adesso.
Ogni semestre che passa con curricula invariati è un semestre di studenti che escono meno preparati di quanto potrebbero essere.
La velocità dell’AI non rallenterà per aspettare i comitati didattici.
Quella demo di tre minuti non era una provocazione. Era uno specchio.
E la cosa che mi ha colpito di più non è stata la velocità dell’AI. È stata la lentezza di tutto il resto.