Cerved
  • ITA
Homepage/AI & Innovation/Artificial Intelligence/AI Index Report 2025: l'Intelligenza Artificiale entra nella fase industriale

22 APRILE 2025

AI Index Report 2025: l'Intelligenza Artificiale entra nella fase industriale

L’Università di Stanford ha pubblicato la nuova versione del documento che fotografa lo stato dell’Intelligenza Artificiale nel mondo

Nei primi giorni di aprile è stata pubblicata la nuova versione dell’AI Index Report 2025 redatto dall’Università di Stanford. Le novità del rapporto di quest'anno includono: analisi approfondite del panorama in evoluzione dell'hardware di intelligenza artificiale, nuove stime dei costi di inferenza, analisi delle tendenze di pubblicazione e un approfondimento sui brevetti dell'AI. Sono inoltre stati analizzati i dati sull'adozione da parte delle aziende di pratiche di intelligenza artificiale responsabili e il ruolo crescente nella scienza e medicina.

Le novità rispetto alla versione del 2024 sono enormi: dai modelli linguistici ai robot industriali, dagli investimenti alle questioni etiche, ed è oramai evidente come l’AI sia uscita dai laboratori e stia pervadendo il mondo industriale.

Investimenti privati: l’Italia accelera

Uno dei dati che più colpisce è il volume degli investimenti privati in AI nel nostro Paese: 860 milioni di dollari nel 2024, un valore che ci posiziona nella top 15 mondiale. È una crescita significativa rispetto agli anni precedenti, dove l’Italia era assente dalle classifiche cumulative dal 2013 in poi. In termini matematici, la “derivata” è positiva: il nostro Paese sta accelerando.

In ambito manifatturiero, poi, il report evidenzia che l’Italia è sesta al mondo per numero di robot industriali installati. La vocazione industriale italiana si sposa sempre di più con l’adozione di soluzioni AI, soprattutto in ambiti come la robotica collaborativa e la manutenzione predittiva.

Ancora più sorprendente è il dato nei settori farmaceutico e sanitario e nelle sperimentazioni cliniche supportate da AI: nel 2024 l’Italia si è classificata al terzo posto mondiale, dietro solo a Cina e Stati Uniti. In questi settori, l’adozione dell’AI potrebbe generare un vantaggio competitivo strutturale.

I principali trend del 2025

  1. I modelli diventano sempre più potenti… e piccoli
    L’efficienza sta diventando la nuova frontiera. Se nel 2022 servivano modelli da centinaia di miliardi di parametri per raggiungere prestazioni elevate, oggi esistono Small Language Models (SLM) come il Phi-3 mini di Microsoft (3.8 miliardi di parametri) che raggiungono livelli di accuratezza simili a GPT-3.5, dimostrando che l’ottimizzazione conta più della scala pura.
  2. I costi di inferenza crollano
    Uno dei dati più eclatanti: il costo per generare 1 milione di token è passato da 20 dollari nel 2022 a 0,07 dollari nel 2024 per modelli come Gemini 1.5 Flash. Un calo di 280 volte in 18 mesi. In alcuni casi, il risparmio è stato di 900x. Questo significa che l’accesso all’AI non è mai stato così economico e continuerà a diminuire nei prossimi mesi man mano che i sistemi verranno sempre più ottimizzati.
  3. La Cina chiude il gap qualitativo
    Nel 2023 i modelli americani battevano quelli cinesi con ampi margini su benchmark come MMLU e HumanEval. Nel 2024, le differenze si sono ridotte a pochi punti percentuali. In parallelo, la Cina domina in termini di pubblicazioni (23,2%) e brevetti AI (quasi il 70% del totale mondiale). La pubblicazione di DeepSeek, sebbene accompagnata da tante polemiche, ha dimostrato come la Cina voglia giocare un ruolo da protagonista in ambito AI e che il dominio USA non sia così scontato.
  4. L’industria spinge più dell’accademia
    Il 90% dei modelli AI di punta nel 2024 proviene dall’industria, contro il 60% del 2023. L’Accademia, però, resta leader nelle pubblicazioni scientifiche più citate. La frontiera, tuttavia, si sta spostando nelle aziende, ma l’Università tiene il passo. Oggi però è sempre più difficile prevedere un futuro dell’AI in ambito accademico visti i grandi investimenti in gioco.
  5. Boom degli investimenti, costi e sostenibilità
    Gli investimenti privati in AI a livello globale hanno raggiunto i 252 miliardi di dollari nel 2024, in crescita del 26% rispetto al 2023. Il comparto generative AI ha attratto da solo 33,9 miliardi, pari a oltre il 20% del totale. Il training dei modelli resta comunque oneroso: GPT-4 è costato circa 79 milioni di dollari, Llama 3.1-405B circa 170 milioni. Questa contraddizione alimenta dibattiti sulla sostenibilità ambientale: il report segnala un aumento delle pubblicazioni accademiche sull’impatto energetico dell’AI, pur mancando ancora una metrica standardizzata.
  6. Agenti AI e reasoning: risultati promettenti ma instabili
    Gli AI agents, testati su benchmark come RE-Bench, hanno ottenuto performance 4x superiori agli umani su compiti a breve termine (2h), ma restano inferiori a lungo termine (oltre 32h). Anche i modelli generalisti mostrano limiti nel reasoning complesso: su benchmark come FrontierMath e Humanity’s Last Exam, le AI performano molto sotto il livello umano (rispettivamente 2% e 8,8%).

Gli impatti sull’opinione pubblica: fra entusiasmo e cautela

Uno degli aspetti più affascinanti del report 2025 redatto dall'Univesità di Stanford è l’analisi comparativa delle percezioni pubbliche nei confronti dell’AI. A livello globale, si registra un incremento dell’ottimismo: secondo un’indagine condotta in 26 Paesi tra il 2022 e il 2024, la percentuale di persone che ritiene l’AI più benefica che dannosa è passata dal 52% al 55%.

Tuttavia, questa media globale nasconde divergenze marcate tra macro-regioni:

  • In Cina (83%), Indonesia (80%) e Thailandia (77%), la fiducia nei confronti dell’AI è altissima. La popolazione vede nei prodotti e servizi AI strumenti di progresso sociale ed economico.
  • Al contrario, nei Paesi occidentali, prevale la cautela. Solo il 39% degli statunitensi, il 40% dei canadesi e il 36% degli olandesi percepisce l’AI come prevalentemente positiva.

L’Italia si colloca in una posizione intermedia. Anche se non citata tra i Paesi con i valori estremi, la nostra curva segue quella europea: moderatamente ottimista, ma con una componente di preoccupazione legata a privacy, bias e impatto sul lavoro.

Fiducia nei produttori di AI

Un altro segnale critico riguarda la fiducia nelle aziende AI: a livello globale, solo il 47% delle persone ritiene che queste proteggano adeguatamente i dati personali, in calo rispetto al 50% del 2023. In parallelo, scende anche la fiducia nell’imparzialità dei sistemi: aumentano le preoccupazioni sul rischio di discriminazione automatica e bias impliciti, soprattutto nei sistemi generativi e nelle piattaforme di selezione automatica.

AI e lavoro: trasformazione sì, sostituzione no

Interessante anche la percezione degli impatti occupazionali: il 60% degli intervistati crede che l’AI cambierà significativamente il proprio modo di lavorare nei prossimi 5 anni. Tuttavia, solo il 36% teme una sostituzione del proprio lavoro. Questo indica una narrativa globale che sta passando da “AI come minaccia” a “AI come leva di trasformazione”.

L’Italia e l’AI: sfiducia mitigata da curiosità

Nel contesto italiano, secondo dati raccolti da iniziative parallele europee e dal Global AI Vibrancy Tool, emerge un atteggiamento pragmatico ma non ideologico. Gli italiani riconoscono l’utilità dell’AI in ambiti come sanità, automazione e customer service, ma mostrano ancora resistenze culturali su tematiche di controllo, trasparenza e responsabilità.

Conclusioni: la nuova fase dell’AI è industriale

Il 2025 segna l’ingresso dell’Intelligenza Artificiale in una fase sistemica: non è più una promessa futura o una tecnologia di nicchia, ma un’infrastruttura globale che sta ridisegnando settori industriali, processi decisionali, relazioni sociali.

Le opportunità sono enormi. L’AI ha già mostrato capacità sorprendenti nel colmare gap cognitivi, democratizzare competenze, accelerare scoperte scientifiche e rendere più efficienti servizi complessi come quelli sanitari o pubblici. Modelli sempre più piccoli ed economici promettono di decentralizzare la potenza computazionale, rendendo accessibile l’AI anche a PMI, Paesi in via di sviluppo e startup con budget limitati.

Tuttavia, la velocità di adozione supera quella della regolazione, dell’educazione e della consapevolezza sociale. I rischi sono reali: bias algoritmici, uso malevolo (deepfake, manipolazione elettorale), impatti occupazionali asimmetrici e dipendenza tecnologica da pochi attori globali. L’AI, se non indirizzata, può amplificare diseguaglianze e produrre effetti dirompenti su modelli economici e istituzionali consolidati.

Per questo serve una governance forte e multilivello: etica, normativa, culturale. Serve una visione in cui sviluppo e responsabilità siano co-protagonisti. Dove la domanda non sia più “Cosa può fare l’AI?” ma “Cosa è giusto che faccia l’AI?”.

L’Italia, da parte sua, ha un’occasione irripetibile: costruire un’adozione dell’AI che sia coerente con il suo patrimonio manifatturiero, scientifico e umanistico. Serve una strategia nazionale che metta al centro educazione, innovazione distribuita e sovranità tecnologica.

L’AI non è solo una tecnologia: è una leva di trasformazione del mondo che conosciamo. Sta a noi decidere se sarà un acceleratore di progresso o un moltiplicatore di rischio. La sfida non è fermarla, ma governarla con visione e coraggio.

Come recita il report: "AI’s frontier is no longer about what's possible - it's about how fast we can deploy it responsibly."


Leggi i nostri precedenti articoli per saperne di più sulle tematiche AI