1. News
  • 05 dicembre 2024
  • News

PMI e Intelligenza Artificiale: le linee guida dal G7

Il G7 a guida italiana continua ad affrontare i temi dell’intelligenza artificiale e le nuove tecnologie per le PMI.

Condividi:

Il 15 ottobre 2024 a Cernobbio si è tenuta la riunione ministeriale G7 sulla “Tecnologia Digitale” presieduta dal Sottosegretario di Stato alla Presidenza del Consiglio con delega all’innovazione tecnologica Alessio Butti.

Si è discusso molto su come l’Intelligenza Artificiale (IA) possa impattare, non solo sui processi produttivi, ma su tutta la realtà delle micro, piccole e medie imprese (PMI). Il G7 sull’Industria e Innovazione Tecnologica ha dedicato l’ultima sessione a questa tematica perché, l’accelerazione tecnologica, per essere applicata correttamente, deve seguire standard di sicurezza adeguati per non trasformare un’opportunità in un rischio.

La presidenza italiana ha presentato un report dettagliato, da cui sono emerse importanti linee guida sull’applicazione dell’IA.

Intelligenza Artificiale nelle PMI: opportunità e rischi

Durante il G7, il Ministro italiano delle Imprese e del Made in Italy, Adolfo Urso, ha evidenziato la necessità di accompagnare le PMI nel processo di trasformazione digitale, consapevoli dei rischi e delle potenzialità delle nuove tecnologie.

Il dibattito si è concentrato anche sulla necessità di promuovere un’intelligenza artificiale responsabile perché lo sviluppo dell’IA comporta non solo opportunità per migliorare l’efficienza e la competitività delle PMI, ma anche rischi come la sicurezza dei dati e l’etica nell’automazione dei processi.

La trasformazione digitale per tutte le imprese

Il G7 ha ribadito l’importanza di rendere accessibile l’IA a tutte le imprese, indipendentemente dalle loro dimensioni. Questo per evitare che l’innovazione tecnologica diventi un vantaggio esclusivo per le grandi aziende, ma che contribuisca al progresso dell’intero tessuto economico, soprattutto in un Paese come l’Italia, dove le PMI sono una parte vitale dell’economia.

Standard di sicurezza comuni per l’IA

L’Ufficio europeo per l’Intelligenza Artificiale ha avviato il processo di elaborazione del primo codice di buone pratiche per i modelli di IA per uso generale, ai sensi della legge europea “AI Act”. Quasi 1.000 invitati hanno partecipato alla plenaria online per contribuire allo sviluppo del codice di best practice, considerando che la legge sull’Intelligenza Artificiale dell’UE mira proprio a definire linee guida precise, che possano fungere da riferimento per tutti i Paesi membri e non solo.

Raccomandazioni per promuovere l’IA nelle PMI

La presidenza italiana del G7 ha presentato il Rapporto sopra citato, che contiene raccomandazioni sviluppate grazie al contributo dei vari paesi membri e del TECH 7 e che analizza come l’IA possa essere applicata anche alle PMI per ottimizzare i processi aziendali e superare eventuali difficoltà. Il documento è composto da raccomandazioni per i policymaker e gli stakeholder privati, per incentivare investimenti, ricerca e formazione nell’ambito dell’IA, soprattutto nelle PMI. Inoltre, nel Rapporto si sottolinea che l’adozione dell’Intelligenza Artificiale nel mondo del lavoro rappresenta una trasformazione significativa, poiché l’automatizzazione di alcuni compiti è uno dei suoi effetti principali e che per un utilizzo ottimale dell’IA si richiede la collaborazione con una forza lavoro qualificata, la cui offerta in questo momento è ancora insufficiente

Soluzioni di IA sicure e affidabili: i quattro principi da seguire

Il Rapporto definisce quattro principi fondamentali che aiutano lo sviluppo, l’implementazione e la governance responsabili dei sistemi di intelligenza artificiale, contribuendo a mitigare i potenziali rischi e massimizzando i benefici:

spiegabilità dei modelli: è importante raggiungere un livello generale di spiegabilità che garantisca una comprensione della logica che guida il loro funzionamento in modo da fornire una conoscenza di base su come i modelli di intelligenza artificiale operano e creano output;

trasparenza: è un elemento chiave che può migliorare il livello di sicurezza e affidabilità dei sistemi di intelligenza artificiale ed è anche complementare al fatto di fornire informazioni semplici e di facile comprensione sulle fonti e sulla qualità dei dati;

validità e robustezza: sono elementi che possono migliorare la sicurezza e l’affidabilità dei sistemi di intelligenza artificiale;

utilizzo etico: si raggiunge attraverso soluzioni di governance, progettate per limitare o mitigare casi di utilizzo potenzialmente dannosi o non etici che potrebbero essere considerati un pericolo per la società in generale

I quattro principi sopra indicati, sono essenziali per garantire che l’intelligenza artificiale sia sicura, protetta e affidabile. Questi principi fondamentali forniscono un quadro solido per guidare lo sviluppo, l’implementazione e la governance responsabili dei sistemi di Intelligenza Artificiale.