Un'Intelligenza Artificiale a misura di democrazia non nasce per caso. Serve progettarla.

13 aprile 2026

Pensa a un parlamentare che utilizza un assistente virtuale per redigere emendamenti perfettamente coerenti con lo storico legislativo, o a un cittadino che ottiene informazioni certificate senza doversi districare tra i labirinti burocratici, grazie a un’intelligenza artificiale proattiva che risponde ai suoi bisogni.

Non è fantascienza. Strumenti come Norma e DepuChat (addestrato esclusivamente sui dati parlamentari, per garantire sicurezza) sono già una realtà in fase di test all’interno della Camera dei Deputati italiana. Eppure, affinché questi strumenti non rimangano esperimenti isolati, ma diventino l’architettura su cui si baserà il futuro del Paese, l’Intelligenza Artificiale (IA) non può essere semplicemente subita o adottata. Deve essere guidata. In un contesto in cui l’ordine globale viene riscritto dalla competizione tecnologica, dipendere da IA sviluppata da aziende private e straniere significa esporre le nostre democrazie a rischi sociali senza precedenti e a pericolose dipendenze geopolitiche.

È questo il messaggio centrale emerso dal recente evento organizzato da CePTE, che ha visto un intervento dell’On. Anna Ascani (Vicepresidente della Camera dei Deputati) seguito da un panel con esperti del governo, del mondo accademico e dell’industria.

Il costo sociale dell’inazione: lavoro e disinformazione


C’è anche un impatto sociale ed economico immediato che non possiamo ignorare. La linea di frattura creata dall’intelligenza artificiale non riguarda semplicemente il tipo di mansione automatizzata, ma l’accesso e le competenze. Il rischio reale è quello di creare una spaccatura profonda tra chi possiede gli strumenti per sfruttare attivamente queste tecnologie nel proprio lavoro (aumentando le proprie capacità) e chi, essendone escluso, finisce per subirle passivamente o venirne rimpiazzato. Ogni volta che queste disuguaglianze - e di conseguenza le disuguaglianze economiche che ne possono derivare - aumentano, ha ricordato Ascani, le democrazie diventano più fragili.

A questa fragilità sistemica si aggiunge la minaccia diretta ai nostri processi elettorali. Oggi è estremamente facile generare deepfake per inquinare il consenso pubblico. Proprio per questo, Ascani ha presentato una proposta di legge per introdurre obblighi di segnalazione e sanzioni per le piattaforme che non rimuovono contenuti manipolativi. Ma anche in questo caso, la risposta definitiva dovrà essere europea: le piattaforme digitali operano su scala globale e una frammentazione di normative nazionali non avrebbe la forza negoziale necessaria per imporre regole efficaci ai giganti del web.

Sopravvivere nell’era degli imperi tecnologici


L’intervento di apertura dell’On. Ascani ha inquadrato la sfida dell’IA non solo come un tema tecnologico, ma come una questione di sopravvivenza democratica. Viviamo in un ecosistema in cui l’ordine globale e le certezze degli ultimi ottant’anni si stanno sgretolando. La corsa ai modelli fondazionali e alle materie prime necessarie per sostenerli (dalle terre rare ai semiconduttori) sta ridisegnando la geopolitica, in quella che Ascani ha definito ‘un’era di imperi’.

Se la via per competere nell’innovazione sembra essere quella di emulare i regimi autocratici (più veloci, ma privi di tutele) o i colossi privati esteri, l’Europa è chiamata a costruire una terza via. Dobbiamo mantenere una forte impronta etica, mettendo la persona al centro dello sviluppo tecnologico, un approccio che ha guidato la stesura dell’IA Act europeo (basato sulla gestione del rischio, come ha ricordato nel suo intervento Marta Ziosi dell’Oxford Martin IA Governance Initiative).

Tuttavia, come ha sottolineato la Vicepresidente Ascani, la sola regolamentazione non basta. Abbiamo già perso la battaglia del cloud europeo (con iniziative come Gaia-X che hanno faticato a raggiungere gli ambiziosi obiettivi iniziali), delegando la conservazione dei nostri dati a server e aziende oltreoceano. Ma la partita dei modelli linguistici (LLM) non è necessariamente chiusa, specialmente sul fronte dell’ecosistema open-source, dove l’Europa ha ancora le carte in regola per competere. Attenzione, però: competere non significa per forza rincorrere tecnologie generaliste già esistenti. Significa anche trovare modi strategici per plasmare la tecnologia, adottandola in modo proattivo nei settori in cui abbiamo già un forte vantaggio competitivo (come il manifatturiero) ed essendo pionieri sulle innovazioni del futuro. Per vincere questa sfida, evitare pericolose dipendenze e garantire che l’IA rispecchi i valori europei, non bastano i fondi dei singoli Stati: serve integrare le risorse dei 27 Paesi membri per costruire una vera infrastruttura tecnologica continentale. Dobbiamo competere sulle tecnologie, non solo sulle regole.

Dal ritardo all’opportunità: l’Italia alla prova dei fatti


Nonostante le promesse dell’IA, il livello di adozione nel sistema produttivo italiano risulta ancora limitato. Come evidenziato da Valeria Vinci (Ministero delle Imprese e del Made in Italy), secondo i dati riportati nella Relazione per paese sull’Italia per il decennio digitale 2025 della Commissione europea, solo l’8,2% delle imprese utilizza soluzioni di IA e il 45,8% della popolazione possiede competenze digitali di base. In questo contesto, sono state illustrate alcune delle misure già avviate o in fase di implementazione per affrontare tali criticità e favorire una più ampia adozione delle tecnologie di IA, tra cui AI4I – Istituto Italiano per l’Intelligenza Artificiale di Torino, orientato alla ricerca applicata sull’IA e allo sviluppo di casi d’uso industriali.

Per invertire questa rotta, il panel ha tracciato una chiara roadmap istituzionale:

  1. Sfruttare gli appalti pubblici (public procurement) in modo agile: Il settore pubblico rappresenta circa il 12% del PIL italiano. Tuttavia, come evidenziato da Chiara Carlini (PUBLIC), i lunghi iter burocratici scoraggiano le startup innovative, favorendo le vecchie soluzioni fornite dai colossi storici. Dobbiamo ispirarci a modelli come il G-Cloud del Regno Unito: un marketplace che permette alla PA di acquistare soluzioni digitali tramite contratti standard e veloci, iniettando capitali vitali nel nostro ecosistema di startup.
  2. Costruire lo ‘Stato Agentico’ e misurare i risultati: L’IA non deve essere un semplice risponditore automatico, ma un ‘agente’ capace di eseguire compiti complessi per conto del cittadino (un modello già in sperimentazione in Ucraina con l’app Diia). Ma attenzione, come ha avvertito Simone Maria Parazzoli (Banca Mondiale/OCSE): oggi l’80% dei progetti pilota nella PA italiana viene fatto senza metriche di successo tracciate in maniera rigorosa. Sperimentare non basta più, bisogna misurare il valore pubblico generato.
  3. Imporre l’interoperabilità: Lasciati a se stessi, i grandi player tecnologici tendono a creare ecosistemi chiusi. È necessario spingere affinché i sistemi di IA possano comunicare tra loro attraverso standard aperti e condivisi. Questo favorisce l’indipendenza tecnologica e la resilienza strategica: uno Stato privo di grandi aziende tecnologiche nella propria giurisdizione - come l’Italia - potrebbe comunque scegliere liberamente tra provider esteri, evitando di restare ostaggio di uno solo. Questo rappresenta un approccio pragmatico alla resilienza strategica, alternativo all’illusione della sovranità tecnologica assoluta.
  4. Investire in competenze: Per evitare che l’IA si traduca in mera automazione per tagliare i costi, lo Stato deve incentivare politiche attive del lavoro incentrate sulla formazione continua. Bisogna progettare e adottare strumenti che mirino al potenziamento delle capacità umane, fornendo ai lavoratori le competenze necessarie per guidare le macchine anziché subirle.

Il momento di agire


L’intelligenza artificiale pro-democrazia, capace di supportare i lavoratori anziché sostituirli e di semplificare la vita ai cittadini, non emergerà in automatico dalle forze del libero mercato. Richiede un intervento politico intenzionale.

Come CePTE, continueremo a lavorare per far dialogare i decisori politici, l’industria e la ricerca, assicurandoci che l’Italia non si limiti a normare questa rivoluzione, ma contribuisca a disegnarne le forme ed i confini.

A proposito dell’evento


Questo approfondimento riassume i temi trattati durante la tavola rotonda “Intelligenza Artificiale: L’impatto su democrazia e innovazione”, organizzata da CePTE, il primo think tank italiano interamente dedicato alle politiche pubbliche sulle tecnologie emergenti. Puoi trovare la registrazione qui.

Ne abbiamo discusso con:

  • On. Anna Ascani, Vicepresidente della Camera dei Deputati.
  • Valeria Vinci, Dirigente, Divisione Economia Digitale e Nuove Tecnologie Abilitanti presso il MIMIT.
  • Chiara Carlini, Deputy Director dei programmi Startup e Challenge presso PUBLIC.
  • Simone Maria Parazzoli, Esperto in digitalizzazione governativa presso OCSE/World Bank e co-autore di The Agentic State.
  • Marta Ziosi, Ricercatrice presso l’Oxford Martin IA Governance Initiative.

L’evento è stato moderato da Giulio Corsi e introdotto/concluso da Lorenzo Buscicchi e Lorenzo Pacchiardi. Un ringraziamento ai co-fondatori di CePTE Angelo Leone e Bruno Galizzi per il coordinamento.

Iscriviti alla newsletter per non perderti le nostre prossime analisi e i futuri eventi!


Autori: