Le frontiere della sovranità digitale. Si può fare in Europa.

Blog page
war room innovaction de biase sovranità digitale

Intervista di Luca de Biase a Gualtiero Carraro

InnovAction – War Room

TRASCRIPT DELL’INTERVISTA

Il 2026 comincia all’insegna di un grande dibattito sempre più acceso e interessante sulla questione della sovranità europea. Uno dei temi  ricorrenti, super importanti è come si costruirà una sovranità digitale europea. L’Europa è uno delle regioni più ricche di opportunità per le attività digitali e che nello stesso tempo  ha meno risorse proprie, poche imprese nate in Europa che servono alla costruzione,  modernizzazione della società  digitale. Ma si parla molto di investimenti, delle regole, un po’ meno delle iniziative concrete.

Gualtiero Carraro è cofondatore della Carraro Lab, un’azienda che si occupa di progetti culturali,  educativi usando l’intelligenza artificiale all’Europea. E’ un esempio di concezione di possibili iniziative che utilizzino il digitale in modo compatibile con il nostro modo di vedere i diritti digitali e di concepire la qualità della convivenza. Per questo cominciamo con lui e a vedere il tema della sovranitá europea da un punto di vista concreto di quello che si può obiettivamente fare. Come si può effettivamente immaginare un avanzamento, non dico della sovranità, ma almeno di spazi di indipendenza per gli europei?

G. Carraro

Partirei dal quadro normativo vigente, quindi non stiamo parlando di teorie o di principi, ma di norme che sono in vigore e quindi ci impongono di rispettare una serie di comportamenti che tendono a evitare dei rischi. Abbiamo problemi su vari piani. Un piano è quello della privacy, la tutela dei dati sensibili. Ma c’è anche la protezione delle proprietá intellettuali. Ci sono anche i rischi di carattere sociale: si parla di fundamental rights, i diritti fondamentali della persona e della società, quindi la  tenuta della democrazia. Le  norme ci impongono di sviluppare delle soluzioni coerenti in un contesto dove la norma europea AI Act, per esempio, si deve confrontare con un’altra norma, quella americana del Cloud Act, che prevede che tutti i dati, anche se di cittadini europei e presenti su server in Europa, se sono di proprietà di società  americane, possono essere interrogati dal governo americano e dalle sue agenzie per scopi specifici.

Quindi non c’è una protezione assoluta di questi dati e questo ovviamente vale anche per il mondo cinese, cioè stiamo parlando in generale di ciò che non insiste nel contesto europeo. Quindi una prima questione riguarda le architetture, cioè proprio i server e i datacenter. Nel caso delle istituzioni pubbliche il tema è ancora più sensibile. Le scuole, ad esempio,  devono difendere i dati di minorenni, talvolta anche con disabilità e  problematiche sanitarie, quindi dati che hanno una sensibilità particolare. Di qui la necessità di costruire anche soluzioni che in certi casi arrivano all’Edge Computing, cioè addirittura ad hardware che sono collocati all’interno della sede fisica dell’istituto e quindi non consentono di far uscire questi datio di far accedere soggetti terzi. Il tutto deve essere coerente con l’utilizzo di applicazioni, ad esempio,  di intelligenza artificiale, non in cloud e non di proprietà di soggetti extraeuropei, ma per esempio con modelli open source che sono installati su questi dispositivi. Questo è un caso d’uso molto pratico e anche concreto che stiamo realizzando in diverse situazioni in Italia.

L. De Biase

Quindi per proteggere la privacy, il copyright, il segreto industriale si creano degli spazi del digitale protetti o separati addirittura dal cloud globale  e magari anche dalla rete per certi versi, per poter fare interagire un’intelligenza artificiale sui dati localmente.

G. Carraro

Sì, posso citare per essere ancora più concreti, un caso aziendale, ad esempio un’azienda bresciana, la Lucchini, che si occupa di tecnologie ferroviarie. L’esigenza era di quella di utilizzare e  ottimizzare il patrimonio informativo sulle tecnologie ferroviarie,  numerosi manuali tecnici di cui però l’azienda non intendeva rischiare di perderne il controllo. Quindi si richiedeva di sviluppare un dispositivo specifico, una Workstation sulla quale è stato installato un modello di intelligenza artificiale addestrato con questi manuali e la cui consultazione è consentita ai dipendenti e ai clienti autorizzati, senza che questo materiale sia utilizzato per addestrare, ad esempio, modelli globali che vorrebbe dire mettere a rischio ovviamente la tutela dei dati.

De Biase

É chiarissimo. Tutti noi abbiamo letto  la norma interna alla Samsung che vietò ai dipendenti di mettere qualsiasi pezzo di software interno su  ChatGPT. Probabilmente per le aziende italiane il segreto industriale o comunque una certa protezione di quello che sanno è particolarmente importante anche quando le aziende non sono super digitali. La cosa che abbiamo scoperto è che l’intelligenza artificiale si mangia qualsiasi cosa e non c’è dubbio che la utilizza, diventa conoscenza che poi viene  messa a disposizione di tutti gli utenti di quel modello. Invece dal punto di vista dell’efficienza di queste intelligenze artificiali, diciamo, solate, settoriali, aziendali, i modelli di partenza sono buoni come gli altri o c’è un pro e contro?

G.  Carraro

Distinguerei  LLM – large language model – da  SLM – small  language model. Nell’ambito LLM comunque esistono grandi modelli anche di enormi dimensioni con prestazioni notevoli, ma la gestione di questi modelli non è banale dal punto di vista prestazionale, ci vogliono workstation impegnative. Oppure nel caso di utilizzi più mirati si può optare per l’opzione di modelli piccoli che possono essere addirittura anche installati su singoli dispositivi. Quello che noi vediamo in questi giorni, la robotica umanoide, ad esempio, tende a usare modelli piccoli installati sul robot stesso.  Nell’ambito industriale  non è  necessario parlare 30 lingue per far funzionare un impianto. Il vantaggio della sovranità digitale, però, parlando sempre di industria, è che non solo si può proteggere la proprietà intellettuale, ma si può proteggere l’azienda da eventuali fluttuazioni dei prezzi  di questi servizi, dalla possibilità che i servizi possano essere interrotti o  che addirittura, questo è il caso limite, per motivi geopolitici ci sia un sabotaggio o addirittura un’aggressione. L’azienda dipende da terzi. Quindi il tema della sovranità, se vogliamo espanderlo, non riguarda soltanto le norme delle IA che sono di carattere etico o legate alla privacy, ma si parla in un certo senso di sopravvivenza. Riceviamo richieste da aziende che dicono: i dati da qui non devono uscire.

L. De Biase

Non è una questione di  prezzo o di costi, ma è una questione mission critical sulla quale non si discute e questo però apre uno scenario sul quale parliamo poco in Europa. Noi parliamo di queste enormi imprese prevalentemente americane e  cinesi che producono questi sistemi industriali dove c’è dentro tutto, sono potentissimi e hanno il difetto di creare una dipendenza dal punto di vista organizzativo, non solo psicologico.

G. Carraro

Distinguerei il piano della applicazione di massa, diciamo consumer, che difficilmente potrà essere contesa da un operatore  europeo, quindi dobbiamo un po’ rassegnarci a convivere con un mondo, diciamo, come è successo coi social, motori di ricerca, dominato da big tech, diciamo, che vengono da fuori, non solo americane. TikTok non è americano, no?

Quindi distinguerei questo ambito da quello privato. Sovranità in questo senso si applica al concetto di proprietà, cioè io sono in un contesto di proprietà privata che può essere sia aziendale che pubblica. Quindi sono contesti dove c’è un soggetto che può decidere di proteggersi e di avere una propria sovranità. Questo non solo nella  modalità dicevamo prima dell’Edge che è  un po’ estrema se vogliamo, no, ma anche ricorrendo architetture che sono già disponibili sia a livello italiano che europeo che sono presso data center che hanno caratteristiche diverse. Qui cito anche un caso particolare. In Svizzera, ad esempio, il governo federale ha finanziato lo sviluppo di un modello AI etico e sicuro, Apertus, che è stato sviluppato con un data center raffreddato con le acque del lago di Lugano, tra l’altro, quindi con aspetti anche di sostenibilità. Quindi  nel contesto europeo – sia UE che non – abbiamo esempi, come gli EUROLLM, di soluzioni che a livello software e anche di architetturale cominciano a essere disponibili. Questo credo sia una un’informazione che deve circolare.

L. De Biase

Sì deve circolare l’idea che appunto non c’è una sola possibilità per l’intelligenza artificiale, ma addirittura  molte. Ci sono data center all’Europea che garantiscono certe prestazioni dal punto di vista della privacy, del rispetto degli altri diritti oppure centri di elaborazione all’interno delle aziende, come dice lei, Edge, che possano proteggere in maniera quasi fisica la  conoscenza, ma questo non significa che per questo si resta indietro dal punto di vista delle opportunità di intelligenza artificiale, anzi, probabilmente si creano molte nuove opportunità di  modelli che essendo addestrati su dati controllati diventano anche meno propensi alle allucinazioni e ad altre cose che vediamo nei fenomeni più grandi.

G. Carraro

Facciamo un esempio applicato al mondo della didattica della scuola. Allora,  ovviamente si propende a prendere un  chatbot di quelli già conosciuti, e ad applicarlo nella didattica. Magari c’è anche una versione education di questo chatbot che però in realtà non è altro che uno sconto per gli studenti. Di fatto però si tratta della tecnologia che non è nata per finalità didattiche, ma ha finalità più ampie, può essere usata anche in modo improprio. Il caso di Grock che di questi giorni in cui è stato ampiamente utilizzato per creazione di immagini pornografiche partendo da immagini persone reali in Europa si configura come un reato gravissimo, che magari gli studenti possono compiere utilizzando un sistema addirittura adottato dalla scuola. Attenzione, stiamo entrando nel penale, quindi non  stiamo parlando di cose leggere. Da  questo punto di vista, quindi forse è meglio utilizzare uno strumento con finalità educativa, con obiettivi più ristretti.

Con voi abbiamo parlato in passato di microlingua lab, ad esempio, che ha una finalità molto mirata: imparare le lingue tecniche professionali di un settore, lo stiamo applicando con diverse università, con tantissime scuole e non permette di creare chissà quali altre cose, ma persegue un obiettivo che è quello dell’apprendimento del linguaggio tecnico professionale.

Ecco,  quindi da questo punto di vista può essere anche superiore, rispetto a un modello AI generalistico.

L. DE Biase

Esattamente. Chiaramente poi sì, questa è una consapevolezza che si va diffondendo oppure  nelle scuole prevale un atteggiamento del tipo  “Beh, modernizziamoci, prendiamo Google per tutti che c’ha una suite apposta per noi, eh costa poco, non abbiamo soldi, facciamo quello.”

Dopodiché però tutti questi effetti diciamo di retroazione non erano a quel tempo noti. Adesso che ne stiamo parlando c’è una attenzione diversa e come si manifesta?

G. Carraro

Intanto  abbiamo  dei tavoli in cui stiamo ragionando con reti di istituti o anche associazioni che rappresentano, per esempio, i dirigenti scolastici che si pongono il problema della responsabilità anche legale e quindi chiedono alternative a quell’approccio scontato che dicevamo prima. Questo è un filone significativo che sta crescendo, c’è una sensibilità crescente in un contesto però di generale  non consapevolezza. Ad esempio, faccio il caso di una scelta che di cui ho letto: il sistema universitario italiano ha fatto un accordo con ChatGPT per avere uno sconto per dotare tutti gli studenti di un accesso a questa piattaforma. Al di là del fatto che ci sono delle rassicurazioni da parte di OpenAI sull’utilizzo di questi dati, però di fatto resta il dubbio di un rischio notevole di addestrare questi modelli con le competenze maggiori del nostro sistema scientifico universitario. Rispetto a questo rischio non c’è un’adeguata consapevolezza, ad esempio, non vi pare?

Quindi, sarebbe da approfondire. Ci sono stati casi anche all’estero, in questo momento in Austria c’è una inchiesta su Microsoft per la trasparenza nell’ utilizzo dei dati,  degli studenti. Ma siamo sicuri che non li utilizzano per altri scopi? Le linee guida del Ministero Italiano dicono chiaramente che i dati con cui si profila uno studente devono essere usati solo a fine didattico. Ma siamo sicuri che ciò avvenga?

L. De Biase

c’è un motto da quelle parti, insomma, che dice meglio chiedere scusa per cose che hai fatto piuttosto che pentirsi di non averle fatte. E questo  per quanto mi riguarda si vede poi in queste cause, l’ultima che è partita su Google che utilizza il copyright europeo per l’addestramento del suo modello è una causa. Adesso vedremo come va a finire.

Nessuno sa se hanno ragione gli accusatori o i difensori, però su questo fronte continua a porsi una relazione del tipo: noi prendiamo le risorse che possiamo, cresciamo, facciamo diventare i nostri modelli sempre più potenti e poi se c’è da mettere a posto qualcosa lo faremo successivamente. Invece gli europei cercano di prevenire i problemi. E quindi tanto spesso diciamo che siamo più lenti, ma perché dobbiamo prima capire come fare le cose per bene? Questo è giusto oppure è una lettura ottimistica?

G. Carraro

Questo non è solo giusto, è anche obbligatorio, nel senso che l’AI Act prevede che entro il 2 agosto 2026 tutte le aziende e istituzioni presenti sul territorio europeo devono fare un corso obbligatorio di AI literacy, cioè sull’ uso consapevole e responsabile dell’intelligenza artificiale.

Si tratta di una norma sfuggita ai più, se non alle grandi aziende che hanno già attuato questo obbligo. Questa cosa è fantastica. Sarebbe la prima volta storicamente che non subiamo un’ondata tecnologica- pensiamo ai social, pensiamo agli smartphone – per poi dopo pentircene, magari proibirne l’utilizzo nelle scuole. E’ un fallimento, a mio avviso, del sistema educativo, cioè non è possibile, non è giusto che si trascuri un fenomeno, poi se ne ravvedano gli effetti negativi proprio perché è stato trascurato e infine si proibisca. Non è una grande idea, no? Vogliamo poi arrivare a proibire l’intelligenza artificiale nelle scuole?

Non escludo che si possa arrivare a questo, ma piuttosto mi parrebbe più sensato adesso fare un processo di formazione alla  AI literacy. stiamo sviluppando e presenteremo, tra l’altro a Bruxelles nei prossimi giorni ad alcuni referenti della commissione UE  una piattaforma finalizzata proprio a questo scopo, cioè a sviluppare in modo scalare la formazione, la consapevolezza dell’uso dell’di intelligenza artificiale con tutte le implicazioni, i rischi che non sono solo quelli enumerati dall’AI act, i famosi quattro livelli di rischio che sono nella norma, ma ce ne sono moltissimi altri, cioè oggi si parla di circonvenzioni di incapaci di o induzione al suicidio.  Il fatto che in Australia si siano proibiti i social sotto i 16 anni non deriva da un problema di violazione della privacy, ma da casi di ragazzi e adolescenti che subendo algoritmi che li hanno travolti, con anche i branchi, si sono suicidati. Quindi insomma stiamo parlando di cose non banali, no? E non trascurabili. Ecco allora che, per esempio, in questi giorni c’è un decreto ministeriale del Ministero dell’Istruzione e del Merito che parla di una formazione su larga scala di tutti i docenti. Queste sono le grandi opportunità del momento, che vanno colte però in una ottica che non può essere manichea. Per carità, nessuno nega il diritto a aziende italiane, americane o cinesi di perseguire il loro profitto e la loro crescita, peraltro con tecnologie straordinarie, avanzatissime.  Però noi dobbiamo considerare la nostra sovranità, il nostro diritto a essere padroni di noi stessi e non prodotti o strumenti, oggetti di proprietà di qualcuno. Non abbiamo mai assistito a un livello di controllo così dettagliato. Il nostro comune amico Derrick  De Kerchove parla di inconscio digitale, una sfera dove ci sono tutti i nostri dati di cui nemmeno noi siamo consapevoli.

L. De Biase

Questo colloquio con Gualtiero Carraro ci mostra che questi principi, questa aspirazione alla sovranità digitale, diciamocelo, l’Europa non è particolarmente sovrana da molti altri punti di vista, in particolare militare ovviamente, però nella prospettiva di come dire avere un controllo maggiore su quello che ci accade nella dimensione che più ha dimostrato di avere potenziale trasformativo anche in bene, oltre che nei problemi che abbiamo citato,  dobbiamo poter avere e fare in modo che il digitale, l’intelligenza artificiale riflettano i nostri valori, almeno quelli che aspiriamo a coltivare sembrerebbe  decisivo e probabilmente è un dibattito che deve arricchirsi degli esempi delle cose che effettivamente si possono fare, come dimostra la Carraro Lab con le sue proposte in termini di approccio all’educazione e questo concetto della piattaforma sulla AI Literacy non c’è mai stato. Non c’è mai stata un’iniziativa europea per tutti i cittadini di che mettersi d’accordo su qual è la lo stato della della situazione e abilitare un atteggiamento più consapevole. Da questo punto di vista ci può spiegare in due parole la piattaforma, piuttosto complessa, immagino.

G. Carraro

Sì. Intanto bisogna attuare l’obbligo di legge. E questo prevede in pratica che ogni responsabile legale di un’istituzione, un sindaco, un amministratore legato, un preside deve far sì che coloro che operano sotto la sua responsabilità, quindi non solo i dipendenti, ma nel caso della scuola anche gli studenti, siano adeguatamente formati all’uso consapevole, responsabile etico dell’intelligenza artificiale. Quindi è necessaria una piattaforma che attraverso un’anamnesi, vada a identificare quali sono effettivamente le applicazioni di intelligenza artificiale che utilizza quel comune, quella scuola, quella azienda. Quindi c’è una personalizzazione, ognuna di esse comporta dei rischi e allora bisogna trovare delle mitigazioni dei rischi. Non solo, è necessario che all’interno della struttura  della specifica realtà le persone che hanno diversi ruoli abbiano formazioni diverse. In un comune il vigile urbano e l’addetto all’anagrafe hanno un utilizzo diverso dell’intelligenza artificiale: telesorveglianza, trattamento dei dati, quindi devono avere una formazione specifica per le loro responsabilità.

Non so se è chiaro questo. In più questa norma prevede che ci sia un registro che attesti che tutti abbiano fatto la formazione,  come un po’ per la sicurezza, se vogliamo. Bisogna anche rendere disponibile eh una soluzione affinché ci sia un aggiornamento costante. In questo contesto, ovviamente, da un momento all’altro ci sono, aggiornamenti,  tipo legale, di tipo tecnologico, nuovi rischi anche, quindi non basta un corso. Ecco, quindi  questo è un po’ il contesto, la sfida maggiore che stiamo affrontando, cioè prima di adottare capire. Mi sembra anche normale, no?

L. De Biase

Certo. Beh, sì, è stato molto logico, ma nei fatti poi noi siamo andati ad adottare prima di capire, nel caso dei social network è stato un esperimento clamoroso. Grazie Gualtiero Carraro di questa testimonianza. Credo che  il carotaggio sulla iniziativa sulla AI Literacy  mostri la complessità dell’idea, perché non è soltanto imparare un ABC, ma è un ABC che continuamente evolve, che ha diverse applicazioni nelle diverse strutture della società, della pubblica amministrazione e che è richiamato da una norma già in atto con una scadenza non tanto lontana e che per tutti i responsabili. Ci richiama all’attenzione la necessità di avere una maggiore competenza, conoscenza e consapevolezza di quello che ci sta succedendo.

G. Carraro

Sì, non abbiamo trovato una piattaforma che assolvesse questi diverse esigenze, quindi abbiamo dovuto proprio sviluppare un applicativo per questa cosa. Questo dimostra che le sfide sono nuove e non possono essere affrontate con un atteggiamento tradizionalista. Bisogna essere anche innovativi in questo contesto.

APPROFONDIMENTI

AI Literacy – formazione all’AI per le scuole

Microlingua LAB