Intelligenze collettive. Animali, umane, artificiali.

Blog page
obot AI intelligenza collettiva

Gualtiero Carraro

Il concetto di intelligenza viene prevalentemente inteso in senso individuale: si descrive l’intelligenza personale e la si misura con il quoziente intellettivo.

Tuttavia, ad una analisi approfondita emerge una ancora più rilevante dimensione collettiva dell’intelligenza, sia nella sfera animale che in quella umana e artificiale.

L’intelligenza collettiva in senso generale è la capacità di un gruppo di individui di risolvere problemi complessi, prendere decisioni e creare conoscenza sviluppando l’interazione e la collaborazione.

Questa facoltà, che è presente in varie forme anche in molte specie animali, oltre che nelle organizzazioni umane si sta manifestando rapidamente negli sviluppi dell’Intelligenza Artificiale.

Dopo l’AI generativa e quella agentica, l’Intelligenza Artificiale organizzativa o collettiva rappresenta una successiva sfida per i protagonisti dell’innovazione tecnologica: l’obiettivo è sviluppare modelli AI in grado di ragionare e agire in forma collettiva.

Si tratta di una evoluzione dell’AI agentica, che a differenza di quella generativa non si limita a generare contenuti su richiesta, ma è in grado di svolgere azioni e attuare processi. Un agente AI è ad esempio in grado di organizzare un viaggio: raccoglie le nostre indicazioni sulla destinazione, il budget, il periodo, i partecipanti, e si attiva per pianificare il trasporto, il pernottamento, le attività e i relativi biglietti. A noi non resta che scegliere tra poche opzioni e premere un tasto per acquistare il pacchetto.

Quando gli agenti sono numerosi e tra loro coordinati, si attivano forme di intelligenza artificiale collettiva. Ad esempio, per difendere una nazione da azioni di Cyberwar, non basta certo un solo agente, ne serve un esercito. In diversi contesti sono già visibili applicazioni tecnologiche che possono essere considerate forme di intelligenza artificiale collettiva, come gli sciami di droni o le squadre di robot, e non solo.
Ampliando la prospettiva culturale e la riflessione teorica, si possono descrivere diverse intelligenze collettive, sia naturali che artificiali. Queste ultime sono in grado di avere profonde influenze sul nostro futuro.

Le intelligenze gregarie animali e le nuove specie artificiali

Il concetto di “Swarm Intelligence” non prende spunto dall’Intelligenza umana, ma dal comportamento animale.
Gli sciami di insetti o uccelli, come i branchi di animali, agiscono per raggiungere obiettivi che un singolo non potrebbe prefiggersi. I pesci che si difendono nuotando in branco, i lupi o le orche che sviluppano strategie di attacco, le formiche e le api che costruiscono strutture o sciamano in migliaia sono tutti esempi di intelligenze biologiche da cui l’AI collettiva sta prendendo spunti.

L’entomologo William Morton Wheeler già nel 1911 osservò come individui apparentemente indipendenti possano collaborare così strettamente da divenire indistinguibili e costituire un unico “superorganismo”. Uno degli sviluppi più recenti dell’intelligenza collettiva, mutuando questa intuizione, si ispira proprio alla riproduzione computazionale del comportamento degli insetti sociali come api o formiche.
Da anni assistiamo a spettacoli luminosi notturni o ad attacchi militari gestiti da sciami di droni.
Possiamo quindi osservare che le AI collettive sono già tra di noi, per lo meno nella forma basica che emula i comportamenti animali.
Ma questo è solo l’inizio.

L’AI Distribuita: Multi-Agent Systems

I sistemi multi-agente sono composti da molteplici agenti intelligenti che interagiscono per raggiungere obiettivi comuni su larga scala che sarebbero impossibili da conseguire per un singolo agente, coordinando azioni e conoscenze in ambienti complessi.

Questi sistemi possono agire in un contesto totalmente digitale, ad esempio organizzando servizi, contenuti o azioni cyber, oppure nel mondo reale, operando attraverso robot o droni.

Gli agenti dei Multi-Agent Systems agiscono in modo indipendente, prendono decisioni, progettano processi e aggiornano la memoria con nuove informazioni. In alcuni casi operano con un modello gerarchico, rispondendo quindi ad agenti di alto livello che comandano su quelli di livello più basso.

Essi devono essere in grado di condividere informazioni e di coordinarsi tra loro, a volte anche competere, come nell’ambito dei videogiochi quando devono anticipare e contrastare le mosse degli avversari.

Possono raccogliere dati dall’ambiente percependoli mediante sensori, ad esempio in ambito civile per intervenire negli scenari di catastrofi naturali, o in quello militare per coordinare ed effettuare azioni di difesa o di attacco.

Utilizzano LLM per la comprensione del linguaggio naturale delle persone che assegnano loro compiti o li correggono, e strumenti esterni (API, database) per l’esecuzione in ambito digitale o reale.

A differenza dei sistemi centralizzati, nei sistemi multi-agente il controllo e il processo decisionale sono distribuiti, aumentando scalabilità e adattabilità.

Embodied AI: Masse operaie ed eserciti robotizzati

Quando l’AI viene incarnata o incorporata (Embodied AI) in entità robotiche si trasforma in una realtá in grado di modificare il mondo reale. E se si tratta non di un solo robot ma di un’intera popolazione coordinata, l’impatto può essere rilevante.
In Cina prolifera una nuova generazione di fabbriche, popolate solo da robot operai, le dark factory, che producono al buio perché i sensori robotici non hanno bisogno della luce.
Squadre di robot governati dalla AI simbolica operano nei magazzini di Amazon.

Un caso a parte che merita una riflessione è quello dei robot umanoidi: si tratta di gruppi di macchine che volutamente sono state progettate con forme umane, e quindi provocano la straniante sensazione di essere di fronte ad una nuova “specie o popolazione artificiale”.
Il modello di robot umanoide prodotto da Tesla, denominato Optimus, verrà rilasciato sotto forma di Legioni. Il termine “legion”, utilizzato da Elon Musk, ha una sinistra evocazione nella storia militare dell’impero romano. Si tratta di legioni di robot prodotti da una azienda privata. È lecito chiedersi: al comando di chi e per quali imprese?
In questo ambito la Cina ha un evidente vantaggio rispetto agli USA, potendosi avvalere di una potente industria manifatturiera in grado di produrre numerose forme di Embodied AI.

Ci si potrebbe chiedere: che bisogno ha di robot umanoidi un paese abitato da 1,414 miliardi di persone, con una densità di circa 151 abitanti per km quadrato? Ebbene, se si analizzano le tendenze demografiche della Cina, ci si rende conto che la popolazione sta invecchiando, per cui si sta prospettando sia un rilevante vuoto nella forza lavoro operaia, sia un enorme fabbisogno di assistenza sociale per gli anziani. Va aggiunto che i giovani cinesi sono in gran parte istruiti e non hanno intenzione di andare a lavorare in fabbrica come i genitori.

Di qui la scelta del sistema tecnologico cinese, sostenuto dal governo, di investire nella creazione di popolazioni di robot, dotati di Intelligenza Artificiale. Con tutte le conseguenze che ne derivano.

L’attualità delle leggi di Asimov

Negli anni quaranta Isaac Asimov propone le famose 3 leggi della robotica:

  1. Un robot non può recare danno a un essere umano né può permettere che, a causa del suo mancato intervento, un essere umano riceva danno.
  2. Un robot deve obbedire agli ordini impartiti dagli esseri umani, purché tali ordini non vadano in contrasto alla Prima Legge.
  3. Un robot deve proteggere la propria esistenza, purché la salvaguardia di essa non contrasti con la Prima o con la Seconda Legge.

Rimaste per decenni un argomento tipico della fantascienza, le leggi della robotica sono diventate nuovamente attuali con l’avvento degli sciami e degli eserciti di robot, anche umanoidi.

Il settore militare è ovviamente il primo a violare le leggi di Asimov: la finalità di un robot militare è principalmente quella di uccidere esseri umani. I “killer robots” (robot assassini) sono sistemi d’arma letali autonomi che possono cercare, selezionare e ingaggiare bersagli senza intervento umano, sollevando serie preoccupazioni etiche, legali e di sicurezza. E’ stata sviluppata una campagna globale (“Stop Killer Robots“) che ne chiede il divieto, ma le nazioni ignorano queste preoccupazioni e avanzano nello sviluppo di queste tecnologie militari, focalizzate sull’IA e l’autonomia decisionale.

Gli sciami di droni sono già stati protagonisti di azioni nella guerra in Ucraina, ma anche negli scenari mediorientali.

Un primo contingente di robot umanoidi doganieri cinesi è stato schierato al confine con il Vietnam. Va osservato che, cambiando con un prompt le regole d’ingaggio, un robot doganiere si può facilmente trasformare in un soldato. Ancora più espliciti sono i casi delle navi e degli aerei porta droni prodotti dall’esercito cinese, per i quali non ci sono dubbi in relazione alla finalità militare.

I ricercatori del gruppo di cybersecurity cinese Darknavy hanno mostrato come un robot dotato di intelligenza artificiale possa essere dirottato attraverso un semplice input vocale creato ad hoc, portandolo a realizzare azioni malevole. In una dimostrazione pubblica un robot è stato convinto a colpire un manichino sul palco, e altri robot vicini sono stati coinvolti nell’attacco sfruttando le comunicazioni wireless Bluetooth o Wi-fi. Sta emergendo una nuova dimensione della cybersecurity: le interfacce vocali e i moduli di AI dei robot devono essere considerati come superficie di attacco, non più solo come strumenti di comodità.

Senza adeguate regole, e verifiche consistenti dell’autenticità del parlante o dell’origine dell’input, questi dispositivi possono diventare minacce fisiche dirette, con impatti non solo sulla sicurezza personale ma anche su quella nazionale.

In questo contesto la trionfale proclamazione della deregulation dell’AI del governo USA appare una scelta miope e destinata a generare  una situazione fuori controllo.

World Brain e LLM

Passiamo ora ad un altro livello della intelligenza collettiva, che in realtà assume diverse forme e accezioni.

Sia nella sfera culturale che in quella artificiale si riscontra l’idea di una intelligenza universale.

Da millenni le religioni del libro attribuiscono al Dio della Bibbia la facoltà della onniscienza.

Storicamente si sono distinte alcune menti enciclopediche, ad esempio Pico della Mirandola, famoso per la virtù della memoria.

Nella raccolta di scritti di fantascienza di Herbert George Wells “World Brain”, si ipotizzava la nascita di un cervello mondiale, ossia di un sistema di conoscenza unificato contenente tutto il sapere umano e liberamente accessibile da chiunque: una sorta di enciclopedia permanente del mondo, che avrebbe evidenziato le basi comuni dell’umanità e quindi dissolto tutti i futuri conflitti. Il principio organizzativo pratico del World Brain immaginato da Wells viene in seguito sviluppato nell’idea del “supercomputer”, ipotizzato dallo scrittore di fantascienza Arthur Clarke nel 1962.

Oggi con i più potenti LMM disponibili, addestrati con il maggior numero di dati disponibili a livello globale, l’idea fantascientifica di “World Brain” si sta de facto realizzando sul piano tecnico, anche se nessuno si illude più che questa conoscenza universale potrà risolvere i conflitti del mondo.

L’Intelligenza Artificiale, in questo senso, è soprattutto un’intelligenza collettiva: infatti non esprime la mente di una sola persona, ma un sapere e un processo di ragionamento tendenzialmente universali.

L’evoluzione dell’AI verso il “World Brain” appare evidente nella trasformazione dei motori di ricerca: se prima si trattava di porte di accesso alle diverse opinioni individuali espresse nella rete nei milioni di siti disponibili e linkati, ora, con l’avvento dell’AI mode di Google, il motore di ricerca diventa una mente universale che raccoglie ed esprime un’unica idea, una sorta di estratto sintetico globale delle miriadi di individui, ormai celati sotto il pensiero unico scritto nelle prime righe del risultato espresso dal motore di ricerca.

Occorre chiedersi in che senso i grandi modelli linguistici possono assumere la forma di una “intelligenza collettiva” dell’umanità: si tratta solo di uno strumento cognitivo, di una sorta di un’enciclopedia permanente conversazionale, oppure essa può evolvere verso forme di intelligenza autonoma, in grado di influenzare gli individui e le società?

La dialettica individuale-collettivo tra persone e AI

Un’ampia letteratura scientifica è dedicata alla comparazione tra AI e intelligenza umana: particolare attenzione viene riservata a individuare e definire il momento in cui l’intelligenza artificiale supera quella naturale.

In realtà, confrontare la mente di un uomo con quella di un LMM non è del tutto corretto: i modelli AI sono più propriamente “World brain”, cervelli globali addestrati con decine di lingue e i relativi dizionari, milioni di libri e relativi autori, centinaia di stili letterari e retorici, e molto altro ancora.

Anche se un chatbot si presenta come una persona, assecondando la metafora originaria dell’Imitation Game di Turing  è molto più propriamente un’intelligenza collettiva, con i relativi vantaggi e limiti. L’AI simula un individuo, ma è più propriamente un’intelligenza collettiva globale.

Nell’immensa vastità delle sue competenze informative e linguistiche non dispone di facoltà umane di base come la coscienza, l’emozione e gli affetti, la finalità etica.

D’altra parte, una collettività umana si comporta in modo completamente diverso dall’intelligenza collettiva artificiale. Ad esempio, un’intelligenza collettiva umana, come quella di un collegio di docenti in una scuola, può discutere e valutare con una insostituibile competenza gli effetti sugli alunni dell’adozione di una tecnologia AI nella didattica, esaminandoli non solo dal punto di vista informativo e didattico, ma anche psicologico, comportamentale, emotivo, affettivo, relazionale, morale.

In generale, in un corretto bilanciamento tra AI e persone è opportuno che l’AI venga approcciata non da un solo individuo isolato, che può essere condizionato, persuaso e coinvolto dall’efficacia espressiva del chatbot, ma da comunità consapevoli di uomini che possono valutare criticamente e orientare correttamente l’utilizzo del World Brain.

Intelligenza Collettiva e  democrazia

Fin dalla sua origine, il concetto di intelligenza collettiva ha a che fare con la democrazia. Infatti già nel 1785 il marchese Nicolas de Condorcet, nel testo “Trattato sull’Applicazione dell’Analisi alla Probabilità delle Decisioni a Maggioranza”, giustificava la validità del principio maggioritario dei governi democratici, sostenendo che, se in una società aumentano le persone con la possibilità di prendere la decisione giusta, cresce anche la probabilità di arrivare alla soluzione migliore.

La democrazia diretta, realizzata in piccole comunità, come nella polis di Atene e negli istituti referendari, ricorre al parere della Intelligenza Collettiva per prendere decisioni che riguardano la comunità.

La democrazia rappresentativa organizza comunità di opinioni, i partiti, affinchè vengano investiti mediante le elezioni del potere di governare.

Nel XXI secolo la democrazia è entrata in una fase di crisi, dopo l’espansione geopolitica generata dal crollo del muro di Berlino e dall’esportazione del modello democratico occidentale. La maggiore potenza democratica, gli Stati Uniti, è entrata in una fase evolutiva autoritaria, sia all’interno che verso l’esterno.

La tecnologia svolge un ruolo importante per il futuro della democrazia. Vista all’inizio come una utopia libertaria, la rete internet è diventata rapidamente un contesto nel quale diversi poteri geopolitici ed economici assumono una condotta predatoria. Gli algoritmi dei social media e l’Intelligenza Artificiale sono andati fuori controllo e hanno esercitato influssi importanti in consultazioni elettorali, determinando in generale una forte polarizzazione ed estremizzazione aggressiva delle diverse posizioni. I meccanismi di  raccomandazione dei contenuti tendono a creare “imbuti semantici”, in cui gli individui ritrovano solo opinioni simili alle proprie; tali meccanismi contribuiscono così a indebolire il pluralismo e il dibattito democratico.

Intelligenza Collettiva e cyberspazio: l’illusione di Lévy

Con la nascita del World Wide Web, inventato da Tim Berners Lee nel 1989 al Cern di Ginevra, si è diffusa un’aspettativa entusiastica per una nuova forma di intelligenza collettiva, partecipativa e libertaria: quella della rete.

Pierre Lévy, nel libro “L’intelligenza collettiva. Per un’antropologia del cyberspazio” del 1994, descrive come i legami sociali nell’era digitale non siano più fondati su appartenenze territoriali, relazioni istituzionali, o rapporti di potere, ma sull’incontro intorno a centri d’interesse comuni, sul gioco, sulla condivisione del sapere, sull’apprendimento cooperativo, su processi aperti di collaborazione. Nel cyberspazio di Lévy  l’“intelligenza collettiva” è distribuita ovunque, continuamente valorizzata, coordinata in tempo reale, e porta a una mobilitazione effettiva delle competenze. Negli anni ’90, nella prima fase entusiastica della diffusione del World Wide Web, Pierre Lévy elabora una visione ottimistica:  l’individuo non verrà appiattito all’interno di una collettività massificata e uniformante, piuttosto il sapere distribuito determinerà un vero e proprio processo di emancipazione e civilizzazione. Infatti ogni persona potrà mettersi al servizio della comunità, potendosi esprimere continuamente e liberamente, e avrà la possibilità di attingere alle risorse intellettuali e all’insieme delle qualità umane della comunità stessa.

Per Lévy il sapere è sempre diffuso e collettivo: “nessuno sa tutto, ognuno sa qualcosa” e quindi “la totalità del sapere risiede nell’umanità“, ormai connessa dal World Wide Web. Tutta l’esperienza del mondo, quindi, coincide con ciò che le persone condividono.

La storia ci ha insegnato che le cose non sono andate come Lévy si aspettava agli albori del web. La privatizzazione dell’ecosistema digitale in mano a pochi monopòli, la diffusione dei social media asserviti alle logiche del profitto e a finalità ben diverse dalla condivisione del sapere hanno prodotto distorsioni rilevanti, che l’Intelligenza Artificiale potrebbe peggiorare.


Movimenti sociali e algoritmi dei social

La storia dell’uomo non è prodotta da singoli individui ma da vasti movimenti sociali.

Per il sociologo Émile Durkheim la società non è semplicemente il frutto di un contratto tra individui liberi ed uguali, ma una realtà autonoma che precede gli individui e rende possibili gli accordi tra di loro. Per questo Durkheim definiva la società un’intelligenza superiore” capace di trascendere l’individuo nello spazio e nel tempo.

Rivoluzioni culturali come il Rinascimento o tecnologiche come quella industriale, migrazioni e colonizzazioni, fedi religiose, sono tutti esempi dei movimenti collettivi che hanno costruito le civiltà umane. Il linguaggio è sicuramente stata la tecnologia abilitante che ha alimentato i movimenti sociali interconnettendo gli individui, ma è sempre stato fondamentale trovare le tecnologie di comunicazione adatte a diffondere e a condividere nuove idee  influenzando così altre persone e interi gruppi. I movimenti sociali hanno espresso forme collettive di intelligenza, avvalendosi di volta in volta dell’alfabeto, della stampa, delle telecomunicazioni per progettare e realizzare le società future immaginate nel passato.
Oggi l’ecosistema digitale è la base dell’intelligenza collettiva, e gli algoritmi dirigono i grandi flussi delle idee e delle opinioni.
In una società ampiamente digitalizzata, al limite della dipendenza psicologica dai dispositivi digitali, l’Intelligenza Artificiale è in grado di determinare efficacemente i movimenti sociali.
Sono gli algoritmi e i modelli AI a suggerire i post sui social media, le risposte nei motori di ricerca, gli articoli degli aggregatori di news, in un sistema opaco, spesso una black box, che agisce con un potere crescente.

Miti operativi e Intelligenza Artificiale

Non tutti i movimenti sociali e culturali del passato anche recente sono stati attivati da fatti storici. Molto spesso i grandi cambiamenti sono stati condizionati da miti operativi, cioè narrazioni sul futuro che hanno convinto intere generazioni.
Il successo del Cristianesimo non è solo legato alla narrazione evangelica dell’incarnazione e della resurrezione del Messia, ma anche alla sua imminente venuta alla fine dei tempi, la parusia, collegata all’apocalisse. A distanza di 2000 anni, la parusia non è ancora avvenuta, ma i cristiani, grazie alla sua evocazione, hanno superato le persecuzioni e conquistato la guida spirituale dell’Occidente.
Un altro grande mito operativo è la società comunista evocata da Karl Marx, di fatto mai realizzata, ma in grado di rovesciare imperi e di orientare la politica di grandi potenze, non solo in Europa ma anche in Asia.
Anche l’illuminismo e il positivismo contengono molti elementi di narrazione mai realizzati, eppure hanno avuto effetto nel modellare la società occidentale, i suoi principi e le costituzioni oggi vigenti.
Nell’era dell’intelligenza artificiale si stanno affermando altri miti operativi, spesso con visioni distopiche o addirittura apocalittiche, come quella della singolaritá che prevede l’avvento di una super-intelligenza artificiale in grado di superare quella umana e di prenderne il controllo.
Un’altra visione diffusa nella comunità degli sviluppatori dell’AI è quella del transumanesimo, che ipotizza il superamento della specie Homo Sapiens con forme ibride,  tra biologia e tecnologia digitale.

Non ci è dato sapere quali conseguenze storiche e sociali avranno queste narrazioni, che spesso sono promosse dagli stessi protagonisti alla guida dei grandi monopoli dell’AI, probabilmente per ottenere un’ ulteriore attenzione e centralità in una fase in cui stanno attraendo le risorse finanziarie di tutto il mondo.


Mode e opinioni sintetiche, gli Influencer artificiali

Le comunità umane sviluppano flussi informativi ed emozionali collettivi più o meno consapevoli, come le opinioni e le mode. Doxa è il termine greco antico per “opinione”, “credenza”, “fama” o “apparenza”, contrapposta all’Episteme, la conoscenza vera e razionale. In sociologia il termine Doxa viene usato per descrivere le credenze date per scontate, considerate “naturali” ma che sono in realtà costruzioni sociali. Un esempio classico di influencer dell’antichità è quello dei sofisti, esperti di retorica in grado di condizionare le opinioni del pubblico.

In sociologia, come teorizzato da Georg Simmel, la moda è un fenomeno sociale di massa che bilancia il bisogno di appartenenza collettiva (imitazione) con quello di differenziazione individuale. È un sistema dinamico di regole estetiche e comportamentali che riflette i cambiamenti sociali, economici e culturali, creando un ciclo continuo di novità e obsolescenza.

Entrambe, le opinioni e le mode, sono oggi fortemente orientate dall’ecosistema digitale.

Nella misura in cui i contenuti digitali vengono generati e suggeriti dall’Intelligenza Artificiale, questa tecnologia può diventare un “influencer” di primaria importanza.

I sistemi di raccomandazione sono una delle più importanti tecnologie dell’AI. Gestiscono le pubblicità personalizzate, le dinamiche dei prezzi dei prodotti, i contenuti suggeriti nei social media.

L’insieme di queste tecnologie costituisce un potente sistema coercitivo, in grado di influenzare, tra l’altro, le opinioni politiche e quindi le scelte elettorali, le mode e i gusti e di conseguenza le decisioni d’acquisto.

Scrive Derrick de Kerchove: Le cattive notizie tendono a diffondersi più velocemente di quelle buone. L’indignazione corre a velocità supersonica. Una fake news scandalosa si ritrova dappertutto in tre secondi. Fanno parte del problema sociopolitico perché spesso sostituiscono il pensiero razionale e influenzano le decisioni molto più velocemente, motivo per cui diventano virali.” E ancora: “Cambridge Analytica ha dimostrato il potere politico degli algoritmi addestrati sulla sensibilità e sui gusti delle persone, inducendole a votare per Trump e per la Brexit nel 2016. Il sistema limbico digitale è estremamente potente e totalmente sregolato. Un’altra cosa di cui preoccuparsi negli anni delle elezioni.”

Leader, capobranco e Chatbot

Le regine delle api, i capibranco dei lupi, i maschi alfa dei leoni sono esempi efficaci di leadership animale. L’intelligenza collettiva delle società umane ha sempre richiesto qualche forma di guida, termine che ha assunto diverse accezioni, comprese le idee di Duce in Italia e di Führer in Germania.

In realtà nessuno ha mai governato da solo, anche il despota più assoluto ha sempre avuto bisogno non solo dei sudditi, ma anche di una classe dirigente in grado di sostenerlo. Teocrazie, aristocrazie, democrazie sono forme diverse di rappresentazione ed espressione del potere di un’intelligenza collettiva che da una parte raccoglie le intelligenze individuali delle comunità, dall’altra le guida interpretando comunque ideologie, istituzioni e tradizioni collettive.

Nella storia sono stati sviluppati diversi meccanismi di affermazione dei leader, dalla monarchia ereditaria all’elezione in un conclave o in un congresso di un partito unico, dal golpe militare alla consultazione elettorale democratica.

Oggi assistiamo a una nuova forma di guida, il Chatbot, che è in grado sia di assumere la forma dell’intelligenza collettiva, sia interpretando il ruolo di una mente globale dell’umanità, sia adattandosi alle caratteristiche del singolo individuo, con una conversazione personalizzata e per questo estremamente persuasiva e seduttiva.

Il Chatbot sta assumendo la carica inedita di una guida sintetica personale di massa, che tuttavia, essendo di proprietà di una azienda privata, necessita di nuove regole comportamentali.

Se però queste regole vengono imposte da un governo autocratico, come quello cinese, o abolite da una deregulation ossessiva, come nel caso americano, siamo di fronte a un grande rischio per l’autonomia intellettuale delle persone e sicuramente anche delle democrazie.

Non a caso è ormai comune la definizione di Tecnocrazia per descrivere l’impatto dell’Intelligenza Artificiale nella politica del XXI secolo.

Aziende e istituzioni deumanizzate

L’attenzione dei media sull’impatto sociale dell’AI si concentra spesso sulla sostituzione dei singoli lavoratori.

Tuttavia, esiste un secondo aspetto non trascurabile: l’Intelligenza Artificiale collettiva può sostituire non solo degli individui, ma intere aziende.

Macrohard è il nome ironico dato da Elon Musk a un ambizioso progetto di xAI che mira a creare una “software house” interamente gestita da agenti di Intelligenza Artificiale, capace di sviluppare software, dalla codifica al testing, partendo da semplici richieste in linguaggio naturale, con l’obiettivo di superare il concetto tradizionale di applicazioni e sistemi operativi. È evidentemente un riferimento scherzoso a Microsoft.

Vari sviluppatori stanno lavorando sul concept di scuole, o società di servizi, interamente realizzate da agenti AI.

Il controllo sociale  e l’inconscio digitale

Siamo entrati in un’epoca in cui il controllo sociale ha raggiunto livelli senza precedenti nella storia, ancora superiori a quanto ipotizzato da George Orwell  con il  Grande Fratello in “1984”, o nella descrizione del Panopticon di Michel Foucault, in “Sorvegliare e punire”: una sorveglianza costante e invisibile che induce gli individui ad autodisciplinarsi, creando “corpi docili” in prigioni, scuole, ospedali.

Di tutto ciò, siamo solo in minima parte consapevoli: Derrick de Kerchove definisce l’inconscio digitale “Tutto ciò che si sa su di te che tu non sai”. Ciò che facciamo ogni giorno viene pubblicato in tracce di dati, che vengono correlate tra più banche dati, in diversi flussi di interesse per poi essere utilizzati a favore o contro di noi a seconda delle circostanze. Ad esempio, il monitoraggio legittimo delle nostre spese da parte di una banca, o la registrazione dei nostri spostamenti su Google Maps forniscono più informazioni utili su di noi, di quante ne potremmo ricordare o correlare noi stessi.

I pubblicitari utilizzano queste informazioni per indurci a votare e comprare, riducendo al minimo il processo decisionale individuale. E’ il modello di business della profilazione, su cui si basano le grandi aziende tecnologiche, che si impadroniscono non solo delle porzioni della nostra mente che noi esternalizziamo, ma anche di tratti della nostra vita, traendone vantaggio. Siamo stati rinchiusi in una comoda prigione digitale. Come disse Zuckerberg: “Privacy is over, get over it”, ha detto, “La privacy è finita, fatevene una ragione”.

Ora stiamo passando all’algoritmizzazione delle relazioni umane. Le nostre domande trovano risposte organizzate dall’Intelligenza Collettiva artificiale, i motori di ricerca offrono risposte sotto forma di espressioni sintetiche che rappresentano un “pensiero unico” efficace e comodo, ma privo dei diversi punti di vista presenti nella società umana.


La forza lavoro intellettuale: General Intellect e capitale cognitivo digitale

Karl Marx ha elaborato il concetto di “general intellect”, che descrive una forza lavoro cognitiva e mentale, espressione delle capacità creative collettive. Il sapere, per Marx, si accumula nella società al di sopra delle capacità e dei poteri del singolo. Il “general intellect” è la conoscenza sociale e scientifica collettiva, che, quando viene incorporata nelle macchine e nelle strutture sociali, diventa una forza produttiva diretta che può emancipare le persone dal lavoro ripetitivo.

Attualizzato nel contesto post-industriale dell’Intelligenza Artificiale, il “general intellect” è una forza produttiva immediata, realizzata acquisendo dati dalla collettività e anche dai singoli.

Si pone, anche oggi, la questione della “proprietà dei mezzi di produzione”: chi controlla i sistemi e le piattaforme AI e ne può trarre profitto?

Nel caso delle piattaforme AI gratuite, il vero valore prodotto sono i dati e i comportamenti informativi forniti dagli utenti nel loro utilizzo, un valore che diventa di proprietà delle piattaforme stesse e che può trasformarsi in un sistematico processo di sostituzione dei lavoratori umani con agenti automatizzati.

Derrick de Kerchove nel libro “L’uomo quantistico, mente, società, democrazia”, introduce il concetto di capitale cognitivo digitale, che ognuno di noi sviluppa nella propria mente, dall’utero materno fino all’apprendimento della parola e all’acquisizione di competenze, arricchite dall’esperienza.

Questa risorsa potenziale rimane solitamente inutilizzata.

Con gli algoritmi digitali, i capitali cognitivi individuali possono essere condivisi in un’intelligenza collettiva, ma questo comporta anche il rischio di perderne la proprietà intellettuale a favore delle grandi piattaforme globali.

Come possiamo riappropriarci del nostro capitale cognitivo digitale?

Oggi grazie ad alcune tecnologie possiamo riunire il nostro capitale cognitivo digitale personale da tutti i luoghi in cui è disperso e creare uno “Small Language Model” (SLM) personale.

Una tendenza emergente, valida sia per le singole persone che per le organizzazioni, aziende e istituzioni umane, è costruire un’architettura informativa autonoma, privata e protetta. Fisicamente, si tratta di scegliere dei datacenter che garantiscano la privacy e la proprietà intellettuale dei dati. Le norme dell’AI Act europeo potrebbero favorire questa tendenza, che però oggi si contrappone alla opposta strategia di concentrare tutti i dati, anche personali, sulle piattaforme delle big tech che poi li possono utilizzare per addestrare modelli AI globali e per influenzare gli individui.

L’AI collaborativa: Human in the loop

Uno sviluppo interessante dell’Intelligenza Collettiva è quella che crea comunità ibride uomo-macchina.

Ad esempio l’AI collaborativa non punta a sostituire l’uomo, ma a supportarlo lasciandogli comunque il ruolo di decisore finale. L’approccio “Human in the loop” crea un ciclo di feedback continuo per migliorare accuratezza, affidabilità e sicurezza, combinando la velocità della macchina con l’intuizione e il giudizio umano in fasi cruciali come addestramento, validazione e decisione.

L’AI svolge compiti ed elabora dati ad alta velocità, ma si “ferma” quando incontra incertezza, ambiguità o decisioni critiche, demandando la gestione a un umano.

Nella collaborazione tra AI e uomo si può assistere allo sviluppo di un’intelligenza umana non sostituita, ma estesa da quella artificiale, come descritta nell’AI-Book “Homo Extensus”.

Sistemi di supporto alle decisioni collettive

I sistemi di Supporto alle Decisioni Collettive sono piattaforme che utilizzano algoritmi per aggregare opinioni, voti o tendenze di grandi gruppi di persone (Crowdsourcing), per generare previsioni o soluzioni più accurate della media dei singoli.

I DSS (Decision Support Systems) sono soluzioni software che integrano dati, modelli analitici e interfacce interattive per assistere gruppi di persone (manager, professionisti, ecc.) nel prendere decisioni strategiche complesse, analizzando scenari alternativi “what-if”, identificando pattern e fornendo raccomandazioni, senza sostituirsi al giudizio umano, ma potenziandolo attraverso l’elaborazione intelligente di grandi volumi di informazioni da diverse fonti.

Utilizzano tecniche di analisi predittiva, intelligenza artificiale e simulazione per esplorare scenari.



L’unione fa la forza: attivare il controllo delle comunitá umane sull’AI

Un singolo individuo, tantomeno se fragile, non può avere il controllo delle sempre più potenti forme di intelligenza collettiva.

Occorre attivare forme di protezione e gestione sociale collettiva.

In questo senso apparati legislativi come l’AI Act dell’Unione Europea o indicazioni morali come la nota vaticana “Antiqua et Nova” possono svolgere un ruolo fondamentale.

La protezione dei minorenni dai rischi del digitale si sta esprimendo con le limitazioni all’uso dei social fino ai 16 anni, decise dal governo australiano, o alla proibizione dell’introduzione del cellulare nelle scuole, in atto in molti Paesi.

Diventa sempre più urgente una formazione all’AI-Literacy, per consentire all’uomo di conoscere i meccanismi di funzionamento dell’intelligenza artificiale, affinché possa utilizzarla in maniera produttiva, etica e responsabile.