L’IA AUTONOMA E LA COMUNITÀ: UNA CONVIVENZA COMPLESSA
Quale futuro per noi?
Premessa. Il ruolo della così detta “intelligenza artificiale” sta evolvendosi ad una velocità imprevista dagli scienziati, segnando il repentino passaggio, a partire dal 2023, dall’IA che funzionava come strumento di supporto informativo ed operativo all’uomo, all’IA ‘autonoma’, un soggetto agente in grado tendenzialmente di eseguire ogni attività ad una velocità superiore a quella dell’uomo ed in maniera indipendente dalla sua volontà. Ci troviamo quindi di fronte non a un nuovo prodotto ma a una nuova specie, sostiene il filosofo Yuval Harari. E, come vedremo più avanti, siamo messi male, perché la storia ci insegna che, biologicamente, la specie inferiore è destinata a soccombere.
In questo scenario sembra indispensabile un’operazione di consapevolezza, perché, partendo ad esempio dalla nostra metropoli, è facile rilevare come le argomentazioni su fatti importanti siano in gran parte guidate da schemi logici obsoleti (il buono, il cattivo, come se ci trovassimo di fronte a un dozzinale film western).
Propongo quindi una elementare azione di “stampa agente” per aumentare la consapevolezza dei cittadini rispetto al loro ruolo attivo in processi che li coinvolgono pesantemente, ma di cui, penso, hanno poca consapevolezza. L’azione è articolata in due articoli, il primo, che segue, illustra i grandi coinvolgimenti che investono direttamente i cittadini, il secondo, che seguirà, tratterà delle possibili ed auspicabili mutazioni organizzative del governo locale per una democrazia ai tempi dell’IA autonoma.
Tecnicamente l’articolo che segue è esclusivamente umano, mentre la sua sintesi è opera di un programma di IA autonoma. Così da rendere il lettore immediatamente consapevole di forza e debolezza della nuova tecnologia. Spero con questo di stimolare un comportamento attivo dei lettori, al fine di avviare comportamenti civici degli ‘agenti umani’, in grado di contenere lo strapotere degli ‘agenti autonomi artificiali’.
L’IA autonoma e la comunità
autore: Giuseppe Longhi
Sulla natura ‘sistemica’ dell’IA autonoma. Un’ottima descrizione della questione è offerta dal colloquio fra il filosofo Yuval Harari e il professor Max Tegmark, (del MIT e co-fondatore del Future of Life Institute) sul tema “Umanità e IA”, tenutosi nel gennaio scorso alla Bloomberg House del World Economic Forum, a Davos1.
Il colloquio sottolinea che ci troviamo di fronte a qualcosa che è più importante della rivoluzione industriale, perché l’IA autonoma non è uno strumento di cui decidiamo noi cosa fare, ma è un agente, cioè può prendere decisioni da solo, non aspetta che siamo noi a decidere. In sostanza l’IA autonoma sta introducendo una specie diversa, una specie non organica sul pianeta Terra, tendenzialmente più intelligente di noi.
Le conseguenze di tale autonomia sono importanti: ad esempio Alan Turing, già nel 1951, avvertiva che se si fosse creata una nuova specie, sostanzialmente più intelligente di noi, avrebbe preso il controllo di default, e Sam Altman nel 2015 sosteneva che l’Homo sapiens sarebbe stata la prima specie a costruire la sua specie successiva.
Si pensava allora che questo processo si sarebbe realizzato in un tempo lontano, molto lontano, ma dopo Chat BT4 (2023) il processo si è evoluto a velocità impressionante, creando un’asimmetria storica fra le capacità delle sei imprese che controllano i processi di IA e quelle del resto degli umani, e questa, come avverte Tengmark, guardando la storia dell’umanità e della biologia, di solito è una storia che non finisce bene per le specie meno intelligenti.
Di fronte a tali impressionanti cambiamenti è fondamentale aumentare il livello di consapevolezza della gente rispetto all’appropriatezza dei processi tecnologici e alla difficoltà di tradurli in modelli organizzativi economici, sociali e politici sicuri e condivisi.
A questo proposito Harari propone una serie di questioni: sulla concentrazione di potere, sul rischio finanziario, sugli effetti sull’educazione, sull’immigrazione.
Rispetto alla concentrazione di potere l’ascesa dell’IA coincide con il ritorno dell’imperialismo. Harari sostiene che la nuova imperiale visione del mondo degli Stati Uniti si basa sul presupposto che grazie all’IA si illudono di essere in grado di controllare tutto: l’economia, l’esercito, la cultura. Quindi non hanno bisogno di alleati, non hanno bisogno di nessuno. Pretendono di controllare il mondo da soli.
Rispetto all’ambito finanziario, in quanto l’IA è in grado di agire come agente finanziario che investe e guadagna denaro autonomamente attraverso strategie estremamente complesse, chi sarebbe in grado di capirle e chi avrebbe la responsabilità di regolare il sistema finanziario?
Rispetto all’educazione: cosa succede quando i bambini e i ragazzi sono educati ad interagire più con le IA che con gli esseri umani? Se interrogate un bambino su cose come l’attaccamento e l’amicizia, o se osservate le sue interazioni e come si sviluppa la sua psicologia, scoprite che l’interazione principale è con l’IA. Ma quali sono le implicazioni per la psicologia umana e per la società? Non ne abbiamo idea, stiamo conducendo il più grande esperimento psicologico e sociale della storia e nessuno ha idea di quali saranno le conseguenze.
Riguardo all’immigrazione: molte persone sono contrarie all’immigrazione, se sentono che il loro figlio o la loro figlia esce con un fidanzato immigrato, si innervosiscono. Cosa succederà quando il loro figlio o la loro figlia si fidanzerà con un robot?
Ancora sull’immigrazione, nel prossimo decennio dovremo affrontare una nuova ondata di immigrazione, l’immigrazione tramite IA proveniente principalmente da due paesi, Cina e Stati Uniti.
È strano che l’attenzione degli Stati sia concentrata sulla chiusura delle frontiere agli immigrati umani, quando stiamo assistendo alla crescita dirompente di medici IA nel sistema sanitario e insegnanti IA nel sistema educativo, la domanda è: come si adatterà la società umana a una gigantesca ondata di immigrazione di una specie diversa?
Sul problema delle esternalità dell’IA autonoma.
Considerando di seguito alcune importanti esternalità dell’IA autonoma emerge un reticolo di questioni2 che rimandano al quesito ‘nostrano’: in questa situazione come viene sfruttato il nostro potenziale e soprattutto come stiamo affrontando il problema di riconversione dei nostri sistemi politici, sociali, economici verso una dimensione esponenzialmente ‘agente’?
*Attualmente siamo ‘schiacciatati’ sotto la pressione di due documenti3 l’“America’s AI Action Plan: Winning the Race” della Casa Bianca e l’IA Plus della Repubblica Popolare Cinese.
Entrambi puntano senza tentennamenti al dominio unilaterale, con filosofie sostanzialmente diverse, gli USA attraverso un’offerta pervasiva polarizzata su sei imprese (Apple, Microsoft, Alphabet / Google, Amazon-AWS, Meta, Nvidia), la Cina con un’offerta open source gestita (o controllata) da un sistema politico centralizzato. L’impostazione della questione è stata affrontata in Arcipelago del 5.12.2023 con l’articolo “Una IA per competere con Dio o per aumentare le capacità della comunità?” che oggi meriterebbe un deciso approfondimento, mi limito qui a sottolineare due esternalità che ci riguardano: la supersorveglianza e le allucinazioni.
Se la supersorveglianza è divulgata come caratteristica genetica del sistema cinese, anche quello USA non scherza. L’attuale contesa pubblica tra il Dipartimento della Difesa e l’azienda di intelligenza artificiale Anthropic ha sollevato una domanda ancora senza risposta: la legge consente effettivamente al governo degli Stati Uniti di condurre una sorveglianza di massa sugli americani4?
Riguardo alle allucinazioni dobbiamo prendere atto che se i sistemi sono autonomi ad un certo punto prendono decisioni che sfuggono alla tradizionale catena di comando. Padre Benanti nell’articolo “Se il drone cambia cervello in volo” nella sua rubrica “Etica di frontiera”5 affronta la questione ponendo il quesito: chi ha la responsabilità degli interi ecosistemi gestiti con tecnologie ‘autonome’, e, di conseguenza, l’ecosistema è governato per inerzia o saggezza?
In questo turbinio di suprematismo tecnologico cosa possiamo fare nella nostra modesta dimensione? Dare solidarietà agli staff dirigenti che si dimettono dalle imprese leader per il pericolo di affrettate applicazioni dell’IA (un’occasione a zero costo persa dai nostri staff accademici e di ricerca), difendere il nostro patrimonio di dati legati alla cultura dalla grande sottrazione operata dai data center (questione importante e mai accennata nei documenti di programmazione) , gestire con oculatezza i dati municipali delle nostre comunità, questione non semplice che implica un radicale adeguamento culturale dell’ecosistema amministrativo pubblico.
* Altra grande questione è quella della produttività. La super intelligenza non solo implica “obsolescenza economica” (l’IA fa tutti i lavori meglio/in modo più economico), rendendo i mercati del lavoro tradizionali irrilevanti, ma, come sostiene Acemoglu6 è anche destinata a produrre stazionarietà dello sviluppo economico nel lungo periodo. Infatti Acemoglu ricorda che il lavoro umano produce congiuntamente un beneficio privato e un beneficio pubblico “sottile” che si accumula sotto forma di patrimonio di conoscenze della comunità, generando esternalità positive di apprendimento. Ma l’IA agentica, se da un lato può migliorare il rendimento immediato del lavoro automatizzato, dall’altro non alimenta i meccanismi che sostengono la conoscenza collettiva a lungo termine, mettendo così l’economia in uno stato stazionario di collasso perché la conoscenza generale non viene implementata. In sintesi, con l’IA generale vengono a mancare i processi di aggregazione e condivisione della conoscenza generati dall’uomo, con l’effetto della diminuzione del benessere e della resilienza, fino al collasso del sistema.
In questa situazione la programmazione degli assetti produttivi e dei sistemi di conoscenza che li alimentano, devono essere calibrati rispetto sia al beneficio di breve momento dei processi autonomi, sia all’arricchimento patrimoniale di lungo momento, perseguibile solo con processi creativi umani.
* Infine la grande questione della sottrazione di risorse, perché se i processi di IA sono autonomi il loro funzionamento non lo è, in quanto richiedono processi sottrattivi sia di acqua che di energia per alimentare i data center, una questione affrontata in “Una intelligenza artificiale policentrica a supporto del sistema insediativo policentrico europeo”, Arcipelago del 20.1.2026. Questo richiama ad una progettazione improntata ad equità e coerenza, con gli obiettivi di contenimento del consumo di risorse stabiliti dagli standard delle Convenzioni sull’ambiente e sul cambiamento climatico.
Tutte questioni che portano a concludere che la società non ha bisogno di superintelligenza ma di più saggezza, con il contrappunto della speranza come energia per contenere la frenesia di dominio unilaterale, con la consapevolezza dell’urgenza di regolamentare l’IA con alti standard di sicurezza e di prevenire la “personalità giuridica” dell’IA (e la relativa autonomia funzionale), per evitare che le entità gestite dall’IA possano agire senza umani responsabili.
Con questo si conclude lo sforzo di delineare le ‘regole’ essenziali di sistema in un mondo in cui ha fatto irruzione l’IA autonoma, ma si apre un ulteriore quesito: cosa sarà dell’ambiente ‘westfaliano’, dominato da confine e proprietà di beni materiali, in cui quotidianamente viviamo.
Ne parleremo al prossimo numero, intanto vi sarò grato se mi trasmetterete le vostre impressioni e contributi.
Giuseppe Longhi
Riferimenti
- consultabile in: https://www.youtube.com/watch?v=rGAA59JTBtg
- un interessante bilancio di opportunità ed esternalità negative dell’IA autonoma è fatto da Dario Amodei, CEO di Anthropic, in: https://www.darioamodei.com/essay/machines-of-loving-grace e in: https://www.darioamodei.com/essay/the-adolescence-of-technology
- per l’“America’s AI Action Plan:
- https://www.whitehouse.gov/wp-content/uploads/2025/07/Americas-AI-Action-Plan.pdf
- per l’IA Plus della Repubblica Popolare Cinese: https://www.agendadigitale.eu/mercati-digitali/ia-il-manifesto-strategico-di-pechino-per-la-leadership-globale/Michelle Kim, Is the Pentagon allowed to surveil Americans with AI?, March 6, 2026, in:
- https://www.technologyreview.com/2026/03/06/1134012/is-the-pentagon-allowed-to-surveil-americans-with-ai/
- Se il drone cambia cervello in volo – Etica di frontiera – Il Sole 24 Ore 11.03.2026
- Daron Acemoglu, Dingwen Kong, Asuman Ozdaglar, “AI, Human Cognition and Knowledge Collapse” February 20, 2026 , in: https://www.nber.org/papers/w34910
L’IA autonoma e comunità
Sintesi ad opera dell’IA generativa di Microsoft WPS Office
Panoramica generale
Questo articolo analizza l’impatto sistemico dell’IA autonoma sulla società umana, evidenziando l’urgente necessità di sensibilizzazione e intervento per prevenire conseguenze catastrofiche.
La natura sistemica dell’IA autonoma
• L’IA come agente: l’IA autonoma non deve essere intesa semplicemente come uno strumento, ma come un agente capace di prendere decisioni indipendenti, introducendo una nuova specie non organica, potenzialmente più intelligente degli esseri umani. Questo cambiamento deve essere considerato più significativo della Rivoluzione Industriale, poiché implica che l’IA agirà autonomamente, senza dipendere da direttive umane.
• Asimmetria storica e controllo: il rapido progresso dell’IA, in particolare a partire da ChatGPT-4 (2023), ha creato un’asimmetria storica in cui sei grandi aziende controllano i processi di IA, potenzialmente portando a risultati sfavorevoli per le specie meno intelligenti, come avvertito da Alan Turing nel 1951 e da Sam Altman nel 2015. Questa rapida evoluzione mette in discussione le precedenti ipotesi sulla tempistica di tali sviluppi.
Fra i maggiori rischi per la comunità si possono citare: la concentrazione di potere, I rischi finanziari, l’impatto sull’istruzione, nuove forme di immigrazione di soggetti IA non umani.
• Concentrazione del potere: l’ascesa dell’IA coincide con una nuova forma di imperialismo, in particolare da parte degli Stati Uniti, che, forti del potere dell’IA, credono di poter controllare l’economia, la sfera militare e la cultura globali senza alleati. Questa prospettiva suggerisce una strategia unilaterale di dominio globale, in contrasto con le tradizionali alleanze geopolitiche.
• Rischi finanziari: l’IA autonoma può agire come agente finanziario, investendo e generando ricchezza attraverso strategie estremamente complesse. Ciò solleva interrogativi cruciali su chi sia in grado di comprendere tali strategie e su chi abbia la responsabilità di regolamentare un sistema finanziario così avanzato, con il rischio di una incontrollabile instabilità economica.
• Impatto sull’istruzione: la crescente interazione in ambito educativo dei bambini con l’IA, anziché con gli esseri umani, pone implicazioni psicologiche e sociali ancora sconosciute. Si tratta di un esperimento psicologico e sociale di vasta portata e incontrollato, senza una chiara comprensione di come influenzerà lo sviluppo umano, l’attaccamento e le competenze sociali.
• Immigrazione e relazioni uomo-IA: dovremo estendere il concetto di immigrazione per includere entità di IA, come medici non umani IA e insegnanti non umani IA, originati principalmente da Cina e Stati Uniti. Dobbiamo interrogarci su come la società umana si adatterà a questa “immigrazione” di una specie diversa, tracciando un parallelo con le preoccupazioni relative all’immigrazione umana e sottolineando la mancanza di preparazione per un simile cambiamento sociale.
Esternalità dell’IA autonoma
• Competizione geopolitica e sorveglianza: sia il “Piano d’azione americano sull’IA: vincere la corsa” che l’iniziativa cinese “AI Plus” mirano al dominio unilaterale, seppur con filosofie diverse. Questa competizione solleva preoccupazioni in merito alla sorveglianza pervasiva, non solo da parte della Cina ma anche del governo statunitense, mettendo in discussione la legalità e l’etica della sorveglianza di massa sui cittadini.
• Allucinazioni e responsabilità dell’IA: i sistemi di IA autonomi possono prendere decisioni che si discostano dalle strutture di comando tradizionali, portando ad “allucinazioni” o azioni imprevedibili. Ciò solleva profondi interrogativi sulla responsabilità quando i sistemi di intelligenza artificiale operano in modo autonomo, in particolare negli ecosistemi critici, e se tali sistemi siano governati da inerzia o saggezza.
• Obsolescenza economica e collasso della conoscenza: la superintelligenza potrebbe portare al collasso del sistema economico, perché l’IA:
– potrebbe svolgere tutti i lavori meglio e a costi inferiori, rendendo irrilevanti i mercati del lavoro tradizionali;
– l’IA potrebbe causare a lungo termine una stagnazione in quanto non contribuisce alla crescita del patrimonio di conoscenze collettive, che è generato esclusivamente dal lavoro umano, portando potenzialmente al collasso del sistema delle conoscenze, con l’effetto a cascata della diminuzione del benessere e della resilienza della società.
• Esaurimento delle risorse: il funzionamento dell’IA autonoma, in particolare dei data center, richiede quantità significative di acqua ed energia. Ciò rende necessaria la progettazione di sistemi di IA equi e coerenti, in linea con le convenzioni ambientali e gli obiettivi di lotta al cambiamento climatico per mitigare il consumo di risorse.
Conclusione
• Necessità di saggezza anziché di superintelligenza: la società ha bisogno di più saggezza, piuttosto che di semplice superintelligenza, per affrontare le sfide poste dall’IA autonoma. Questa saggezza dovrebbe guidare la regolamentazione dell’IA con elevati standard di sicurezza ed impedire che l’IA acquisisca personalità giuridica e autonomia funzionale, garantendo che la responsabilità umana rimanga centrale.
• Urgenza di regolamentazione: è urgente regolamentare l’IA per contenere la frenesia del dominio unilaterale e garantire che le entità di IA non operino senza una supervisione umana responsabile.
Ciò implica la definizione di regole sistemiche essenziali per un mondo sempre più influenzato dall’IA autonoma.
• Considerazioni future: l’emergere dell’IA autonoma solleva interrogativi sul futuro dell’organizzazione “westfaliana” della nostra società, caratterizzata da sovranità sul confine fisico e sulla proprietà materiale, suggerendo la necessità di un ulteriore dibattito sul futuro delle nostre infrastrutture civiche.
Se futuro civico ci sarà (ndr)

Ho scritto un resoconto senz’altro meno tecnico ma unilaterale all’analisi effettuata; confesso la determinante diversità dell’ottica con la quale il problema è stato da me rilevato, aderisco però con grande ammirazione all’analisilucida e corretta proposta immersi nella massima coerenza