UNA INTELLIGENZA ARTIFICIALE POLICENTRICA A SUPPORTO DEL SISTEMA INSEDIATIVO POLICENTRICO EUROPEO
L’anno che si è concluso ha visto il territorio lombardo al centro di una anomala richiesta di licenze per la realizzazione di super data center, generata dalla crescita dirompente di domanda dei servizi offerti dalle nuove forme di “intelligenza artificiale”: quella generativa a cui rapidamente è succeduta quella agente.
Questa offerta costituisce un avanzamento delle capacità dell’IA in grado di condizionare scelte economiche, sociali e politiche, ed è dominata da gigantesche aziende tecnologiche – Microsoft, Meta, Apple, Google, Nvidia, Amazon, Alibaba – le quali tendono ad operare per cartelli. Secondo Cory Doctoroff 1 Google e Meta controllano il mercato pubblicitario, Google e Apple controllano il mercato mobile e Google paga Apple più di 20 miliardi di dollari all’anno per non creare un motore di ricerca concorrente e, Google ha una quota di mercato della ricerca del 90%.
La caratteristica di questo assetto dirompente è l’incertezza, causata: dalle caratteristiche intrinseche dell’IA, dalla rapidità della sua evoluzione (siamo nel momento di passaggio, con effetti imperscrutabili, dall’alfabeto binario degli attuali computer alla nuova tecnologia quantistica), dalla reale disponibilità di risorse in grado di alimentare i nuovi processi, dalla reale redditività dei nuovi processi, dall’adattabilità sociale a tali rapidi cambiamenti.
Questa situazione apre a una serie di interrogativi:
– quale sia il livello di consapevolezza sociale degli effetti di tali cambiamenti dirompenti, in particolare da parte dei soggetti politici responsabili delle strategie e delle scelte finali;
– se, di fronte al peso dei fattori di rischio, non siano possibili adeguate politiche adattive in grado di mitigarne gli effetti e, nel contempo,
– se non sia possibile avviare nuovi livelli di infrastrutturazione resiliente, in alternativa alle attuali promosse dalle poche imprese dominanti il mercato.
La rapida evoluzione dell’”intelligenza artificiale”.
Attualmente stiamo assistendo al sovrapporsi di tre epoche tecnologiche formatesi nel giro di un quarto di secolo: del “pappagallo stocastico”, dell’economia dell’attenzione, dell’intelligenza artificiale agente.
Con l’epoca del “pappagallo stocastico”2 (fine degli anni ‘90 del secolo scorso) i cittadini, grazie a pagine web passive consultabili da pc, ottenevano risposte a quesiti grazie a enormi depositi di conoscenza, le clou, che erano la prima versione dei data center, gestite dalle grandi imprese di informatica.
Con i primi anni 2000 le imprese tecnologiche scoprono l’”economia dell’attenzione”, supportata dal ‘mobile’, la tecnologia dominante fra i consumatori. Grazie all’”economia dell’attenzione” le imprese prelevano i dati direttamente nel momento in cui si generano sullo schermo, raschiando miliardi di post sui social media, discussioni sui forum e conversazioni digitali dalle comunità di tutto il mondo. I data center oltre ad immagazzinare queste informazioni le utilizzano per addestrare sistemi di IA per poi rivendere servizi (‘raccomandazioni’ in termini tecnici) a quelle stesse comunità. Le ‘raccomandazioni’ possono essere commerciali, ma anche utilità sociali o forme più o meno occulte di orientamento politico, tenendo ben presente che l’IA riflette i pregiudizi e le visioni del mondo dei suoi creatori, prevalentemente della Silicon Valley, non delle diverse comunità che ne hanno alimentato le informazioni.
Questa dinamica è rafforzata dalle ‘anfetamine’: i servizi “gratuiti” per educatori e studenti offerti generosamente da Google, OpenAI e Microsoft. Questi, confezionati come una agenda sociale, sono in realtà una mossa aziendale strategica: stanno plasmando la mentalità dei futuri clienti nella direzione di favorire la dipendenza cognitiva. Così l’attuale generazione sta attraversando una pericolosa transizione, dalla sperimentazione dell’IA (l’era del pappagallo informatico), all’affidamento su di essa; la prossima fase sarà la dipendenza totale.
Stiamo correndo il rischio di decadimento dell”agenzia’.3
Alla fine degli anni ‘20 del nuovo millennio, grazie a Chat-GTP (e a una serie di software simili), si raggiunge il culmine dell’ingegneria dei prompt (IA “Act I” – l’arte di creare e ottimizzare istruzioni testuali), consentendo la comunicazione a livello dialogico attraverso il linguaggio naturale. Chat-GTP offre soluzioni di grande successo grazie a un’ampia scalabilità di parametri e dati, ma mostra limiti fondamentali come la latenza della conoscenza, il ragionamento superficiale e la qualità dello sviluppo dei processi cognitivi. A partire dal 2024 i nuovi modelli di IA (IA “Act II”) stanno passando da sistemi di recupero della conoscenza a motori di costruzione del pensiero attraverso tecniche scalari di test, che stabiliscono connessioni di intelligenza artificiale a livello mentale. In qualche modo si esaurisce la potenzialità dei sistemi statistici ‘classici’ a favore di sistemi neuronali, con una accelerazione esponenziale dei costi di elaborazione, dell’incertezza dei risultati e dei futuri occupazionali.4
Infatti “L’IA agente opera attraverso processi decisionali autonomi e comportamenti orientati al raggiungimento di obiettivi. È in grado di prendere una decisione, o intraprendere un’azione. Il suo prossimo sviluppo consisterà nella capacità degli agenti di ottenere automaticamente che altri agenti eseguano determinati compiti, invece di fornire solo informazioni agli esseri umani”5
In sintesi le differenze principali tra la prima generazione di IA (“Act I”, 2020-2023) e l’interfaccia AI (“Act II”, 2024-oggi) risiedono:
- nel passaggio dal Recupero delle Conoscenze alla Costruzione del Pensiero: i modelli di “Act I” funzionano in gran parte come sofisticati sistemi di ricerca e recupero di informazioni all’interno dei loro vasti set di dati di addestramento. I modelli di “Act II” sono progettati per essere “costruttori di pensiero”, capaci di impegnarsi in processi di ragionamento iterativo e multi-step per generare soluzioni originali e mostrare capacità cognitive più profonde.
- nel passaggio dal Prompt Engineering al Cognition Engineering: L’interazione con “Act I” richiedeva una cura meticolosa nella formulazione dei prompt (prompt engineering) per ottenere i risultati desiderati. In “Act II”, l’interfaccia si evolve verso la cognition engineering, dove gli utenti (o i sistemi automatizzati) interagiscono a un livello più profondo con l’IA, guidandone i processi di pensiero interni e sfruttando la sua capacità di affinare iterativamente il proprio ragionamento.
- nel superamento delle limitazioni: i modelli di “Act I” soffrivano spesso di “latenza della conoscenza” (informazioni non aggiornate) e ragionamento superficiale. Le tecniche di “Act II” mirano a superare questi limiti concentrandosi non solo sulla vastità dei dati iniziali, ma su come il modello ragiona ed elabora le informazioni, portando a risposte più accurate e attuali.
Differenze fra IA “Act I” e IA “Act II”
| Caratteristica | “Act I” (2020-2023) | “Act II” (2024-oggi) |
| Meccanismo primario | Recupero delle conoscenze | Costruzione del pensiero/ Ragionamento |
| Interfaccia principale | Prompt Engineering (Ingegneria dei prompt) | Cognition Engineering (Ingegneria della cognizione) |
| Capacità | Profondità di ragionamento limitata, dipendenza dai dati di addestramento | Ragionamento, giudizio e decisione migliorati tramite tecniche avanzate |
| Focus di sviluppo | Scalabilità dei parametri e dei dati di addestramento | Efficienza e qualità dell’inferenza, pensiero multi-turno |
| Interazione utente | Comunicazione a livello di dialogo con prompt in linguaggio naturale | Interazione più integrata e profonda con i processi di pensiero strutturati dell’IA |
La rapida crescita dei data center
La rapida evoluzione dei servizi di “intelligenza artificiale” ha generato una esigenza esponenziale di nuove infrastrutture, delle quali le più importanti sono i data center.
Essi hanno alcune caratteristiche fondamentali: esigenza di grandi capitali per la realizzazione ed il funzionamento, grande consumo di risorse in termini di suolo, energia ed acqua, rapida obsolescenza, misurata nella dimensione di un quinquennio. In sintesi alto coefficiente di rischio con una incognita per la rimuneratività del sistema complessivo, anche tenendo conto di una caratteristica specifica dell’IA: ogni nuova interazione dell’utente aumenta la domanda di calcolo, i costi di inferenza ed i costi operativi di gestione. La crescita quindi non migliora automaticamente la redditività. In molti casi, aumenta invece le perdite.6
Tutte questioni che fanno avanzare l’ipotesi di una prossima bolla dell’IA; infatti si stima che gli investimenti in infrastrutture di intelligenza artificiale richiederanno 2 trilioni di dollari di entrate annuali entro il 2030. Questa cifra è più alta del totale delle entrate di Amazon, Apple, Alphabet, Microsoft, Meta e Nvidia del 2024.7
Attualmente il nostro paese e, nello specifico, la nostra regione sono subissati di richieste di nuove autorizzazioni di data center8: nel 2025 le richieste di connessione di nuovi data center alla rete a livello nazionale sono 378, pari a 63,97 Gigawatt di potenza complessiva, la maggior parte delle quali (226, quasi il 60% del totale nazionale, pari a 34,4 GW di potenza) proviene dalla Lombardia, con la massima concentrazione nell’intorno dell’area metropolitana milanese. A fronte degli oltre 63 GW richiesti, secondo le elaborazioni di Teha Group la potenza installata in Italia dei data center potrà raggiungere solamente 2,3 GW al 2035, oppure 4,6 GW in uno scenario di “full potential”.
Resta da capire: 1. quale coerenza esiste tra l’iper dotazione di infrastrutture destinate alla gestione e manipolazione di dati sottratti ai cittadini senza una politica attiva di difesa e rivalutazione di tale patrimonio collettivo, 2. come soddisfare una quantità così elevata di energia data la discrepanza tra domanda e capacità effettiva, lo stesso vale per l’acqua, 3. è stato fatto un bilancio integrato degli effetti dell’allocazione di infrastrutture così labili?
I segnali ‘civici’ sono deboli: i politici di governo vantano vantaggi occupazionali non documentati, gli oppositori una resistenza al consumo di suolo. In sintesi si evidenzia una forte dicotomia fra la dimensione dirompente dei problemi e le capacità della governance, che sembra confermare la tesi del giornalista di “The Atlantic” Gilda Edelman9 : con l’aumentare dei numeri, la nostra comprensione della realtà si affievolisce. Come specie, non siamo pronti per queste dimensioni. Le persone praticamente non riescono a distinguere tra i numeri che finiscono con una molteplicità di zeri, e più zeri si aggiungono peggio è.
Sul livello di consapevolezza
La tesi di Edema si fa più preoccupante quando si tratta di prendere consapevolezza, oltre che dei costi delle nuove infrastrutture, degli effetti sociali delle nuove tecnologie. Di questo si fanno carico una molteplicità di pensatori fra cui Padre Bennati, Luciano Floridi e Yeoshua Bengio10. Quest’ultimo sostiene : “Steam construed machine chef ci sorpasseranno in molti campi. Pensiamo agli agenti AI, capaci di decidere in autonomia. Hanno una conoscenza super avanzata e questo è grandioso. Vedremo sistemi che ci aiutano a risolvere molti problemi. Ma… la teoria ci sta mostrando che se hanno un obiettivo non allineato ai nostri, potrebbero decidere di perseguirlo con ostinazione, qualunque siano le conseguenze per noi. ….La triste verità è che la scienza, le big tech, le università non sanno come costruire sistemi che siano allineati a noi e non danneggino gli esseri umani. Sistemi che possono decidere di ostacolarci, ingannarci e mentire per preservare se stessi. Andando contro le nostre istruzioni. Non è fantascienza, svegliatevi!”
Da qui il quesito: come progettare e governare l’IA senza danneggiare le persone? L’unico modo è gestirla come bene pubblico globale, ma stiamo vedendo una corsa, una folle competizione tra i vari Paesi e le varie aziende, dove sicurezza e etica non vengo preservate. Per affrontare questi rischi, ci vuole una leadership forte, morale». Qui Bengio fa riferimento ai leader religiosi che possono essere cruciali in questo momento. Poi continua: «Dobbiamo creare un AI che serve all’umanità non un’umanità al servizio dell’AI. La posta in gioco è alta».
Una ipotesi guida
In tale situazione dirompente occorre essere consapevoli dell’improduttività del seguire concetti di innovazione sovranisti, basati sulla supremazia del confine fisico e su politiche sociali ed economiche top-down, a favore di un’idea che punti alla crescita delle risorse umane sulla base di nuove sinergie fra lo storico assetto policentrico europeo (in cui si riconosce il reticolo delle città italiane) ed il sistema neuronale di relazioni reso possibile dai nuovi livelli di connettività, che per semplicità riconduciamo alle nuove declinazioni di “intelligenza artificiale”. Quindi, una macro digital twin europeo, che sviluppa l’idea originale di Jane Jacobs degli insediamenti urbani come ‘machine learning’ grazie alla ‘connectomica’ possibile con le nuove reti, in grado di generare domande, stimolare curiosità, in sintesi favorire lo sviluppo del capitale umano in armonia fra locale e globale. In questa dimensione trova piena collocazione l’idea dell’IA che serve l’umanità.
Il reimmaginare la rinascita digitale dell’Europa grazie ad una governance del suo sistema policentrico integrato con gli ecosistemi digitali (una riattualizzazione della storica esperienza delle città-stato) si potrebbe articolare nei seguenti punti11:
- sviluppo di politiche ecosistemiche incentrate sulle persone e sulla sussidiarietà che consentano l’agenzia collettiva e individuale nell’utilizzo e governo dei dati e delle tecnologie. Questi ecosistemi sarebbero in grado di offrire processi agili, flessibili, partecipativi e aperti per la condivisione di dati e conoscenze e di fornire meccanismi per controbilanciare le forze economiche o politiche centralizzanti ed estrattive;
- implementare gli spazi per l’alfabetizzazione, la conoscenza e il dialogo. I dati e l’alfabetizzazione digitale devono essere un’area chiave di investimento da parte dell’Europa che attinge all’istruzione esistente, agli ecosistemi dell’informazione e ai forum decisionali, attraverso scale, settori ed età. Le comunità e le persone di tutti i ceti sociali e i luoghi europei hanno bisogno di informazioni migliori su dati, intelligenza artificiale e tecnologie emergenti;
- il potenziamento dell’infrastruttura digitale europea deve essere sinergico con la creazione di spazi per la cittadinanza critica e attiva e governance di queste infrastrutture devono essere destinate a implementare una deliberazione rappresentativa, inclusiva e informata;
- allo stesso modo in cui regolamentazione, interoperabilità e standard aiutano a realizzare infrastrutture in rete decentralizzate, che rispondono alle realtà dei luoghi e all’agenzia delle comunità locali, le stesse infrastrutture devono essere ubique, ossia in grado di interconnettersi con le istituzioni nazionali, statali e comunitarie esistenti.
In sintesi, parafrasando Bengio “Dobbiamo creare una IA che serve alla comunità, non una comunità a servizio dell’AI”.
Giuseppe Longhi
Riferimenti
1 Cory Doctoroff, The Reverse-Centaur’s Guide to Criticizing AI, in Medium del 5.12.2025 scaricabile da:https://doctorow.medium.com/https-pluralistic-net-2025-12-05-pop-that-bubble-u-washington-8b6b75abc28e
2 Timnit Gebru and Emile P. Torres, The TESCREAL bundle: Eugenics and the promise of utopia through artificial general intelligence, First Monday, volume 29, number 4 (Aprile 2024). doi: https://dx.doi.org/10.5210/fm.v29i4.13636.
3 Cornelia C. Walther, Is AI Cognitive Colonialism?, in: Forbes del 12.9.2025, scaricabile da: https://www.forbes.com/sites/corneliawalther/2025/09/12/is-ai-cognitive-colonialism/
4 Shijie Xia e altri, Generative AI Act II:Test Time Scaling Drives Cognition Engineering, in: arXiv:2504.13828v3 [cs.CL] 28 Apr 2025
Yoshua Bengio, Catastrofic risk, Conferenza organizzata da IVADO, Université del Montreal, 15.4.2025, consultabile in: https://www.youtube.com/watch?v=hybMno7h8N8
5 Kate O’Neill,What Matters Next: A Leader’s Guide to Making Human-Friendly Tech Decisions in a World That’s Moving Too Fast, Wiley 2025
6 Spencer Thomason, Why-openai-may-never-be-profitable, in: Startup Hakk, 16 dicembre 2025
scaricabile da: https://startuphakk.com/why-openai-may-never-be-profitable/
7 McKinsey trimestrale, The cost of compute a 7 trillion dollar race to scale data centers, 28 aprile 2025, in: https://www.mckinsey.com/industries/technology-media-and-telecommunications/our-insights/the-cost-of-compute-a-7-trillion-dollar-race-to-scale-data-centers
8 Riccardo Carlino, Sale la febbre dei data center in Italia. Numeri e dati dei progetti pronti a partire, in: IL FOGLIO, 19.10.2025
9 Gilad Edelman, C’è qualcosa di diverso nell’economia, in: The Atlantic, 14.10.2025
10 Eleonora Chioda, Il monito di Yoshua Bengio: prendereste un aereo che ha il 10% di probabilità di cadere? in Instagram,
17.9.2025, scaricabile da:https://www.instagram.com/p/DOs2ZrHjBmA/
11 Marta Poblet, Anna Colom, Beyond Digital Sovereignty: A Polycentric Digital Future for Europe, in: The Data Tank, 10.4. 2025

Commento all'articolo