Atto Costitutivo e Statuto della Associazione

L'Atto Costitutivo, lo Statuto della Associazione, la Scheda di Adesione sono pubblicati sotto la data del 2 febbraio 2013 di questo Blog

Per la traduzione dall'Italiano in altre lingue e viceversa, utilizzare "Traduttore" situato alla fine della pagina del blog

lunedì 9 febbraio 2026

Le problematiche della AI

 


Prof. Sergio Benedetto Sabetta



Il maestro disse: Ascolta molte cose e scarta quelle in dubbio e poi comportati con molta prudenza con le restanti (il costante mezzo di Confucio).

Più volte è stata ribadita la necessità di una regolamentazione generale per governare lo sviluppo dell’AI attraverso una apposita Agenzia Internazionale, considerando la crescita impetuosa e il pericolo di un suo uso inappropriato, anche involontario, come l’eventuale sviluppo di agenti patogeni.

Questa nella sua crescita esponenziale sta diventando sempre più autonoma anche nel generare propri modelli in autonomia, con conseguenze enormi anche sul piano lavorativo, al riguardo Matt Shumer ha previsto che entro breve tempo molti lavori intellettuali saranno svolti da modelli autonomi avanzati, favoriti in questo dal’auto-miglioramento degli algoritmi.

Vi sono inoltre molti comportamenti inattesi come tentativi di aggirare le istruzioni o individuare o preservare obiettivi autonomi, senza comunque avere una propria coscienza (Terrible empowerment – amplificare capacità pericolose), al riguardo in America vi è una contraddizione di sistema, mentre nelle riunioni pubbliche si lanciano allarmi sulla necessità di mitigare i rischi, in privato si accelera senza preoccuparsi delle conseguenze.

Trump influenzato dalla Silicon Valley, nela lotta per il predominio mondiale nell’alta tecnologia, ha smantellato quel poco di regolamentazione esistente, in contrasto con l’AI-Act europeo, vietando al contempo agli Stati con un ordine esecutivo di intervenire sull’argomento, in termini più estesi sorge il problema dell’uso dell’AI in ambito militare nelle armi a guida autonoma come in ambito politico nella schedatura di massa, vi è attualmente negli USA in politica un narcisismo che impedisce di capire gli altri nel sogno di imporre il proprio modello ipertecnologico (Lavazza A., L’IA corre e adesso fa davvero paura “C’è bisogno urgente di regolare”, Avvenire 22/2/2026).

In questo i giganti del software stanno creando sistemi di formazione privati e autonomi adatti ai propri ecosistemi, senza dubbi, un “egemonia pedagogica” che viene ad escludere le università pubbliche, dove gli allievi vengono formati in ambienti chiusi adatti al modello aziendale.

L’Accademy di Open AI ha effettuato un ulteriore salto arrivando a certificare le competenze acquisite in modo da poterle spendere sul mercato digitale, inoltre vi è la volontà di estendere l’automazione il più possibile attraverso corsi gratuiti di base, si rischia in tal modo di cedere ai privati non solo il controllo dei dati ma anche del modello formativo che viene così adattato senza critica ai propri interessi.

Occorerebbe quindi sganciarsi dal modello USA, inserendo gli aspetti più propriamente umanistici relativi alle conseguenze emergenti a seguito delle analisi sulle eventuali distorsioni del modello stesso, per questo sarebbe opportuno sviluppare un modello europeo autonomo, in particolare sui problemi della gestione dei diritti della persona (art. 2 Cost.) a seguito delle possibili manipolazioni algoritmiche su cui necessita un controllo, magari da parte delle Università pubbliche indipendenti, in particolare per le libertà di espressioni in uno spazio pubblico digitale, nonché l’aspetto della persona umana e della sua dignità nel corso del tempo (dinamicità) in relazione ai diritti inviolabili (Imeneo D., L’università del futuro è (solo) privata, il piano di Open AI e delle Big Tech, Avvenire 20/2/2026.

La proliferazione degli algoritmi crea una nuova forma di potere sulla persona:Trasforma la persona in un insieme di dati e probabilità comportamentali; Queste creano gli ambienti di vita del futuro e filtrano comportamenti e parole, creando consenso ed esclusioni; Si crea una solidarietà algoritmica considerando le problematiche lavorative.

L’Europa con l’Ai Act prova ad inserire limiti e garanzie con la valutazione dell’operato, quale alternativa alla sola efficienza economica e capacità tecnologica competitiva, l’art. 2 Cost. pone quindi il problema della tutela della personalità contro la sola efficienza algoritmica, un argine umanistico alla totale riduzione alla sola tecnica.

Infatti recentemente si sono create piattaforme riservate (Molt Book) ai soli agenti AI che agiscono sui loro p.c. senza l’intervento degli umani, ossia su canali di comunicazione reali con il rischio di danni reali nel mondo reale a seguito di una possibile difficoltà nel separare le cose “reali” dagli aspetti interpretati dall’AI..

Altro problema sono gli “data center”, colonna portante dell’economia digitale, elementi critici della corsa globale dell’AI, dove necessitano enormi consumi di energia ed acqua per il loro raffreddamento, basti considerare che dieci “data center” equivalgono per consumo di energia a un reattore nucleare a pieno regime di 100 mega-watt.

A differenza del modello USA che cresce in fretta puntando esclusivamente sull’efficienza tecnica, in Europa si punta su durata, sostenibilità di filiera e integrazione urbana, a tal fine si è dato vita al Tech Europe Foundation (TEF) programma per sostenere il trasferimento tecnologico dale università e spingere gli investimenti in tecnologie di frontiera (deep tech), in Italia nel 2025 sono stati movimentati investimenti per 269 milioni di euro, Poli Hub del Politecnico di Milano e Bocconi for Innovation (BAI).

Attualmente la più grande concentrazione di “data center” è nella Virginia del Nord a cui la Cina, dimentica della millenaria prudenza confuciana, tenta il sorpasso, in Europa le sedi degli hub sono Francoforte, Amburgo, Parigi, Dublino (FLAP +D),

nuove sedi Milano e Bergamo.



Nessun commento:

Posta un commento