Come l’intelligenza artificiale stia ridefinendo i confini della decisione umana e trasformando i paradigmi sociali, economici e culturali. Due giorni di incontri promossi dall’Università Roma Tre e dall’Università Pegaso.
Filosofi, scienziati, policymaker e rappresentanti del mondo tecnologico sono stati invitati alla conferenza inaugurale a Roma della Society for the Ethics and Politics of Artificial Intelligence (SEPAI), un nuovo centro di ricerca e riflessione dedicato alle comunità di studiosi impegnati nell’analisi critica, etica e politica dell’intelligenza artificiale. L’evento avrà luogo il 4 e il 5 dicembre 2025 all’Università Roma Tre, dove oltre 100 relatori prenderanno parte a 26 tavole rotonde: si tratta di un momento fondativo per il dibattito italiano e internazionale su come l’intelligenza artificiale stia ridefinendo i confini della decisione umana e trasformando i paradigmi sociali, economici e culturali. A promuoverlo congiuntamente sono state l’Università Roma Tre, che lo ospita, e dall’Università Pegaso, con il coordinamento dei professori Mario De Caro e Andrea Lavazza. Con il supporto di Rivista.AI, la testata specializzata in intelligenza artificiale e cultura digitale, di Roma Future Week, piattaforma di innovazione e futuro urbano, e di Brand Genesi, realtà di comunicazione strategica che unisce storytelling, tecnologia e visione etica dell’innovazione. L’iniziativa è sostenuta da Enel, main sponsor del progetto.
Del rapporto tra intelligenza artificiale, potere decisionale e responsabilità dialogheranno filosofi e scienziati come Luciano Floridi, Ned Block, da Shannon Vallor a Maurizio Ferraris, Sylvie Delacroix, Roberto Navigli e Giuseppe De Pietro, con l’obiettivo di aprire un dibattito franco sulle implicazioni di un’economia dei dati sempre più automatizzata, sulle sfide della trasparenza algoritmica e sulle tensioni tra efficienza e libertà umana. “La vera domanda non è se l’intelligenza artificiale sia utile, ma se sia giusta” ha spiegato in una nota il Comitato promotore, “senza una cornice etica condivisa, il rischio è che l’AI diventi un acceleratore di disuguaglianze e non uno strumento di progresso collettivo”. In un contesto dove la velocità dell’innovazione supera spesso la capacità regolatoria, SEPAI si propone come spazio di mediazione culturale, capace di tradurre la complessità tecnologica in linguaggi politici e sociali comprensibili. Non un think tank tradizionale, ma una “società del pensiero critico digitale”, in grado di influenzare policy, impresa e opinione pubblica attraverso il dialogo interdisciplinare.
A chi si chiede perché una
riflessione pubblica sull’uso consapevole dell’AI, ponendo la questione etica
come centro di gravità del progresso tecnologico sia così importante, ha
risposto direttamente il professor Gino Roncaglia che insegna Digital
humanities e Filosofia dell’informazione all’Università di Roma Tre, tra i
relatori al convegno del 4 e 5 dicembre a Roma, nonché membro del comitato
promotore della SEPAI: “Quando si parla di temi filosofici ci sono posizioni
molto diverse sull’utilizzo, il funzionamento e la natura stessa
dell’intelligenza artificiale. Non si è ancora costruito un consenso e, spesso,
le posizioni espresse sono molto radicali. Tutto questo ci impone, a livello
filosofico, di continuare a discutere a livello internazionale dell’Ia e delle
sue implicazioni etiche”.
Se dunque una discussione
filosofica permanente è il primo frutto della Society for the Ethics and
Politics of Artificial Intelligence. Secondo il professor Roncaglia, un altro
grande contributo verrà dato in termini di AI Literacy, o alfabetizzazione
sull’intelligenza artificiale, che non si limiti a comprendere le tecnologie
IA, ma coinvolga competenze e conoscenze necessarie per utilizzare ed
interagire con l’IA in modo efficace e responsabile: “È necessario diffondere
competenze di base per la cittadinanza che non siano solo di uso, ma che
riguardino anche i meccanismi di funzionamento e i problemi teorici legati
all’IA”, includendo anche la capacità di valutare criticamente le tecnologie
IA, comprenderne il contesto, e fare domande sul loro design e implementazione.
Per il professore americano
Philip Larrey, sacerdote che insegna Logica ed Epistemologia alla Pontificia
Università Lateranense in Vaticano “è urgente ragionare sull’importanza
dell’etica nell’uso dell’IA, bilanciando il suo potenziale con la mitigazione
degli impatti negativi sul lavoro e sul benessere emotivo delle persone,
garantendo al tempo stesso la gestione di aspetti critici come la trasparenza e
la privacy”.
La conferenza inaugurale sarà
aperta al pubblico e ospiterà non solo interventi di accademici, esperti di
diritto tecnologico e leader dell’industria AI, ma sarà anche un laboratorio
interattivo, con esperienze immersive e sperimentazioni artistiche che
esplorano il confine tra creatività umana e intelligenza artificiale
generativa. La nascita di SEPAI segna un passo rilevante per affermare il ruolo
dell’Italia come punto di riferimento europeo nel dibattito sull’etica
dell’intelligenza artificiale. Non un esercizio di stile accademico, ma un
impegno concreto per costruire un nuovo umanesimo digitale, dove la tecnologia
non sostituisce la coscienza, ma la amplifica.