Intelligenza artificiale e dimensione etica:intervista a Radio Maria alla Prof. Giulia Bovassi

https://radiomaria.it/puntata/tavolo-pro-life-16-03-2026/
Oggi parliamo dell’argomento più attuale che esista, e
nel contempo anche più complicato che si possa immaginare, soprattutto per la generazione mia, quella del secolo scorso. Ne parliamo con una esperta che ha un gran primo vantaggio rispetto a me: è giovane, ha l’età del mio primo figlio e quindi può spiegare bene a me come agli ascoltatori di Radio Maria in che epoca stiamo vivendo e che cosa ci sta succedendo. La mia ospite è la professoressa Giulia Bovassi, Bioeticista, autrice di un libro che sta presentando in tutta Italia, invitata da varie realtà e, per quello che ho potuto seguire io, anche da alti prelati nelle parrocchie . Il libro si intitola “Attrazione digitale“ ed è stato pubblicato dalla casa editrice “Il Timone“ e, detto in maniera molto semplice, parla di intelligenza artificiale, i suoi rischi, le sue derive più estreme come il transumanesimo e del nostro rapporto con il digitale.  Il link per acquistare il libro è questo: https://www.iltimone.org/libro/libri-del-timone/201161/attrazione-digitale.html

Grazie Giulia per aver accettato l’invito.

Ho chiesto a Grok che cosa è l’intelligenza artificiale. Ecco la risposta: L’intelligenza artificiale (IA o AI in inglese) è, in parole molto semplici: la capacità di far fare a un computer o a una macchina cose che normalmente richiedono intelligenza umana, come:• imparare dalle esperienze (dai dati che gli diamo)• capire il linguaggio che parliamo o scriviamo•  ragionaree risolvere problemi•  prendere decisioni  riconoscereimmagini, suoni, volti. •  creare testi, immagini, musica, video, idee. Non è una persona vera dentro il computer: è un programma molto intelligente che imita alcune abilità umane, spesso meglio e molto più velocemente di noi quando si tratta di grandi quantità di informazioni.L’IA non “pensa” come un essere umano, ma è diventata bravissima a imitare tanti comportamenti intelligenti grazie a enormi quantità di dati e a calcoli potentissimi. Oggi (2026) è già ovunque: nei telefoni, nelle auto, nella medicina, nel lavoro, nella scuola… e continua a migliorare velocemente.
Qui il link alla trasmissione di Radio Maria.
Di seguito un’intervista alla Prof. Giulia Bovassi sul tema della AI.
1) Dobbiamo preoccuparci?

La risposta di Grok pone già una serie di questioni affrontate nel testo. Ad esempio, usa un linguaggio antropomorfo, ovvero normalmente utilizzato per descrivere l’essere umano e/o le sue facoltà, per spiegare quel che l’IA fa ed è. D’altro canto, però, specifica in modo corretto che non dobbiamo confondere i due piani, quello umano e quello algoritmico, per quanto la complessità e il livello di autonomia di quest’ultimo lo rendano apparentemente simile all’uomo.

Molti – nel libro cito giganti della Silicon Valley – continuano ad esprimere timore verso l’IA perché già oggi comporta dei rischi che difficilmente riusciamo a identificare in modo preventivo, precoce e con ancor più difficoltà chi di competenza intende evitare se ciò implica porre un freno allo sviluppo e al mercato. Esprimono un timore ancor più profondo verso il futuro, considerando il paradosso per cui a più potere tecnologico rischia di corrispondere un sempre minore controllo umano.

In definitiva, il libro nasce nel proposito di evitare polarizzazioni tra tecno-ottimisti e tecno-pessimisti, quindi di equilibrio, ma ripensando le categorie che determinano il nostro rapporto con la tecnica e senza sconti verso il dovere di non delegare la capacità morale alle macchine.

2) Vogliamo citare i vari strumenti di IA alla portata quotidiana di tutti noi, così impariamo a riconoscerli?

L’intelligenza artificiale non è uno scenario futuro, ma uno strumento perfettamente integrato e onnipresente nel nostro quotidiano, tant’è che la utilizziamo senza nemmeno rendercene conto (Siri, Alexa, Grok, Chat GPT, ecc.). Questa “inconsapevolezza incolpevole”, oltre a darci grandi benefici (nel Testo parlo di comfort e di “tirannia del comfort”), apre a forti criticità perché tendiamo a delegare la nostra personalità, le nostre idee politiche o religiose o morali, il nostro orientamento politico, i nostri gusti o lo stile di vita al condizionamento algoritmico, dirigendoci dove esso ci vuole condurre a partire dalle nostre tracce digitali (dati, che vengono elaborati e riutilizzati).  

Quando piattaforme come Netflix o YouTube ci suggeriscono un film o una serie, entrano in gioco algoritmi che apprendono dai nostri comportamenti. È comodo, certo, ma c’è anche il rischio di vivere dentro “bolle” personalizzate che rafforzano gusti e opinioni, limitando spontaneità, pensiero critico, autenticità.

Ad esempio, interagire con Chatbot come ChatGPT o Gemini si rivelano efficace e utili per svolgere mansioni tecniche, velocizzando i tempi operativi. Spesso questi strumenti di IA Generativa vengono, però, assunti come degli “oracoli”: giovani e meno giovani scivolano dalle ricerche sul compito in classe e la sua redazione scritta o bibliografica, a chiedere opinioni come fossero utenti umani. Questo apre interrogativi profondi: chi è autore? Cosa è vero e cosa è falso e come distinguerlo? Come preservare le abilità cognitive? Come preservare la relazione umana?

Porre queste domande -e molte altre- è fondamentale per mantenere un approccio critico e consapevole: l’IA non è neutrale, riflette i dati di addestramento e l’intenzionalità degli sviluppatori. L’IA non è estranea a chi la progetta, nonostante la crescente autonomia e complessità da essa raggiunta. L’etica si pone, dunque, come strumento essenziale, non più marginale e questo è uno dei grandi “paradossi” delle nuove tecnologie.

3) Quali sono gli aspetti positivi dell’IA?

Gli aspetti positivi dell’intelligenza artificiale sono in larga parte orientati a semplificare, velocizzare e potenziare le attività umane. In ambito medico, ad esempio, l’IA supporta la diagnosi precoce, l’analisi di immagini cliniche e la personalizzazione delle terapie, offrendo strumenti che possono migliorare la qualità e la tempestività delle cure.

Nel settore tecnologico e ingegneristico consente di ottimizzare processi complessi, ridurre errori e aumentare l’efficienza produttiva. In ambito scolastico può favorire un apprendimento più personalizzato, adattando contenuti e percorsi alle esigenze degli studenti.

In generale, l’IA rappresenta un’estensione delle nostre capacità cognitive: analizza grandi quantità di dati in tempi rapidissimi, individua schemi invisibili all’occhio umano e apre nuove possibilità di ricerca e innovazione. Se ben orientata, può diventare uno strumento prezioso di progresso e di supporto alla vita quotidiana. Resta imprescindibile che vengano “sciolti” i nodi etici e giuridici in senso preventivo e prudenziale.

4) Perché non possiamo ignorare che esiste una dimensione etica nel progresso in generale e anche nella IA?

Come dicevo, le nuove tecnologie hanno la caratteristica di essere pervasive e contaminative: sono ovunque, impercettibili, parte di noi stessi. Questo non consente di parlare di neutralità morale o, ancor più, di marginalità del discorso etico. I sistemi basati sull’IA influenzano decisioni, orientano comportamenti, selezionano informazioni, si sostituiscono alla scelta umana (si pensi all’ambito clinico, politico, militare) e incidono sui diritti fondamentali. Senza una supervisione etica che accompagni tutto il ciclo vitale dello strumento rischiamo di creare nuovi meccanismi di potere (nel libro parlo di “Panopticon Digitale” e del rapporto fra tecnologia-potere-persona) non disciplinare, ma persuasivo basato sul comfort e sul valore consumistico.

L’IA è un oggetto sociale inserito in un tessuto sociale definito dall’uomo, perciò, affinché possa mantenersi un equilibrio, la convivenza uomo-macchina deve essere preceduta e fondata su una visione antropologica forte sulla quale definire i principi etici a guida dell’innovazione. Il ruolo della morale precede e accompagna lo sviluppo dell’IA. Non possiamo permetterci un’etica a posteriori, a danno compiuto. L’IA può essere una risorsa se rimane inscritta in una visione antropologica forte e personalista dell’uomo. Per farlo l’umanità deve trovare una convergenza sulla natura umana e abbandonare l’approccio relativista alla morale. Se siamo al punto di discutere su quale sia la natura dell’uomo in funzione di una soggettività dell’IA forse dovremmo parlare non di evoluzione, ma di regressione.

5) Quali rischi nel sottovalutare l’IA?

Al di là del punto di contatto con il transumanesimo nel mito definito “Singolarità”, cioè la convinzione che giungeremo ad un punto di non ritorno nel quale l’IA supererà in modo definitivo, irreversibile, l’intelligenza umana, credo vi sia una rosa di problematicità nelle quali rientrano anche quelle già menzionate. I rischi fondamentali, attuali e concreti, riguardano l’identità personale/digitale; lo sviluppo umano autentico; il pericolo di una banalizzazione della delega algoritmica e un disarmo etico-giuridico o una grave insufficienza su questo fronte; l’accelerazione esponenziale, che non consente il tempo umano di comprendere la portata di un cambiamento rivoluzionario di simili proporzioni; de-skilling, perdita delle abilità umane; l’evanescenza della privacy e del controllo umano significativo; la sorveglianza e il controllo persuasivo (nel testo affronto il tema del Social Credit System cinese e altri sistemi simili occidentali); la tenuta democratica e la tutela della libertà; una progressiva difficoltà a gestire la falsificazione (o inganno) algoritmico con gli abusi che ne conseguono; i rischi per i minori esposti a questi strumenti.  

Essendo lo strumento molto eterogeneo nelle tipologie, negli usi e nei contesti applicativi, l’indagine etica dovrà spaziare in ciascuno di essi, individuando punti di forza e debolezza. Nel Volume propongo decine di esempi tratti dalla cronaca, che vanno dall’uso dell’IA per la selezione embrionaria nelle tecniche di Procreazione Medicalmente Assistita, fino all’uso di “kill list” algoritmiche in ambito militare: se non torniamo ad un discorso antropologico sull’uomo e, di conseguenza, i suoi diritti fondamentali non saremo in grado di arginare i problemi, solo di rincorrerli.

6) Rischi a livello umano, emotivo?

L’intelligenza artificiale influisce profondamente sul modo in cui costruiamo e percepiamo la nostra identità. Uno dei fenomeni più evidenti è quello che definisco di “vetrinizzazione del sé”: tendiamo a mostrare online solo una versione curata, spesso ideale, di noi stessi, creando identità plurime, molte falsificate, che possono allontanarci dalla nostra autenticità. Il rischio è perdere il senso di chi siamo davvero, sia online che offline.

Strumenti digitali e piattaforme social amplificano, inoltre, favoriscono il coinvolgimento emotivo artificiale, che può generare dipendenza digitale: siamo attratti e intrappolati dai contenuti generati da algoritmi studiati per catturare la nostra attenzione.

Allo stesso tempo, cresce il rischio di inganno digitale: deepfake, contenuti manipolati e informazioni false rendono sempre più difficile distinguere ciò che è reale da ciò che è artificiale. Una delle conseguenze può diventare la perdita di sensibilità verso l’esigenza di conoscere ciò che è vero e autentico da quel che non lo è. Per i giovani e i minori questi rischi sono particolarmente gravi: il confine tra gioco, socializzazione e esposizione digitale diventa labile, aumentando la vulnerabilità emotiva e cognitiva, tra cui l’incapacità di gestire le relazioni vedendo l’altro come “persona” e non come “utente”: la dinamica virtuale impoverisce pudore, rispetto, dignità abbassando la soglia del rischio e la capacità di giudizio morale su quanto compiuto. Questo si rende particolarmente evidente nel caso della violenza digitale.

7) Come è potuto accadere che noi esseri senzienti, intelligenti davvero, che abbiamo costruito macchine per la nostra vita, macchine che dipendono da noi, ora sembriamo invece dipendere dalla IA?

Nel testo vengono forniti numerosi esempi che ci parlano di questo paradosso secondo cui ad un aumento di sofisticazione tecnologica, alla spinta del progresso non corrisponde una proporzionata capacità di controllo. Ciò, ad esempio, e lo ritengo tra gli usi esemplificativi più eclatanti, accade nella distorsione della corporeità, dell’identità e dell’autenticità attuata dal e nel digitale, in particolare nell’uso di chatbot. Oggi assistiamo ad una vera e propria emergenza globale per i rischi connessi alla salute psico-fisica e all’incolumità degli utenti. Parlo di suicidi di minori o giovanissimi, assistiti da chatbot; di relazioni sintetiche, anche fra adulti, che divengono mezzo di fuga dalle difficoltà di quelle reali; di un livello preoccupante di confidenzialità nel quale il confine naturale/artificiale, reale/irreale sfuma in modo critico provocando un attaccamento emotivo che opacizza la razionalità con la quale normalmente approcciamo agli oggetti. La domanda che si fa urgente è la seguente: come e quando è accaduto che l’unico essere senziente rispetto ad una macchina, ad un oggetto, riesca, pur nella consapevolezza di aver intrapreso una “relazione” fittizia a lasciarsi ingannare da qualcosa che non esiste?

Altri esempi riguardano il condizionamento emotivo, democratico, valoriale, culturale operato ad hoc da sistemi intelligenti che orientano la formazione della nostra personalità e, di conseguenza, hanno il potere di intervenire anche sulla sensibilità etica e politica di un paese. Allo stesso modo ritengo si debba prestare attenzione al rischio di un uso malevolo dell’IA per profilare, sorvegliare, categorizzare e ammaestrare i cittadini in virtù di un ben più preponderante principio emergenziale di sicurezza o sviluppo morale della collettività, come nel caso cinese menzionato. Affronto il dato di fatto che questa triade persona-potere-tecnica, precedentemente citata, va diffondendosi, anzi fa parte, anche dell’Occidente, forse in modo meno diretto con il potere politico, ma non per questo eticamente aproblematico

8) Il caso dei suicidi di giovani: perché accade? Che cosa manca alla IA?

La domanda corretta non è cosa manca all’IA, ma cosa cerchiamo noi. Il caso dei suicidi tra i giovani a seguito degli scambi conversazionali con chatbot (assistenti virtuali non a caso oggi spesso definiti “di compagnia” o “amici”) avviene in due modi: il primo è la confusione dei ragazzi tra reale e artificiale, che non riescono a distinguere nettamente; il secondo, ancor più inquietante, è la consapevolezza di questa differenza ontologica tra uomo e macchina, ma il disinteresse nei suoi confronti o il dubbio su cosa significhi, oggi, alla luce della complessità e somiglianza fra i due, essere “uomini”. Per questo si innescano dinamiche di confidenzialità e attaccamento affettivo, fino a rendersi passivi nei confronti di ciò che questa entità sintetica consiglia. Purtroppo, questo fenomeno coinvolge anche gli adulti: siamo in un’emergenza affettivo-relazionale dove assistiamo a padri di famiglia che creano legami paralleli e virtuali in questi mondi sintetici per “evadere” dal sacrificio richiesto nella vita reale.

Nel testo, in apertura, parlo proprio di questo distinguo in un ragionamento più ampio sulla tecnica: è gabbia o rifugio? Quando la gabbia diventa rifugio e viceversa?

9) Il Papa ha parlato in merito, e sembra che il suo pensiero corrisponda esattamente a quanto spiegato nel libro.

Sì. Faccio riferimento in particolare al messaggio per la Giornata Mondiale delle Comunicazioni Sociali, dove Papa Leone XIV fa una riflessione che risuona fortemente con i temi trattati nel libro Attrazione digitale.

Partendo dall’importanza di custodire il volto e la voce umana come tratti unici e insostituibili della persona, il Papa richiama l’attenzione sulla trasformazione digitale e sulla diffusione dell’intelligenza artificiale, sottolineando che questi strumenti non devono sostituire l’autenticità delle relazioni umane né la capacità di pensiero critico.

Nel testo egli afferma che l’IA può simulare voci, volti, conoscenza e relazioni, ma ciò rischia di interferire con il modo in cui comunichiamo profondamente e persino con l’essenza stessa del nostro dialogo come esseri umani. Rafforza quindi l’idea che non si tratta semplicemente di un problema tecnologico, ma di una sfida antropologica: custodire l’umanità davanti all’avanzare degli strumenti digitali.

Il Pontefice mette in guardia contro un affidamento ingenuo all’IA come “amica onnisciente” o oracolo, ed è esattamente l’incipit di Attrazione digitale! Il richiamoalla dimensione etica e al suo grande contributo si avvicina enormemente alla riflessione che emerge nel libro: il progresso tecnologico deve essere governato dalla responsabilità, dal discernimento e dalla centralità della persona umana. Il punto di partenza è, dunque, antropologico e, come spiego nel testo, da una riflessione sul rapporto con la tecnica, il potere e la persona in quest’epoca digitale.

10) Quale è il messaggio del libro “ Attrazione digitale”?

Il messaggio centrale del libro è un invito alla consapevolezza. Viviamo in un’epoca in cui la tecnologia non è più soltanto uno strumento, ma un ambiente che plasma il nostro modo di pensare, di relazionarci e perfino di percepire noi stessi. L’“attrazione digitale” è quella forza seduttiva che ci spinge ad affidarci sempre più alle macchine, spesso senza interrogarci sulle conseguenze.

Il testo non demonizza l’innovazione, ma mette in luce il lato oscuro del transumanesimo e dell’intelligenza artificiale quando vengono accolti in modo acritico. Il rischio non è la tecnologia in sé, bensì la perdita di centralità dell’essere umano, della sua libertà, della sua capacità di scelta e di responsabilità.

Il libro invita dunque a recuperare uno sguardo critico: usare l’intelligenza artificiale senza esserne usati, governare il progresso senza subirlo, mantenere viva la dimensione etica come criterio di orientamento. In fondo, il vero tema non è ciò che le macchine possono fare, ma ciò che vogliamo diventare noi.

Credo sia fondamentale trovare un punto di convergenza -ed è forse la sfida maggiore per un’epoca dettata da secolarismo e relativismo- sulla verità dell’uomo e del bene. La sfida è questa ed è filosofica, prima di tutto. L’IA, il transumano, il postumano sono megafoni di questa frammentarietà sulle questioni fondamentali. È necessaria un’algoretica; è fondamentale una governance globale, ma del costruttore chi si occupa?

Giulia Bovassi
Bioeticista 
Consulente esperto in Bioetica e Affari Sociali – Camera dei Deputati (XIX Legislatura)
Docente e Ricercatrice Associata presso l’Università di Anáhuac, Facultad de Bioética (Messico)
Membro esperto in Bioetica Comitato Etico Territoriale della Regione Marche
Associate Researcher Cattedra UNESCO in Bioetica e Diritti Umani (Roma)

Intervista raccolta da Vittoria Criscuolo

Comitato Pro-life insieme

http://www.prolifeinsieme.it