“Comunicare nell’epoca dell’intelligenza artificiale. Idee a confronto dopo il messaggio di Papa Francesco per la Giornata Mondiale delle Comunicazioni Sociali” è il tema dell’incontro organizzato dal Dicastero per la Comunicazione, con la collaborazione della Fondazione San Giovanni XXIII. Padre Paolo Benanti: “L’Intelligenza Artificiale è inevitabile, serve una regolamentazione come ha fatto l’Unione Europea”
Michele Raviart – Città del Vaticano
L’intelligenza artificiale traduce tutto in calcolo, ma possiamo ridurre tutto a una probabilità statistica? Come possiamo tutelare professionisti e lavoratori nei media dall’arrivo dell’Intelligenza Artificiale e mantenere il diritto di informare e di essere informati sulla base di verità, libertà e responsabilità? Come rendere interoperabili le grandi piattaforme che investono nelle IA generative che non riducano l’uomo a un giacimento di dati da sfruttare? Sono queste le domande – ispirate dai messaggi di Papa Francesco per la Giornata Mondiale della pace e per quella delle Comunicazioni sociali, oltre al recente intervento al G7 in Puglia – che il prefetto del Dicastero per la Comunicazione della Santa Sede, Paolo Ruffini, ha posto ai relatori e ai partecipanti del convegno “L’algoritmo al servizio dell’uomo. Comunicare nell’epoca dell’intelligenza artificiale”, organizzato dallo stesso dicastero con la collaborazione della fondazione San Giovanni XXIII e che si è svolto nella Casina Pio IV in Vaticano, sede della Pontificia Accademia delle Scienze Sociali.
La Chiesa cammina con l’uomo e la sua cultura
Gli interventi di Francesco sull’Intelligenza Artificiale, ha ribadito padre Lucio A. Ruiz, segretario del Dicastero per la Comunicazione, testimoniano il “fiuto” della Chiesa nel camminare con l’uomo nella sua cultura attraverso i cambiamenti della storia. È avvenuto così, ha spiegato, quando 500 anni fu creata la prima tipografia vaticana poco tempo dopo la scoperta di Gutenberg, con la costruzione della Radio Vaticana da parte dell’inventore delle comunicazioni senza filo Guglielmo Marconi nel 1931 o con la creazione del portale vatican.va nel 1994, quando il web era appena apparso sui computer della gente comune.
Uno strumento da regolare
Ed è proprio dall’essenza primaria dei computer, che è quella di fare calcoli, che è iniziata la relazione di padre Paolo Benanti, docente di etica e bioetica alla Pontificia Università Gregoriana, presidente della Commissione IA per l’informazione e membro del Comitato IA delle Nazioni Unite, nel primo intervento del panel “L’etica dell’algoritmo e le sfide per la comunicazione”. Benanti ha ricordato come la realtà sia stata cambiata dall’invenzione dei transistor, messa a disposizione dagli Stati Uniti ai suoi alleati dopo i successi della seconda guerra mondiale, quando i primi prototipi di computer contribuirono alla scoperta della bomba atomica e alla decodificazione dei codici segreti usati dalla Germania nazista. Da quella visione centralizzata della tecnologia e attraverso la rivoluzione dei pionieri della Silicon Valley negli anni 70, si è arrivati a una computazione “personale” e intima, attraverso prima i Pc e poi gli smartphone. Con ChatGPT e la sua implementazione nelle interfacce dei telefoni Apple e Microsoft, ha sottolineato il padre francescano, non sappiamo ancora quanto il computazionale sarà personale e quanto centralizzato in cloud. Per questo, ha aggiunto, è necessaria una regolamentazione come ha fatto l’Unione Europea, in modo da fare con l’intelligenza artificiale quello che è stato fatto con il codice della strada per le automobili.
Una rivoluzione antropologica
L’Intelligenza Artificiale non è un salto tecnologico impressionante di per sé, ha sottolineato invece Nunzia Ciardi, vicedirettore generale dell’Agenzia per la Cybersicurezza Nazionale. Quello che rende la sua implementazione un qualcosa che avrà un impatto antropologico decisivo sulla realtà è il fatto che si basa su un enorme quantità di dati rastrellati in questi decenni “in modo brutale” dalle aziende attraverso servizi gratuiti o applicazioni che per noi ormai sono fondamentali. Altri aspetti da sottolineare sono l’uso della lingua inglese per addestrare gli algoritmi – con tutti i valori e le espressioni cultura che un idioma ha rispetto ad un altro – e il rischio di avere sempre più difficoltà a decodificare messaggi complessi, che può essere pericoloso in democrazia. “Il sapere sta diventando una proprietà privata”, ha commentato invece il professor Mario Rasetti, emerito di Fisica teorica del Politecnico di Torino e presidente del scientific board di CENTAI, raccontando l’esperienza di OpenAI, nata come una società no profit di scienziati e acquistata da Microsoft per 10 miliardi. Dobbiamo fare dell’Intelligenza Artificiale una scienza che abbia delle definizione rigorose, ha aggiunto, perché allo stato attuale si presenta come uno strumento probabilistico, che difficilmente può misurare intelligenza, verità e causa.