«Conosciamo i rischi dell’AI. Concentriamoci su come possiamo usare questa tecnologia»

Tra i luddisti, quelli che vorrebbero distruggere le macchine, e chi invece aderisce acriticamente all’innovazione tecnoligica, esiste una terza via. Quella cioé che, da un lato, evidenzia i rischi alla diffusione dell’intelligenza artificiale. E, dall’altro, cerca di cogliere le opportunità poste da questa tecnologia. Esponente di questa corrente è il direttore di SlowNews Alberto Puliafito che, insieme alla digital strategist Bafe De Maggis è autore del libro “In principio era ChatGPT“. Moderati dalla giornalista Barbara Sgarzi, i due saranno protagonisti di un panel a Glocal, il festival del giornalismo di Varese in programma dal 9 al 12 novembre, insieme a Daniel Dieudonné, responsabile del Google News Lab, la struttura interna alla Google News Inititative che collabora con i giornalisti per immaginare il futuro della professione.

Ha scritto un libro con Made De Baggis in cui, rispetto all’approccio di chi combatte le macchine, tracciate quali siano le opportunità per chi, con le macchine, sceglie di allearsi. È interessante perché comunque non rappresenta un’adesione acritica alle nuove tecnologia. Perché scegliete questo tipo di approccio?
Mafe e io siamo super preoccupati dal fatto che un approccio completamente critico nei confronti dell’AI generativa ci distragga sia dai problemi veri, sia dalle opportunità che rappresenta. Non siamo naif, vediamo le problematiche, semplicemente non crediamo che il vero problema sia che: aiuto, le macchine ci uccideranno tutti! Crediamo il punto sia che queste tecnologie sono estremamente potenti e hanno moltissime opportunità di uso in maniera positiva per le persone, ma vediamo già enormi barriere in accesso e quindi il vero problema sarà che diventeranno un moltiplicatore di disuguaglianze.

Che tipo di disuguaglianze potrebbero moltiplicare?
È un discorso va preso alla lontana. I “vecchi” dell’internet, quelli che dicevano che sarebbe diventato un luogo fantastico e inclusivo, hanno dovuto fare i conti col fatto che molte sono andate bene, ma molte altre sono andate male. Ci sono due questioni. La prima riguarda le barriere all’accesso, ovvero la capacità di utilizzare un device, di averlo a disposizione, la disponibilità di una connessione veloce. E poi c’è il tema di chi può sviluppare questa tecnologia. Ora abbiamo sette aziende negli Usa, alle quali la Casa Bianca ha chiesto di aderire ad un protocollo di sviluppo etico dell’AI, e quattro in Cina, delle quali sappiamo molto meno. L’Unione Europea è rimasta indietro e si è assunta questo ruollo di regolatore attraverso l’AI Act (delle regole che l’UE sta dando sull’AI si parlerà in un incontro di Glocal, ndr). Il che pone grandi difficoltà: come regoli qualcosa che non ha confini, come Internet? Dopodiché, parlando di disuguaglianze, c’è l’impatto importante che l’AI generativa avrà su un sacco di lavori. Noi giornalisti facciamo l’errore di vedere questi strumenti solo dal nostro punto di vista, dimenticando che sono abilitanti. Racconto spesso un aneddoto che mi è stato riportato, la storia di un padre che ha usato ChatGPT per farsi aiutare a scrivere una lettera al preside perché il figlio aveva problemi di bullismo a scuola e non sapevano come esprimersi. ChatGPT ha scritto una mail che ha aiutato ad ottenere un colloquio con il dirigente scolastico. La scrittura non è stata sempre per tutti; fino a poco tempo fa, in alcuni paesi, c’erano persone che scrivevano lettere per gli altri. Una soluzione per evitare che Internet rimanga in mano a pochi è insegnare come funzionano queste tecnologie, farle entrare nelle scuole pubbliche, svilupparle in maniera open. Se non lavoriamo per rendere queste tecnologie accessibili a tutti, sarà l’ennesima replica di schemi già visti. Ora solo i contenuti protetti da copyright si possono avere pagando, ma nei luoghi dove il copyright domina, come Spotify, non tutti sono diventati ricchi. Il modello è sempre lo stesso.

Serve insomma il salario minimo anche nel terziario?
Se le stime sono corrette riguardo all’impatto sul settore terziario, dobbiamo iniziare a dotarci di ammortizzatori per prevenire le conseguenze negative. Potrebbe non esserci più un lavoro come lo conosciamo per tante persone. Pensiamo alla sanità: se una macchina legge i risultati di un’esame diagnostico più correttamente di un medico, potrebbero servire meno medici addestrati però per lavorare con queste macchine. Idee come il reddito di base o altri ammortizzatori sociali potrebbero quindi essere riportati in auge. Fa paura vedere che OpenAI ha già un programma per una sorta di reddito di base e dichiara di avere un programma per usare le macchine per sostituire l’insegnamento pubblico. Ma siamo sicuri di voler delegare queste decisioni a poche persone, confidando che siano illuminate? O dovremmo cercare un percorso che concili il privato e il pubblico, in uno scenario in cui le varie competenze trovino soluzioni collettive?

Ecco, torniamo alla questione di un approccio critico e costruttivo alla tecnologia.
Che ci è sembrato un modo sensato per affrontare il fatto che queste tecnologie sono diventate popolari. In realtà esistono e vengono usate da un sacco di tempo, pensiamo al credit scoring, gli algoritmi che regolano l’accesso al credito bancario: di questo, fino a che non è arrivato ChatGPT, sembrava non interessasse a nessuno. Poi l’AI generativa è diventata popolare, fa cose che pensavamo fossero appannaggio degli esseri umani. E in questo contesto, cosa vende di più? Un approccio catastrofista. Io e Mafe ci siamo detti che l’unico modo per dare un contributo sensato al dibattito era vedere le ragioni degli apocalittici e degli ottimisti, e poi dire che ci collochiamo in mezzo. Ovvero siamo consapevoli dei problemi ma dobbiamo concentrarci sui modi in cui potremmo utilizzare queste tecnologie. Tornando all’esempio della sanità: se l’AI migliora la diagnostica del servizio sanitario nazionale, io sono contento.

Venendo invece al giornalismo, quali pensa possano essere i vantaggi legati all’utilizzo dell’AI?
Posso dirti come lo uso io. Utilizzo ChatGPT per fare brainstorming quando devo scrivere un articolo. Parto da qualcosa che conosco già e guido la macchina dicendo cosa voglio scrivere, creo una scaletta e chiedo se manca qualcosa. Poi uso la macchina per fare una lettura approfondita del testo, lo inserisco e chiedo se ci sono salti logici. Essendo basate anche sulla statistica, le macchine sono molto capaci di rilevare eventuali incongruenze. Poi la uso per semplificare determinate frasi, per correggere refusi. La uso anche per riassunti, per bullet point, abstract, thread su Twitter e revisioni per Facebook e LinkedIn. Tutte le attività noiose di elaborazione e semplificazione le affido alla macchina con una cautela: nulla di ciò che produce ChatGPT esce senza il mio controllo umano. È un ritorno al ruolo dell’editor. Mi chiedono: risparmio realmente tempo? Assolutamente sì, perché se ho già compiuto uno sforzo intellettuale in precedenza, la macchina mi consente di non doverlo replicare ogni volta. Ciò che non si dovrebbe fare è affidarsi completamente alla macchina per scrivere un pezzo da zero. In quel caso non funziona, ci sono problemi di “allucinazioni”. Ma se lo usi per argomenti di cui sei già esperto, l’AI ti dà dei super poteri.

Sempre parlando di giornalismo, ritiene che sia necessario elaborare delle regole deontologiche ad hoc per l’AI?
Allora, da un lato, non ne posso più dell’ennesimo codice deontologico: quando è stato redatto il codice unico ero felicissimo. Ovviamente è una battuta, dobbiamo porci dei problemi e i problemi cambiano. C’è stato un periodo in cui avevamo non so quante carte da tenere a mente. Sarebbe già un successo vedere rispettato il codice unico, cosa che non vedo, con o senza AI. Basta pensare all’accortezza da seguire quando ci occupiamo di suicidi e non lo facciamo mai, o quando scriviamo di persone in situazioni complesse come i richiedenti asilo, cosa che raramente vediamo. A SlowNews ci siamo posti il problema e messo online una nostra AI policy, in cui spieghiamo come usiamo oggi le AI generative e forniamo anche un Google Doc per chi vuole collaborare con osservazioni e suggerimenti.

E quali sono le regole che vi siete dati?
Intanto quella di non pubblicare mai un testo generato direttamente da AI, mai un testo rielaborato da un’AI senza una verifica umana. Abbiamo scelto di utilizzare l’intelligenza artificiale generativa come un assistente. Ogni tanto la impieghiamo per illustrare gli articoli, ma senza produrre contenuti fotorealistici o videorealistici, perché pensiamo che ciò presenti una serie di problemi. Mi riferisco a cose come l’immagine del papa con il piumino. A costo di essere pedanti, se proprio vuoi mettere una foto del genere, devi scrivere in modo evidente che è un’immagine falsa generata da AI. Mi pongo troppi problemi? In un’era in cui dobbiamo cominciare a dubitare di ciò che vediamo, è importante essere chiari con i lettori.

Tornando alla deontologia?
Noi giornalisti abbiamo un dovere, che è di seguire il metodo della verifica. Se ci sforzassimo di non pubblicare qualcosa che non è stato verificato, non dovremmo preoccuparci del codice deontologico dell’AI. Invece un virgolettato in cui qualcuno dichiara qualcosa diventa sufficiente per pubblicare. Lo abbiamo visto anche sul New York Times dopo l’esplosione all’ospedale di Gaza. Si sono scusati, ma dopo 12 giorni non c’è ancora stata una ricostruzione completa. Infine c’è il grande tema della trasparenza, per questo abbiamo creato una policy. Non mi preoccupa molto dire che un testo è stato prodotto o meno con AI. Temo che diventerà una battaglia di retroguardia, come dichiarare se una foto ha dei filtri o è stata modificata.

Uscendo invece dal campo del giornalismo, quali devono essere le regole entro cui iscrivere l’utilizzo dell’AI?
Io credo che l’AI Act europeo compia un passo molto positivo, che consiste nel regolare gli usi e non la tecnologia. Questo approccio garantisce che la legge non diventi obsoleta dopo pochi mesi. Sono però sempre preoccupato della possibile creazione di cittadini di serie A e serie B. Faccio un esempio: la norma vieta il riconoscimento facciale in tempo reale, però non lo viete ai confini dell’Unione europea. Devo aggiungere che mi piace moltissimo l’approccio giapponese, dove si lavora a una proposta di regolamentazione fin dal 2019 e hanno identificato 7 principi chiave, il primo dei quali è il principio umano-centrico: le tecnologie non devono violare i diritti fondamentali delle persone e devono essere sviluppate per espandere le capacità delle persone, garantendo il benessere a tutti. A margine, mi viene da dire che oltre a regolamentarne gli usi, dovremmo anche chiederci quali settori non dovrebbero essere influenzati dall’AI. È una domanda che non ci siamo posti.

Cosa pensi del fatto che alcune delle voci più millenaristiche rispetto all’avvento dell’AI vengano da chi ha lavorato per svilupparla?
Ho ascoltato il podcast che il New York Times ha dedicato a Geoffrey Hinton (considerato uno dei pionieri dell’intelligenza artificiale, ndr). Hinton esprime preoccupazione riguardo alle armi che incorporano queste tecnologie, come i droni che prendono decisioni in modo autonomo. Tuttavia, bisogna ricordare che siamo ancora noi, gli esseri umani, a controllare e decidere. Da un lato, alcune delle preoccupazioni riguardo all’AI sono state esagerate o male interpretate perché creare allarmismo fa vendere. Poi ci sono figure come Elon Musk, che chiedono moratorie sull’AI, suggerendo che potremmo affrontare scenari catastrofici. Ma a volte mi chiedo se non stiano contribuendo a creare un’atmosfera di “hype” intorno alle macchine per i propri interessi. Dal punto di vista europeo, auspicherei un approccio più equilibrato e cauto verso questi allarmismi. Ciò che davvero preoccupa è l’aspetto sociale: ci saranno posti di lavoro che spariranno a causa dell’automazione e dell’AI. Lo abbiamo già visto accadere in alcuni settori e temo che ciò si verifichi rapidamente anche in settori che non sono preparati. Tornando al giornalismo, molti colleghi temono che le macchine possano scrivere articoli semplici, ma il problema degli articoli pagati pochissimo esiste da molto prima dell’arrivo dell’AI. Parte del dibattito mi sembra offuscata da visioni quasi “apocalittiche” e ciò mi infastidisce perché oscura le reali sfide che dobbiamo affrontare.

Venticinque anni fa il giornalismo, soprattutto quello italiano, non comprese cosa sarebbe successo con l’avvento del digitale. Temi che stiamo correndo lo stesso rischio?
Ne sono sicuro al 100%. Gli editori potrebbero domandarsi: “Perché dovrei pagare una persona per scrivere un articolo in 10 punti quando una macchina può farlo?”. Dall’altra parte, molti giornalisti si spaventeranno e cercheranno di proteggersi, mettendo in atto delle resistenze. Sono certo al 100% che stiamo già commettendo questo errore. Io sto cercando di introdurre altri punti di vista. Il libro mio e di Mafe è un tentativo di presentare diverse micro-idee su come utilizzare le macchine in modi alternativi, evitando l’atteggiamento reazionario e retrogrado che il giornalismo, certo con qualche eccezione, ha mostrato verso il digitale. Prevedo anche una diffidenza sfrontata verso queste macchine, come se potessero essere la soluzione a tutti i problemi, proprio come è successo in passato con la SEO e i social media. Dopo 25 anni di errori, sarebbe imperdonabile ripeterli, ma temo che siamo già su quella strada.

Organizzato da

Con il supporto di

Main Sponsor

Sponsor

Patrocinio di

In collaborazione con

un ringraziamento a