Intelligenza artificiale: il dibattito sui rischi COSMO italiano 08.05.2023 19:54 Min. Verfügbar bis 07.05.2024 COSMO Von Filippo Proietti


Download Podcast

Intelligenza artificiale: il dibattito sui rischi

Stand: 08.05.2023, 17:04 Uhr

a cura di Filippo Proietti, Giulio Galoppo e Cristiano Cruciani

Da settimane ormai si discute molto di intelligenza artificiale (IA). Il dibattito sociale è stato acceso dal lancio del software ChatGPT. L'IA è senza dubbio una delle tecnologie più innovative e promettenti degli ultimi decenni e solleva proprio per questo alcune preoccupazioni. Renderà superfluo il lavoro degli esseri umani? Ce ne ha parlato Giulio Galoppo. In Italia, ChatGPT ha riaperto dopo che il Garante per la protezione dei dati personali ne aveva ordinato il blocco lo scorso 30 marzo. Cosa è cambiato? Ce lo rivela Luca Zorloni, giornalista della rivista online Wired. Del mondo che si cela dietro all’IA parliamo, invece, con un cosiddetto “Cleaner”.

Deutscher Ethikrat zum Thema Mensch und Maschine und Künstliche Intelligenz

Il Consiglio etico tedesco pone limiti severi all'Intelligenza Artificiale

IA e mondo del lavoro

Il mondo del lavoro cambierà e probabilmente alcune figure professionali potranno essere sostituite dalla tecnologia, ma nasceranno nuove professioni, quindi l’essere umano non diventerà superfluo nel mondo del lavoro. L’IA ha fatto passi da gigante negli ultimi anni e influenza già molti aspetti della nostra vita. I sistemi di IA sono sempre più utilizzati in settori quali la medicina, i trasporti e l'industria e hanno sicuramente il potenziale per rendere le nostre vite più semplici ed efficienti e, potenzialmente, potrebbero effettivamente sostituire parte del lavoro umano.

I pericoli maggiori legati all’IA: perdita di controllo

L'IA potrebbe sfuggire al controllo umano. I sistemi di IA imparano e migliorano grazie all'apprendimento automatico e diventano più intelligenti nel tempo. Tuttavia, se non adeguatamente programmati o monitorati, potrebbero produrre risultati imprevisti o addirittura causare danni. Ad esempio, i veicoli autonomi controllati da sistemi di intelligenza artificiale potrebbero prendere decisioni sbagliate in situazioni pericolose e causare incidenti.

Sostituzione del lavoro umano

Come accennavamo poco fa, potenzialmente, l’IA potrebbe sostituire il lavoro umano. Sistemi di IA vengono già utilizzati in molti settori per automatizzare le attività ripetitive e aumentare l'efficienza.

Se da un lato questo può essere vantaggioso per le aziende, dall'altro molte funzioni svolte da persone potrebbero venire meno. Questo potrebbe portare a un aumento della disoccupazione e delle disuguaglianze sociali. Tra i lavori che, per esempio, ChatGPT considera potenzialmente a rischio ci sono programmatori, copywriter, analisti, addetti al servizio clienti. Mentre, sempre secondo ChatGPT, non potranno mai essere sostituiti dall'intelligenza artificiale attori, insegnanti o psicologi.

E il giornalismo?

A Girl Glowing Earrings

Immagine creata con l'ausilio dell'intelligenza artificiale.

È legittimo chiederselo. La qualità dei testi che un software linguistico come ChatGPT è in grado di produrre ci inducono a porci questo e altri quesiti. L’IA può essere un'opportunità, però, per i media, può creare testi, immagini, musica e video e semplificare il lavoro, accelerare i processi o ridurre i costi. C’è chi pensa che i grandi modelli linguistici come ChatGPT, rivoluzioneranno completamente il giornalismo. In realtà, l'impatto dell'IA sul giornalismo sarà più sottile. Varierà a seconda dell'applicazione specifica e del contesto in cui viene utilizzata, cioè: si vogliono dare solo informazioni, o interpretare, commentare? Ciò che sicuramente ci distinguerà sempre dai computer e dalle macchine è la capacità di porre buone domande, in grado di mettere in discussione risposte comuni. Una buona domanda non può essere prevista. Si tratta di capire quali siano i limiti dell’IA e dove saremo chiamati ad assumerci maggiore responsabilità per le nostre azioni. La responsabilità delle conseguenze dell'intelligenza artificiale è di noi umani, non delle macchine.

L’aspetto etico

Esiste sicuramente il pericolo che i sistemi di IA possano essere utilizzati in modo improprio, non etico, come il monitoraggio delle persone o la creazione di contenuti falsi – e qui la figura di noi giornalisti sarà fondamentale per far chiarezza e identificare tali contenuti. Se questi sistemi finiscono nelle mani sbagliate, potrebbero essere utilizzati anche per scopi criminali o terroristici.

L’IA non ha la capacità di esprimere giudizi morali. Le decisioni prese solo sulla base di fatti concreti potrebbero mettere in secondo piano i bisogni umani, con un impatto negativo sulla vita di molti.

La dichiarazione del Deutscher Ethikrat (Consiglio etico tedesco)

Il Consiglio etico tedesco si è espresso a favore di limiti severi all'uso dell’IA. Le sue applicazioni non possono sostituire l'intelligenza umana, la responsabilità e la valutazione. L’obiettivo dell’utilizzo dell'IA deve essere l’espansione dello sviluppo umano e non la sua riduzione, non può e non deve sostituire gli esseri umani. I sistemi software non dispongono della ragione, non agiscono da soli e quindi non possono assumersi responsabilità, si legge nella dichiarazione, alla quale il Consiglio etico ha lavorato per ben due anni e che individua quattro aree di applicazione: medicina, educazione scolastica, comunicazione pubblica e formazione di opinioni e pubblica amministrazione.

ChatGPT in Italia

Chat GPT ha creato scompiglio anche in Italia. Tanto che è stato il primo paese in cui è intervenuta un'autorità per bloccarla. Il Garante per la protezione dei dati personali ha bloccato il 30 marzo scorso il chatbot anche in seguito a una grave perdita di dati personali avvenuta qualche giorno prima. Circa un mese dopo ChatGPT ha riaperto in Italia ma dopo aver introdotto dei miglioramenti. È quanto riferisce Luca Zorloni, giornalista della rivista online Wired.

IA dietro le quinte

Il mondo dell’IA è un mondo dietro al quale lavorano milioni di persone, spesso sottopagate. Ed è un mondo di cui fanno parte anche social media come Facebook.

Ogni post offensivo, ogni immagine hard, ogni frase fuori dai ranghi viene segnalata e analizzata da qualcuno, che in molti casi la cancella, la censura. Un lavoro che serve ad addestrare appunto l’IA a riconoscere automaticamente quello che non deve essere postato. Chi fa questo lavoro, però, è sottoposto per molte ore al giorno a contenuti traumatici. A COSMO Italiano ci racconta tutto questo un cosiddetto “cleaner”, un pulitore che lavora alla Tellus International, azienda che si occupa di moderazione di contenuti anche per grandi compagnie, come Meta. Omar, nome fittizio per motivi di sicurezza, ci ha svelato i retroscena dell’IA.