Live hören
Jetzt läuft: AMAPIANO von Youssoupha

L'Europa regolamenta l'uso dell'intelligenza artificiale COSMO italiano 22.03.2024 20:01 Min. Verfügbar bis 22.03.2025 COSMO Von Filippo Proietti


Download Podcast

L'Europa regolamenta l'uso dell'intelligenza artificiale

Stand: 22.03.2024, 18:00 Uhr

a cura di Filippo Proietti, Giulio Galoppo e Cristiano Cruciani

Via libera del Parlamento europeo all'Artificial Intelligence Act, si tratta della prima regolamentazione su vasta scala dell'uso dell'intelligenza artificiale, i dettagli da Giulio Galoppo. Per una valutazione critica di questa serie di nuove regole abbiamo raggiunto Luca Zorloni, giornalista di Wired.it.

EU KI-Regulierung

L'Artificial Intelligence Act

Si tratta davvero della prima serie completa di regole al mondo per un uso controllato dell'intelligenza artificiale. La legge si basa su una proposta presentata dalla Commissione europea nel 2021 e serve a trovare un equilibrio tra la gestione del rischio e la promozione dell'innovazione. Classifica, infatti, le applicazioni di IA in diverse classi di rischio. I sistemi considerati particolarmente a rischio e utilizzati, ad esempio, nell'istruzione o nell'assistenza sanitaria devono soddisfare parametri rigorosi. Tanto maggiori sono i pericoli potenziali di un'applicazione, tanto più severi dovranno essere i parametri legali da rispettare. I modelli di base devono soddisfare standard minimi come la trasparenza dei dati raccolti. Laddove si temono rischi sistemici, si applicano parametri ancora più severi.

Applicazioni classificate come "ad alto rischio"

Si tratta di programmi che limitano i diritti civili, influenzano il comportamento umano o limitano il libero arbitrio, oltre a quelli che valutano il comportamento sociale.

Per l'uso dell'intelligenza artificiale nelle autorità addette alla sicurezza, come per esempio l'esercito o la polizia, la legge identifica generalmente un "rischio elevato" di violazione dei diritti umani. Lo stesso vale per le applicazioni nella gestione delle risorse umane. Le applicazioni ad alto rischio comprendono anche i sistemi che possono, per esempio, influenzare le elezioni. In questi casi, un essere umano dovrebbe quindi avere il controllo finale sulle decisioni dell'IA.

Divieto completo dell'uso dell'IA

Alcune applicazioni di IA che violano i valori dell'UE devono essere completamente vietate. Saranno, quindi, vietati i sistemi di intelligenza artificiale che classificano le persone in diverse categorie sulla base di criteri quali le opinioni politiche e religiose, l'orientamento sessuale o il colore della pelle. Saranno inoltre vietati i cosiddetti "sistemi di credito sociale", creati e usati in Cina al fine di sviluppare un sistema nazionale per classificare la reputazione dei propri cittadini sulla base di comportamenti o caratteristiche personali, praticamente un sistema di sorveglianza di massa. La tecnologia non può nemmeno essere utilizzata per influenzare le persone contro la loro volontà.

Le tecnologie di riconoscimento facciale

Anche il riconoscimento facciale nei luoghi pubblici, ad esempio attraverso la videosorveglianza, non dovrebbe essere consentito in linea di principio. Tuttavia, ci sono delle eccezioni: la polizia e le altre autorità di sicurezza dovrebbero essere autorizzate a ricorrere al riconoscimento facciale negli spazi pubblici per perseguire alcuni reati come il traffico di esseri umani, la violenza sessuale o il terrorismo.

Secondo la legge sull'IA, però, le informazioni biometriche non possono essere combinate con informazioni sulle opinioni politiche o religiose di una persona. È inoltre vietato far analizzare i volti alla ricerca di emozioni sul posto di lavoro. Chi sviluppa questo tipo di tecnologia, deve, inoltre, sempre indicare chiaramente che i testi, le immagini e i suoni creati dall'intelligenza artificiale sono basati su questa tecnologia. Ciò vale anche per i post su piattaforme online come Facebook, Instagram o X. Tuttavia, secondo gli esperti, questo è difficile da verificare nella pratica.

La reazione alla legge da parte del settore coinvolto nella produzione delle tecnologie di IA

Le associazioni industriali temono che le nuove regole creino ostacoli eccessivi allo sviluppo di nuove applicazioni di intelligenza artificiale. La Federazione delle industrie tedesche (BDI) ha avvertito che le aziende europee potrebbero essere svantaggiate nella competizione con i rivali statunitensi e cinesi.

Sanzioni possibili

Juristen Sitzung KI im EU-Parlament

Il parlamento europeo approva le nuove regole sull'IA

Le violazioni delle regole possono essere sanzionate con pesanti multe. La Commissione UE può richiedere pagamenti fino a 35 milioni di euro o il sette per cento del fatturato annuo globale di un'azienda per l'uso di una tecnologia vietata.

I nuovi regolamenti si applicheranno a partire dalla primavera del 2026. Fino ad allora, la Commissione si affida ad accordi volontari con le aziende. Tuttavia, i critici temono che i regolamenti dell'UE possano essere nuovamente obsoleti, superati tra due anni.

Le sfide a cui l'IA pone davanti

Per il giornalista di Wired Italia Luca Zorloni, il problema principale è la scarsa conoscenza, da parte della società, della tecnologia che sta alla base dell'IA. Zorloni cita l'esempio dell'IA generativa, come ChatGPT, che ha allarmato tantissimi a causa della possibilità di produrre testi e immagini false. Ma il problema, ribadisce Zorloni, è aggirabile attraverso percorsi di formazione che indichino come governare questa nuova tecnologia, a partire proprio dalla scuola. Di altra natura è, invece, un problema contestuale, legato all'anno in corso, anno di elezioni, da quelle europee a quelle negli Stati Uniti d'America. Zorloni fa notare che, in questo caso, il rischio di compromettere le elezioni è un rischio reale, In questo caso, è fondamentale educare gli elettori velocemente a saper distinguere contenuti veri da quelli che, invece, sono falsi e creati attraverso l'IA.