Intelligenza Artificiale, arrivano le regole del Parlamento Europeo: vietato il riconoscimento facciale in luoghi pubblici

Con il voto all’AiAct, il Parlamento europeo ha stabilito nuove regole per l’Intelligenza Artificiale, dal riconoscimento facciale ai modelli generativi di contenuti

Il Parlamento europeo ha dato il via libera all’AiAct, il documento che stabilisce per la prima volta le nuove regole europee per l’Intelligenza Artificiale. Il punto che ha fatto più scalpore è stato il voto dell’Eurocamera per il divieto totale di uso delle tecnologie IA per il riconoscimento facciale nei luoghi pubblici negli Stati dell’Ue.

Il tema da tempo è divisivo e la messa al bando era stata chiesta da Socialisti, Verdi e Liberali. Ora questa è diventata realtà grazie all’approvazione di tale atto da parte delle commissioni Giustizia e Mercato interno, con 58 voti a favore, 36 contrari e 10 astenuti.

Le tesi di chi è favorevole e di chi è contrario

Ma cerchiamo di capirne di più in merito all’obiettivo del provvedimento in questione che, in realtà, è molto più ampio. Si punta in tal modo a garantire uno sviluppo etico dell’Intelligenza Artificiale tra gli Stati Membri. Ciò avverrà attraverso nuove regole di trasparenza e di gestione del rischio.

I deputati che si sono fatti promotori del testo vogliono far sì che i sistemi di Intelligenza Artificiale siano supervisionati da persone formate. Si mira a garantire che siano sicuri, trasparenti, non discriminatori, tracciabili ed anche rispettosi per l’ambiente che ci circonda. Infine si richiede una definizione uniforme per l’IA che dovrà essere progettata per essere neutrale dal punto di vista tecnologico.

Come detto, il Parlamento si è spaccato su questo tema. Da una parte c’erano le tesi di chi è contrario al riconoscimento facciale da parte di Intelligenze Artificiali, sostenendo che si tratti di sistemi di sorveglianza totale e che si debba urgentemente dibattere sull’influenza che l’IA sta avendo sulle nostre vite. Chi è favorevole, invece, ritiene che lo sviluppo di questo sistemi possa prevenire crimini e salvaguardare la sicurezza nazionale.

Insomma, la rivoluzione ormai sta arrivando ed è sotto gli occhi di tutti ma tanti credono che debba essere controllata e seguire delle regole per evitare una pericolosa deriva. L’Unione Europea è la prima a provare a fare qualcosa in tal senso, indicando alla Commissione le linee guida da seguire nello sviluppo dell’Intelligenza Artificiale.

Anche i modelli generativi di contenuti sono finiti sotto torchio

Parlavamo però di un tema più esteso rispetto al mero riconoscimento facciale. Ci si è infatti concentrati anche sui modelli generativi di contenuti (che tutti conosciamo ormai come Chat Gpt) che d’ora in poi dovranno rispettare requisiti di trasparenza.

In che modo? Dovranno rivelare che il contenuto è stato generato dall’Intelligenza Artificiale, nonché progettare il modello per impedire che dia il via a contenuti illegali. Altresì andranno riepilogati i dati protetti da copyright utilizzati per la formazione.

Inoltre i sistemi di intelligenza artificiale considerati con livello di rischio inaccettabile per le persone dovranno essere banditi. Si tratta ad esempio di quelli che impiegano tecniche subliminali o intenzionalmente manipolative o che vengono usati per attribuire un punteggio sociale, cioè per classificare gli individui in base al loro stato socio-economico e al loro comportamento.

Infine è stata ampliata la classificazione delle aree ad alto rischio per includere i danni alla salute, alla sicurezza, ai diritti fondamentali o all’ambiente delle persone. Sono stati così aggiunti all’elenco ad alto rischio i sistemi di intelligenza artificiale che vanno ad influenzare gli elettori nelle campagne politiche e nei sistemi di raccomandazione delle piattaforme di social media.

Seguici su Telegram Instagram | Facebook TikTok Youtube

Fonte: Unione Europea

Ti potrebbe interessare anche: 

Condividi su Whatsapp Condividi su Linkedin
Iscriviti alla newsletter settimanale
Seguici su Facebook