L’accordo politico raggiunto il 7 Dicembre 2023 tra Parlamento e Consiglio UE sull’Artificial Intelligence Act è il frutto di un negoziato complesso, durato oltre un anno. Il testo finale, che dovrà essere formalmente approvato dalle due istituzioni prima di entrare in vigore non prima del 2024, delinea un quadro normativo senza precedenti per l’intelligenza artificiale.

Uno degli aspetti cruciali dell’intesa raggiunta tra Parlamento e Consiglio è l’introduzione di divieti mirati per alcuni utilizzi considerati troppo rischiosi e contrari ai valori e diritti fondamentali europei. 

In particolare, è stato convenuto di vietare interamente i sistemi di identificazione biometrica remota in tempo reale negli spazi pubblicamente accessibili, come il riconoscimento facciale di massa. Queste tecnologie, se impiegate per una sorveglianza generalizzata, avrebbero potuto portare a gravi forme di controllo sociale lesive di libertà e diritti individuali.

Analogo divieto per i cosiddetti sistemi di social scoring, volti a classificare i cittadini sulla base del loro comportamento sociale attraverso la raccolta e l’analisi di dati personali. Anche questa pratica è stata ritenuta incompatibile con i valori democratici e di non discriminazione.

Sono inoltre vietati i sistemi di AI destinati a sfruttare le vulnerabilità di determinate categorie di persone, ad esempio minori, anziani o disabili, per indurre comportamenti potenzialmente dannosi. Un chiaro no anche all’uso dell’AI per manipolare materialmente o psicologicamente gli esseri umani, aggirando la loro libera volontà.

Infine, è stato posto un divieto sui sistemi di categorizzazione biometrica che utilizzano o generano dati sensibili, come orientamento politico, religioso o sessuale, origine razziale o etnica. Questi sistemi avrebbero potuto amplificare forme di discriminazione sistemica.

L’introduzione di questi divieti assoluti è stata una vittoria per il Parlamento europeo, che ha lottato per limitare rigidamente gli utilizzi più problematici e pericolosi dell’AI. Un segnale chiaro della volontà di anteporre la tutela di diritti e libertà individuali allo sviluppo tecnologico fine a se stesso.

Oltre ai divieti già menzionati, il Regolamento pone rigidi limiti anche all’utilizzo di sistemi biometrici di identificazione remota da parte delle forze dell’ordine, concedendo eccezioni molto circoscritte. 

L’uso di tali sistemi nello spazio pubblico è consentito solo previa autorizzazione giudiziaria e limitatamente alla ricerca mirata di persone già condannate o sospettate di crimini gravi.

I sistemi biometrici in tempo reale potranno essere impiegati dalla polizia soltanto in presenza di rigorose condizioni, per periodi e aree delimitate, e per finalità specifiche come ricerche mirate di vittime di rapimento, tratta o sfruttamento sessuale prevenzione di minacce terroristiche concrete e immediate, localizzazione o identificazione di sospetti per reati gravi (terrorismo, tratta di esseri umani, sfruttamento sessuale, omicidio, rapimento, stupro, rapina a mano armata, criminalità organizzata, crimini ambientali).

Si tratta di eccezioni molto circoscritte e regolamentate, che confermano la ferma intenzione del legislatore europeo di vietare l’utilizzo pervasivo e indiscriminato di sistemi biometrici invasivi della privacy dei cittadini. Anche le forze dell’ordine dovranno giustificare caso per caso il ricorso a tali tecnologie, nel rispetto dei diritti fondamentali.

Torniamo quindi a riepilogare la struttura e l’impianto giuridico del Regolamento. L’AI Act introduce una classificazione dei sistemi di AI in tre categorie a seconda del livello di rischio: trascurabile, limitato, alto. Per ciascuna categoria sono previsti requisiti ad hoc di natura tecnica e procedurale. 

A seguito dell’accordo di ieri, per i sistemi di intelligenza artificiale classificati come ad alto rischio, data la loro potenziale capacità di arrecare danni significativi a salute, sicurezza, diritti fondamentali, ambiente, democrazia e stato di diritto, il Regolamento stabilisce chiari obblighi che i fornitori dovranno rispettare.

Il Parlamento Europeo è riuscito ad ottenere l’inclusione di una valutazione d’impatto obbligatoria sui diritti fondamentali, oltre ad altri rigorosi requisiti, applicabili anche a banche e compagnie assicurative che utilizzano sistemi di IA ad alto rischio. Tale modifica ricalca la valutazione di impatto privacy – DPIA – Art 35 del GDPR.

Anche i sistemi di IA impiegati per influenzare l’esito di elezioni e il comportamento degli elettori rientrano nella categoria ad alto pericolo.

I cittadini avranno il diritto di presentare reclami riguardo a sistemi di IA ad alto rischio e di ottenere spiegazioni comprensibili sulle decisioni automatizzate basate su tali sistemi che impattano sui loro diritti e libertà.

Si tratta di tutele fondamentali per evitare abusi e limitare i potenziali effetti negativi di tecnologie invasive ma difficilmente scrutinabili, soprattutto in ambiti delicati come servizi essenziali, applicazione della legge, rischio di manipolazione politica. Il Regolamento pone chiare responsabilità in capo a chi sviluppa e implementa sistemi di IA ad alto impatto sociale.

Di particolare rilevanza l’introduzione di un vero e proprio diritto di reclamo e spiegazione comprensibile per gli utilizzatori finali in caso di decisioni automatizzate basate su sistemi ad alto rischio. Obblighi specifici anche per banche, assicurazioni e marketplace online.

Per l’AI cosiddetta generale, anch’essa destinata a diffondersi capillarmente, sono previsti obblighi di trasparenza: i fornitori dovranno fornire informazioni dettagliate sulla capacità del sistema, sul training set utilizzato, sulla metodologia. Requisiti più stringenti per i sistemi ad alto impatto, che potrebbero propagare effetti negativi nella società.

Sul fronte della governance, la supervisione spetterà ad autorità nazionali coordinate dalla Commissione. Previste ispezioni e sanzioni fino al 6% del fatturato per violazioni gravi. Misure ad hoc per facilitare l’innovazione responsabile, come le sandbox (ambienti controllati di sperimentazione per l’intelligenza artificiale).

Soprattutto, la partita decisiva si gioca sul piano culturale. Serve un cambio di paradigma che ponga nettamente l’uomo al centro dell’innovazione tecnologica e non si limiti a mitigarne i numerosi e preoccupanti effetti collaterali. Su questo l’Europa sembra candidata ad esercitare una sorta di leadership etica. Il Regolamento è solo un primo passo verso la costruzione di un’AI realmente antropocentrica.

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *

it_ITItalian