Coded Bias: la responsabilità dell’algoritmo.

di

Federica Gaetani

15.04.2024

5

minuti di lettura

Coded Bias: la responsabilità dell’algoritmo.


Quello dei bias e dei pregiudizi dell’algoritmo è un tema molto attuale e dibattuto, a dimostrazione di ciò i primi di Aprile è uscito un nuovo documentario su Netflix – Coded Bias – che tratta temi relativi ad algoritmi e automazione, che essendo prodotti degli esseri umani, possono essere permeati di pregiudizi e portare l’AI a mostrare dei bias.

Partendo dal presupposto che sono entusiasta delle possibilità tecnologiche attuali e che si prospettano in futuro, va comunque fatta una riflessione su quali siano i limiti e fino a che punto ci si possa affidare al giudizio delle macchine.

Nel documentario Joy Buolamwini, ricercatrice del MIT, ha sperimentato in prima persona il pregiudizio del riconoscimento facciale quando ha scoperto che il software di face recognition che stava usando al MIT Media Lab non riconosceva il suo viso; solo indossando una maschera bianca il software metteva a fuoco il suo volto. Joy Buolamwini ha fatto notare nel suo studio che esistono enormi pregiudizi nei software di riconoscimento facciale e ha dimostrato come anche il mondo apparentemente imparziale della tecnologia sia soggetto al razzismo.

Buolamwini e i colleghi del Mit hanno realizzato un’approfondita valutazione dei principali programmi di riconoscimento facciale: Microsoft, Face++ e IBM. L’importanza di una tecnologia più etica è determinante considerato che ormai l’AI prende decisioni sempre più cruciali soprattutto in settori di alta importanza come la sanità, lavoro, giustizia; avere algoritmi visivi adatti a vari gruppi demografici e fenotipici è fondamentale.

Nel documentario si parla degli algoritmi come dei modelli matematici lungi dall’essere oggettivi e trasparenti e che ormai dominano la nostra quotidianità iperconnessa.

Non si possono separare tecnologia e società. Le macchine replicano il mondo così com’è, non prendono decisioni etiche, prendono decisioni matematiche. Alla base della struttura degli algoritmi non ci sono razzismo o sessismo ma dati, e i dati incorporano il passato, non solo il passato recente ma il passato oscuro; prima degli algoritmi viene l’uomo che può essere molto ingiusto, può discriminare per razza e sesso. Se usiamo modelli di apprendimento che replicano il mondo di oggi, il razzismo viene automatizzato e non faremo nessun progresso sociale.

Esistono algoritmi che alcuni ingegneri di Amazon hanno usato per selezionare i curricula per l’assunzione, prima di aver scoperto che quel sistema rifiutava tutti i curricula femminili e che il programma discriminava le donne.

Questi temi sono molto dibattuti soprattutto nel mondo occidentale, l’Unione Europea si sta occupando dei principi che devono essere tenuti presenti nell’uso delle tecnologie e in attesa di una regolamentazione delle nuove tecnologie, i grandi operatori globali si sono riuniti e hanno dato vita a una carta etica per rendere più umana l'intelligenza artificiale. Si parla quindi di una nuova disciplina, chiamata Algoretica, termine creato dal teologo Paolo Benanti, che ha coordinato il tavolo di lavoro internazionale.

Le problematiche sollevate dalla nuova tecnologia

Le difficoltà che accompagnano la crescente diffusione dei sistemi di Intelligenza artificiale derivano dal fatto che tale innovazione tecnologica, oltre agli evidenti vantaggi che può offrire a privati, professionisti ed imprese in termini di praticità, efficienza e competitività, pone altresì dei problemi in materia di tutela dei diritti.

Ciò deriva da alcune delle loro caratteristiche fondamentali: l’autonomia, intesa come indipendenza dall’azione umana, e la conseguente imprevedibilità. Ed infatti, la loro attività, proprio perché totalmente o largamente svincolata dal controllo dell’uomo, ben potrebbe causare la lesione dei diritti di coloro che vi entrano in contatto.

In tal senso, appaiono emblematici i profili relativi alla responsabilità per i danni causati dai sistemi di Intelligenza artificiale, la disciplina della proprietà intellettuale in materia di IA, nonché il coordinamento tra il Libro Bianco e le norme del GDPR, sui quali le Istituzioni europee hanno concentrato la loro attenzione.
La chiave del funzionamento dei sistemi di intelligenza artificiale è l’apprendimento; la chiave dell’apprendimento, sono gli errori: chi non fa non sbaglia. Ma cosa succede se un sistema di intelligenza artificiale sbaglia? Chi ne risponde, di chi è la responsabilità dell’errore commesso da un sistema di intelligenza artificiale, con o senza il coinvolgimento dell’uomo?

Come spesso, purtroppo, accade, il diritto non procede di pari passo allo sviluppo tecnologico: manca infatti, a tutt’oggi, una normativa specificamente dedicata ai sistemi di intelligenza artificiale e mancano delle regole che forniscano dei criteri chiari di attribuzione della responsabilità per i danni causati dai sistemi intelligenti.

Il libro bianco sull’intelligenza artificiale

Una delle prime, importanti, spinte all’adozione di regole dedicate all’intelligenza artificiale è stata data dalla Commissione europea lo scorso febbraio, con la pubblicazione del Libro bianco sull’intelligenza artificiale (“Libro bianco”), che si inserisce nella più ampia iniziativa A European Strategy for Data.

Al suo interno, la Commissione ha sottolineato come un quadro normativo dedicato all’intelligenza artificiale, oltre a cercare di non eccedere nelle prescrizioni ed evitando, quindi, di risultare sproporzionato, non potrà prescindere da: l’intervento e la sorveglianza dell’uomo; la robustezza tecnica e la sicurezza; regole per la riservatezza e la governance dei dati; la trasparenza; la diversità, la non discriminazione e l’equità.

Il nuovo impianto normativo dovrà, in ogni caso, mettere l’uomo al centro e tenere in debita considerazione non solo il c.d. benessere sociale e ambientale, ma anche l’accountability, ovvero la “responsabilizzazione” dei soggetti coinvolti e la loro responsabilità.

La conclusione raggiunta nelle occasioni di studio è stata che la mancanza di soggettività e di capacità giuridica dei sistemi di intelligenza artificiale non preclude l’attribuzione della responsabilità per i danni imputabili ai sistemi intelligenti: infatti, è sempre possibile ricondurla a una persona fisica o a una persona giuridica. La difficoltà è, semmai, come individuare questa persona fisica o giuridica: da un lato, i soggetti coinvolti nel funzionamento dei sistemi di intelligenza artificiale sono molti; dall’altro lato, occorre definire i criteri per attribuire, o assegnare, la responsabilità.

Si rinviene la difficoltà di applicare la definizione di “prodotto difettoso”.

Il difetto, perché dia origine a responsabilità, deve essere pre-esistente alla messa in circolazione del prodotto. Ma i sistemi di intelligenza artificiale sono aperti, sono in continuo sviluppo (anche in via autonoma, prescindendo cioè dall’intervento umano): raccolgono dati, li elaborano e si evolvono e possono, quindi, cambiare anche radicalmente dopo il momento della loro commercializzazione, anche soltanto a seguito degli aggiornamenti che possono essere rilasciati, con l’ovvia conseguenza che un difetto può manifestarsi anche in un momento successivo alla messa in circolazione.

Parlamento UE per la tutela di pluralismo e diversità

Come annunciato dalla presidente Ursula von der Leyen, la Commissione europea sta preparando una proposta legislativa sull'uso dell'intelligenza artificiale, dando seguito agli impegni già delineati nell'ambito del libro bianco sull'IA.

Si sollecita la Commissione UE a presentare un nuovo quadro giuridico che delinei i principi etici e gli obblighi legali da seguire nello sviluppo, nell'implementazione e nell'utilizzo dell'intelligenza artificiale, della robotica e delle tecnologie correlate nell'UE, compresi software, algoritmi e dati.

Le future leggi dovranno improntarsi a diversi principi, tra cui:

  • • un'intelligenza artificiale antropocentrica e antropogenica;
  • • sicurezza, trasparenza e responsabilità;
  • • garanzie contro distorsioni e discriminazioni;
  • • diritto di ricorso;
  • • responsabilità sociale e ambientale e rispetto della privacy e protezione dei dati.

Inoltre, le tecnologie IA ad alto rischio, come quelle con capacità di auto-apprendimento, dovrebbero essere progettate in modo da consentire la sorveglianza umana in qualsiasi momento. Se viene utilizzata una funzionalità che potrebbe comportare una grave violazione dei principi etici e risultare pericolosa, le capacità di auto-apprendimento dovrebbero essere disabilitate e dovrebbe essere ripristinato il pieno controllo umano.

Gli eurodeputati richiedono un quadro giuridico in materia di responsabilità civile orientato al futuro, che renda gli operatori IA ad alto rischio oggettivamente responsabili dei danni che ne possono derivare. Un quadro giuridico chiaro contribuirà a stimolare l'innovazione fornendo alle imprese la certezza del diritto, proteggendo i cittadini e promuovendo la loro fiducia nelle nuove tecnologie.

Nella relazione, infine, l'Europarlamento chiarisce che la leadership globale dell'UE in materia di IA richiede un sistema efficace di diritti di proprietà intellettuale (DPI) e salvaguardie per far sì che il sistema europeo dei brevetti protegga gli sviluppatori innovativi.

Secondo gli eurodeputati è importante distinguere tra le creazioni umane ottenute con l'assistenza dell'IA e quelle generate autonomamente dall'IA. L'IA non dovrebbe avere personalità giuridica. La proprietà dei DPI dovrebbe essere quindi concessa solo agli esseri umani. 

IA e diritti fondamentali: mettere l'uomo al centro

Il 21 ottobre 2020 il Consiglio ha invece adottato le sue conclusioni sull'IA e la Carta dei diritti fondamentali, sulla base di un approccio umanocentrico.

Dignità, libertà ed uguaglianza sono i principi guida che l'Unione e gli Stati membri devono tenere a mente al fine di delineare il nuovo quadro UE sull'IA, tutelando i diritti dei cittadini in ogni ambito.

In ambito civile, poi, l'aumento dell'uso dei sistemi di IA nei servizi pubblici, specialmente nella sanità e nella giustizia, non dovrebbe sostituire il contatto umano o generare discriminazioni. Quando l'IA viene utilizzata nell’ambito della salute pubblica (ad esempio, chirurgia assistita da robot, protesi intelligenti, medicina preventiva), i dati personali dei pazienti devono essere protetti e il principio della parità di trattamento deve essere rispettato.

Nel settore della giustizia, invece, l'uso delle tecnologie dell'IA può contribuire ad accelerare i procedimenti e a prendere decisioni più razionali, ma le decisioni finali dei tribunali devono essere prese da esseri umani, rigorosamente verificate da una persona, garantendo il diritto ad un giusto processo.


Nuova bozza del regolamento sulla IA della Commissione europea

Nei prossimi giorni la Commissione Europea presenterà il Regolamento sulla IA di cui è trapelata una bozza.  

Due sono i punti chiave. Il primo: alcune tecnologie di IA, considerate pericolosissime, saranno vietate in Europa. E sono quelle per la sorveglianza di massa e quelle usate per manipolare i nostri comportamenti, decisioni e opinioni a nostro danno. Il secondo: ogni azienda dovrà valutare se la propria tecnologia di IA sia ad "alto-rischio". In questo caso prima di adottarla deve sottoporla a una valutazione dell'impatto che questa tecnologia può avere sulla società, sui diritti delle persone. L'Europa immagina anche super-sanzioni per le aziende che violano i divieti: pagheranno fino al 4 per cento del loro fatturato mondiale. Proprio come quelle previste dalla normativa europea Gdpr sulla privacy, che è stato finora faro mondiale, in Europa e altrove, sulla tutela dei diritti nell'era digitale. 

A differenza di quanto previsto dal Gdpr, la Commissione Ue ora propone un divieto assoluto verso alcune applicazioni di AI. Qui sono comprese, dalla Commissione, le applicazioni (commerciali) di sistemi di sorveglianza di massa e sistemi di punteggio sociale (come quelli in vigore in Cina). Sono applicazioni che l'Europa considera inconciliabili con i nostri valori. Qualche eccezione si prevede per la sorveglianza a scopo di pubblica sicurezza. Vietati anche i sistemi di AI "progettati per manipolare il comportamento umano, le decisioni o le opinioni, per un fine dannoso". Idem i sistemi che utilizzano i dati personali per generare previsioni sfruttando e amplificando le vulnerabilità di persone o gruppi sociali.

 

Qualcuno qui potrebbe pensare a quanto fanno le big tech, in particolare a mezzo social, con i nostri dati. La lettera della proposta della Commissione non vieta però ogni tipo di profilazione atta a influenzarci, ma solo una influenza "dannosa" per persone e società. Sarebbe insomma vietata solo una profilazione che - per esempio - arrivi a discriminare gruppi sociali, scoraggiare il voto o disinformare.

La Commissione ha evitato di proporre un divieto sull'uso del riconoscimento facciale con IA nei luoghi pubblici. Qualcosa che pure stava valutando, e che viene chiesto da molte associazioni per i diritti umani e civili, in Europa e Usa, per i gravi rischi connessi a queste applicazioni di IA. Videocamere con riconoscimento facciale - usata da alcune polizie nel mondo, ad esempio a New York - possono attuare il più grande sistema di sorveglianza di massa nella storia dell'umanità.

 

Tuttavia, nella bozza "l'identificazione biometrica a distanza" nei luoghi pubblici (con riconoscimento facciale e non solo) richiederà il regime autorizzatorio più forte, tra quelli previsti per le tecnologie "ad alto rischio". Si legge di "procedure più rigorose di valutazione della conformità attraverso il coinvolgimento di un organismo notificato". Ovvero una "procedura di autorizzazione che affronta i rischi specifici impliciti nell'uso della tecnologia" e che include una valutazione obbligatoria dell'impatto sulla protezione dei dati. "Inoltre l'autorità che autorizza dovrebbe considerare nella sua valutazione la probabilità e la gravità del danno causato dalle imprecisioni di un sistema utilizzato per un determinato scopo, in particolare per quanto riguarda l'età, l'etnia, il sesso o le disabilità", dice la bozza. 

Per il resto, sta alle aziende valutare se l'applicazione di IA è ad alto rischio. Un'autovalutazione che - anche questa - ricalca il Gdpr, con il doppio vantaggio di costringere le aziende ad auto-responsabilizzarsi e di assicurare una maggiore flessibilità alle norme e capacità di adattamento (utile in un ambito a rapida evoluzione, come quello dell'IA). La classificazione di un sistema di intelligenza artificiale come ad alto rischio dovrebbe essere basata sulla sua destinazione d’uso ed essere determinata in due fasi, considerando se può causare determinati danni e, in tal caso, la gravità del danno possibile e la probabilità che si verifichi. Sono escluse dal regolamento le applicazioni militari; un ambito che non rientra nei trattati europei.

Tra gli esempi: sistemi di reclutamento e assunzione personale; sistemi che forniscono l'accesso agli istituti di istruzione o di formazione professionale; servizi di emergenza; valutazione della solvibilità creditizia; i sistemi per l'assegnazione di sussidi pubblici; i sistemi decisionali applicati alla prevenzione, all'individuazione e alla persecuzione del crimine; e i sistemi decisionali utilizzati per assistere i giudici. C'è anche obbligo a riferire "qualsiasi incidente grave o qualsiasi malfunzionamento del sistema IA che costituisce una violazione degli obblighi" a un'autorità di vigilanza entro 15 giorni dopo esserne venuti a conoscenza.


In cambio e a fronte di tutte queste norme, le imprese conformi potranno mostrare un marchio europeo di qualità connesso all'intelligenza artificiale. Gli Stati membri non dovrebbero creare ostacoli all'immissione sul mercato o alla messa in servizio dei sistemi di intelligenza artificiale che sono conformi ai requisiti stabiliti nel presente regolamento. Si tratta di un elemento fondamentale della proposta di Regolamento, in quanto consentirà alle aziende di dimostrare più facilmente la conformità dei sistemi di AI che immettono sul mercato; per una piena attuazione di questo sistema di marcatura CE si dovrà però attendere l'adozione di standard appositi da parte degli enti di normazione quali ISO e CEN.

Lo scopo ultimo del regolamento e della strategia europea sull'IA, del resto, non è solo la tutela dei diritti ma anche lo sviluppo positivo dell'innovazione, con benefici collettivi. Le istituzioni europee, anche nel Gdpr, hanno osservato che questo sviluppo sosterrà economia e benessere ma richiede la conquista della fiducia dei cittadini nei confronti della società digitale. Il rispetto delle norme e, ora, anche questo bollino sono quindi funzionali alla crescita della fiducia (e quindi dell'adozione) verso le tecnologie innovative.

Per crescere e operare al massimo del suo potenziale, l'intelligenza artificiale dovrà riportare però necessariamente i consumatori al centro della progettazione, e alimentare così la costruzione di una economia e una società che devono guardare dritto alla costruzione di un futuro migliore per tutti.

Contribuire a migliorare la fiducia dei consumatori è la strategia giusta per costruire un futuro sempre più digitale, L’Europa si sta dimostrando molto forte e lungimirante in questo campo e potrebbe diventare il punto di riferimento per il resto del mondo.



Iscriviti alla newsletter

Unisciti alle menti principali della tecnologia legale e ricevi mensilmente le ultime notizie e gli aggiornamenti su legge, tecnologia legale, intelligenza artificiale e molto altro.

Grazie! La tua richiesta è stata ricevuta!
Oops! Something went wrong while submitting the form.