Errori e responsabilità nell’intelligenza artificiale

Responsabilità intelligenza artificiale

Condividi:

Condividi su facebook
Condividi su twitter
Condividi su linkedin
Condividi su whatsapp
Condividi su telegram

Ormai ogni giorno celebriamo i successi dell’intelligenza artificiale: che si tratti di un sistema in grado di rilevare delle frodi, di una rete neurale che permette di ricostruire delle proteine o di un assistente virtuale. Ma di chi è la responsabilità in caso di errore di un’intelligenza artificiale?

E non ci stiamo riferendo al sistema di raccomandazione di Netflix che ci consiglia un film che non è di nostro gradimento.

Pensiamo ad esempio ad un sistema di sicurezza basato su riconoscimento facciale che non identifica una persona pericolosa.

Fin da subito ci rendiamo conto che la questione è spinosa: in primis, bisogna partire dal presupposto che questi sistemi imparano dai dati e non saranno mai perfetti, dunque il rischio di errore è sempre presente.

Banalmente, quando è una persona in carne ed ossa a sbagliare, ad esempio nel proprio lavoro, sappiamo bene a chi attribuire la responsabilità.

Ma come si attribuisce la responsabilità di un errore di un’intelligenza artificiale? Cerchiamo di scoprirlo in questo articolo.

La legge e la responsabilità nell’intelligenza artificiale

Abbiamo capito che un’intelligenza artificiale può commettere degli errori e che le probabilità che questi errori causino dei danni a persone o cose, a seconda dei casi, è più o meno elevata.

Siccome il progresso tecnologico degli ultimi anni ha avuto una crescita repentina, la legge non è riuscita e seguire il passo di questa evoluzione.

Dunque non esistono ad oggi leggi specifiche che possano attribuire chiaramente eventuali responsabilità.

Nel contesto europeo si sente l’esigenza di regolamentare maggiormente l’intelligenza artificiale.

E proprio in quest’ottica, il 19 febbraio del 2020, la Commissione Europea ha pubblicato il “Libro Bianco sull’intelligenza artificiale”.

Con questo documento, la Commissione Europea ha manifestato la volontà di promuovere, migliorare e favorire l’utilizzo di questa tecnologia, ponendo l’accento sulla necessità di creare regolamenti specifici.

Nella sezione dedicata al quadro normativo per l’intelligenza artificiale, emergono i punti principali che devono essere tenuti in considerazione nello sviluppo legislativo:

  • Intervento e sorveglianza umani;
  • Robustezza tecnica e sicurezza;
  • Riservatezza e governance dei dati;
  • Trasparenza;
  • Diversità, non discriminazione ed equità;
  • Benessere sociale e ambientale;
  • Accountability.

Ed è proprio l’ultimo punto, l’accountability, traducibile in responsabilità, che rende la questione molto complessa.

La situazione attuale in tema di responsabilità e diritti

Il parlamento europeo ha esaminato attentamente la responsabilità in tema di sistemi di intelligenza artificiale: nel luglio del 2020 è stato pubblicato il “Artificial Intelligence and Civil Liability”.

In questo studio si è valutata l’applicabilità delle direttive europee sulla sicurezza dei prodotti e sulla responsabilità per danno da prodotti difettosi.

Ciò che emerge è che l’operato dei sistemi di intelligenza artificiale sembra sempre essere riconducibile ad un privato o ad una società.

Diventa però difficile individuare singoli soggetti: infatti nel funzionamento di questi sistemi sono coinvolti molti attori, tra privati e società.


Inoltre è importante stabilire dei criteri precisi per attribuire eventuali responsabilità per il malfunzionamento di questa tecnologia.

Risulta anche opportuno determinare quando è presente un difetto di funzionamento.

Infatti, per dare origine ad una responsabilità, il prodotto deve avere il difetto prima della messa in circolazione nel mercato.

Ma i sistemi di intelligenza artificiale sono in continuo sviluppo, talvolta anche a prescindere dall’intervento umano.

Essi si evolvono apprendendo dai dati e possono cambiare dopo il momento della loro commercializzazione.

Di conseguenza un difetto può manifestarsi anche in un momento successivo alla messa in circolazione.

Cosa ci riserverà il futuro?

In questo breve articolo ci siamo resi conto di quanto un prodotto basato sull’intelligenza artificiale sia profondamente diverso dai prodotti classici.

Per quanto sia possibile attribuire la responsabilità di un errore di un’intelligenza artificiale ad una società, un team o un soggetto privato, le persone coinvolte sarebbero molte.

In futuro vi saranno sicuramente leggi specifiche sia per tutelare i consumatori, ma anche per responsabilizzare o deresponsabilizzare i soggetti che si occupano dello sviluppo di questi sistemi.

Dato per scontato che l’utilizzo dell’intelligenza artificiale aumenterà ulteriormente con il passare degli anni, è logico aspettarsi che l’Europa si adeguerà a questi cambiamenti tecnologici anche da un punto di vista legislativo.

Condividi su facebook
Condividi su twitter
Condividi su linkedin
Condividi su whatsapp
Condividi su telegram
Edoardo Di Toma

Edoardo Di Toma

Junior Data Scientist in Vedrai S.p.A. e laureato in Management e Finanza. Ho completato il master in Data Science e Intelligenza Artificiale di Talent Garden Innovation School. Oltre che di data science, sono appassionato di musica, boardgames, calcio e tanto altro.

Iscriviti
Notificami
guest
0 Commenti
Inline Feedback
Vedi tutti i commenti
Neuragate