laws

LAWS, IA, Big Data e Etica: La guerra di domani

“Non conosco le armi della terza guerra mondiale, ma solo quelle della quarta: sassi e bastoni.” Questo è il pensiero di Einstein in merito al futuro che attende l’umanità in caso di una terza guerra mondiale (LAWS).

Grazie all’uso di IA e all’analisi dei Big data, siamo riusciti a creare algoritmi per diagnosi in campo medico, ma questo non esclude un rovescio della medaglia: i LAWS (Lethal Autonomous Wapons Systems).

Oltre ad informare sulle nuove tecnologie a servizio dell’uomo, dobbiamo conoscere anche il loro opposto, per questo noi di Neuragate abbiamo condotto delle ricerche grazie all’aiuto dell’ istituto IRIAD.

Gradi di autonomia dei LAWS

L’automatizzazione è il futuro che attende non poche tecnologie, prima tra tutte le macchine a guida autonoma.

Esistono diversi livelli di automazione, per le macchine a guida autonoma sono 5, mentre per i laws ne individuiamo 3:

  • human in the loop: l’uomo agisce direttamente sull’arma controllandone i movimenti, le azioni e quindi ha in mano tutta la responsabilità in caso di errori. Più semplicemente parliamo di controllo da remoto.
  • human on the loop: l’arma è autonoma, ma viene costantemente controllata dall’uomo che può bypassare le funzioni della macchina, quindi la responsabilità ultima cade ancora sulle mani dell’uomo.
  • human out the loop: l’uomo non ha più controllo sulla macchina che agisce autonomamente.

Esisto già tipologie di armamenti “in the loop” e “on the loop”, mentre quelle su cui oggi andremo maggiormente a trattare sono le ultime.

Le armi del tipo “out the loop” sono le più complesse sia da un punto di vista informatico ed ingegneristico, che etico.

La tecnologia dietro ai LAWS: machine learning, big data e IA

Qui non stiamo parlando di migliorare la luce in una foto o di creare deepfake, ma di reti neurali, deep learning e analisi di big data.

Non spaventarti, ora facciamo chiarezza: l’ Intelligenza Artificiale può essere definita stretta o generale, in base a quanto è specializzata in un determinato campo.

La tristemente famosa arte della guerra comprende diversi campi: balistica, strategia, anatomia, medicina, psicologia e molti altri.

Non ci scordiamo che ogni tipo di informazione deve essere di tipo lineare perchè altrimenti un’IA non la comprenderebbe.

Le informazioni lineari sono quelle che possiamo rappresentare su una retta, sequenziarle e quantificarle come i dati anagrafici.

Esistono tecniche che permettono di linearizzare le informazioni non lineari come la rappresentazione matriciale per i colori o il bag-of-words per le parole in un testo.

Il punto è che andiamo incontro ad un numero di big data, veramente gigante!

Alcuni dati sono acquisibili solo in brevi porzioni di tempo come l’andamento meteorologico: come fa la macchina a produrre output corretti su grandi mole di dati in così poco tempo?

Sbagliando si impara

Questo è vero sia per gli umani che per l’ IA, non possiamo pensare all’idea di intelligenza e apprendimento senza parlare di studio e allenamento.

Ogni algoritmo viene addestrato su un dataset contenente data-training, per capire come trovare l’output vincente a diversi input.

Il modo per migliorare ed evitare errori è quello di avere in mano quanti più dati possibili, ordinarli con il pattern migliore e aspettare che sbaglino in modo da migliorare ancora di più l’algoritmo.

Ogni errore viene condiviso con gli altri robot in tempo reale in modo da imparare e non replicare più quell’errore.

La questione etica che si apre è semplice: Possiamo permetterci di far sbagliare un’arma?

laws-IRIAD

La legge dei robot

Un robot non può uccidere, ferire o arrecare danno ad un uomo direttamente o indirettamente.

Può obiettare e respingere un ordine dato dall’uomo se esso entra in conflitto con la prima legge.

Un robot deve proteggere la propria esistenza con ogni mezzo disponibile a meno che non vada in conflitto con la prima e la seconda legge.

Queste sono le tre leggi di Isaac Asimov circa il comportamento che un robot deve avere nei confronti dell’umanità e dell’operato dell’uomo, ma se parliamo di armi, come possiamo immaginarle innocue?

Come rispondono gli Stati e i colossi dell’ informatica

Oltre 160 compagnie che lavorano sull’intelligenza artificiale hanno firmato un accordo nel 2018 che proibisce lo sviluppo dei LAWS.

Stephen Hawking, Elon Musk e Steve Wozniak hanno scritto una lettera aperta alle nazioni, affermando che la corsa agli armamenti autonomi costituisce una seria minaccia all’umanità.

Il primo grande dibattito multinazionale sulle armi autonome avvenne nel maggio 2014 e si decise di bloccare la produzione

Due linee di pensiero

Non tutti la pensano allo stesso modo, infatti molti ritengono che finanziare la ricerca possa portare innumerevoli vantaggi in diversi campi.

Oggi il dibattito si compone di due fazioni: regolamentatori e negazionisti.

Punti critici del dibattito etico

Oltre ad un vuoto legislativo, bisogna colmare anche un vuoto etico.

La prima questione che si apre riguarda la dignità umana e la fiducia che ha l’uomo in sè stesso e nella comunità; delegare le responsabilità ad una macchina, significa delegare una componente fondamentale su cui si regge la società.

Se un killer robots prendesse il posto di un operatore umano perchè “migliore” su quali criteri ci basiamo: velocità nell’esecuzione, razionalità, assenza di sentimenti, incorruttibilità?

Richiamare le persone dal fronte e sostituirle con macchine non comporta un pericolo per l’intera umanità?

Armi troppo potenti

Per darvi un’idea della potenza di queste armi ecco tre esempi basati su prototipi esistenti:

Samsung SGR-1 è un modello di Senty Gun dal peso di 117kg, ha un range che varia dai 4 ai 2 km in base alle condizioni meteo, spara munizioni da 40mm ad una frequenza di 1000 proiettili al minuti. E’ dotata di sensori termici.

Neuron è un velivolo francese con 3 ore di autonomia. Raggiunge velocità soniche, può portare ben due bombe da 250kg ed è totalmente autonomo sia nel lancio che nel tragitto.

An2-Anaconda è una nave autonoma in alluminio, trasporta 5 sistemi d’arma e può seguire manovre tattiche ed evasive grazie all’IA.

Rivoluzione e Paura

Ogni rivoluzione ha cambiato il nostro modo di vivere sia in positivo che in negativo, abbiamo la fortuna di vivere nel mezzo della rivoluzione informatica.

Le nostre azioni possono determinare un esisto positivo quanto negativo in questo particolare momento storico.

Abbiamo paura di andare avanti con le scoperte in questo campo perchè non sappiamo dove andremo a finire, ma ciò che scopriremo potrebbe essere importante anche in altri campi e aiutare l’uomo.

Condividi su facebook
Condividi su twitter
Condividi su linkedin
Condividi su pinterest
Condividi su whatsapp
Condividi su telegram
Condividi su facebook
Condividi su twitter
Condividi su linkedin
Condividi su pinterest
Condividi su whatsapp
Condividi su telegram

Ci teniamo a comprendere le esigenze dei nostri utenti, per questo di chiediamo di aiutarci compilando il questionario che abbiamo sviluppato. Clicca sul pulsante “Partecipa”, ci vorranno meno di 2 minuti. Grazie!