Quali sono le tre leggi della robotica di Isaac Asimov?

Home/Intelligenza Artificiale/Quali sono le tre leggi della robotica di Isaac Asimov?
  • robot

Le leggi della robotica sono state create dal chimico, divulgatore scientifico e scrittore di fantascienza Isaac Asimov agli inizi degli anni quaranta.

Lo scopo era poter rispettare la necessità di sicurezza (Prima Legge), servizio (Seconda Legge) e autoconservazione (Terza Legge) di macchine dotate di intelligenza artificiale. Prima di Asimov la fantascienza era piena di pericolosi robot killer. Forse per questo lo scrittore immaginò come l’applicazione di “regole” potesse rendere gli androidi più amichevoli, quasi umani.

Le tre leggi sono nell’ordine:

  1. A robot may not injure a human being or, through inaction, allow a human being to come to harm.
  2. A robot must obey the orders given it by human beings except where such orders would conflict with the First Law.
  3. A robot must protect its own existence as long as such protection does not conflict with the First or Second Laws.

Un raro filmato visibile a questo link  mostra un giovane Isaac Asimov illustrare le tre leggi da lui ideate.

Qui in basso un video più recente con le tre leggi enunciate dal celebre scrittore.

 

Accetta i cookie statistiche, marketing per visualizzare questo video.

.

Queste leggi della robotica sono state nate per la fantascienza, ma sono trattate con grande credibilità nel campo della robotica (dopotutto è stato lo stesso Asimov ad inventare per primo la parola robotica).

In lingua italiana le leggi sono tradotte come:

  1. Un robot non può recar danno a un essere umano né può permettere che, a causa del suo mancato intervento, un essere umano riceva danno.
  2. Un robot deve obbedire agli ordini impartiti dagli esseri umani, purché tali ordini non vadano in contrasto alla Prima Legge.
  3. Un robot deve proteggere la propria esistenza, purché la salvaguardia di essa non contrasti con la Prima o con la Seconda Legge.

 

Il seguente video  è tratto da: “L’uomo bicentenario” film del 1999 diretto da Chris Columbus e basato sull’omonimo racconto di Isaac Asimov e sul racconto “L’uomo positronico” scritto a quattro mani da Robert Silverberg e Isaac Asimov.

 

Accetta i cookie statistiche, marketing per visualizzare questo video.

.

Sebbene queste leggi sembrino plausibili, numerose riflessioni e argomentazioni hanno provato quanto siano inadeguate. Gli stessi racconti di Asimov dimostrano come le leggi falliscano ripetutamente in situazioni parossistiche.

Un problema con le linee guida per robot formulate esplicitamente è la necessità di tradurle in un formato con cui i robot possano lavorare. Comprendere l’intera gamma del linguaggio umano e l’esperienza che la rappresenta è un lavoro arduo per un robot. Obiettivi comportamentali, come prevenire danni agli esseri umani o proteggere l’esistenza dello stesso robot, possono significare cose diverse in contesti diversi. Attenersi alle regole potrebbe finire per lasciare un robot impotente ad agire come sperano i suoi creatori.

Nei racconti di Asimov queste situazioni parossistiche emergono spesso.  Ad esempio si spiega che se un robot dovesse seguire sempre la regola “non spingere gli umani” (prima legge), egli eviterebbe di spingerli per non arrecare loro danno ma sarebbe comunque limitato a spingerli fuori dalla traiettoria di un oggetto che cade. Con danni non indifferenti per l’umano. Lo stesso per un robot chirurgo, che potrebbe evitare di operare su un paziente nel caso questo avesse danni permanenti dall’operazione, che però potrebbe salvargli la vita.

Anche nel film “Io, Robot”, liberamente tratto da alcuni racconti di Asimov, i robot creano una situazione distopica che per loro dovrebbe ridurre al minimo il danno generale per gli esseri umani, tenendoli confinati e “protetti” (prima legge). Ciò però crea una situazione di limitazione delle libertà individuali con gravi ripercussioni sociali e psicologiche.

Accetta i cookie statistiche, marketing per visualizzare questo video.

 

Il problema più grande, tuttavia, quando si tratta di robot ed etica, non è se possiamo applicare qualcosa che assomigli alle leggi di Asimov per creare macchine che siano morali. Piuttosto, dobbiamo iniziare a chiederci quale etica ci sia nelle persone che stanno dietro le macchine. Chi decide cosa sia etico e cosa no?

Quando parliamo di robot oggi, non stiamo più parlando di “mera fantascienza”. Fanno parte del nostro mondo reale.

 

 

 

Chi è Business Intelligence Group

Business Intelligence Group è una delle poche aziende in Italia in grado di supportare i propri clienti (Grande Distribuzione, Produttori, Agenzie di Comunicazione, Società di Consulenza e Istituti di Ricerche di Mercato) dalla realizzazione di indagini di mercato all’implementazione di sistemi hardware e software per lo sviluppo di reportistica ed analisi di grandi quantità di dati (Data Lake).

Vuoi sapere tutto sul tuo mercato di riferimento? Business Intelligence Group è qui per te.
Il nostro team ti aiuterà a comprendere cosa funziona, cosa devi migliorare e cosa evitare per essere leader nel tuo mercato.

Contatta Business Intelligence Group per una consulenza completa per avviare o far crescere la tua azienda.

Di |2022-01-08T19:23:50+01:00Gennaio 8th, 2022|Categorie: Intelligenza Artificiale|

Scritto da:

Torna in cima