Le “Tre leggi della robotica”, formulate da Isaac Asimov, negli Anni Quaranta del ‘900, rimangono dei riferimenti essenziali anche per il dibattito contemporaneo sulla “robotica” e sull’intelligenza artificiale.
Prima Legge: Un robot non può recar danno a un essere umano né può permettere che a causa del proprio mancato intervento un essere umano riceva danno.
Seconda legge: Un robot deve obbedire agli ordini impartiti dagli esseri umani purché tali ordini non contravvengano alla prima legge.
Terza legge: Un robot deve proteggere la propria esistenza purché questo non contrasti con la prima e la seconda legge.
A queste tre leggi Asimov ne ha aggiunto successivamente una quarta, la legge zero.
Legge zero: Un robot non può recare danno all’umanità, né può permettere che, a causa del proprio mancato intervento, l’umanità riceva danno. Con la legge zero, la questione del possibile danno causato dalla tecnologia viene ampliata dal singolo individuo all’intera umanità, legittimando così, in casi estremi, la violazione della prima legge in funzione di un bene universale, un bene superiore.
Quelli che fino a qualche anno fa sembravano degli “orientamenti” di natura fantascientifica, letterari più che applicabili nella realtà, assumono, oggi, un valore centrale di fronte alle trasformazioni tecnologiche e produttive in atto. Sui “rapporti” mondo del lavoro e robotica si gioca e si giocherà sempre più una partita essenziale nell’organizzazione del lavoro e, più in generale, negli assetti sociali.
Proprio per la sua pervasività, il Parlamento Europeo, ha recentemente approvato una risoluzione centrata sull’assunto che l’Intelligenza Artificiale debba imprescindibilmente essere soggetta al controllo umano (in modo da essere corretta o disabilitata in caso di comportamenti imprevisti) e che l’IA e le tecnologie ad essa correlate siano incentrate sull’uomo (ovvero destinate al servizio dell’umanità e del bene comune).
Le persone dovrebbero essere sempre informate allorché sono soggette a una decisione basata sull’IA e dovrebbero avere la possibilità di fare ricorso. Quando l’IA viene utilizzata nell’ambito della salute pubblica (ad esempio chirurgia assistita da robot, protesi intelligenti, medicina preventiva), i dati personali dei pazienti – dice la nota del Parlamento Europeo – devono essere protetti e il principio della parità di trattamento deve essere rispettato. Nel settore della giustizia, invece, se da un lato l’uso delle tecnologie dell’IA può contribuire ad accelerare i procedimenti e a prendere decisioni più razionali, d’altro canto gli orientamenti finali dei tribunali devono essere presi da esseri umani, rigorosamente verificati da una persona e sottoposti ad un giusto processo.
Il testo richiama, inoltre, l’attenzione sulle minacce ai diritti umani fondamentali e alla sovranità dello Stato derivanti dall’uso delle tecnologie di IA nella sorveglianza civile e militare di massa. Centrale l’assunto che l’IA deve sempre rimanere uno strumento utilizzato solo per assistere il processo decisionale e non deve mai sostituire o sollevare gli esseri umani dalla loro responsabilità. Nella misura in cui si può definire l’agire etico dell’intelligenza artificiale come la capacità di prendere decisioni che siano sempre capaci di salvaguardare la dignità della persona, operare secondo i principi della sussidiarietà e agire in maniera solidale, ci piace sottolineare come centrale appaia, in questo ambito, la partecipazione delle realtà sociali all’applicazione delle nuove tecnologiche. A maggiore ragione in ambito lavorativo, laddove i processi decisionali trovano la loro applicazione immediata sia rispetto a quanti vi operarono sia su coloro che ne sono i fruitori terminali (nei servizi).
In sintesi è ad un’etica sociale, condivisa e partecipativa, che occorre porre attenzione, al fine di “gestire” i processi tecnologici con la massima condivisione e proprio in ragione della complessità dei processi decisori, in un mix di tra rappresentanza degli interessi e competenze, che garantisca l’etica dei processi e la sostenibilità delle scelte.