93 318 54 36

La robotica migliorerebbe l’etica sul campo di battaglia

14/12/2008
XPinyol

"La mia ipotesi di ricerca è che i robot intelligenti possano comportarsi in modo più etico sul campo di battaglia rispetto a quanto fanno oggi gli esseri umani", afferma Ronald Arkin, scienziato informatico presso il Georgia Institute of Technology, che progetta Software per i robot sul campo di battaglia, commissionato dall'esercito americano: "Questa è la teoria che difendo."

Aerei spia, rilevatori di mine e sensori robotici sono già comunemente utilizzati sul campo di battaglia, ma sono controllati dagli esseri umani. Ciò di cui parla Arkin sono veri robot che funzionano da soli.

Lui e altri sostengono che la tecnologia necessaria per realizzare robot autonomi letali non è molto costosa e sta proliferando, e che è solo questione di tempo prima che questi robot vengano schierati sul campo di battaglia. Ciò significa, aggiungono, che è giunto il momento che le persone inizino a discutere se questa tecnologia è qualcosa che vogliono utilizzare.

Noel Sharkey, informatico dell'Università di Sheffield nel Regno Unito, ha scritto l'anno scorso sulla rivista Tecnologia innovativa per i professionisti informatici che "questa non è fantascienza in stile Terminator, ma dura realtà". E ha aggiunto che la Corea del Sud e Israele stanno già schierando robot armati come guardie di frontiera.

"Non vogliamo arrivare al punto in cui diciamo che avremmo dovuto tenere questo dibattito 20 anni fa", afferma Colin Allen, filosofo dell'Università dell'Indiana a Bloomington e coautore del nuovo libro Macchine morali: insegnare ai robot la differenza tra il bene e il male.

Randy Zachery, che dirige il Dipartimento di Informatica dell'Ufficio Ricerche dell'Esercito, che finanzia il lavoro di Arkin, dice che l'Esercito spera che questa "scienza di base" possa dimostrare come i soldati umani possano usare sistemi autonomi e interagire con essi e che si possa sviluppare un sistema Software che "consente ai sistemi autonomi di operare entro i limiti imposti dal combattente".

In un rapporto presentato all’esercito lo scorso anno, Arkin ha delineato alcuni dei potenziali vantaggi dei combattenti robotici autonomi. Per cominciare, possono essere progettati senza istinto di sopravvivenza e, quindi, senza tendenza alla fuga per paura. Possono essere fatti in modo che non provino rabbia o incoscienza, aggiunge Arkin, e li rendano invulnerabili a quello che lui chiama "il problema psicologico del 'soddisfacimento delle aspettative'", che fa sì che le persone assorbano più facilmente nuove informazioni se corrispondono alle loro esigenze. aspettative, idee preconcette.

Il loro rapporto si basava su un sondaggio del 2006 condotto dalle autorità sanitarie dell'esercito, che rivelò che meno della metà dei soldati e marines di stanza in Iraq ha affermato che i non combattenti dovrebbero essere trattati con dignità e rispetto e che il 17% ha affermato che tutti i civili dovrebbero essere trattati come insurrezionalisti.

Arkin immagina alcuni modi in cui i robot autonomi potrebbero essere utilizzati: in operazioni di contro-cecchino, per ripulire edifici da sospetti terroristi o in altre missioni pericolose. Ma prima dovrebbero essere programmati con regole e istruzioni su chi sparare, quando è accettabile sparare e come distinguere le truppe nemiche attaccanti dai civili, dai feriti o da qualcuno che cerca di arrendersi.

Le simulazioni del campo di battaglia di Arkin si svolgono sugli schermi dei computer. I piloti robot dispongono delle informazioni che potrebbe avere un pilota umano, come mappe con l'ubicazione di templi, condomini, scuole e altri centri di vita civile. Viene loro insegnato dove si trovano esattamente le truppe nemiche, il materiale bellico e gli obiettivi prioritari. E vengono loro date le regole del combattimento, linee guida che limitano le circostanze in cui possono iniziare e condurre un combattimento.

In una simulazione, un pilota robot sorvola un piccolo cimitero. Il pilota scopre un carro armato all'ingresso del cimitero, un possibile bersaglio. Ma è presente anche un gruppo di civili, quindi il pilota decide di proseguire e presto trova un altro veicolo blindato, che è solo in un campo. Il pilota spara, il bersaglio viene distrutto.

Alcune persone che hanno studiato questa domanda temono che i robot da campo di battaglia progettati senza emozioni manchino di compassione. Arkin, un cristiano che riconosce l'aiuto di Dio e di Gesù nel prologo del suo libro del 1998 Robotica comportamentale, argomenta che, poiché norme come la Convenzione di Ginevra sono basate su principi umani, se incorporate nell’architettura mentale di una macchina, conferirebbero loro qualcosa di simile alla compassione. Anche se aggiunge che sarebbe difficile progettare "algoritmi percettivi" in grado di riconoscere, ad esempio, se le persone sono ferite o sventolano una bandiera bianca.

Arkin ritiene che accendere un dibattito sulla tecnologia sia la parte più importante del suo lavoro.

Articoli correlati

Hai bisogno di aggiornare il tuo sito web?

Hai bisogno di uno dei nostri servizi di web design? In IndianWebs Abbiamo una vasta esperienza e un team di programmatori e web designer in diverse specialità, siamo in grado di offrire una vasta gamma di servizi nella creazione di pagine web personalizzate. Qualunque sia il tuo progetto, lo affronteremo.