"Onesto è colui che cambia il proprio pensiero per accordarlo alla verità. Disonesto è colui che cambia la verità per accordarla al proprio pensiero". Proverbio Arabo

I Kalashnikov di domani: scienziati temono le armate robotiche

Il timore che l’intelligenza artificiale potrebbe finire male ha spinto oltre mille studiosi e personaggi pubblici (fra cui il fisico teorico Stephen Hawking; il fondatore di SpaceX, Elon Musk; e il cofondatore di Apple, Steve Wozniak) a firmare una lettera aperta, ammonendo che la corsa agli armamenti autonomi è una “cattiva idea” e rappresenta una grave minaccia per l’umanità.
La lettera (Futureoflife.org), presentata lunedì alla Conferenza Internazionale Congiunta sull’Intelligenza Artificiale, tenuta a Buenos Aires dall’Istituto Life, avverte dei pericoli connessi con i moderni sistemi robotici, che renderanno possibili le armi autonome in pochi anni, e che “una corsa globale verso tali armi è pressoché inevitabile”.

“Al contrario delle armi nucleari, [i sistemi autonomi] non richiedono materie prime costose o difficili da ottenere, perciò potrebbero diventare onnipresenti ed economici; tutte le potenze militari potrebbero produrne in massa. E’ solo questione di tempo prima che compaiano nel mercato nero e nelle mani di terroristi, dittatori desiderosi di controllare la popolazione (vedi USA e UE -ndt), signori della guerra che perseguono la pulizia etnica, ecc.”

La lettera suggerisce che l’intelligenza artificiale deve essere tenuta sotto stretto controllo, forse addirittura bandita, e avverte che i sistemi di armi autonome (detto semplicemente: i robot killer), capaci di individuare i bersagli senza intervento umano, sono sullo stesso piano delle varie armi di distruzione di massa.
Quest’anno l’ONU ha discusso la messa al bando globale dei robot killer. Stuart Russell, docente di informatica alla UC Berkeley e uno dei firmatari della lettera, ha reso noto sulla rivista Nature che due programmi sviluppati dall’Agenzia Progetti di Ricerca Avanzata per la Difesa (DARPA) potrebbero “presagire l’uso” di robot killer, in violazione della convenzione di Ginevra:

“Il progetto FLA programmerà minuscoli veicoli rotanti a manovrare autonomamente ad alta velocità nelle aree urbane e all’interno degli edifici. Il CODE mira a sviluppare squadre di veicoli aerei autonomi in grado di eseguire tutte le fasi di un attacco (individuazione, tracciamento, bersaglio, attacco, valutazione) in situazioni in cui i segnali di disturbo lanciati dal nemico rendono impossibile comunicare con un comandante umano.”
Questo mese Elon Musk ha assegnato attraverso l’Istituto Future of Life (FLI) 7 milioni di dollari a 37 progetti di ricerca sulle opportunità e i pericoli connessi all’intelligenza artificiale. Tallinn, cofondatore di Skype e del FLI, ha commentato:

Robot Killer tank

“Costruire intelligenza artificiale avanzata è come lanciare un missile. La prima sfida è massimizzare l’accelerazione, ma una volta che comincia a prendere velocità bisogna concentrarsi sul poterlo manovrare.”
I finanziamenti concessi, che cominceranno ad agosto, dureranno fino a 3 anni. I premi, da 20.000 a 1,5 milioni di dollari, verranno usati per costruire limiti sicuri all’intelligenza artificiale e per rispondere a molte domande concernenti lo sviluppo di armamenti autonomi.

(Ndt: viene in mente una frase di Zygmunt Bauman:
“Adesso ‘progresso’ sta ad indicare la minaccia di un cambiamento inesorabile e ineludibile che invece di promettere pace e sollievo non preannuncia altro che crisi e affanni continui.”)

Fonte: Sputniknews.com

Traduzione: Anacronista

*

code