maanantai 9. heinäkuuta 2018

S Robotit eivät kykene noudattamaan sodan oikeussääntöjä

Sharkeyn mukaan robottiaseiden kehittämiseen liittyy sekä teknisiä että eettisiä ongelmia. Hän muistuttaa, että kuten kaikki tietokoneohjelmat, myös robottiaseet ovat alttiita virheille, ulkopuolisille hyökkäyksille ja ennakoimattomille tilanteille.

Vielä suurempia ovat eettiset ongelmat. Esimerkiksi kansainvälisen humanitaarisen oikeuden mukaan sodassa on pystyttävä erottelemaan siviilit ja taistelijat ja käytettävä erityistä harkintaa siviilikohteisiin hyökättäessä.

”Tiedän, mihin tekoäly ja robotiikka pystyvät. Eivätkä ne pysty noudattamaan sodan oikeussääntöjä”, Sharkey toteaa.

Vaikka tekoälybisneksessä intoillaan esimerkiksi kasvojentunnistuksen mahdollisuuksista, todellisuudessa robottiaseet eivät vielä tunnista kunnolla edes panssarivaunua, jos se sijaitsee lähellä puita, Sharkey sanoo. Siviilien erottaminen olisi siis vaikeaa.

Sharkey kertoo myös esimerkin Irakista, jossa yhdysvaltaiset sotilaat tekivät päätöksen olla tappamasta kapinallisia nähdessään näiden kantavan ruumisarkkua. Kone ei olisi samaa päätöstä tehnyt, hän muistuttaa.

[Näin oli lausuttu maailma.net -sivustolla 14.6.2018 julkaistussa Teija Laakson kirjoittamassa artikkelissa Tekoälyn asiantuntija Noel Sharkey tutustui tappajarobotteihin ja ryhtyi niitä vastustavaksi kansalaisaktivistiksi – ”asevarustelukilpa on alkamassa”.]

[Siteeraan lopuksi Kyle Reeseä:]

Listen, and understand. That terminator is out there. It can’t be bargained with. It can’t be reasoned with. It doesn’t feel pity, or remorse, or fear. And it absolutely will not stop, ever, until you are dead.

Ei kommentteja:

Lähetä kommentti