Sharkeyn mukaan robottiaseiden kehittämiseen liittyy sekä teknisiä
että eettisiä ongelmia. Hän muistuttaa, että kuten kaikki
tietokoneohjelmat, myös robottiaseet ovat alttiita virheille,
ulkopuolisille hyökkäyksille ja ennakoimattomille tilanteille.
Vielä
suurempia ovat eettiset ongelmat. Esimerkiksi kansainvälisen
humanitaarisen oikeuden mukaan sodassa on pystyttävä erottelemaan
siviilit ja taistelijat ja käytettävä erityistä harkintaa
siviilikohteisiin hyökättäessä.
”Tiedän, mihin tekoäly ja robotiikka pystyvät. Eivätkä ne pysty noudattamaan sodan oikeussääntöjä”, Sharkey toteaa.
Vaikka
tekoälybisneksessä intoillaan esimerkiksi kasvojentunnistuksen
mahdollisuuksista, todellisuudessa robottiaseet eivät vielä tunnista
kunnolla edes panssarivaunua, jos se sijaitsee lähellä puita, Sharkey
sanoo. Siviilien erottaminen olisi siis vaikeaa.
Sharkey
kertoo myös esimerkin Irakista, jossa yhdysvaltaiset sotilaat tekivät
päätöksen olla tappamasta kapinallisia nähdessään näiden kantavan
ruumisarkkua. Kone ei olisi samaa päätöstä tehnyt, hän muistuttaa.
[Näin oli lausuttu maailma.net -sivustolla 14.6.2018 julkaistussa Teija Laakson kirjoittamassa artikkelissa Tekoälyn
asiantuntija Noel Sharkey tutustui tappajarobotteihin ja ryhtyi niitä
vastustavaksi kansalaisaktivistiksi – ”asevarustelukilpa on alkamassa”.]
[Siteeraan lopuksi Kyle Reeseä:]
Listen, and understand. That terminator is out there. It can’t be
bargained with. It can’t be reasoned with. It doesn’t feel pity, or
remorse, or fear. And it absolutely will not stop, ever, until you are
dead.
Ei kommentteja:
Lähetä kommentti