Stephen Hawking: Umjetna inteligencija pri uporabi oružja može biti pogubna za čovječanstvo
"Utrka u naoružanju je loša ideja i treba je spriječiti zabranom napadačkog autonomnog oružja bez ljudske kontrole", ističe Hawking
Teorijski fizičar Stephen Hawking priključio se u utorak brojnim znanstvenicima koji se protive upotrebi umjetne inteligencije za oružje.
"Ako bilo koja vojna sila krene s razvojem oružja koje koristi umjetnu inteligenciju, globalna utrka u naoružanju je praktički neizbježna i ishod te tehnološke avanture je očit: autonomno oružje postat će Kalašnjikov sutrašnjice", rekao je Hawking u zajedničkom otvorenom pismu.
"Poznati su brojni argumenti za i protiv autonomnog oružja, primjerice da je zamjena ljudi strojevima dobra jer smanjuje ljudske žrtve, a loša jer bi se lakše kretalo u bitke", dodaje se u pismu koje je objavio Institut Future of Life.
"Utrka u naoružanju je loša ideja i treba je spriječiti zabranom napadačkog autonomnog oružja bez ljudske kontrole", ističe Hawking.
Autonomno oružje je ono koje je sposobno samo birati i napadati mete. U njega ne spadaju daljinski upravljane bespilotne letjelice.
Hina
Objavljeno: 29.07.2015