Stephen Hawking: Umjetna inteligencija pri uporabi oružja može biti pogubna za čovječanstvo

"Utrka u naoružanju je loša ideja i treba je spriječiti zabranom napadačkog autonomnog oružja bez ljudske kontrole", ističe Hawking

 

Teorijski fizičar Stephen Hawking priključio se u utorak brojnim znanstvenicima koji se protive upotrebi umjetne inteligencije za oružje.

"Ako bilo koja vojna sila krene s razvojem oružja koje koristi umjetnu inteligenciju, globalna utrka u naoružanju je praktički neizbježna i ishod te tehnološke avanture je očit: autonomno oružje postat će Kalašnjikov sutrašnjice", rekao je Hawking u zajedničkom otvorenom pismu.

"Poznati su brojni argumenti za i protiv autonomnog oružja, primjerice da je zamjena ljudi strojevima dobra jer smanjuje ljudske žrtve, a loša jer bi se lakše kretalo u bitke", dodaje se u pismu koje je objavio Institut Future of Life.

"Utrka u naoružanju je loša ideja i treba je spriječiti zabranom napadačkog autonomnog oružja bez ljudske kontrole", ističe Hawking.

Autonomno oružje je ono koje je sposobno samo birati i napadati mete. U njega ne spadaju daljinski upravljane bespilotne letjelice.

Hina

 

Povezane vijesti