A Microsoft elnöke, Brad Smith szerint az autonóm harci fegyverrendszerek használata számos etikai kérdést vet fel, amelyeket a kormányoknak a lehető leggyorsabban meg kell oldaniuk.
Azt mondta, hogy a gyorsan fejlődő technológiák, amelyekben a repülõ, úszó vagy gyalogló drónákat halálos fegyverekkel - rakétákkal, bombákkal vagy kézi fegyverekkel lehet felszerelni, és amelyek teljes vagy részleges autonóm müködésre vannak programozva, "sok országban végül …"
Az Egyesült Államok, Kína, Izrael, Dél-Korea, Oroszország és Nagy-Britannia mind jelentős fegyverzetű fegyverrendszereket fejlesztenek, és kritikus funkcióval bírnak a támadás célpontjának megválasztásában.
Továbbra sem világos, ki felelős a gép okozta halálért vagy sérülésekért - a programozó, a gyártó, a parancsnok vagy maga a gép.
Smith szerint a robotoknak "nem szabad engedni, hogy maguk döntsenek a harcban való részvételről és a megsemmisítésről", és azt állítja, hogy nemzetközi egyezményt kell kidolgozni az autonóm harci technológia alkalmazásának szabályozására.
Az autonóm harci rendszerek technológiájának fejlesztését egyre inkább szembesítik a növekvő társadalmi vonzódások. A Google alkalmazottainak ezrei ígéretet írtak alá arról, hogy nem fejlesztenek ki mesterséges intelligenciát fegyverrendszerekben való felhasználásra.
Az elmúlt évben a globális Stop Killer Robots kampány megduplázódott, és ma 57 nem kormányzati szervezet vesz részt.