• Армія США, яка швидко озброюється самими передовими бойовими роботами, заявила, що кожен раз, коли робот буде вбивати людей, рішення на відкриття вогню буде прийматися іншою людиною.
    Згідно із заявою Пентагону, американці не планують відправляти в бій повністю автоматичні бойові машини, які самостійно вирішуватимуть: жити тій чи іншій людині або вмирати.
    Численні організації із захисту прав людини та окремі громадяни побоюються, що технічний прогрес в області робототехніки призведе до того, що бездушні машини стануть основним інструментом війни. Це посприяє легкому розв'язання конфліктів і призведе до великих людських жертв.
    На щастя, принаймні, публічно Пентагон одумався і 21 листопада заступник міністра оборони Ештон Картер підписав низку інструкцій з "мінімізації ймовірності та наслідків збоїв у роботі автономних або напівавтономних збройних роботів, які могли б призвести до непередбачених наслідків".
    У цьому документі чітко прописано, що рішення про застосування зброї повинно прийматися тільки людиною і в жодному разі не самою машиною. Крім того, апаратне та програмне забезпечення, відповідальна за управління смертоносним роботом, має бути максимально захищена від збоїв і втручання сторонніх. Щоб отримати дозвіл відкрити вогонь, всі автоматизовані роботи повинні вміти звернутися до оператора або своєму командирові-людині. Також командир повинен мати можливість у будь-який момент місії втрутитися в дії робота. Якщо які-небудь вищевказані вимоги не будуть виконані розробниками роботів, то Пентагон не буде їх купувати і використовувати.
    Нова військова інструкція була символічно підписана перед американським святом, Днем подяки, коли президент США милує парочку індичок. Виходить, що Пентагон зробив куди більш широкий жест і помилував людей, які могли б стати беззахисними "индейками" для бойових роботів.
    До жаль, тим, хто боїться машин-убивць, рано радіти. Пентагон - це далеко не єдина організація, яка закуповує і використовує бойових роботів. Наприклад ЦРУ активно застосовує безпілотники для знищення терористів і точка зору даної американської спецслужби часто сильно відрізняється від підходу військових.
    Крім того, деякі БПЛА, такі як X-47B нещодавно прибув на авіаносець USS Harry S. Truman, можуть знищувати заздалегідь запрограмовані мети. Чи з'явилися за час підльоту в районі цих цілей мирні жителі, роботів, природно, особливо не турбує. Також, останні дослідження американських фахівців вказують на те, що оператори БПЛА, змучені багатогодинним спостереженням за моніторами, здійснюють багато помилок і іноді стріляють куди попало. Так що не можна виключати, що масове використання повністю автоматичних бойових машин, принесе менше бід мирному населенню, ніж тисячі операторів, які занадто часто помиляються.
    Швидше за все, рішення про наділення роботів "смертельними повноваженнями" все ж таки буде у майбутньому прийнято. Хоча б з тієї простої причини, що машини роблять величезну кількість інформації. Перспективні БПЛА, за мить ока охоплюють поглядом більше 90 кв. км поверхні, будуть знімати відео загальною довжиною близько 80 років кожен день. Щоб переглянути всю цю інформацію, знадобляться десятки тисяч операторів, що працюють цілодобово. Навряд чи військові знайдуть кілька мільйонів операторів для всієї киберармии, і вже тим більше не відмовляться від її створення. Так що з кожним роком комп'ютери будуть брати на себе все більше бойових завдань, а ухвалення рішення на відкриття вогню зовсім скоро стане формальністю, заснованої на висновках машинної логіки.