ВСЕ БЕДЫ - ОТ НЕДОСТАТКА ИНФОРМАЦИИ

Угроза «роботов-убийц» реальна и ближе, чем вы думаете

10.10.2020 00:06 • Война




От самостоятельного вождения автомобилей , для цифровых помощников , искусственный интеллект (ИИ) быстро становится неотъемлемой технологией в нашей жизни сегодня. Но эта же технология, которая может помочь облегчить нашу повседневную жизнь, также включается в оружие для использования в боевых ситуациях.

ИИ, вооруженный оружием, широко используется в стратегиях безопасности США, Китая и России . А некоторые существующие системы вооружений уже включают автономные возможности, основанные на ИИ , разработка вооруженного ИИ еще больше означает, что машины потенциально могут принимать решения причинять вред и убивать людей на основе их программирования, без вмешательства человека.

Страны, поддерживающие использование оружия искусственного интеллекта, утверждают, что оно позволяет им реагировать на возникающие угрозы с большей скоростью, чем человеческая. Они также говорят, что это снижает риск для военнослужащих и увеличивает способность поражать цели с большей точностью . Но передача решений о применении силы машинам нарушает человеческое достоинство. И это также несовместимо с международным правом, которое требует человеческого суждения в контексте.

Действительно, роль, которую люди должны играть в принятии решений о применении силы, стала предметом повышенного внимания на многих заседаниях Организации Объединенных Наций (ООН). А на недавнем заседании ООН государства согласились с тем, что по этическим и юридическим причинам недопустимо делегировать решения о применении силы машинам - « без какого-либо человеческого контроля ».

Но хотя это может показаться хорошей новостью, по-прежнему существуют серьезные различия в том, как государства определяют «человеческий контроль».

Проблема

Более пристальный взгляд на различные правительственные заявления показывает, что многие государства, в том числе ключевые разработчики вооруженного искусственного интеллекта, такие как США и Великобритания, поддерживают так называемую распределенную перспективу человеческого контроля .

Здесь человеческий контроль присутствует на протяжении всего жизненного цикла оружия - от разработки до использования и на различных этапах принятия военных решений. Но хотя это может показаться разумным, на самом деле это оставляет много возможностей для человеческого контроля, чтобы стать более туманным.



Алгоритмы начинают менять облик войны. Николай Холютяк 

На первый взгляд, признание человеческого контроля как процесса, а не как отдельного решения, является правильным и важным. И это отражает оперативную реальность , поскольку современные вооруженные силы планируют атаки с участием людей из нескольких команд. Но есть недостатки в том, чтобы полагаться на это понимание.

Он может, например, поддерживать иллюзию человеческого контроля, когда на самом деле он низводится до ситуаций, в которых это не имеет большого значения. Это рискует поставить под сомнение общее качество человеческого контроля в войне. В том, что он применяется везде вообще и нигде конкретно.

Это могло бы позволить государствам больше сосредоточиться на ранних этапах исследований и разработок, а не на конкретных решениях, связанных с применением силы на поле боя, таких как различение между гражданскими лицами и комбатантами или оценка пропорционального военного ответа, что имеет решающее значение для соблюдения международных норм закон.

И хотя может показаться обнадеживающим наличие человеческого контроля на стадии исследований и разработок, это также приукрашивает значительные технологические трудности. А именно, что текущие алгоритмы непредсказуемы и не понятны операторам. Таким образом, даже если операторы контролируют системы, применяющие такие алгоритмы при применении силы, они не могут понять, как эти системы рассчитывают цели.

Жизнь и смерть с данными

В отличие от машин, решения людей о применении силы нельзя запрограммировать заранее. Действительно, основная тяжесть обязательств по международному гуманитарному праву применяется к фактическим, конкретным решениям о применении силы на поле боя, а не к более ранним этапам жизненного цикла системы вооружений. Об этом заявил член бразильской делегации на недавних заседаниях ООН.

Соблюдение международного гуманитарного права в быстро меняющемся контексте войны также требует постоянной человеческой оценки. Это невозможно сделать просто с помощью алгоритма. Это особенно характерно для городских боевых действий, когда гражданские лица и комбатанты находятся в одном пространстве.

В конечном счете, наличие машин, способных принимать решения о прекращении жизни людей, нарушает человеческое достоинство, превращая людей в объекты. Как утверждает Питер Асаро , философ науки и технологий: «Выявление« цели »в области данных не означает признание человека как человека с правами». В самом деле, машину нельзя запрограммировать так, чтобы она ценила человеческую жизнь .



Российский боевой робот «Платформа-М», который можно использовать как для патрулирования, так и для атак. 

Многие государства выступали за новые правовые нормы, обеспечивающие человеческий контроль над автономными системами оружия. Но некоторые другие, в том числе США, считают, что существующего международного права достаточно . Хотя неуверенность в том, что представляет собой значимый человеческий контроль на самом деле, показывает, что требуется больше ясности в форме нового международного права.

Это должно быть сосредоточено на основных качествах, которые делают человеческий контроль значимым, сохраняя при этом человеческое суждение в контексте конкретных решений о применении силы. Без него есть риск подорвать ценность нового международного права, направленного на обуздание вооруженного ИИ .

Это важно, потому что без конкретных правил текущая практика принятия военных решений будет продолжать формировать то, что считается «уместным» - без критического обсуждения.


КОММЕНТАРИИ

Введите код с картинки: