КРАСНЫЙ ЖЕЛТЫЙ ЗЕЛЕНЫЙ СИНИЙ
 Архив | Страны | Персоны | Каталог | Новости | Дискуссии | Анекдоты | Контакты | PDARSS  
 | ЦентрАзия | Афганистан | Казахстан | Кыргызстан | Таджикистан | Туркменистан | Узбекистан |
ЦентрАзия
  Новости и события
| 
Пятница, 19.05.2023
22:28  Лучшие уходят. Фантомаса больше нет с нами...
20:17  Катастрофа ВСУ в Хмельницком: Британия врезала обедненным ураном по Варшаве
13:48  Известный в ЦА бизнес-аферист Лео Блаватник распродал последние активы в России
12:47  Китайский "План Маршалла" для Центральной Азии, - Айдар Амребаев
12:40  Ситуация в Гагаузии накаляется, - Александр Кориненко
11:43  Как Хрущев хотел передать России четверть казахстанских земель (история)
11:40  Семеро оголтелых: как лидеры G7 намерены наказывать Китай и Россию

11:36  Главком УкрАрмии Залужный реально куда-то пропал... Тихо прикопали?
11:35  Советы бывалого: Лукашенко рассказал, как среднеазиатским республикам не попасть под санкции
11:08  Чем рискует человечество, доверяя оружие искусственному интеллекту
10:40  Провал работы со СМИ КырВласти свалили на чиновника Укушева
10:33  По подозрению в коррупции задержаны бывший губер Таласской области Киргизии Нарбеков и мэр Таласа Шабданов
10:07  Узбекистан хочет открыть в Бакинском порту свой терминал
09:37  Китай одолел пандемию ковида. Благодаря китайским ученым, мир выздоравливает, - СП
09:27  Есть ли перспективы у единой валюты БРИКС, - Глеб Простаков
08:54  Экс-министр Султанов неизвестно когда стал советником УзбПрезидента по ТЭКу
08:51  "Сегодняшний Узбекистан - это не вчерашний Узбекистан" - Шавкат Мирзиеев
08:49  Шубаргаш вместо Мариновки. В Акмолинской области опять переименовывают русские села
08:14  Странам Центральной Азии предлагают убить собственную экономику, - Вл.Прохватилов
01:09  The Economist: Американские проповеди не помогли. "Большая семерка" проиграла Китаю
01:07  "Вагнеровцы" прибрали оставленный Западом бардак в Африке, - Джастин Линг
00:46  Дикое поле: хазары и половцы. Из военной истории Донбасса, - Юрий Юдин
00:45  У Пекина сила мягкая, но ее много, - Василий Иванов
00:44  Иран и Россия строят Евразию без Европы, - СП
00:39  Китай становится вторым гарантом безопасности Центральной Азии, - Владимир Скосырев
00:08  Сына премьера Армении Пашиняна Ашота похитила мать убитого солдата
Четверг, 18.05.2023
23:26  В Алматы скончался от инсульта известный казахстанский оппозиционер и популярный в 1990-е общественный деятель Жасарал Куанышалин
23:21  Умер российский актер и режиссер Рустам Уразаев (уроженец Ташкента)
21:21  КырГКНБ задержаны руководители Фонда поддержки развития туризма
21:08  Низкая рождаемость грозит закрытием школ и колледжей в Гонконге
18:54  В РосГосдуме предложили обучать бездомных собак и отправлять их в зону СВО... Куда б депутатов отправить...
14:05  Сорок лет спустя: Иран и Египет решили помириться
13:51  У Байдена не хватило денег на антикитайскую политику, - Дм.Бавырин
13:39  Друзья или "джунгли" - за кого Запад принимает страны Центральной Азии
13:33  Скончалась редактор кыргызстанской газеты "Дело №..." Светлана Красильникова
13:02  Аким казахстанского Талдыкоргана Масабаев попал в психбольницу прямо с работы в приступе буйного помешательства
12:57  "Относительный результат". Песков продолжает словоблудить вокруг полезности "зерновой сделки"
12:15  В Алматы откроется филиал Китайского Северо-Западного университета
11:56  Берлин-Пекин: новая стратегия? - Елена Пустовойтова
11:45  Скончался глава Президентского архива Кыргызстана филолог Турсуняз Досалиев
11:43  Как шведский король Магнус стал монахом православного Валаамского монастыря (история)
11:36  Сына Николы Пашиняна (главы Армении) пытались похитить прямо на улице
11:31  Акимат Алматы не разрешил концерт Максима Галкина
10:16  Секс в традициях кочевников: как к нему относились/занимались, - Caravan.kz
10:00  Диктаторский режим Майи Санду вошел в клинч с гагаузами, - МК
09:29  Мощь Дракона и "мягкая" сила Панды. Китай на пике мирового лидерства, - Владимир Овчинский
08:38  Только чудо может помочь Кылычдароглу победить Эрдогана, - Дм.Минин
08:32  США вмешиваются в выборы в Турции на стороне оппозиции, - В.Прохватилов
01:06  Турецкая оппозиция вошла в режим ускоренной мобилизации, - И.Субботин
01:00  Саудиты показывают России пример правильной приватизации, - А.Комраков
00:52  Bloomberg: "Большая семерка" фактически признала поражение в борьбе с Россией и Китаем
Архив
  © CentrAsiaВверх  
    ЦентрАзия   | 
Чем рискует человечество, доверяя оружие искусственному интеллекту
11:08 19.05.2023

16.05.2023
Владислав Гринкевич

Цифровизация военных конфликтов происходит буквально у нас на глазах. Технически у развитых стран уже есть возможность оснащать системы вооружения искусственным интеллектом (ИИ). Но человек оттягивает тот момент, когда решение о нанесении удара будет принимать не он, а машина. Между тем объем информации, с которой приходится работать современным военным, столь велик, что человеческий разум может просто "сломаться". Может быть, стоит доверить оружие холодному и рациональному искусственному интеллекту?

Слишком умная винтовка
Уже интеллект или еще нет?
Когда человек опаснее машины
Средство для военных преступлений
Слишком умная винтовка
Военные вообще с большим подозрением относятся ко всякого рода "думающему" оружию. В 2015 году американская оружейная компания TrackingPoint представила серию умных винтовок Precision Guided Firearms ("Высокоточное управляемое оружие"). В снайперские винтовки разных калибров были интегрированы оптическая система с телекамерой и дальномером, набор датчиков, компьютер с баллистическим вычислителем, блок интерфейсов и дисплей, куда выводились изображения с камеры и информация с компьютера.

Работало все это так: стрелок, наблюдая цель на дисплее, наводил на нее прицельную марку (перекрестье) и нажимал кнопку "пометить цель". Компьютер запоминал, куда нужно попасть, замерял дальность и производил расчеты с учетом возможных данных. Далее, когда стрелок нажимал на спуск – нет, выстрел не следовал, – на экране появлялась точка, куда следует навести перекрестье прицела, чтобы пуля гарантированно поразила цель. Лишь когда машина фиксировала максимальное совмещение перекрестья с выбранной точкой, автоматически происходил выстрел.

Винтовки TrackingPoint позволяли среднему стрелку превосходить по результатам опытного снайпера. Так, в ходе специального состязания вдова известного американского снайпера Криса Кайла Тайя Кайл победила многократного чемпиона Национальной стрелковой ассоциации Брюса Пьятта. Стрелки использовали оружие разных калибров, вели огонь стоя, сидя, лежа, по статичным мишеням и по движущимся, с помехами в виде тумана и взрывов. В результате Пьятт поразил примерно 58% целей, Тайя Кайл – 100%.

Казалось бы, интересное решение для военных, пусть на первых порах и весьма дорогое (стоимость первых винтовок начиналась от $15 тыс.). Эксперты уже рассуждали, что и как нужно доработать, чтобы новое изобретение заинтересовало армию и других силовиков: повысить механическую прочность, надежность работы в сложных условиях, снизить стоимость.

Но проблема пришла с другой стороны. По словам американского эксперта по стрелковому оружию Константина Конева, против умной винтовки восстали юристы. Выходило, что де-факто решение о выстреле в системах TrackingPoint принимал не человек, а машина. А что если винтовка ошибется, сделает выстрел не вовремя или не туда – кому отвечать? Военные не слишком любят оружие, которое само решает, когда ему выстрелить. Это напоминает ситуацию с беспилотными автомобилями Tesla: кого винить в случае ДТП – условного водителя или производителя техники?

Уже интеллект или еще нет?
Один из главных вопросов в случае возможного использования искусственного интеллекта в военном деле: кто отдает приказ о применении оружия? Кто нажимает кнопку, и на ком лежит ответственность в случае ошибки? Тем более что речь пойдет не о винтовке, а о системах, способных уничтожать разом десятки и сотни человек. Потенциально оснащаться ИИ могут ударные беспилотные летательные аппараты (БПЛА), барражирующие боеприпасы (они же дроны-камикадзе), наземные и морские боевые роботы, системы управления огнем и даже автоматизированные системы управления войсками.

"Юридически совершенно непрозрачная ситуация, – считает старший научный сотрудник Центра международной безопасности Института мировой экономики и международных отношений (ИМЭМО) Константин Богданов. – Допустим, машина отдала приказ на применение летального оружия и сделала это неправомерно. Кого винить – разработчика, составившего неправильный или непрозрачный алгоритм, или оператора, допустившего неправомерное применение?".

На выходе мы получаем "юридический клинч": операторы говорят, что система выполнена непрозрачно и ее правила самообучения неясны; разработчик утверждает, что провел все необходимые тесты, а алгоритмы работы ИИ – это секретная информация, которая не может быть раскрыта.

Самое интересное заключается в том, что до сих пор нет даже общепринятого определения смертоносной автономной системы вооружения (САС) – так называют летальное оружие, оснащенное ИИ. В дорожной карте по беспилотным системам минобороны США от 2013 года САС определены как "роботизированные системы вооружения, которые после приведения в действие могут выбирать и поражать цели без последующего вмешательства со стороны оператора". Такая же формулировка звучала в ООН.

Но под столь размытое определение попадают не только БПЛА, наземные и морские необитаемые аппараты, а также барражирующие боеприпасы. Сюда можно отнести абсолютно все виды оружия с высокоавтоматизированными процессами поиска и наведения на цель, способные автономно маневрировать и атаковать выбранный объект без внешнего управления.

Например, ракеты, оснащенные головками самонаведения типа "воздух–воздух", "земля–воздух", противокорабельные ракеты типа "Оникс" и даже ракеты противотанковых комплексов типа "Джавелин" (Javelin). Притом что в действительности их к САС никто не относит.

Часть экспертов утверждают, что обязательный признак ИИ – это возможность самообучения. С другой стороны, многие беспилотники уже сейчас могут выполнять сложные задачи без связи с оператором: скажем, потеряв канал связи с оператором, они при помощи GPS и оптических датчиков выходят из района действия и возвращаются на базу. Это уже интеллект или еще нет? Ответов на такие вопросы пока нет.

Контуры контроля
Главная формула военных, использующих умное оружие, звучит так: машина должна находиться под контролем людей. Существует три так называемых контура принятия решений:

Солдат наводит оружейный комплекс XM-25 в испытательном центре Абердина, Мэриленд.
©The U.S. Army/Wikimedia Cоmmons
1. Человек находится внутри контура (Man in the loop) – система только подсказывает оператору, когда лучше нажать кнопку.

2. Человек над контуром (Man over the loop) – система сама находит цель, проводит расчеты и наносит удар, но оператор наблюдает за ней и в любой момент может ее остановить.

3. Человек вне контура (Man out of the loop) – система полностью автономна, а оператор выключен из принятия решений. На сегодня данная схема считается идеологически неверной.

Но реальный контроль над умной системой возможен лишь при условии, что он будет осуществляться еще на стадии разработки и производства.

Когда человек опаснее машины
В отношении умного оружия действует непреложное правило: человек непременно должен находиться в "контуре управления" боевой системы. Иными словами, он либо сам "нажимает кнопку", либо может отменить решение, принятое машиной.

Проблема в том, что возможности самого человека воспринимать и обрабатывать информацию весьма ограниченны. По этому навыку мы уже не в разы, а на порядки проигрываем машинам.

Темпы цифровизации оружия таковы, что от водителя танка требуется такой же психофизический функционал, как от пилота истребителя. Научный редактор отдела по связям с общественностью "Уралвагонзавода" Сергей Устьянцев в одной из своих лекций рассказал, что данная проблема обозначилась еще в 1980-х, с появлением танка Т-80. "Была такая история. В танк Т-80 случайно забрался летчик, и он взвыл: такое количество приборов, такое количество информации, как вы солдат обучаете?" – вспоминал эксперт. В итоге даже подготовленные танкисты могли использовать возможности новой машины только на 20%, как ни тренируй. Для получения наилучших результатов требовался специальный отбор людей, способных мгновенно оперировать информацией в цейтноте боя. Водителем танка Т-14 "Армата", к слову, тоже не может быть случайный, неподготовленный человек.

Теперь представим современные боевые машины, объединенные в т. н. сетецентрическую систему, когда помимо информации с собственных приборов командир танка в режиме онлайн получает данные с других машин, с разведывательных беспилотников. Информацию он должен мгновенно обработать и принять единственно верное решение, потому что ошибка будет означать смерть. Способен человек эффективно справиться с этим?

Другой пример: в 2022 году на салоне Airshow China в Джухае китайская компания China Electronics Technology Corporation (CETC) представила установку по запуску барражирующих боеприпасов. Она напоминает систему залпового огня с пакетом из 48 или 18 ракет. Только вместо неуправляемых ракет она запускает рой умных дронов-камикадзе. Каждый из них способен выискивать цель за десятки километров от места пуска, идентифицировать ее и наносить удар. Смогут ли один или даже два оператора управиться с этим роем?

Скорее всего, нет, считает Константин Богданов. Представьте, идут интенсивные боевые действия, операторы часами смотрят на мониторы, и тут экспертная система им говорит: за лесополосой находится танк противника, вероятность 78%. Станет оператор это проверять? Почти наверняка нет, он просто утвердит параметр, предложенный компьютером. Подобные исследования, по словам эксперта, проводились с операторами высокоавтоматизированных ЗРК (зенитно-ракетных комплексов), производящих определение целей, их селекцию и т. д. "Практика показывает, что операторы просто утверждают предложенный системой вариант действий, полагая, что он правильный, а в большинстве случаев так и есть", – говорит Богданов.

Вспомним также, что человек подвержен эмоциям и может не справиться с нервным напряжением. На военно-воздушной базе "Крич" в США (Creech Air Force Base) исследовали психологическое состояние операторов, управляющих разведывательно-ударными БПЛА Reaper ("Жнец"). Оказалось, что многие из них испытывают травматическое стрессовое расстройство, подобное тому, что наблюдается у солдат на поле боя. Казалось бы, эти люди сидят в тылу, перед мониторами, не видят оторванных конечностей, разбросанных внутренностей, а максимум чем рискуют – объесться пиццей. И тем не менее это так. И вот у оператора на фоне стресса что-то переклинивает в голове, и мы имеем неправомерное применение летального средства. Чей контроль в итоге более безопасен – ИИ или человека? Ответа, увы, пока не найдено.

Пилот беспилотного летательного аппарата ВВС США MQ-9 Reaper управляет самолетом с пульта дистанционного управления на военно-воздушной базе "Крич"
До сих пор нет даже общепринятого определения смертоносной автономной системы вооружения (САС) – так называют летальное оружие, оснащенное ИИ

US Air Force Photo/Vostock Photo
Средство для военных преступлений
По словам Константина Богданова, есть группы экспертов и военных, утверждающих, что машина не подвержена психологическим срывам и эмоциям. Если в нее заложить верные алгоритмы, она всегда будет воевать по правилам. Но вот беда: правила ведения войны не кодифицируются. Потому что законы войны или международное гуманитарное право основано на обычае. Так называемая оговорка Мартенса (принцип права вооруженных конфликтов, принятый на II Гаагской конвенции 1899 года) гласит: если что-то не прописано, то войну следует вести в соответствии с установившимся обычаем и моральными нормами, принятыми между цивилизованными народами.

Вряд ли мы сегодня сможем точно определить, что это за нормы. Кадры, как оборудованный сбросом гранат БПЛА "Мавик" охотится за раненым солдатом или за группой бойцов, пытающихся эвакуировать раненого с поля боя, стали новой реальностью. А в машинный разум представления об обычаях и моральных нормах не уложатся в принципе. То есть боевые системы с искусственным интеллектом вряд ли смогут быть настроены на следование законам войны. Можно запретить машинам выполнять определенные действия, но это снизит их эффективность. Если же указания будут расплывчаты, машина совершит военное преступление.

Еще существует проблема "спихивания ответственности". По мнению Богданова, "правильно запрограммированный робот – это идеальное средство совершения военных преступлений". Допустим, какая-то группа намерена совершить убийство гражданских лиц. Злоумышленники смогут воспользоваться автономной системой оружия, а после оправдываться, мол, она сама так решила. В простейшем варианте это ракета, сбившаяся с курса. Но если говорить о роботах, способных применять оружие, то в определенных ситуациях, убежден собеседник "Профиля", их будут целенаправленно программировать или ставить в определенные условия для совершения неправомерных действий.

Ну и последнее. У самообучающихся систем могут сформироваться алгоритмы решений, не сводящихся к человеческой логике. Уже около десяти лет, рассказывает Константин Богданов, прорабатываются теоретические модели, которые показывают, что самообучающаяся машина на основе собственного опыта способна совершать действия, необъяснимые для человека. "Подумала, состыковала несколько входных и выходных параметров, и на основании этого применила оружие, – поясняет эксперт. – Абсолютно непрозрачный момент. Даже не с юридической точки зрения, а с логической". В истории человечества еще не было проблемы по контролю над вооружениями с таким количеством разнородных факторов.

Умный беспилотник в руках террористов
Увы, но умные беспилотники могут стать эффективным оружием для совершения террористических актов. Уже сейчас есть готовые платформы, которые в городских условиях способны действовать без канала связи с оператором и при подавленном сигнале GPS.

Системы, установленные на беспилотниках, позволяют им ориентироваться в трехмерном лабиринте, т. е. в высотной застройке.

Такой БПЛА имеет на борту цифровую карту, может сопоставлять объекты, которые видит, с данными этой карты и таким образом прокладывать нужный маршрут. Сбить его можно только из антидронового ружья либо пытаться ловить сачком.

Источник - Профиль
Постоянный адрес статьи - https://centrasia.org/newsA.php?st=1684483680


Новости Казахстана
- Рабочий график главы государства
- Сенаторы внесли изменения в закон по снижению административной нагрузки на бизнес
- Выставка картин казахстанского художника Ерболата Толепбай прошла в столице
- Спикер Мажилиса встретился с Послом России в Казахстане
- Фракция "AMANAT": проект "Ауыл аманаты" доказывает свою эффективность
- Олжас Бектенов поручил пересмотреть политику "Байтерека" в части поддержки отечественных производителей
- Состоялось очередное заседание Республиканской комиссии по подготовке кадров за рубежом
- Нужны конкретные действия - Тамара Дуйсенова о системе профквалификации
- В Правительстве вырабатывают ряд комплексных подходов и системных мер в сфере земельных отношений
- Новое назначение
 Перейти на версию с фреймами
  © CentrAsiaВверх