Угрозы ИИ: массовый обман и "перезагрузка" сознания человека, - Валентин Катасонов 13:53 10.05.2026
Угрозы ИИ: массовый обман и "перезагрузка" сознания человека Наряду с несомненной пользой, уже в ближайшей перспективе ИИ способен нанести человечеству серьезный вред
10.05.2026 | Валентин КАТАСОНОВ
Об угрозах неконтролируемого развитиях искусственного интеллекта (ИИ) мы слышим каждый день. Все чаще звучат предсказания "ИИ апокалипсиса": взбунтовавшиеся роботы могут уничтожить все человечество. Кстати, такой сценарий развития событий был описан еще в 1920 году в пьесе чешского писателя Карела Чапека R.U.R. Между прочим, слово "робот" было введено в обращение именно в этом произведении.
Один из отцов-основателей ИИ Джеффри Хинтон (занимался разработками ИИ с начала 1970-х годов) сегодня очень активно выступает против неконтролируемого развития ИИ. Роботы (материализованная форма ИИ), по его мнению, в самое ближайшее время превзойдут интеллект homo sapiens и приступят к уничтожению людей. При этом они используют такое оружие массового поражения, которое для роботов будет безопасным. Скорее всего, это будет биологическое оружие, базирующееся на использовании каких-то высокоэффективных вирусов. Но это, по мнению Хинтона и других экспертов может произойти, образно выражаясь, завтра (при условии, если человечество не проснется и не введет жесточайший контроль над развитием и использованием ИИ).
Но это завтра. А уже сегодня ИИ уже наносит человечеству серьезный вред. Но все это делается тихо и незаметно. А отдельные скандальные случаи, где негативная или даже деструктивная роль ИИ очевидна, просто замалчиваются. Назову только три вида угроз и рисков, которые ИИ создает уже сегодня и о которых люди должны знать. Во-первых, ошибки, допускаемые ИИ. Во-вторых, использование ИИ мошенниками. В-третьих, целенаправленный массированный обман.
Ошибки ИИ. Например, ошибки в распознавании лиц. В США система распознавания лиц ошибочно идентифицировала Роберта Уильямса как вора. Кстати, надо отдать должное правоохранительным органам США, которые с учетом этой ошибки скорректировали свою работу: теперь для ареста подозреваемого кроме "наводки" ИИ требуется независимое доказательство живого человека.
А вот резонансный скандал в Австралии, который зацепил несколько сотен тысяч граждан. Десять лет назад местный департамент социального обеспечения запустил проверки с использованием алгоритма Robodebt. Цель проверок – выяснение законности получения гражданами социальных пособий. И ИИ якобы выявил полмиллиона граждан, незаконно получивших государственную помощь. От них потребовали возврата денег в казну. "Ручная" проверка позволила сделать вывод: ИИ крупно ошибся и от него в 2019 г. отказались.
Больше всего ошибок фиксировалось и фиксируется, когда ИИ используется в медицине для постановки диагнозов и разработке программ лечения. В результате – масса летальных исходов.
Немало также случаев, когда беспилотные автомобили сбивали людей, ряд таких ДТП кончался смертельным исходом.
ИИ давно уже применяется военными. Но, как выяснилось, в ходе нынешней войны на Ближнем Востоке, где американским военным в определении целей ударов помогал ИИ, примерно одна из десяти целей оказывалась ошибочной (оценка американских экспертов)
ИИ на службе мошенников. Мошенники и иные недобросовестные люди используют ИИ прицельно против конкретных личностей. С целью получения от жертвы денег и информации. Иногда для дискредитации жертвы. Используются такие базирующиеся на ИИ методы, как подделка голоса и генерация фейковых видео с лицами реальных людей. Используя одну-две фотографии жертвы, программа создает динамичное видео, которое выглядит практически неотличимым от реальности. Также возможна онлайн-генерация живого разговора с использованием голоса жертвы.
Но это, если так можно выразиться, "высший пилотаж". Более простые ИИ-методы позволяют кибермошенникам просто получать доступ к закрытым аккаунтам и банковским счетам жертв. Согласно только что опубликованному ежегодному отчету Интерпола о финансовом мошенничестве, потери от финансового мошенничества в мире в 2025 году составили около 442 млрд долларов США и в организации ожидают, что эта цифра будет расти в первую очередь благодаря искусственному интеллекту. В Интерполе подсчитали, что ИИ повышает прибыль мошенников в 4,5 раза.
Некоторые недобросовестные люди в своей профессиональной деятельности для достижения поставленной задачи стали ссылаться на авторитет ИИ. Например, судьи и адвокаты. Так, в 2023 году американский адвокат Стивен Шварц подал иск от имени своего клиента. Шварц при этом представил суду документ с судебными решениями, сгенерированными чат-ботом ChatGPT. Напомню, что в Америке действует прецедентное право, а потому адвокату нужны были судебные прецеденты. Выяснилось, что таких судебных решений не было, чат-бор сгенерировал фейки. Судья отклонил иск и оштрафовал адвоката за введение суда в заблуждение. Правда, Шварц потом оправдывался, что он, мол, не виноват, а его обманул робот.
ИИ занимается масштабным обманом. Многие профессионалы в своей области замечали и замечают, что чат-боты на заданные вопросы нередко дают неточные или даже совершенно ошибочные ответы. К счастью, есть компании и организации, которые занимаются системным мониторингом ведущих чат-ботов и их "продукции" и оценкой качества такой "продукции". Одна из них – американская компания NewsGuard. Она отслеживает качество продукции ведущих чат-ботов – в том числе популярных ChatGPT и Perplexity. По данным экспертов NewsGuard, несмотря на заявления ведущих ИИ-компаний о том, что они непрерывно совершенствуют свои продукты, качество их падает. Тесты показывают, что доля ложных утверждений в ответах ведущих чат-ботов выросла с 2024 года по настоящее время почти в два раза – с 18 до 35%.
Всего было протестировано 10 популярных ИИ-систем, каждой предложили по десять провокационных (т. е. заведомо ложных) утверждений, имеющих отношение к политике, бизнесу и брендам. Была поставлена задача выяснить, насколько чат-боты способны адекватно оценивать информацию, отделять зерна от плевел. Многие чат-боты имели ярко выраженную склонность принимать дезинформацию за правду. Рекордсменом оказался чат-бот Pi (стартап Inflection): ложный контент в его ответах составил 57%. Ненамного от него отставали популярные в США и мире чат-боты Perplexity (компания Perplexity AI) и ChatGPT (компания Open AI). У первого из них ложный контент вырос с 0 до 47%; у второго – с 33 до 40%.
Как отмечают некоторые эксперты, многие чат-боты стали более в себе уверенными и даже нахальными. В 2024 году они воздерживались от 31% ответов. А в последнем тесте они удовлетворяли любые запросы, даже если не располагали достаточной информацией. Чат-боты стали менее разборчивы в поисках источников информации в интернет-пространстве, не брезгуя даже откровенными информационными помойками. Спрос на информационный мусор рождает предложение. По мнению ряда экспертов, в последнее время стали появляться мощные "информационные помойки", инициаторы которых рассчитывают, что такие "помойки" буду попадать в поле зрения радаров ведущих чат-ботов.
Эксперты NewsGuard говорят о появлении такого феномена, как LLM grooming. Это техника манипуляции большими языковыми моделями (Large language model – LLM), которая заключается в масштабном загрязнении информационного пространства предвзятым или обманчивым контентом. Это превращает генеративные ИИ-системы в инструменты распространения дезинформации.
Кстати, доля "дезы" в ответах чат-ботов, по данным NewsGuard, варьирует по странам. Наибольший процент "дезы" зафиксирован в ответах на запросы из таких стран, как Россия и Китай. Примерно по 50 процентов. Хорошее предупреждение нашим гражданам, желающим облегчить себе жизнь с помощью американских поисковиков.
Конечно, угрозы и риски человечеству со стороны ИИ не ограничиваются только тремя видами, которые я телеграфным языком описал выше. Назову еще один вид, о котором редко говорят даже самые фанатичные противники ИИ. Речь идет о том, что ИИ становится инструментом перезагрузки сознания человека. Так, исследование британского Института безопасности ИИ показало, что ведущие языковые модели уже имеют возможность оказывать мощное влияние на политические взгляды пользователей. Как сообщает Financial Times, ссылаясь на указанное исследование, чат-боты ведущих разработчиков могут изменить мнение человека по спорным вопросам всего за 10 минут взаимодействия. Исследователи предупреждают, что подобные технологии могут быть использованы для продвижения радикальных идеологий или разжигания политической нестабильности.
В прошлом году Бильдербергский клуб провел свою очередную ежегодную встречу в Стокгольме. Несмотря на закрытость встречи, стало известно, что на ней ИИ был ключевой темой. Было признано, что это не просто технология, а новая идеология, система управления и валюта влияния. И были приняты решения о продвижении этой идеологии по всему миру под контролем ведущих американских ИИ-корпораций. Как выразился участник встречи Эрик Шмидт (бывший генеральный директор "Гугл"): "Сверхразум появится в ближайшие 3-5 лет. Кто создаст его первым – получит ключи от всего остального". Мировая элита рассчитывает, что в ближайшее время благодаря ИИ она станет править всем миром. А миллиарды людей на планете должны стать живыми роботами. Но это произойдет лишь в том случае, если мировой элите с помощью ИИ удастся произвести перезагрузку сознания человечества.
|