Брешь в кибербезопасности: зачем в России предлагают маркировать «шедевры» искусственного интеллекта

Фото: Pxhere.com

Несмотря на то, что многие воспринимают такой контент исключительно как развлекательный, даже нейрослоп может привести к скандалам

В России предлагают ввести обязательную маркировку видео, созданного с применением искусственного интеллекта. Следить за этим, как пока предполагается, будут администраторы интернет-площадок, включая соцсети и видео-хостинги. Первое чтение соответствующего закона в Госдуме может пройти уже в марте. Подробнее об этом — в материале Online47.

На первый взгляд, бесконечные видео в соцсетях, сгенерированные ИИ, это развлечение и не более. Но идея маркировать их возникла вовсе не на пустом месте. За последние годы ИИ перестал быть игрушкой айтишников, став удобным инструментом для мошенников, шантажистов, провокаторов и всяких «приколистов», шутки которых имеют вполне реальные последствия.

Такие видео с каждым днем становится сложней отличить от реальности даже тем, кого ничуть не удивила бабушка с бегемотом или медведь, удирающий на велосипеде от полиции (популярные интернет-мемы, сгенерированные ИИ). А технология тем временем проникает в новые сферы деятельности, и вот киностудии предлагают променять актеров на цифровые копии.

Горе от ИИ: наглядные примеры

Музыка, игры и киноиндустрия

По всему миру уже пронеслась волна скандалов, возникших из-за идей использования ИИ для создания персонажей фильмов, дубляжа голосов или даже полного замещения актеров. В играх он снижает значение роли живых разработчиков, а в музыке помогает генерировать песни, имитируя стиль известных исполнителей.

Естественно, все это и без инициативы депутатов Госдумы приводит к давлению на платформы со стороны пользователей, брендов и международных регуляторов. Ведь одно дело, когда ты заведомо знаешь, что платишь за целиком и полностью сгенерированный ИИ продукт, как белорусский мультфильм «Беловежская пуща», другое — когда замечаешь нюансы в процессе просмотра/прослушивания/игры.

Например, как это было с рок-группой The Velvet Sundown, участники которой обзавелась фанатами, а потом вдруг выяснилось, что это нейросеть. Или номинант на «Оскар» — фильм «Бруталист», создатели которого постфактум признались, что использовали технологии ИИ при производстве. И, конечно, нельзя не упомянуть реакцию фанатов отечественной игры «Бесконечное лето», когда у некоторых героинь на изображении анонса второй части обнаружились по шесть пальцев на руках.

prt scr vk.com / "Бесконечное Лето / Soviet Games"

Виртуальные девушки и мужчины мечты

Как известно, человек — существо социальное, и многие готовы платить большие деньги за общение и более интимные вещи в режиме online. Так вот искусственный интеллект пробрался и в эту сферу. Теперь продвинутые пользователи без труда создают привлекательные виртуальные модели с помощью ИИ, зарабатывая на их изображениях и видео миллионы долларов.

Подписчики попросту не могут отличить их от живых людей. Хотя началось все с цифровой 3D-модели «Shudu», которая быстро набрала популярность в соцсетях и стала первой виртуальной супермоделью. Ее то запросто можно отличить от реального человека, но это не помешало автору привлечь крупные бренды и получить рекламные контракты. А это другая модель, сгенерированная с помощью ИИ:

prt scr Instagram (принадлежит компании Meta*, признанной экстремистской и запрещённой в России)

Не отходя далеко от темы следует упомянуть и скандалы, связанные с распространением материалов, в которых с помощью deepfake-технологий использовали лица реальных женщин, включая публичных персон. Порой настолько искусно, что их применяли для шантажa, травли и давления.

ИИ-мошенничество с «инвестициями»

Нередко в интернете попадаются фейковые видеоролики с «известными экономистами», «депутатами» и «экспертами», которые по какой-то причине рекламируют совершенно сомнительные проекты. Причем встретить такие кадры можно не где-нибудь, а даже в соцсети VK.

Популярные деятели рассуждают о криптовалютах, гарантированных доходах и упоминают какие-то сказочные льготы по госпрограммам. В действительности их лица и голоса (не всегда, но это отдельный разговор) генерируют нейросети, чтобы повысить доверие к продукту.

«Безобидные» шутки школьников

В сети известно полно случаев, когда подростки с помощью ИИ генерировали фейковые угрозы, поддельные скриншоты переписок и ложные доносы. Часто молодые люди попросту не осознают возможные последствия. В результате «приколы» оборачиваются визитами силовиков, эвакуациями школ и уголовными делами.

Так, например, в декабре СМИ и соцсети облетела новость о том, что в Бишкеке оштрафовали блогершу за сгенерированное с помощью ИИ фото с президентом Кыргызстана Садыром Жапаровым.

Изображение, созданное с помощью ИИ, и является фейком

Когда прогресс становится злом

По понятным причинам, для России в текущих условиях геополитического давления и проведения специальной военной операции, угроза ИИ стоит особенно остро. И речь уже даже не про шутки каких-то «приколистов», а вполне конкретные намеренные действия с целью обобрать людей до нитки или посеять панику среди населения.

Но в большинстве таких случаев нововведение, предлагаемое депутатами, конечно же, не поможет, поэтому о них просто следует знать и помнить. В их число входят различные схемы мошенничеств, включая обман по средствам deepfake-видео с якобы девушками с сайтов знакомств, коллегами или руководителями, представителями СМИ, мэрами, губернаторами и другими должностными лицами. Но особняком стоят следующие схемы:

Звонки родственникам с территории Украины

По данным российских правоохранительных органов и банков, значительная часть колл-центров мошенников действует с территории Украины. И, начиная с 2023 года они начали активно применять ИИ-клонирование голосов, используя записи из соцсетей, притворяясь родственниками жертв.

Иногда они имитируют с помощью ИИ голоса солдат, якобы попавших в плен или в госпиталь. Родителям и женам звонят с просьбами срочно перевести деньги «на лечение» или «чтобы выкупить документы». И даже в поиске жертв им помогает ИИ, проводя анализ соцсетей на семейное положение, возраст, место работы и другие данные, которые люди по какой-то причине до сих пор выставляют напоказ.

Массовые рассылки от силовых структур

Достаточно популярное направление работы, как правило, активизирующееся на фоне тревожных политических новостей. ИПСО генерируют с помощью ИИ письма и сообщения якобы от военных комиссариатов содержали с повесткой, требованием обновить данные и ссылкой на вредоносные сайты.

Иногда через соцсети могут распространять также документы якобы от МВД, ФСБ и других органов, но цели всегда одни — запугать, выманить деньги, надавить на неудобных их руководству людей или организации.

Pxhere.com

Политические провокации

Неоднократно ИИ использовали для создания фейковых высказываний и аудио политиков, чтобы спровоцировать дипломатический скандал, вызвать протесты, стать поводом для санкций или ответных шагов. В том числе от лица Зеленского, который на кадрах признает поражение, объявляет диверсии и угрожают терактами.

Учитывая положение ВСУ и реальные высказывания данного одиозного персонажа, и в такие вещи запросто можно поверить. Но все это часть информационной войны и попытки психологического давления на россиян.

Не пропустите
ИИ-фейки о ЧС

Нейросети постоянно используются для генерации фальшивых фото и видео якобы с мест взрывов, пожаров, аварий. И, несмотря на то, что подобное запросто можно опровергнуть, материалы расходятся по региональным чатам быстрее официальных данных.

Катастрофы, теракты, дефицит и всевозможные кризисы — все то, чего ждут не дождутся противники России. Цель таких сообщений — хотя бы на небольшой промежуток времени создать панику, которая потенциально может привести к давкам, срывам работы и стрессу.

Фейки с участием военных

Пожалуй, один из самых отвратительных методов среди ИПСО, когда с помощью ИИ создаются ролики, где бойцы ВС РФ якобы признаются в каких-то преступлениях, критикуют командование или призывают к саботажу. Нередко подобный «продукт» направлен в первую очередь на внутреннюю аудиторию, но иногда его используют для подрыва доверия внутри России.

Не пропустите

К сожалению, наша действительность сегодня такова, что порой невозможно отличить реальный голос от сгенерированного, а настоящее видео — от подделки. Маркировка ИИ-контента — попытка вернуть хотя бы минимальную гигиену информации. И хоть это не панацея, хочется верить, что нововведение позволит снизить эффект паники и манипуляций и упростит работу следствия и экспертов. Но как бы то ни было, нельзя во всем надеяться на государство, важно помнить, что в эпоху, когда нейросеть может говорить голосом вашего близкого человека, наивность становится опасной роскошью.

*Meta - признана экстремистской и запрещённой в России

Фото: Pxhere.com