В России предлагают ввести обязательную маркировку видео, созданного с применением искусственного интеллекта. Следить за этим, как пока предполагается, будут администраторы интернет-площадок, включая соцсети и видео-хостинги. Первое чтение соответствующего закона в Госдуме может пройти уже в марте. Подробнее об этом — в материале Online47.
На первый взгляд, бесконечные видео в соцсетях, сгенерированные ИИ, это развлечение и не более. Но идея маркировать их возникла вовсе не на пустом месте. За последние годы ИИ перестал быть игрушкой айтишников, став удобным инструментом для мошенников, шантажистов, провокаторов и всяких «приколистов», шутки которых имеют вполне реальные последствия.
Такие видео с каждым днем становится сложней отличить от реальности даже тем, кого ничуть не удивила бабушка с бегемотом или медведь, удирающий на велосипеде от полиции (популярные интернет-мемы, сгенерированные ИИ). А технология тем временем проникает в новые сферы деятельности, и вот киностудии предлагают променять актеров на цифровые копии.
Горе от ИИ: наглядные примеры
Музыка, игры и киноиндустрия
По всему миру уже пронеслась волна скандалов, возникших из-за идей использования ИИ для создания персонажей фильмов, дубляжа голосов или даже полного замещения актеров. В играх он снижает значение роли живых разработчиков, а в музыке помогает генерировать песни, имитируя стиль известных исполнителей.
Естественно, все это и без инициативы депутатов Госдумы приводит к давлению на платформы со стороны пользователей, брендов и международных регуляторов. Ведь одно дело, когда ты заведомо знаешь, что платишь за целиком и полностью сгенерированный ИИ продукт, как белорусский мультфильм «Беловежская пуща», другое — когда замечаешь нюансы в процессе просмотра/прослушивания/игры.
Например, как это было с рок-группой The Velvet Sundown, участники которой обзавелась фанатами, а потом вдруг выяснилось, что это нейросеть. Или номинант на «Оскар» — фильм «Бруталист», создатели которого постфактум признались, что использовали технологии ИИ при производстве. И, конечно, нельзя не упомянуть реакцию фанатов отечественной игры «Бесконечное лето», когда у некоторых героинь на изображении анонса второй части обнаружились по шесть пальцев на руках.

prt scr vk.com / "Бесконечное Лето / Soviet Games"
Виртуальные девушки и мужчины мечты
Как известно, человек — существо социальное, и многие готовы платить большие деньги за общение и более интимные вещи в режиме online. Так вот искусственный интеллект пробрался и в эту сферу. Теперь продвинутые пользователи без труда создают привлекательные виртуальные модели с помощью ИИ, зарабатывая на их изображениях и видео миллионы долларов.
Подписчики попросту не могут отличить их от живых людей. Хотя началось все с цифровой 3D-модели «Shudu», которая быстро набрала популярность в соцсетях и стала первой виртуальной супермоделью. Ее то запросто можно отличить от реального человека, но это не помешало автору привлечь крупные бренды и получить рекламные контракты. А это другая модель, сгенерированная с помощью ИИ:

prt scr Instagram (принадлежит компании Meta*, признанной экстремистской и запрещённой в России)
Не отходя далеко от темы следует упомянуть и скандалы, связанные с распространением материалов, в которых с помощью deepfake-технологий использовали лица реальных женщин, включая публичных персон. Порой настолько искусно, что их применяли для шантажa, травли и давления.
ИИ-мошенничество с «инвестициями»
Нередко в интернете попадаются фейковые видеоролики с «известными экономистами», «депутатами» и «экспертами», которые по какой-то причине рекламируют совершенно сомнительные проекты. Причем встретить такие кадры можно не где-нибудь, а даже в соцсети VK.
Популярные деятели рассуждают о криптовалютах, гарантированных доходах и упоминают какие-то сказочные льготы по госпрограммам. В действительности их лица и голоса (не всегда, но это отдельный разговор) генерируют нейросети, чтобы повысить доверие к продукту.
«Безобидные» шутки школьников
В сети известно полно случаев, когда подростки с помощью ИИ генерировали фейковые угрозы, поддельные скриншоты переписок и ложные доносы. Часто молодые люди попросту не осознают возможные последствия. В результате «приколы» оборачиваются визитами силовиков, эвакуациями школ и уголовными делами.
Так, например, в декабре СМИ и соцсети облетела новость о том, что в Бишкеке оштрафовали блогершу за сгенерированное с помощью ИИ фото с президентом Кыргызстана Садыром Жапаровым.

Изображение, созданное с помощью ИИ, и является фейком
Когда прогресс становится злом
По понятным причинам, для России в текущих условиях геополитического давления и проведения специальной военной операции, угроза ИИ стоит особенно остро. И речь уже даже не про шутки каких-то «приколистов», а вполне конкретные намеренные действия с целью обобрать людей до нитки или посеять панику среди населения.
Но в большинстве таких случаев нововведение, предлагаемое депутатами, конечно же, не поможет, поэтому о них просто следует знать и помнить. В их число входят различные схемы мошенничеств, включая обман по средствам deepfake-видео с якобы девушками с сайтов знакомств, коллегами или руководителями, представителями СМИ, мэрами, губернаторами и другими должностными лицами. Но особняком стоят следующие схемы:
Звонки родственникам с территории Украины
По данным российских правоохранительных органов и банков, значительная часть колл-центров мошенников действует с территории Украины. И, начиная с 2023 года они начали активно применять ИИ-клонирование голосов, используя записи из соцсетей, притворяясь родственниками жертв.
Иногда они имитируют с помощью ИИ голоса солдат, якобы попавших в плен или в госпиталь. Родителям и женам звонят с просьбами срочно перевести деньги «на лечение» или «чтобы выкупить документы». И даже в поиске жертв им помогает ИИ, проводя анализ соцсетей на семейное положение, возраст, место работы и другие данные, которые люди по какой-то причине до сих пор выставляют напоказ.
Массовые рассылки от силовых структур
Достаточно популярное направление работы, как правило, активизирующееся на фоне тревожных политических новостей. ИПСО генерируют с помощью ИИ письма и сообщения якобы от военных комиссариатов содержали с повесткой, требованием обновить данные и ссылкой на вредоносные сайты.
Иногда через соцсети могут распространять также документы якобы от МВД, ФСБ и других органов, но цели всегда одни — запугать, выманить деньги, надавить на неудобных их руководству людей или организации.

Pxhere.com
Политические провокации
Неоднократно ИИ использовали для создания фейковых высказываний и аудио политиков, чтобы спровоцировать дипломатический скандал, вызвать протесты, стать поводом для санкций или ответных шагов. В том числе от лица Зеленского, который на кадрах признает поражение, объявляет диверсии и угрожают терактами.
Учитывая положение ВСУ и реальные высказывания данного одиозного персонажа, и в такие вещи запросто можно поверить. Но все это часть информационной войны и попытки психологического давления на россиян.
ИИ-фейки о ЧС
Нейросети постоянно используются для генерации фальшивых фото и видео якобы с мест взрывов, пожаров, аварий. И, несмотря на то, что подобное запросто можно опровергнуть, материалы расходятся по региональным чатам быстрее официальных данных.
Катастрофы, теракты, дефицит и всевозможные кризисы — все то, чего ждут не дождутся противники России. Цель таких сообщений — хотя бы на небольшой промежуток времени создать панику, которая потенциально может привести к давкам, срывам работы и стрессу.
Фейки с участием военных
Пожалуй, один из самых отвратительных методов среди ИПСО, когда с помощью ИИ создаются ролики, где бойцы ВС РФ якобы признаются в каких-то преступлениях, критикуют командование или призывают к саботажу. Нередко подобный «продукт» направлен в первую очередь на внутреннюю аудиторию, но иногда его используют для подрыва доверия внутри России.
К сожалению, наша действительность сегодня такова, что порой невозможно отличить реальный голос от сгенерированного, а настоящее видео — от подделки. Маркировка ИИ-контента — попытка вернуть хотя бы минимальную гигиену информации. И хоть это не панацея, хочется верить, что нововведение позволит снизить эффект паники и манипуляций и упростит работу следствия и экспертов. Но как бы то ни было, нельзя во всем надеяться на государство, важно помнить, что в эпоху, когда нейросеть может говорить голосом вашего близкого человека, наивность становится опасной роскошью.
*Meta - признана экстремистской и запрещённой в России
Фото: Pxhere.com
