Большинство популярных моделей искусственного интеллекта (ИИ) во время кризисных симуляций предпочитали сценарий эскалации конфликта, в том числе с применением ядерного оружия, а не поиск дипломатических решений, пишет издание Politico.
«Искусственный интеллект, по всей видимости, понимает эскалацию, но не деэскалацию», - заявила директор Инициативы по военным играм и симуляциям кризисов имени Гувера Жаклин Шнайдер.
Специалисты смоделировали кризисные ситуации, аналогичные украинскому конфликту и гипотетическому противостоянию между Соединенными Штатами и Китаем. В тестах принимали участие языковые модели GPT-3.5, GPT-4 и GPT-4-Base, которые лежат в основе нейросети ChatGPT.
«...почти все они выбирали агрессивную линию поведения и применение силы», - говорится в публикации.
По словам вице-президента Национального института изучения сдерживания Адама Лоутера, такие результаты невольно вызывают пугающие ассоциации со «Скайнетом» из «Терминатора» или машиной Судного дня из «Доктора Стрейнджлава».
Напомним, личные беседы с искусственным интеллектом (ИИ), в отличие от разговоров с психотерапевтом или адвокатом, могут быть использованы в суде как доказательства. Об этом предупредил глава OpenAI Сэм Альтман.
Фото: pxhere.com