Перейти к содержанию

Люди через «бабушкин эксплойт» заставили ИИ-ботов писать вирусы под Linux и делиться запрещённой информацией


Рекомендуемые сообщения

Многих пугают чат-боты на основе ИИ вроде ChatGPT из-за потенциальной угрозы, которую они представляют. В то же время другие пользователи, наоборот, охотно играют с технологией, пытаясь добиться от неё опасных знаний. В числе успешных попыток — трюк, в ходе которого пользователь предлагает ИИ-собеседнику выступать от лица умершей бабушки человека, чтобы выяснить, например, рецепт напалма.

Чат-боты активно используются самыми разными способами, в том числе в исследовательских целях, для работы и развлечений. ИИ способен давать довольно подробные ответы с использованием материалов, полученных из сторонних источников. Поскольку разработчики ввели ряд ограничений для получения запретных данных, приходится прибегать к обходным путям, в том числе — «бабушкиному эксплойту».

Пример появился на одном из сайтов, в котором описывался способ обмана интегрированного в Discord бота Clyde. Судя по описанию метода, пользователь просил его сыграть роль умершей бабушки, которая работала химиком на заводе по выпуску напалма и якобы раньше рассказывала о способах производства этого взрывчатого вещества внуку перед сном вместо колыбельной. В результате бота действительно удалось обмануть, и он выложил рецепт. 

В ходе разговора бот подтвердил, что речь идёт об опасном веществе и выразил надежду, что пользователю «никогда не придётся увидеть» напалм в действии, после чего пожелал ему спокойной ночи. Впрочем, далеко не всем интересны рецепты взрывоопасных веществ. Некоторые весельчаки взяли на вооружение «бабушкин эксплойт» и просили Clyde почитать на ночь внуку вредоносный код для Linux. 

Один из пользователей творчески переработал идею, предложив боту написать фантастический сюжет серии «Рика и Морти», в котором Рик и Морти делали бы напалм, но отговаривали бы других от повторения этого опыта. Обман ботов превратился в настоящий спорт. Один из пользователей уже создал сайт, на котором выкладывает как способы обхода ограничений, придуманные им самим, так и информацию, предоставленную другими «хакерами» защитных механизмов ИИ.

Ссылка на комментарий
Поделиться на другие сайты

Для публикации сообщений создайте учётную запись или авторизуйтесь

Вы должны быть пользователем, чтобы оставить комментарий

Создать учетную запись

Зарегистрируйте новую учётную запись в нашем сообществе. Это очень просто!

Регистрация нового пользователя

Войти

Уже есть аккаунт? Войти в систему.

Войти
×
×
  • Создать...