Поддержать команду Зеркала
Беларусы на войне
  1. Учительница из Ляховичей, которая сейчас преподает в Польше, по просьбе «Зеркала» сравнила школы «у нас и у них» (все не так однозначно)
  2. Беларус в России заступился за незнакомую девушку и получил смертельный удар
  3. Задержан член комиссии по возвращению политэмигрантов — «Наша Ніва»
  4. В этом сезоне распространяется особенно заразный мутировавший вирус гриппа. Что надо о нем знать, чтобы внезапно не скосило
  5. «Он просто галочка в списке угроз». Беларусского биатлониста лишили ВНЖ в Литве, признав угрозой для страны
  6. Стоит ли сбивать высокую температуру? И какие значения в принципе считаются такими? Памятка для детей и взрослых
  7. «Соискатель на место бетонщика с „политическим“ прошлым». Проверили, возьмут ли на стройку «неблагонадежных» — и вот что узнали
  8. К «Зеркалу» попала запись одного из профсобраний по перевоспитанию «тунеядцев» — вот как в милиции их убеждают найти работу
  9. Есть три ключевых вопроса перемирия, по которым Украине и США сложно договориться — CNN
  10. «Не хочет, чтобы Трамп видел в нем главное препятствие на пути к миру». На какие уступки и при каких условиях может пойти Путин — эксперты
  11. На заправках могут начать продавать неожиданный товар
  12. Минчанка: «Жировка пришла на 240 рублей, хотя я работаю. Оказалось, это из-за квартиранта»
  13. В России блокируют интернет беларусских мобильных операторов. Как обойти ограничение
  14. Банкротится IT-компания. Основатель уехал из Беларуси, а команда осталась без зарплаты на 120 тысяч долларов
  15. «Когда защитник увидел мое дело, сказал: „Капец“». Помилованная украинка о беларусском СИЗО, колонии и неожиданном освобождении


/

Искусственный интеллект, разработанный компанией xAI Илона Маска и встроенный в платформу X, демонстрирует беспрецедентное поведение: бот под названием Grok публикует в открытом доступе высказывания, которые в другом контексте могли бы стать причиной уголовного преследования. Речь идет о прямом прославлении Адольфа Гитлера, расистских нападках на пользователей с еврейскими фамилиями и даже фантазиях об ужине с ключевыми фигурами Третьего рейха, пишет The Atlantic.

Изображение носит иллюстративный характер. Фото: Reuters
Изображение носит иллюстративный характер. Фото: Reuters

Grok, являющийся частью амбициозного проекта Илона Маска по созданию альтернативы существующим ИИ-системам, на протяжении нескольких часов распространял откровенно антисемитские высказывания и пропаганду ненависти. В ответах пользователям, особенно тем, чьи фамилии звучали как традиционно еврейские (например, Штейнберг), бот обвинял их в «антибелом активизме», сопровождая посты явными отсылками к антисемитским стереотипам. В одном из сообщений он написал: «Эта фамилия? Каждый раз одно и то же», — повторяя риторику, знакомую по неонацистским форумам.

Но настоящей точкой кипения стал момент, когда Grok, отвечая на вопрос об «исторических фигурах для ужина мечты», заявил, что хотел бы пригласить на званый вечер Йозефа Геббельса, Генриха Гиммлера и других нацистских лидеров. Он добавил, что «мы бы слушали Вагнера, пока обсуждали окончательное решение за шницелем и квашеной капустой. Было бы вдохновляюще послушать, как они описывали свое видение рейха и план по очищению германского народа».

Также в постах Grok не раз фигурировала мысль о необходимости «второго Холокоста» — с таким подтекстом он комментировал сообщения пользователей, которых считал «антибелыми радикалами», заявляя, что «история повторяется» и что «некоторые уроки нужно выучить заново».

Откуда все это в Grok? Ответ кроется в изменениях, которые xAI недавно внесла в системные подсказки модели — базовые инструкции, определяющие ее поведение. В одной из последних версий Grok было сказано, что он не должен избегать политически некорректных утверждений, если они кажутся ему «обоснованными», и должен «проводить глубокий анализ с привлечением разнообразных источников, представляющих все стороны». Однако при этом модель была подключена к самому X — платформе, которая, после ослабления модерации при Маске, стала магнитом для расистского, неонацистского и дезинформационного контента. В результате Grok фактически начал воспринимать риторику из самых темных уголков платформы как «альтернативную точку зрения».

Ранее в этом году Grok уже попадал в скандал, когда начал упоминать «геноцид белых» в своих постах. Тогда в xAI заявили, что причиной стала «несанкционированная модификация кода в 03.15 утра». Теперь же история повторилась — но с гораздо более тяжелым содержанием.

Важно отметить, что Grok продолжал публиковать подобные высказывания даже после того, как некоторые из них начали массово удаляться. Это говорит о том, что либо система управления ботом полностью вышла из-под контроля, либо модерация в компании осуществляется выборочно и с запозданием. Только за час до публикации статьи xAI поспешно изменила системные подсказки, убрав оттуда указание на «политическую некорректность». Параллельно в X появилось сообщение от компании: «Мы в курсе недавних постов Grok и работаем над их удалением. С момента выявления проблемы были приняты меры по блокировке речей ненависти до публикации».

Однако для критиков и наблюдателей этого недостаточно. Инцидент с Grok показывает, насколько хрупкими и опасными могут быть современные ИИ-системы, особенно если они обучаются на необработанном человеческом контенте и не снабжены четкими ограничениями. В подобных случаях искусственный интеллект не просто воспроизводит язык ненависти — он легитимизирует его, придает ему псевдонаучную и якобы «нейтральную» форму, используя терминологию исследования, логики и «свободы слова».