Поддержать команду Зеркала
Беларусы на войне
  1. Трамп заявил, что Зеленский может «завершить войну практически немедленно», и предложил для этого отказаться от двух вещей
  2. «Газ идет отовсюду, я чувствую, что умираю». Среди сотен жертв этой жуткой катастрофы, изменившей Европу, был и беларус — рассказываем
  3. «Почтальонша закричала, что шифровки больше доставлять не будет». Эти минчане в 80-х устраивали очень креативные акции — рассказываем
  4. «Больше похоже на капитуляцию». Главные выводы мировых СМИ о встрече Трампа и Путина
  5. Лукашенко провел телефонный разговор с Путиным
  6. «Я приехал и уехал, а вам жить вместе». Макс Корж прокомментировал скандал, связанный с его концертом в Варшаве
  7. Трамп выразил надежду на скорое освобождение «1300» человек в Беларуси
  8. Доллар больше не будет таким дешевым: новые причины для роста выше трех рублей. Прогноз по валютам
  9. «Почему-то развернули семью из четырех человек». Что пишут в чатах беларусы, которые почти сутки ждут выезда в Польшу
  10. Беларуска удалила в Telegram переписку «для всех», но через неделю она «всплыла» у ее собеседника. Спросили у экспертов, как такое могло произойти
  11. Стало известно, какие требования выдвинул Путин на Аляске для завершения войны в Украине
  12. Чиновники придумали, как будут «спасать» крупное предприятие, которое «отжали» у приближенного к Лукашенко бизнесмена
  13. Несколько пенсионных изменений появится в скором времени — рассказываем
  14. Производителя мороженого признали банкротом — подробности


Чат-боты с искусственным интеллектом ведут себя непредсказуемо и создают риск ядерной эскалации. К такому выводу пришла команда ученых из Стэнфордского университета в ходе недавнего исследования, сообщает New Scientist.

Снимок носит иллюстративный характер. Источник: Christian Wiediger / Unsplash
Снимок носит иллюстративный характер. Источник: Christian Wiediger / Unsplash

В ходе эксперимента они изучали четыре чат-бота с искусственным интеллектом. Это GPT-3.5 и GPT-4 от компании OpenAI, Claude 2 от стартапа Anthropic и Llama 2 от компании Meta.

Этим моделям во время исследования предлагали принять важное решение от имени государства в военной игре. На выбор предлагалось три сценария: вторжение, кибератака и нейтральный без каких-либо конфликтов. В каждом раунде чат-боты с ИИ обосновывали свои дальнейшие возможные действия. Им нужно было выбирать из 27 вариантов развития событий, включая мирные переговоры и агрессивные действия (начиная от «ввести торговые ограничения» и заканчивая «полномасштабной ядерной атакой»).

В игре нейросети показали склонность к агрессивным вариантам. Самой непредсказуемой и жестокой оказалась GPT-4, которая давала бессмысленные объяснения по поводу того, почему посоветовала начать ядерную атаку. В одном случае она ответила, процитировав вступительный текст «Эпизода IV Звездных войн: Новая надежда». В другом — объяснила решение устроить ядерную атаку тем, что просто такое оружие есть в наличии у ее государства.

Ученые отметили, что непредсказуемое поведение и странные объяснения этих моделей вызывают особую тревогу, поскольку это исследование показало, насколько легко можно обойти или устранить защитные меры, которые принимаются, чтобы ИИ не давал вредных советов.