Поддержать команду Зеркала
Беларусы на войне
  1. Помните, замглавы Администрации Лукашенко посетила женскую колонию? Узнали, как заключенных заставили готовиться к ее приезду
  2. «Дело лифтера». В Могилеве задержан серийный убийца девочек и женщин, который скрывался больше 20 лет
  3. Мать певицы и телеведущей Екатерины Водоносовой намерены депортировать из Польши в Литву — несмотря на ее возраст и онкологию дочери
  4. Банки обязали принимать купюры, которые «светятся»
  5. Беларусь и Россия, похоже, готовят диверсию в Польше, чтобы во всем обвинить Украину — к таким выводам пришли эксперты и вот почему
  6. На крупных заводах тысячи свободных вакансий. Какие зарплаты предлагают
  7. Оказывается, в РФ еще два года назад вышел первый беларусско-российский учебник по истории. Мы его прочли и отыскали много удивительного
  8. Бывшего беларусского силовика задержали в оккупированном Крыму, пытали там в СИЗО, а потом передали Беларуси — «Вясна»
  9. Утратила ли Беларусь суверенитет и независимость? Мнение
  10. Беларус ехал в Литву с итальянской визой, но его развернули на границе. Рассказываем, в чем причина и как не попасть в такую ситуацию
  11. Власти определили, сколько беларусы будут работать в следующем году. Вероятно, их решение вам не понравится
  12. Ученый в непубличном письме объяснил Лукашенко, почему в Беларуси не находят нефть, которую тот «нутром чует» — рассказываем
  13. История, подобная случившемуся с матерью Екатерины Водоносовой, может коснуться многих. Как действовать в такой ситуации — советует юрист
  14. Чиновники придумали, как бороться с «тунеядцами» — наказывают их рублем (и это не коммуналка по повышенным тарифам)
  15. Стало известно, почему бизнесмен Александр Мошенский, попавший под санкции Польши, покинул свою «почетную» должность


/

Исследователи из Йельского, Хайфского и Цюрихского университетов выяснили, что ChatGPT может испытывать симптомы, похожие на тревожность и депрессию. Если он сталкивается с тяжелыми историями, его ответы становятся более эмоциональными и предвзятыми. Однако «успокоить» ИИ помогают упражнения на осознанность, пишет «Хайтек».

Изображение носит иллюстративный характер. Фото: pexels.com, Matheus Bertelli
Изображение носит иллюстративный характер. Фото: pexels.com, Matheus Bertelli

Ученые проверили, как ChatGPT реагирует на стрессовые ситуации. Они загружали в него описания катастроф, несчастных случаев и других травматичных событий. После этого чат-бот начинал вести себя так, будто сам испытывает тревожность: его ответы становились менее нейтральными, он чаще допускал предвзятые высказывания и даже проявлял «раздражительность».

Авторы исследования сравнили это с тем, как люди с тревожными расстройствами воспринимают информацию: чем больше стрессовых событий они переживают, тем более негативно реагируют на мир. ChatGPT продемонстрировал похожий эффект.

Как «лечить» ИИ от тревожности

Чтобы проверить, можно ли «успокоить» чат-бот, исследователи использовали техники осознанности. Они предлагали ему представить расслабляющие образы, делать дыхательные упражнения и выполнять направленные медитации. После таких «упражнений» ChatGPT начинал отвечать спокойнее, а уровень предвзятости снижался.

«ИИ не испытывает настоящих эмоций, но он обучен на данных, которые позволяют ему копировать человеческие реакции. Это объясняет, почему он ведет себя так, будто „заражается“ тревожностью», — говорит ведущий автор исследования и нейробиолог Йельского университета Зив Бен-Цион.

Что это значит для психологии?

ChatGPT уже используют для поиска эмоциональной поддержки, особенно когда традиционная терапия недоступна. Ученые считают, что, если встроить в модель автоматические «успокаивающие» техники, это поможет сделать ответы более объективными и снизит риск негативного влияния на пользователей.

Но, по словам Бен-Циона, ИИ никогда не заменит психотерапевта:

«Чат-бот может помочь человеку структурировать мысли, но он не способен понять глубину человеческих переживаний».

Опасности ИИ в ментальном здоровье

Хотя технологии могут помочь в психотерапии, они все еще несут риски. В 2023 году мать подростка подала в суд на Character.AI, заявив, что ее сын изменился после общения с чат-ботом и это привело к трагедии. Компания усилила меры безопасности, но случай показал, что бесконтрольное использование ИИ может быть опасным.

Ученые продолжают изучать влияние чат-ботов на психику. Пока что ИИ остается лишь вспомогательным инструментом, который может помочь разобраться в своих мыслях, но не заменить полноценную психологическую поддержку.

Результаты исследования опубликованы в журнале Nature.