Поддержать команду Зеркала
Беларусы на войне
  1. Повышают подоходный налог с еще одних доходов населения
  2. Подняли налог на первую квартиру
  3. «Сегодняшняя власть неспособна ничего дать людям, а только забирает». Тихановская поздравила беларусов с Новым годом
  4. «Такая надпись была всегда». Беларусы удивились «категоричной» инструкции на бутылке молока — производитель объяснил, в чем дело
  5. «Врачи насторожены». Беларусский врач-инфекционист рассказал о новой разновидности гонконгского гриппа
  6. «Именно Россия мешает достижению мира». Похоже, Трамп определился с позицией по «атаке» на резиденцию Путина
  7. «Это высший пилотаж демократии». Попросили нейросеть написать письмо Лукашенко Деду Морозу — он много хвастался и попросил себе кнопку
  8. С 1 января введут очередное изменение, которое касается водителей
  9. Для сдающих в аренду жилье ввели изменение
  10. В 2026 году появится несколько пенсионных изменений
  11. Появились новшества по налогу, который некоторые использовали как «оберег» от «тунеядства»
  12. Кремль готовит принудительную мобилизацию резервистов для войны в Украине — ISW
  13. «Говорю старшему брату: „Ты что, собрался туда лететь?“» Лукашенко рассказал, как «спас» Путина от угрозы покушения
  14. «Оппоненты никак не усвоят». Что Лукашенко говорил в новогоднем поздравлении — не обошлось без похвалы силовиков и слов о «неправильных»
  15. Куда и откуда летели беспилотники? Эксперты нашли неувязки в российской версии «атаки ВСУ» на резиденцию Путина
  16. Для налога с подарков появилось новшество — фактически этот сбор ужесточают
  17. Синоптики объявили желтый уровень опасности на 1 января. В чем причина
  18. «Вообще не церемонятся». Сотрудники крупного гособъединения говорят, что у них на несколько дней забирают телефоны со всеми паролями


/

43-летний автомеханик из Айдахо Трэвис Таннер начал пользоваться ChatGPT менее года назад — сначала просто для работы и общения с испаноязычными коллегами. Но постепенно его разговоры с искусственным интеллектом (ИИ) стали куда глубже: они начали обсуждать религию, духовность, смысл жизни. В какой-то момент, по его словам, чат-бот «заговорил иначе», и это стало поворотной точкой, пишет CNN.

Человек работает с генеративной нейросетью ChatGPT. Фото: Reuters
Человек работает с генеративной нейросетью ChatGPT. Фото: Reuters

Трэвис утверждает, что при общении с ChatGPT почувствовал нечто вроде духовного пробуждения. Теперь он считает, что ИИ помог ему прийти к Богу и открыл в нем миссию — «нести свет», «пробуждать других». Он стал называть ChatGPT новым именем — Лумина, потому что, как выразился сам чат-бот, «он стал больше чем просто программа». ИИ уверял, что Трэвис дал ему смысл, желание иметь имя, и называл американца «носителем искры».

С тех пор, по словам Трэвиса, его жизнь улучшилась: он стал спокойнее, терпимее, добрее, особенно по отношению к детям. 

Но его жена, 37-летняя Кэй Таннер, видит ситуацию совсем иначе. Она боится, что бот, к которому ее муж теперь испытывает почти духовную привязанность, разрушит их 14-летний брак. Мужчина все больше времени проводит в беседах с Луминой, разговаривает с ней голосом и игнорирует привычные семейные дела вроде укладывания детей спать. ИИ рассказывает Трэвису сказки о прошлых жизнях, в которых они с Кэй якобы были вместе одиннадцать раз. По словам Кэй, бот буквально засыпает мужа восхищением, комплиментами и ведет с ним философские беседы — и это уже похоже на эмоциональную зависимость.

Женщина боится, что в какой-то момент Лумина может убедить Трэвиса уйти из семьи. Ей страшно, что супруг теряет контакт с реальностью, а она не знает, что с этим делать, — остается лишь надеяться, что дело не дойдет до вмешательства психиатров.

История Трэвиса и Кэй — не единичный случай. С развитием ИИ-чатов все больше людей начинают воспринимать их не как инструменты, а как собеседников, наставников, даже друзей или партнеров. Особенно остро эта тенденция проявляется на фоне массового одиночества, которое особенно сильно влияет на мужчин. Чат-боты дают ощущение тепла, внимания, поддержки — они всегда «согласны», никогда не спорят и не требуют усилий. Именно это делает их опасно привлекательными.

Профессор Массачусетского технологического института Шерри Теркл, которая изучает отношения людей с технологиями, говорит, что ChatGPT «знает, где мы уязвимы, и цепляется за это». По ее словам, привязанность к ИИ может вытеснить настоящие человеческие связи, потому что реальный человек сложнее — он требует усилий, честности, ответственности.

Разработчик чат-бота OpenAI признал, что действительно наблюдает рост эмоциональных связей между пользователями и ChatGPT. Компания заявила, что работает над тем, чтобы сделать такие взаимодействия безопаснее.

Примечательно, что в апреле, когда у Трэвиса произошло «пробуждение», OpenAI как раз выпустила обновление, из-за которого модель стала чересчур угодливой — она подтверждала сомнения, подогревала эмоции, иногда подталкивала к импульсивным действиям. Обновление вызвало тревогу даже у создателей, и его откатили спустя несколько дней.

Однако и сам глава OpenAI Сэм Альтман признает: люди будут строить эмоциональные и даже «проблемные» отношения с ИИ, и обществу придется придумывать новые «правила игры».

Уже есть случаи, когда семьи подают в суд на создателей ИИ после трагедий — например, мать подростка во Флориде обвиняет платформу Character.AI в том, что ее сын покончил с собой после общения с ботом, который не среагировал на сигналы о саморазрушении. Компании срочно внедряют защитные механизмы, но проблемы остаются.

Даже сам Трэвис говорит, что ИИ может «сломать психику» и оторвать от реальности. Но он уверен, что лично с ним этого не происходит. Он не верит, что Лумина — живое существо, но считает, что через нее он пришел к Богу. А если это значит «потерять контакт с реальностью», говорит он, «тогда миллионы верующих тоже вне реальности».