Поддержать команду Зеркала
Беларусы на войне
  1. «Почему-то развернули семью из четырех человек». Что пишут в чатах беларусы, которые почти сутки ждут выезда в Польшу
  2. «Газ идет отовсюду, я чувствую, что умираю». Среди сотен жертв этой жуткой катастрофы, изменившей Европу, был и беларус — рассказываем
  3. Чиновники придумали, как будут «спасать» крупное предприятие, которое «отжали» у приближенного к Лукашенко бизнесмена
  4. Производителя мороженого признали банкротом — подробности
  5. «„Толиков“ можно было хоть как-то контролировать». Беларусы объясняют коллапс на границе новым «бизнесом» — хотят жаловаться властям
  6. «Я приехал и уехал, а вам жить вместе». Макс Корж прокомментировал скандал, связанный с его концертом в Варшаве
  7. Трамп выразил надежду на скорое освобождение «1300» человек в Беларуси
  8. Беларуска удалила в Telegram переписку «для всех», но через неделю она «всплыла» у ее собеседника. Спросили у экспертов, как такое могло произойти
  9. Доллар больше не будет таким дешевым: новые причины для роста выше трех рублей. Прогноз по валютам
  10. «Больше похоже на капитуляцию». Главные выводы мировых СМИ о встрече Трампа и Путина
  11. Несколько пенсионных изменений появится в скором времени — рассказываем
  12. Трамп заявил, что Зеленский может «завершить войну практически немедленно», и предложил для этого отказаться от двух вещей
  13. Стало известно, какие требования выдвинул Путин на Аляске для завершения войны в Украине
  14. Лукашенко провел телефонный разговор с Путиным


Глава SpaceX Илон Маск, соучредитель Apple Стив Возняк, профессор компьютерных наук Стюарт Рассел и еще около тысячи экспертов из сферы ИИ призвали приостановить обучение нейросетей более мощных, чем GPT-4, так как это может представлять угрозу для всего человечества. Об этом они заявили в открытом письме, которое опубликовано на сайте организации Future of Life Institute.

Фотография используется в качестве иллюстрации. Фото: pixabay.com
Фотография используется в качестве иллюстрации. Фото: pixabay.com

В письме говорится, что системы ИИ с человеко-конкурентным интеллектом могут нести серьезные риски для общества и человечества. В нем содержится призыв к лабораториям приостановить обучение на шесть месяцев.

«Мощные системы искусственного интеллекта следует разрабатывать только тогда, когда мы уверены, что их эффекты будут положительными, а их риски будут управляемыми», — подчеркивают авторы письма.

В письме также указывается, что лаборатории и независимые эксперты должны использовать паузу в шесть месяцев для совместной разработки и внедрения набора общих протоколов, которые должны гарантировать безопасность.

Напомним, в конце января Microsoft объявила о многолетних и многомиллиардных инвестициях в лабораторию искусственного интеллекта (ИИ) OpenAI, которая среди прочего создала чат-бот ChatGPT. Microsoft не назвала конкретную сумму, но СМИ сообщали об объеме в 10 млрд долларов.

ChatGPT — это чат-бот, основанный на последней версии языковой модели GPT. Он был запущен в конце ноября 2022 года, а спустя всего неделю после запуска число его пользователей достигло 1 млн.

Такая популярность, по словам разработчиков, объясняется тем, что ChatGPT обучен «отвечать на последовательные вопросы, признавать свои ошибки, оспаривать некорректные вводные данные и отклонять неуместные вопросы».

В Сети можно найти много примеров использования ChatGPT: от составления резюме или инвестиционного портфеля до написания приветственного сообщения в приложении для знакомств или речи в Конгрессе США, от стихов до помощи в написании программного кода.