Поддержать команду Зеркала
Беларусы на войне
  1. Трамп заявил, что Зеленский может «завершить войну практически немедленно», и предложил для этого отказаться от двух вещей
  2. «Газ идет отовсюду, я чувствую, что умираю». Среди сотен жертв этой жуткой катастрофы, изменившей Европу, был и беларус — рассказываем
  3. «Почтальонша закричала, что шифровки больше доставлять не будет». Эти минчане в 80-х устраивали очень креативные акции — рассказываем
  4. «Больше похоже на капитуляцию». Главные выводы мировых СМИ о встрече Трампа и Путина
  5. Лукашенко провел телефонный разговор с Путиным
  6. «Я приехал и уехал, а вам жить вместе». Макс Корж прокомментировал скандал, связанный с его концертом в Варшаве
  7. Трамп выразил надежду на скорое освобождение «1300» человек в Беларуси
  8. Доллар больше не будет таким дешевым: новые причины для роста выше трех рублей. Прогноз по валютам
  9. «Почему-то развернули семью из четырех человек». Что пишут в чатах беларусы, которые почти сутки ждут выезда в Польшу
  10. Беларуска удалила в Telegram переписку «для всех», но через неделю она «всплыла» у ее собеседника. Спросили у экспертов, как такое могло произойти
  11. Стало известно, какие требования выдвинул Путин на Аляске для завершения войны в Украине
  12. Чиновники придумали, как будут «спасать» крупное предприятие, которое «отжали» у приближенного к Лукашенко бизнесмена
  13. Несколько пенсионных изменений появится в скором времени — рассказываем
  14. Производителя мороженого признали банкротом — подробности


/

Google удалил из своих принципов работы с искусственным интеллектом пункт, в котором компания обещала не участвовать в создании технологий, способных нанести вред людям, в том числе в военных целях. На это обратило внимание агентство Bloomberg.

Изображение носит иллюстративный характер. Фото: Pawel Czerwinski / unsplash.com
Изображение носит иллюстративный характер. Фото: Pawel Czerwinski / unsplash.com

Со страницы целиком исчез раздел под заголовком «Применение [ИИ], которым мы не будем заниматься». Судя по копиям страницы в веб-архиве, в конце января этот раздел еще присутствовал на ней. Он содержал четыре пункта:

  • технологии, которые в целом наносят или могут нанести вред (только если польза от них значительно не перевешивает риски);
  • оружие или другие технологии, предназначенные для причинения вреда человеку напрямую или косвенно;
  • технологии слежки, нарушающие международные нормы;
  • технологии, цели которых противоречат международным правовым принципам.

Страница в ее нынешнем виде вообще не содержит упоминаний об обязательствах отказаться от применения ИИ в опасных и неэтичных технологиях, включая оружейные.

В ответ на запрос журналистов прокомментировать произошедшие изменения представитель Google отправил запись в блоге компании, которая была опубликована 4 февраля. В ней говорится об итогах работы в 2024 году и ближайших планах корпорации относительно искусственного интеллекта.

Как рассказали в блоге старший вице-президент Google Джеймс Манийка и глава лаборатории искусственного интеллекта DeepMind Демис Хассабис, правительства и компании должны работать вместе над созданием искусственного интеллекта, который будет защищать людей, способствовать глобальному развитию и поддерживать нацбезопасность.

Одна из бывших руководителей исследовательской группы Google по этике искусственного интеллекта Маргарет Митчелл сказала Bloomberg, что подобное изменение принципов работы корпорации с ИИ будет иметь серьезные последствия: «Удаление этого пункта <…> означает, что Google теперь, вероятно, будет работать над внедрением технологий, которые смогут убивать людей».

Изменение политики Google в сфере разработки искусственного интеллекта совпадает с общей тенденцией среди крупных игроков на рынке, отметило Bloomberg. В частности, в январе Meta и Amazon расформировали часть своих программ по обеспечению разнообразия и инклюзивности.