Поддержать команду Зеркала
Беларусы на войне
  1. Почему глава МИД неожиданно заговорил о здоровье Лукашенко? Мнение
  2. Максимальный срок. Суд вынес приговор по делу о смертельном ДТП под Минском, в котором погибла семья из России
  3. В 2013-м суровый турист из Беларуси проснулся знаменитым. Узнали, как он живет сейчас
  4. Освобождены 123 политзаключенных. Среди них Виктор Бабарико, Мария Колесникова и Алесь Беляцкий
  5. Следователи изучают факты «лакшери-жизни» пары блогеров из Гродно. Одного из них отправили в СИЗО
  6. Лукашенко встретился в Минске со спецпосланником Трампа Коулом. После прошлой встречи освободили группу политзаключенных
  7. Что выиграет Беларусь от снятия американских санкций на калий? Спросили у экономиста
  8. Один из мобильных операторов ввел изменения — они вызвали вопросы у пользователей. Что случилось
  9. Беларус рассказал «Зеркалу», как в 11 лет пережил измену отца, который бросил их с сестрой и матерью и ушел к любовнице. Простил ли он его?
  10. Кремль категорически отверг предложения Украины о прекращении огня и проведении референдума по Донбассу — ISW
  11. США снимают санкции с беларусского калия
  12. Эйсмонт рассказала, куда пропадает по средам Лукашенко
  13. В разгар российской оккупации он уехал в Москву служить царям, а власти Беларуси хотят сделать его «национальным героем». Рассказываем
  14. «Зеркало» выбрало человека года — им стал Николай Статкевич. Рассказываем, почему мы приняли именно такое решение


/

Google удалил из своих принципов работы с искусственным интеллектом пункт, в котором компания обещала не участвовать в создании технологий, способных нанести вред людям, в том числе в военных целях. На это обратило внимание агентство Bloomberg.

Изображение носит иллюстративный характер. Фото: Pawel Czerwinski / unsplash.com
Изображение носит иллюстративный характер. Фото: Pawel Czerwinski / unsplash.com

Со страницы целиком исчез раздел под заголовком «Применение [ИИ], которым мы не будем заниматься». Судя по копиям страницы в веб-архиве, в конце января этот раздел еще присутствовал на ней. Он содержал четыре пункта:

  • технологии, которые в целом наносят или могут нанести вред (только если польза от них значительно не перевешивает риски);
  • оружие или другие технологии, предназначенные для причинения вреда человеку напрямую или косвенно;
  • технологии слежки, нарушающие международные нормы;
  • технологии, цели которых противоречат международным правовым принципам.

Страница в ее нынешнем виде вообще не содержит упоминаний об обязательствах отказаться от применения ИИ в опасных и неэтичных технологиях, включая оружейные.

В ответ на запрос журналистов прокомментировать произошедшие изменения представитель Google отправил запись в блоге компании, которая была опубликована 4 февраля. В ней говорится об итогах работы в 2024 году и ближайших планах корпорации относительно искусственного интеллекта.

Как рассказали в блоге старший вице-президент Google Джеймс Манийка и глава лаборатории искусственного интеллекта DeepMind Демис Хассабис, правительства и компании должны работать вместе над созданием искусственного интеллекта, который будет защищать людей, способствовать глобальному развитию и поддерживать нацбезопасность.

Одна из бывших руководителей исследовательской группы Google по этике искусственного интеллекта Маргарет Митчелл сказала Bloomberg, что подобное изменение принципов работы корпорации с ИИ будет иметь серьезные последствия: «Удаление этого пункта <…> означает, что Google теперь, вероятно, будет работать над внедрением технологий, которые смогут убивать людей».

Изменение политики Google в сфере разработки искусственного интеллекта совпадает с общей тенденцией среди крупных игроков на рынке, отметило Bloomberg. В частности, в январе Meta и Amazon расформировали часть своих программ по обеспечению разнообразия и инклюзивности.