Поддержать команду Зеркала
Беларусы на войне
  1. Синоптики объявили на воскресенье желтый уровень опасности. Возможно, вы не ожидали такую погоду в ноябре
  2. «Настроение поменялось». Если Польша откроет два пункта пропуска, как на это отреагирует официальный Минск — спросили у аналитика
  3. Этот человек, похоже, не написал ни одного произведения, а его считают одним из важнейших поэтов Беларуси. Вот как так получилось
  4. Польша открыла пункты пропуска на границе с беларусью. Ажиотажа не было
  5. Эксперты рассказали, как плохая погода помогает российским войскам использовать ключевую уязвимость украинской обороны
  6. По налогу на недвижимость хотят ввести новшество
  7. Автор «лучшего сериала в истории» наконец-то выпустил новый — и, по словам критиков, опять создал шедевр. Рассказываем о нем
  8. «Я отвечу: нет». Экс-командир полка Калиновского покинул пост и заявил, что подразделение уже не является полком по численности
  9. В Погранкомитете сделали заявление для водителей, которые собираются выезжать в Польшу
  10. К администрации Трампа и Госдепартаменту обратились из-за Лукашенко и Тихановской. Вот к чему их призывают
  11. В МВД назвали шесть фраз, после которых беларусам следует завершить телефонный разговор
  12. Автобусы в Польшу через «Берестовицу» запускает крупный перевозчик
  13. Появились слухи, что после открытия «Кузницы» и «Бобровников» беларусы закроют на ремонт «Брест». Спросили у ГПК, так ли это
  14. Транспортники отреагировали на критику Лукашенко из-за очередей на маршрутки в часы пик
  15. В Нацбанке — нехватка работников. Какие зарплаты предлагают


/

Google удалил из своих принципов работы с искусственным интеллектом пункт, в котором компания обещала не участвовать в создании технологий, способных нанести вред людям, в том числе в военных целях. На это обратило внимание агентство Bloomberg.

Изображение носит иллюстративный характер. Фото: Pawel Czerwinski / unsplash.com
Изображение носит иллюстративный характер. Фото: Pawel Czerwinski / unsplash.com

Со страницы целиком исчез раздел под заголовком «Применение [ИИ], которым мы не будем заниматься». Судя по копиям страницы в веб-архиве, в конце января этот раздел еще присутствовал на ней. Он содержал четыре пункта:

  • технологии, которые в целом наносят или могут нанести вред (только если польза от них значительно не перевешивает риски);
  • оружие или другие технологии, предназначенные для причинения вреда человеку напрямую или косвенно;
  • технологии слежки, нарушающие международные нормы;
  • технологии, цели которых противоречат международным правовым принципам.

Страница в ее нынешнем виде вообще не содержит упоминаний об обязательствах отказаться от применения ИИ в опасных и неэтичных технологиях, включая оружейные.

В ответ на запрос журналистов прокомментировать произошедшие изменения представитель Google отправил запись в блоге компании, которая была опубликована 4 февраля. В ней говорится об итогах работы в 2024 году и ближайших планах корпорации относительно искусственного интеллекта.

Как рассказали в блоге старший вице-президент Google Джеймс Манийка и глава лаборатории искусственного интеллекта DeepMind Демис Хассабис, правительства и компании должны работать вместе над созданием искусственного интеллекта, который будет защищать людей, способствовать глобальному развитию и поддерживать нацбезопасность.

Одна из бывших руководителей исследовательской группы Google по этике искусственного интеллекта Маргарет Митчелл сказала Bloomberg, что подобное изменение принципов работы корпорации с ИИ будет иметь серьезные последствия: «Удаление этого пункта <…> означает, что Google теперь, вероятно, будет работать над внедрением технологий, которые смогут убивать людей».

Изменение политики Google в сфере разработки искусственного интеллекта совпадает с общей тенденцией среди крупных игроков на рынке, отметило Bloomberg. В частности, в январе Meta и Amazon расформировали часть своих программ по обеспечению разнообразия и инклюзивности.