Поддержать команду Зеркала
Беларусы на войне
  1. В кинотеатрах страны покажут фильм пропагандиста Азаренка. В «Беларусьфильм» его назвали «поистине уникальным произведением»
  2. В Витебске десятки домов остались без отопления ночью в морозы. Аварию устранили к утру
  3. Беларуска открыла визу и отправилась в поездку, но не учла важную деталь, из-за которой могла остаться на пару часов на «нейтралке»
  4. Лукашенко дал прогноз на конец зимы. Синоптики с ним не согласны
  5. В США заявили, что контроль над Донецкой областью — единственный нерешенный вопрос на мирных переговорах. В Кремле не согласны — ISW
  6. Джеффри Эпштейн получал визы в Беларусь и, скорее всего, посещал страну. Он якобы даже собирался купить квартиру в Минске
  7. Очень, очень, очень холодно. Синоптик рассказал, какой будет погода в Беларуси на предстоящей неделе
  8. Мария Колесникова ответила, поддерживает ли она по-прежнему Светлану Тихановскую
  9. «Возможно, сотрудничает со спецслужбами». Чемпион Польши по боксу внезапно уехал в Беларусь (он родом из Лиды), бросив даже свои награды
  10. Беларуска рассказала, что получила «повестку за неуборку снега» вокруг авто
  11. Пара сняла «бабушатник» и преобразила его за 700 долларов. Хозяева увидели результат и подняли аренду
  12. Ночью в воздушное пространство Польши залетели «объекты из Беларуси». Их отслеживали военные
  13. Золушка современной Беларуси. Как логопед из Шклова оказалась на верхушке империи развлечений, зарабатывающей миллионы
  14. Коронация откладывается. Арина Соболенко второй год подряд проиграла в финале Открытого чемпионата Австралии — рассказываем главное


/

Google удалил из своих принципов работы с искусственным интеллектом пункт, в котором компания обещала не участвовать в создании технологий, способных нанести вред людям, в том числе в военных целях. На это обратило внимание агентство Bloomberg.

Изображение носит иллюстративный характер. Фото: Pawel Czerwinski / unsplash.com
Изображение носит иллюстративный характер. Фото: Pawel Czerwinski / unsplash.com

Со страницы целиком исчез раздел под заголовком «Применение [ИИ], которым мы не будем заниматься». Судя по копиям страницы в веб-архиве, в конце января этот раздел еще присутствовал на ней. Он содержал четыре пункта:

  • технологии, которые в целом наносят или могут нанести вред (только если польза от них значительно не перевешивает риски);
  • оружие или другие технологии, предназначенные для причинения вреда человеку напрямую или косвенно;
  • технологии слежки, нарушающие международные нормы;
  • технологии, цели которых противоречат международным правовым принципам.

Страница в ее нынешнем виде вообще не содержит упоминаний об обязательствах отказаться от применения ИИ в опасных и неэтичных технологиях, включая оружейные.

В ответ на запрос журналистов прокомментировать произошедшие изменения представитель Google отправил запись в блоге компании, которая была опубликована 4 февраля. В ней говорится об итогах работы в 2024 году и ближайших планах корпорации относительно искусственного интеллекта.

Как рассказали в блоге старший вице-президент Google Джеймс Манийка и глава лаборатории искусственного интеллекта DeepMind Демис Хассабис, правительства и компании должны работать вместе над созданием искусственного интеллекта, который будет защищать людей, способствовать глобальному развитию и поддерживать нацбезопасность.

Одна из бывших руководителей исследовательской группы Google по этике искусственного интеллекта Маргарет Митчелл сказала Bloomberg, что подобное изменение принципов работы корпорации с ИИ будет иметь серьезные последствия: «Удаление этого пункта <…> означает, что Google теперь, вероятно, будет работать над внедрением технологий, которые смогут убивать людей».

Изменение политики Google в сфере разработки искусственного интеллекта совпадает с общей тенденцией среди крупных игроков на рынке, отметило Bloomberg. В частности, в январе Meta и Amazon расформировали часть своих программ по обеспечению разнообразия и инклюзивности.