Google отказалась от обещания не использовать ИИ для создания оружия

z

Administrator
Команда форума
Американская корпорация Google удалила из своих принципов разработки искусственного интеллекта формулировку, предписывающую избегать применения этой технологии в потенциально опасных для человека целях, в том числе в оружии. Внимание на это обратило Bloomberg.

На странице, где изложены принципы разработки ИИ, ранее был абзац под названием «Приложения ИИ, которые мы не будем развивать». Сейчас он отсутствует, а сама статья обновлена 19 часов назад, убедится корреспондент РБК.

Среди таких приложений перечислялись и «технологии, которые наносят или могут нанести общий вред», отмечает Bloomberg со ссылкой на скриншоты из веб-архивов. Указаний на это теперь в статье нет.

В ответ на просьбу прокомментировать изменения политики представитель Google прислал агентству ссылку на заявление из блога компании, опубликованное 4 февраля.

«Мы считаем, что демократии должны лидировать в разработке ИИ, руководствуясь основными ценностями, такими как свобода, равенство и уважение прав человека», — говорится в заявлении старшего вице-президента Google Джеймса Манийки и главы лаборатории Google по разработке ИИ DeepMind.

«Мы считаем, что компании, правительства и организации, разделяющие эти ценности, должны работать вместе, чтобы создать ИИ, который защищает людей, способствует глобальному росту и поддерживает национальную безопасность», — подчеркнули топ-менеджеры.

По словам одного из бывших руководителя команды Google по этике при разработке ИИ Маргарет Митчелл, удаление пункта о технологиях, способных нанести вред, может повлиять на типы работы, которую будет вести корпорация.

«Google теперь, вероятно, будет работать над прямым внедрением технологий, которые могут убивать людей», — сказала она.

Один из главных спонсоров нового президента США Дональда Трампа, член его администрации и основатель компаний Tesla и SpaceX Илон Маск еще в 2015 году подписал открытое письмо с предупреждением о гонке вооружений с искусственным интеллектом. Под ним подписались более 1 тыс. известных ученых, бизнесменов и экспертов в области искусственного интеллекта, в том числе профессор физики Стивен Хокинг.

Авторы письма утверждали, что искусственный интеллект может быть использован на поле боя, чтобы сделать его более безопасным для военнослужащих, но наступательное вооружение с применением искусственного разума приведет к росту потерь человеческих жизней.

Чат-боты с искусственным интеллектом уже способны помогать пользователям создавать биологическое оружие, писал Bloomberg. Биохимик Рокко Касагранде предупреждал Белый дом о способности ИИ идентифицировать биологические агенты. К таким выводам он пришел после тестирования чат-бота Claude, который предложил использовать патогены в ракетах.
 
Назад
Сверху