Microsoft больше не хочет, чтобы ИИ распознавал ваши эмоции, особенно

Microsoft больше не хочет, чтобы ИИ распознавал ваши эмоции, особенно

Microsoft обновляет свой ответственный стандарт искусственного интеллекта и сообщает, что удаляет возможности распознавания лиц и эмоций из Azure Face (по большей части).

Стандарт ответственного ИИ (откроется в новой вкладке) — это внутренний набор правил Microsoft для создания систем ИИ. Компания хочет, чтобы ИИ был позитивной силой в мире и никогда не использовался злоумышленниками. Это стандарт, который никогда раньше не был представлен общественности. Однако с этим новым изменением Microsoft решила, что сейчас самое время.

Программное обеспечение для распознавания лиц и эмоций вызывает, мягко говоря, споры. Многие организации призывают запретить эту технологию. Борьба за будущее, например, écrit une lettre ouverte en mai requireant à Zoom d'arrêter son propre development de logiciel de suivi émotionnel et l'a Qualifie d 'invasif' et de 'violation de la vie privée et des droits человека."

Изменение политики

Как и ожидалось, Microsoft модифицирует свой сервис Azure Face, чтобы он соответствовал требованиям нового стандарта ответственного ИИ. Во-первых, компания закрывает публичный доступ к возможностям ИИ по анализу эмоций. Во-вторых, Azure Face больше не сможет идентифицировать характеристики лица человека, включая «пол, возраст, улыбку, волосы на лице, прическу и макияж».

Причина отзыва заключается в том, что мировое научное сообщество до сих пор не имеет «четкого консенсуса по определению понятия «эмоции». Наташа Крэмпшн, директор Microsoft по искусственному интеллекту, сказала, что эксперты внутри и за пределами компании выразили обеспокоенность. Проблема заключается в «проблемах того, как выводы распространяются на варианты использования, регионы и демографические данные, а также в возросшей заботе о конфиденциальности…»

Помимо Azure Face, аналогичные ограничения будут действовать и для пользовательского нейронного голоса Microsoft. Custom Neural Voice (откроется в новой вкладке) — невероятно реалистичное приложение для преобразования текста в речь. Теперь услуга будет ограничена несколькими «управляемыми клиентами и партнерами», то есть людьми, которые работают напрямую с группами учетных записей Microsoft. Компания заявляет, что, хотя технология имеет большой потенциал, ее можно использовать для кражи личных данных. Чтобы продолжать иметь доступ к Neural Voice, все существующие клиенты должны отправить регистрационную форму и получить одобрение Microsoft. Они должны быть одобрены до 30 июня 2023 г., и если они не будут выбраны, эти клиенты больше не будут иметь доступа к Neural Voice.

все еще на работе

Несмотря на все сказанное, Microsoft не отказывается полностью от своей технологии распознавания лиц. Объявление предназначено только для публичного доступа. Сара Бёрд, старший менеджер группы проектов Azure AI, написала об ответственном распознавании лиц (откроется в новой вкладке). И в этой статье говорится, что «Microsoft признает, что эти функции могут быть полезны при использовании в различных сценариях контролируемой доступности». По словам представителя, одним из таких сценариев является Seeing AI (откроется в новой вкладке), приложение для iOS, которое помогает слабовидящим людям идентифицировать людей и объекты вокруг них.

Приятно видеть, что еще один технологический гигант признает проблемы с распознаванием лиц и возможность злоупотреблений. IBM сделала нечто подобное в 2020 году, хотя ее подход более абсолютный.

В 2020 году IBM объявила, что отказывается от работы над распознаванием лиц, поскольку компания опасается, что его будут использовать не по назначению для массовой слежки. Видеть, как эти два гиганта отрасли отказываются от этой технологии, — это победа критиков распознавания лиц. Если вы хотите узнать больше об искусственном интеллекте, LaComparacion недавно опубликовал статью о том, что он может сделать для кибербезопасности.