Этические дилеммы ИИ | компьютерный мир

этические дилеммы ИИ | компьютерный мир

Можем ли мы доверять ИИ? Он уже зримо и незримо вплетен в наш мир, от Google Translate и роботов для видеоигр до промышленного использования в здравоохранении, производстве и банковском деле для критических рабочих нагрузок. Можем ли мы эффективно использовать эту революционную технологию и избежать врожденных этических дилемм предвзятости, доверия и прозрачности? Есть путь вперед, но он потребует постоянных и усердных разговоров об этике ИИ, поскольку технология продолжает развиваться.

Вы доверяете ИИ?

Вопрос доверия часто возникает в ситуациях, когда деятельность человека возлагается на ИИ. Например, Tesla и другие автопроизводители экспериментируют с автоматизированными возможностями вождения и парковки под управлением ИИ. Автономное вождение раздвигает границы доверия, поскольку испытания этой технологии привели к гибели людей. На песке быстро прочерчиваются линии между тем, можем ли мы доверять машине при парковке.

Однако доверие к ИИ уже присуще некоторым вариантам использования: люди делают это, даже не осознавая этого. В случае обнаружения мошенничества текстовые сообщения о подозрительных транзакциях отправляются еще до того, как вы поймете, что ваш кошелек или кредитная карта пропали. Этот тип технологии работает в режиме реального времени и может избавить вас от огромной финансовой головной боли.

Даже в отраслях, где ИИ является частью критически важных для бизнеса рабочих нагрузок, вопрос доверия остается актуальным. Например, в технологии мейнфреймов некоторые компании не предпринимают автоматических действий, когда ИИ обнаруживает аномалию. Хотя ИИ выполнил свою работу по обнаружению аномалии, он не понимает, что остановка работы на мейнфрейме может иметь катастрофические последствия для бизнеса. В этом случае операторы не верят, что ИИ сможет принять более правильное решение, чем они могли бы. По мере развития ИИ предприятия и варианты использования будут проверять, когда, где и насколько можно доверять этой технологии; в конечном счете, они будут смотреть на то, являются ли данные и/или результаты достижимыми и беспристрастными.

смещение, смещение

Как и люди, системы ИИ часто должны следовать социальным нормам, быть справедливыми и беспристрастными. Когда дело доходит до предвзятости, проблема не уникальна для моделей ИИ — люди тоже борются с предвзятостью. Однако в случае с ИИ результаты потенциальной систематической ошибки могут иметь ошеломляющие последствия. В ИИ смещение имеет сильную корреляцию с входными данными. Например, нечистые, необработанные или ошибочные входные данные повлияют на результат. Важно понимать, что при предвзятости требуется чувствительность, проницательность и открытость, чтобы ориентироваться в этике.

В конечном итоге люди контролируют предвзятость в ИИ: специалисты-практики выбирают исходные входные данные и вносят предвзятость, чтобы повлиять на результаты. Возьмем, к примеру, Амазон. Amazon получает большое количество запросов. Когда они решили протестировать применение ИИ в процессе найма, компания использовала резюме нынешних сотрудников в качестве входных данных. Итак, каков был результат? Amazon широко сообщил, что при использовании выборочной демографической выборки результаты были искажены в пользу женщин. В процессе тестирования ритейлер обнаружил, что если слово «женщина» появлялось где-либо в резюме, этому человеку никогда не звонили. В Amazon поняли, что входные данные были частью проблемы, и так и не внедрили модель для менеджеров по найму.

Обмен этой информацией и внимательное отношение к результатам очень важны, поскольку мы продолжаем открывать для себя наилучшее использование этой технологии. Поскольку предвзятость тесно связана с намерением, Amazon не является примером злонамеренного использования ИИ. Вместо этого он демонстрирует необходимость самоанализа при использовании ИИ. Amazon скорректировал результаты на предвзятость модели, чтобы получить более сбалансированный результат.

ИИ уже очень быстро стал важной частью бизнеса, даже основным отличием для некоторых организаций, и следует ожидать этических проблем, таких как предвзятость. Ключом к преодолению предвзятости является обеспечение максимально возможной чистоты входных данных и готовность открыто и прозрачно расследовать неэтичные результаты.

Роль прозрачности

Прозрачность в ИИ можно определить как объяснимую для сотрудников и клиентов. Проблема в том, что ИИ по своей сути не прозрачен, поэтому он станет неотъемлемой частью навигации по мере усовершенствования ИИ. При применении прозрачности на корпоративном уровне возникает вопрос, как установить правила общего применения при различной степени воздействия? Как мы узнаем, прозрачен ли ИИ, использованный с менее благоприятным результатом?

Отсутствие прозрачности особенно важно для потребителей. Потребители хотят знать, какие персональные данные собирают компании, как они их используют, как работают их алгоритмы и кто несет ответственность, если что-то пойдет не так. В некоторых случаях, как в случае со Spotify, алгоритм привязан к конкурентному преимуществу организации. Ценность Spotify для потребителя заключается в рекомендациях, которые он дает на основе информации, собранной о слушателе. Тогда возникает вопрос, где этическая грань прозрачности? Чем должна делиться компания и что должны видеть и знать потребители?

Прозрачность — это движущаяся цель; однако крайне важно оценить влияние изменения алгоритмов. Когда происходит изменение, прозрачность в отношении этого изменения и его влияния на различные заинтересованные стороны будет иметь ключевое значение для того, чтобы помочь технологии продвинуться на еще более инновационное место. Одно из возможных решений заключается в балансе. Организации, которые готовы объяснить, почему в их моделях были приняты те или иные решения, могут внести положительный вклад в обеспечение прозрачности, не раскрывая конфиденциальную информацию.

Возможен ли этический баланс?

Короткий ответ: да, этический баланс возможен. Однако понимание того, как ориентироваться в этике технологии ИИ, — это непрерывный процесс. Некоторые в нашей отрасли призывают к прозрачности, в то время как компании считают необходимым защищать свои технологии, потому что это их отличительная черта. Обе стороны выдвигают важные и обоснованные доводы, но что остается присущей им этической дилемме?

Есть несколько ключевых факторов, независимо от того, на какой стороне разговора вы находитесь.

Постоянный человеческий вклад будет важным аспектом технологии ИИ с этической и функциональной точек зрения. Сейчас и по мере развития ИИ в будущем потребуется человеческий вклад и контроль.

Чувствительность к систематической ошибке важна для входных данных, подбора модели и отслеживания результатов.

Прозрачность информации об ошибках и успехах ИИ способствует обсуждению этических норм и помогает продвигать технологию ИИ.

Поскольку ИИ продолжает влиять на мировое сообщество, мы должны продолжать делиться уроками и задавать этические вопросы о доверии, предвзятости и прозрачности. Чем больше мы делаем, тем лучше принимаем решения и тем легче будет понять, как улучшить ИИ в будущем.

Хотите узнать больше о роли ИИ в Broadcom? Узнайте, как мы используем технологию искусственного интеллекта для расширения ИТ-операций.

© 2022 IDG Communications, Inc.