Почему этика имеет важное значение при создании искусственного интеллекта

Искусственный интеллект (ИИ) уже давно является особенностью современных технологий и становится все более распространенным в технологиях на рабочем месте. Согласно недавнему опросу готовности ManageEngine к цифровым технологиям в 2021 году, более 86% организаций в Австралии и Новой Зеландии сообщили об увеличении использования ИИ еще два года назад.

Но, несмотря на увеличение числа организаций в регионе A/NZ, только 25% заявили, что их доверие к технологии значительно возросло.

Одной из возможных причин отсутствия общего доверия к ИИ является потенциальная возможность неэтичных предубеждений в разработке технологий ИИ. Хотя может быть правдой, что никто не собирается создавать неэтичную модель ИИ, может потребоваться всего несколько случаев, чтобы к определенным типам данных применялось непропорциональное или случайное взвешивание по сравнению с другими, что создает непреднамеренные предубеждения.

Демографические данные, имена, многолетний опыт, известные аномалии и другие типы личной информации-это те типы данных, которые могут искажать искусственный интеллект и приводить к предвзятым решениям. По сути, если искусственный интеллект неправильно спроектирован для работы с данными или предоставленные данные не являются чистыми, это может привести к тому, что модель искусственного интеллекта будет генерировать прогнозы, которые могут вызвать этические проблемы.

Растущее использование ИИ в различных отраслях промышленности впоследствии увеличивает потребность в моделях ИИ, которые не подвержены непреднамеренным искажениям, даже если это происходит как побочный продукт разработки моделей.

К счастью, есть несколько способов, которыми разработчики могут обеспечить, чтобы их модели искусственного интеллекта были разработаны как можно более справедливо, чтобы уменьшить вероятность непреднамеренных искажений. Два наиболее эффективных шага, которые могут предпринять разработчики, — это:

Принятие установки на справедливость в первую очередь

Внедрение справедливости на каждом этапе развития искусственного интеллекта является решающим шагом при разработке этических моделей искусственного интеллекта. Однако принципы справедливости не всегда применяются единообразно и могут различаться в зависимости от предполагаемого использования моделей искусственного интеллекта, что создает трудности для разработчиков.

Все модели искусственного интеллекта должны иметь в своей основе одни и те же принципы справедливости. Просвещение специалистов по обработке данных о необходимости создания моделей искусственного интеллекта с ориентацией на справедливость приведет к значительным изменениям в том, как разрабатываются модели.
 

Оставаясь вовлеченным

В то время как одним из преимуществ ИИ является его способность снижать давление на людей, заставляющее их тратить время и энергию на более мелкие, повторяющиеся задачи, и многие модели разработаны для того, чтобы делать свои собственные прогнозы, людям необходимо оставаться вовлеченными в ИИ, по крайней мере, в каком-то качестве.

Это необходимо учитывать на протяжении всего этапа разработки модели ИИ и ее применения на рабочем месте. Во многих случаях это может включать использование теневого ИИ, где и люди, и модели ИИ работают над одной и той же задачей, прежде чем сравнивать результаты, чтобы определить эффективность модели ИИ.

В качестве альтернативы разработчики могут выбрать, чтобы люди работали в рамках операционной модели технологии ИИ, особенно в тех случаях, когда модель ИИ не имеет достаточного опыта, что позволит им управлять ИИ.
 

Использование ИИ, вероятно, будет только увеличиваться по мере того, как организации в Новой Зеландии и во всем мире будут продолжать цифровую трансформацию. Таким образом, становится все более очевидным, что разработки ИИ должны стать еще более надежными, чем в настоящее время, чтобы снизить вероятность непреднамеренных искажений и повысить доверие пользователей к технологии.

Закажите звонок

И мы перезвоним вам в ближайшее время