Справедливый и ответственный искусственный интеллект для потребителей
Во всех странах началась работа по повышению прозрачности и ответственности систем искусственного интеллекта (ИИ), а тема текущего года заявлена как «Справедливый и ответственный ИИ для потребителей».
Что это значит? Попробуем немного разобраться в этом объёмном и с каждым годом всё более развивающимся тренде.
Развитие искусственного интеллекта имеет множество преимуществ, но его применение может иметь серьёзные последствия для безопасности потребителей. Среди них — распространение ложной информации, нарушение конфиденциальности, мошеннические действия.
При этом следует обратить внимание на невиданную скорость распространения областей применения ИИ. Следует сравнить ИИ с изобретением книгопечатного станка, но на его распространение потребовалось 50 лет, бот-чат может достичь 100 миллионов пользователей за пару месяцев.
Сегодня любой обыватель без специальных познаний может генерировать тексты на заданные темы на разных языках, создавать описания продуктов и услуг, общаться с пользователями, переводить тексты, печатать посты в социальных сетях, генерировать записи в блогах и создавать изображения по описаниям, проверять информацию, создавать иллюстрации к статьям, озвучивать видеоролики голосами известных личностей, автоматически создавать резюме, разрабатывать варианты интерьеров и многое другое.
Согласно открытым источникам, треть россиян кратно прибегала к использованию искусственного интеллекта для решения задач в работе или учёбе, 13% россиян пользуются инструментами искусственного интеллекта регулярно. Вместе с этим, 15% россиян считают, что использование искусственного интеллекта в работе или учёбе может пагубно сказаться на когнитивных способностях и развитии профессиональных навыков, 23% респондентов опасаются использовать искусственный интеллект, однако, 20% считают, что искусственный интеллект экономит время и помогает быстрее справляться с простыми задачами (опрос — исследование российского сервиса).
ИИ представляет собой комплекс алгоритмов математики, психологии, кибернетики и специальных наук, с помощью которых создаются программы для машинного обучения компьютеров самостоятельному решению задач. ИИ, как человек, взаимодействует с внешним миром и обучается на основе реальных примеров из окружающего мира.
Искусственным интеллектом сейчас принято называть всё, что способно решать не рутинные задачи на уровне, близком к человеческому, а иногда лучше и быстрее.
В Руководящих принципах Организации Объединенных Наций по защите прав потребителей подчеркивается целесообразность работы по повышению «прозрачности» в сфере ИИ.
Три приоритета защиты прав потребителей во времена ИИ:
Первым приоритетом является прозрачность и понятность алгоритмов, используемых ИИ. В цифровой эпохе потребители всё чаще сталкиваются с автоматическими решениями, которые принимаются на основе алгоритмов ИИ. Однако, такие алгоритмы могут быть сложными и непрозрачными для обычных пользователей. Потребители должны иметь возможность понимать, как принимаются решения, и какую информацию использовал ИИ. Только при наличии прозрачности потребители могут быть уверены в том, что их права защищены.
Вторым приоритетом является конфиденциальность данных потребителей. ИИ основан на обработке больших объёмов данных, и часто требуется доступ к личной и конфиденциальной информации. Важно, чтобы потребители имели гарантию, что их данные защищены от несанкционированного доступа или использования. Защита данных становится всё более важной в условиях повсеместного присутствия ИИ, поэтому законодательство и правила должны быть разработаны с учётом особенностей этой технологии.
Третьим приоритетом является ответственность за негативные последствия ИИ. Известные случаи некорректной работы ИИ показывают, что технология не всегда работает идеально и может вызвать нежелательные последствия для потребителей. Потребители должны иметь гарантии, что в случае неправильного решения или негативного влияния ИИ будет принята ответственность со стороны компаний и организаций, использующих эту технологию. Это включает в себя возмещение ущерба, улучшение алгоритмов и принятие мер по предотвращению повторения подобных ситуаций.
Международный «Закон об искусственном интеллекте»
Проект закона [ЕС, World Economic Forum 2024] будет рассматриваться в текущем году в рамках программы ООН «Справедливый и ответственный ИИ для потребителей». Законом вводится система классификации, определяющая уровень риска, который ИИ может представлять для здоровья, безопасности и основных прав человека. Система включает четыре уровня риска: неприемлемый, высокий, ограниченный и минимальный.
А для нас, как потребителей — один из главных критериев полезности ИИ является его беспристрастность. Если мы, как потребители, в рамках закона «О Защите прав потребителей», которые получили некачественный продукт в виде Товара или услуги, в большинстве случаев сразу начинаем поддаваться негативным эмоциям и мыслям, то ИИ лишен этих качеств, поэтому сразу же создаётся объективность оценки создавшейся ситуации, и на основании заложенной в него информации и программ, в кратчайшие сроки ищется наиболее оптимальный способ решения той или иной проблемы в рамках законодательных норм.
В любом случае, искусственный интеллект и без точного определения — данность сегодняшних дней. И, конечно, не стоит пугаться его, а наоборот пытаться овладеть его возможностями и направлять результаты его деятельности на своё безопасное и комфортное существование в таком быстро меняющемся, но интересном мире.