Закон ЕС об искусственном интеллекте поддерживает создание надежного и этичного ИИ

Влияние искусственного интеллекта на нашу повседневную жизнь постоянно растет, меняя то, как мы работаем, учимся и общаемся. ИИ развивается быстро и открывает множество полезных возможностей, но при этом мы не должны забывать о наших основных правах, ценностях и безопасности. Европейский союз разработал первый в мире комплексный закон об ИИ, который призван стимулировать инновации, обеспечивая при этом ответственное использование технологий.

Закон об ИИ касается прежде всего разработчиков и внедренцев ИИ-решений. Нам важно знать, что разрешено, что регулируется и что запрещено. Например, законом запрещены системы ИИ, которые могут нарушать права людей или представлять для них опасность (например, система социального кредита, используемая в Китае). Системы ИИ с высоким уровнем риска (например, системы оценки кандидатов при приеме на работу) должны проходить строгий контроль для обеспечения безопасности, надежности и этичности.

При регулировании систем искусственного интеллекта учитывается их потенциальное влияние на общество и отдельных лиц

Европейский союз делит системы ИИ на четыре категории в зависимости от риска.

Использование систем ИИ с неприемлемым риском запрещено

Системы с неприемлемым риском представляют серьезную угрозу правам человека и обществу. Такие ИИ-решения запрещены. Вот несколько примеров:

  • Манипулирование людьми: Например, реклама, пытающаяся заставить детей или пожилых людей принимать решения, наносящие им вред.
  • Массовая слежка: Системы, которые постоянно следят за людьми в общественных местах с помощью биометрических данных или собирают информацию об их перемещениях и поведении.
  • Социальный скоринг: Например, системы, оценивающие людей на основе их кредитной истории или социального поведения.
  • Дискриминационные алгоритмы: Системы, принимающие несправедливые или предвзятые решения при приеме на работу, выдаче кредитов или в других ситуациях, которые могут существенно повлиять на жизнь человека.
  • Принятие решений без участия человека: Например, медицинские ИИ-решения, которые ставят диагнозы или назначают лечение без контроля врача.

Эти требования вступят в силу через 6 месяцев после вступления в силу законодательного акта ЕС.

В определенных случаях использование систем ИИ с неприемлемым риском все же допускается. Например, в ситуациях, когда цели общественных интересов перевешивают риски (поиск жертв преступлений, пропавших без вести, угроза террористического акта и т. д.).

Системы ИИ с высоким уровнем риска регулируются

ИИ-решения с высоким уровнем риска оказывают значительное влияние на общество и людей и требуют строгого регулирования. Вот несколько примеров таких систем:

  • Системы медицинской диагностики: Системы ИИ, помогающие диагностировать заболевания или состояния, например, анализируя медицинские данные и помогая врачам выбрать лечение.
  • Алгоритмы найма: Системы, которые оценивают соискателей и помогают работодателям выбирать кандидатов.
  • Алгоритмы выдачи кредитов: Системы, принимающие решения о выдаче кредитов на основе кредитной истории, доходов и других финансовых данных заявителей.
  • Правоохранительные системы ИИ: Системы, используемые в правоохранительных органах, например, для идентификации, слежки или оценки рисков.
  • Промышленные системы контроля: Системы, управляющие и оптимизирующие промышленные процессы, например, на производственных линиях или при управлении оборудованием.

«При создании систем ИИ с высоким уровнем риска необходимо подать заявку и выполнить определенные требования».

Создатели ИИ с высоким риском должны:

  • Создать и внедрить систему управления рисками.
  • Обеспечить высокое качество наборов данных.
  • Протоколировать действия для обеспечения прослеживаемости результатов.
  • Подготовить подробную техническую документацию.
  • Составить четкие инструкции для тех, кто внедряет систему.
  • Обеспечить возможность человеческого надзора.
  • Спроектировать систему для достижения надлежащей точности, устойчивости и кибербезопасности.
Требования вступят в силу через 24 месяца после вступления в силу законодательного акта ЕС.

Для систем с ограниченным риском действуют требования прозрачности

ИИ-решения с умеренным воздействием взаимодействуют с пользователями автоматически или рекомендуют контент, такой как видео или учебные курсы. Их влияние умеренно, и от них требуется прозрачность и информирование пользователей. Например:

  • Чат-боты и другие интерактивные системы должны иметь четкую маркировку, чтобы пользователи знали, что они общаются с искусственным интеллектом.
  • Алгоритмы рекомендаций контента, например, на веб-платформах и в социальных сетях, где системы должны показывать, на чем основаны рекомендации.

Для систем с минимальным риском специальные правила не устанавливаются

Системы ИИ, оказывающие незначительное влияние на общество и отдельных лиц, не подпадают под действие специальных правил. К таким системам относятся:

  • Системы фильтрации электронной почты, которые автоматически перемещают письма в папку со спамом. Влияние этого действия на пользователей минимально.
  • Простые компьютерные игры, где использование ИИ не представляет существенной угрозы и не требует строгого регулирования.

Модели ИИ общего назначения (GPAI)

Модели ИИ общего назначения, такие как OpenAI ChatGPT и Google Gemini, должны соответствовать определенным правилам независимо от их уровня риска. Они обязаны предоставлять техническую документацию, руководство пользователя и соблюдать директиву об авторском праве. Также они должны публиковать сводную информацию о данных, использованных для обучения, чтобы обеспечить прозрачность и ответственное использование решений.

Эти требования вступят в силу через 12 месяцев после вступления в силу законодательного акта ЕС.

Резюме

Закон Европейского союза об искусственном интеллекте — важный шаг на пути к ответственному использованию ИИ. Он гарантирует, что решения на базе ИИ будут отвечать определенным требованиям, включая прозрачность, конфиденциальность и защиту прав человека. Наша компания строго соблюдает эти требования, чтобы создаваемые решения были не только инновационными, но и безопасными и управлялись ответственно.

Источники

European Parliament, and Council of the European Union. “Regulation of the European Parliament and of the Council laying down harmonised rules on artificial intelligence (Artificial Intelligence Act).”

2024. European Commission. “AI Act”

Последние статьи