Верно

Постановление ЕС об искусственном интеллекте


Соответствие постановлению ЕС о consentmanager на использование искусственного интеллекта.

Регламент ЕС по искусственному интеллекту вступит в силу в августе 2024 года.

Следуя первому предложению Европейской комиссии в апреле 2021 года, Европейский парламент принял Регламент ЕС по искусственному интеллекту. Он был опубликован в Официальном журнале Европейского Союза в июле 2024 года и теперь доступен на всех 24 официальных языках государств-членов ЕС. Официально постановление вступит в силу в августе 2024 года, хотя большинство положений вступят в силу только через два года. Однако для отдельных положений применяются разные сроки. Регламент устанавливает обязательства для компаний, которые разрабатывают и/или используют системы искусственного интеллекта в Евросоюзе.

График регулирования ИИ в ЕС

Регламент ЕС по искусственному интеллекту будет разрабатываться и внедряться в соответствии со следующим графиком:

Апрель 2021 г.: первое предложение Европейской комиссии.
Март 2024 г.: принят Европейским парламентом.
Июль 2024 г.: Официальная публикация в Официальном журнале ЕС.
Август 2024 г.: постановление вступает в силу.
Середина 2025 г.: Полное внедрение во всех государствах-членах ЕС.

Что такое Европейское регулирование искусственного интеллекта?

Европейский закон об искусственном интеллекте 2024 года — это постановление Европейской комиссии, призванное обеспечить использование систем искусственного интеллекта «безопасным, прозрачным, отслеживаемым, недискриминационным и экологически чистым» образом . Постановление призвано регулировать, как «поставщики» и «операторы» систем ИИ могут надлежащим образом обращаться с системами ИИ в соответствии с рисками, которые они представляют. «Поставщик» систем искусственного интеллекта — это в самом широком смысле компания, которая предлагает или разрабатывает систему искусственного интеллекта под своим собственным брендом. Операторы — это те, кто использует технологии искусственного интеллекта. Следовательно, любая компания может принадлежать к этой группе. Чем выше риск системы ИИ, тем строже нормативные требования.

Некоторые ключевые моменты закона ЕС об ИИ

  1. Классификация на основе рисков: Закон об искусственном интеллекте классифицирует системы искусственного интеллекта по различным уровням риска, каждый из которых имеет определенные нормативные требования для управления их потенциальным воздействием.
  2. Требования прозрачности. Системы искусственного интеллекта с высоким уровнем риска должны соответствовать строгим требованиям прозрачности и ведения учета, чтобы обеспечить подотчетность и отслеживаемость.
  3. Человеческий надзор. Некоторые системы искусственного интеллекта требуют человеческого контроля для снижения рисков и соблюдения этических стандартов.

Уровни риска в законе ЕС об искусственном интеллекте

Закон об искусственном интеллекте определяет четыре уровня риска для систем искусственного интеллекта, каждый из которых связан с конкретными нормативными требованиями:

Источник : Официальное издание Европейской комиссии по закону об ИИ.

Неприемлемый риск
Системы искусственного интеллекта, уровень риска которых ниже этого уровня, представляют явную угрозу и строго запрещены. Примеры включают манипулирование поведением с помощью когнитивных методов, таких как игрушки с голосовым управлением, которые заставляют детей вести себя опасно, или системы социальных рейтингов, которые классифицируют людей на основе их поведения или личных характеристик.

Системы искусственного интеллекта высокого риска
Системы искусственного интеллекта в этой категории могут оказывать существенное влияние на здоровье, безопасность или основные права. Примеры этого включают ИИ в управлении критически важной инфраструктурой, образовании, трудоустройстве и правоохранительной деятельности. Все системы искусственного интеллекта с высоким потенциалом риска должны проходить тщательное тестирование перед выводом на рынок и на протяжении всего срока службы. Физические лица имеют право сообщать о своих опасениях по поводу систем искусственного интеллекта соответствующим национальным органам власти.

Ограниченный риск
Эти системы искусственного интеллекта представляют низкий риск и подчиняются требованиям прозрачности. Например, пользователи, которые взаимодействуют с чат-ботами, должны быть проинформированы о том, что они разговаривают с ИИ. Поставщики также должны обеспечить, чтобы контент, созданный с помощью ИИ, особенно по темам, представляющим общественный интерес, был четко помечен как искусственно созданный, независимо от того, является ли это текстом, аудио или видео.

Минимальный или нулевой риск
Системы искусственного интеллекта с минимальным риском или без него не подпадают под дополнительные нормативные требования. Примеры этого включают видеоигры, управляемые искусственным интеллектом, и спам-фильтры.

Комплаенс и ИИ: что следует делать компаниям

Как пояснил Европейский совет в майском пресс-релизе , важно оценить влияние на фундаментальные права, прежде чем определенные компании, предоставляющие государственные услуги, развернут систему искусственного интеллекта высокого риска.

Поставщикам систем искусственного интеллекта следует учитывать несколько моментов:

  1. Проведите оценку риска, определив категорию риска системы ИИ и приняв необходимые защитные меры.
  2. Создайте техническую документацию, чтобы продемонстрировать соответствие, и отправьте ее на рассмотрение властям.
  3. Разработайте систему искусственного интеллекта для автоматического протоколирования событий для выявления рисков и изменений в системе.
  4. Создайте инструкции для операторов, чтобы обеспечить соблюдение требований.

Хотя у операторов нет таких же обязательств, как у поставщиков, Закон об искусственном интеллекте требует от них соблюдать правила использования, обеспечивать организационное и техническое соответствие и проводить оценку воздействия на защиту данных перед развертыванием систем искусственного интеллекта с высоким уровнем риска.

Несоблюдение закона ЕС об искусственном интеллекте может привести к штрафам в размере от 35 миллионов евро, или 7% мирового оборота, до 7,5 миллионов евро, или 1,5% оборота, в зависимости от серьезности нарушения и размера компании.

Цифровые цели Европы и Европейская стратегия данных , определенная на 2030 год, направлены на содействие справедливой конкуренции и повышение прозрачности онлайн-услуг. Для компаний это означает, что они должны гарантировать, что их процессы поддерживают эти ценности защиты данных. Недавно принятые законы, в том числе Закон о цифровых услугах и Закон о цифровых рынках , подчеркивают важность честной конкуренции и прозрачности. Решая внутренние процессы и проверяя их на ранней стадии, как поставщики, так и пользователи систем искусственного интеллекта могут избежать штрафов и повысить доверие потребителей. Улучшите свои процессы обеспечения соответствия сегодня, нажав здесь, чтобы начать.



больше комментариев

Cookie-Crawler - Standalone-Tool
Новый, Общий

Информационный бюллетень 11/2024

Сканер файлов cookie теперь доступен и как отдельный инструмент. Наш сканер файлов cookie теперь стал еще более универсальным и гибким! Отныне вы также можете использовать его как отдельный инструмент без необходимости создания отдельного CMP. Автономный вариант подходит для клиентов, которые (пока) не хотят переключать баннер cookie на consentmanager , но хотят проверить соответствие своих веб-сайтов, […]
consentmanager Cookie-Audit Grafik

Аудит файлов cookie для веб-сайтов: как сделать это вручную или с помощью сканера файлов cookie

Как оператор веб-сайта вы несете ответственность за данные своих пользователей, которые собираются и хранятся на вашем веб-сайте с помощью файлов cookie. Любой файл cookie, активный на вашем веб-сайте, потенциально может вызвать проблемы с конфиденциальностью , особенно если он используется не по назначению или, что более важно, если он хранится в браузерах без согласия или ведома […]