AI Regulation

Закон ЕС об ИИ: появились рекомендации по поставщикам GPAI

Европейский офис по ИИ только что выкатил предварительные рекомендации для поставщиков универсальных моделей ИИ (GPAI), и последствия для экосистемы ИИ колоссальные. Это не просто бюрократическая возня — земля уходит из-под ног.

{# Always render the hero — falls back to the theme OG image when article.image_url is empty (e.g. after the audit's repair_hero_images cleared a blocked Unsplash hot-link). Without this fallback, evergreens with cleared image_url render no hero at all → the JSON-LD ImageObject loses its visual counterpart and LCP attrs go missing. #}
Закон ЕС об ИИ: кто считается поставщиком GPAI? Новые правила вызывают споры — Legal AI Beat

Key Takeaways

  • Офис ИИ при ЕС опубликовал предварительные рекомендации, уточняющие обязательства поставщиков GPAI-моделей по Закону об ИИ.
  • Ключевой критерий — порог «вычислений на обучение» (10^22 FLOP для текстовых/изобразительных моделей) для определения GPAI.
  • Доработки GPAI-моделей могут привести к переклассификации как новой модели, если превысят вычислительные пороги.
  • Разграничение поставщиков GPAI-моделей и пользователей систем ИИ ниже по цепочке критично для регуляторных обязанностей.

А вы задумывались когда-нибудь об архитекторах ИИ-революции? Не о тех, кто мелькает в заголовках, а о тех, кто собственно строит базовые языковые модели, генераторы изображений — те самые двигатели, что тащат всю эту невероятную трансформацию. Оказывается, Евросоюз задаёт тот же вопрос и только что записал на бумаге весьма любопытные предварительные ответы.

22 апреля 2025 года офис ИИ при ЕС сбросил бомбу — ну, или многостраничный детальный документ — с предварительными рекомендациями для поставщиков универсальных моделей ИИ (GPAI). Это не скучный юридический трактат: ЕС проводит чёткую грань в запутанной вселенной разработки ИИ, определяя, кто есть кто и какие теперь обязанности на них ложатся.

Представьте: создание модели ИИ — как возведение небоскрёба. Есть ядро, фундаментальные опоры, сложная инженерия, что позволяет тянуться к небесам. А потом жильцы — компании, разработчики, обычные пользователи, которые подстраивают эти пространства под свои нужды. Закон ЕС об ИИ и эти рекомендации пытаются разграничить строителей небоскрёба и его жильцов.

Зачем вообще эта разница? Потому что закон налагает разные обязательства на разных игроков. Для поставщиков GPAI-моделей ставки выше: документация должна быть безупречной, политика по авторским правам — на уровне, а для моделей с системными рисками (настоящих тяжеловесов) — жёсткие оценки моделей, тестирование на adversarial атаки, отчёты об инцидентах и крепкая кибербезопасность. Пользователи ниже по цепочке? Их обязанности иные — фокус на рисках систем ИИ, которые они строят или развёртывают, а не на базовой модели.

А что такое GPAI-модель, собственно?

Определение, дай ему бог здоровья, — это универсальная модель ИИ, способная на широкий спектр задач и встраиваемая в разные системы. Ключевой момент: способ релиза — open source, API или проприетарный — на классификацию не влияет, разве что чисто исследовательские модели до выхода на рынок. Модели — это компоненты, подчёркивает ЕС, а не полноценные системы ИИ, пока не интегрированы с интерфейсами и прочим.

Настоящий дьявол — или ангел? — в деталях вычислений. Офис ИИ склоняется к порогу по ресурсам, потраченным на обучение или доработку. Для моделей, генерирующих текст и/или изображения, если вычисления на обучении перевалят за 10^22 FLOP, она автоматически GPAI. Захватывающая метрика — осязаемая, хоть и огромная цифра, пытающаяся измерить мозговую мощь, влитую в эти создания.

Когда доработанная модель становится «новой»?

Вот тут всё становится восхитительно сложно. GPAI-модели не стоят на месте, они эволюционируют. Их дообучают, модифицируют — оригинальный создатель или разработчики ниже по цепочке. Рекомендации гласят: если доработка от исходного поставщика сожрёт больше трети вычислений, нужных для первоначальной квалификации как GPAI (а это 3 × 10^21 FLOP по текущим порогам), то это уже новая модель. Получается динамика, где даже обновления могут запустить переklassификацию и новые требования compliance — вечная игра в кошки-мышки в цифровом мире.

Предварительный подход офиса ИИ — установить порог по вычислительным ресурсам, использованным для обучения или модификации модели.

Всё это выглядит так, будто ЕС строит сложную дорожную сеть для регулирования ИИ: с чёткими съездами, полосами для разного трафика. Поставщик GPAI-модели — ключевой узел, определяющий потоки ответственности. Задача титаническая, и то, что консультации открыты до 22 мая, говорит и о серьёзности, и о сложностях.

Мой эксклюзивный взгляд? Дело не только в ком ответственны, но и в закреплении самой сути разработки ИИ. Годы фронтир был в технологиях. Теперь — в понимании и управлении платформами. Эти рекомендации, затвердевая, станут розеттским камнем для классификации ИИ-сущностей, повлияв на всё — от R&D-инвестиций до международного сотрудничества. Как картографирование неизведанного, и ЕС смело набрасывает первые созвездия.

Шаг ЕС смелый: эпоха безудержного развития ИИ-платформ подходит к концу. Настоящая работа — детальная, часто грязная, но жизненно важная для безопасного и справедливого ИИ-будущего — только начинается. И она стартует с выяснения, кто строит двигатели.


🧬 Related Insights

Written by
Legal AI Beat Editorial Team

Curated insights, explainers, and analysis from the editorial team.

Worth sharing?

Get the best Legal Tech stories of the week in your inbox — no noise, no spam.

Originally reported by EU AI Act News