AI Regulation

EU AI 법안: GPAI 모델 제공자 기준 나왔다

EU AI 사무소가 범용 AI(GPAI) 모델 제공자를 위한 예비 지침을 내놨다. AI 생태계에 미칠 파장은 엄청나다. 단순한 관료적 움직임이 아니라, 발밑 땅이 흔들리는 수준이다.

{# Always render the hero — falls back to the theme OG image when article.image_url is empty (e.g. after the audit's repair_hero_images cleared a blocked Unsplash hot-link). Without this fallback, evergreens with cleared image_url render no hero at all → the JSON-LD ImageObject loses its visual counterpart and LCP attrs go missing. #}
EU AI 법안: GPAI 모델 제공자 누구냐? 새로운 기준 논란 일으켜 — Legal AI Beat

Key Takeaways

  • EU AI 사무소가 AI 법안 하에서 GPAI 모델 제공자의 의무를 명확히 하는 예비 지침을 발표했다.
  • 주요 기준은 '훈련 컴퓨트' 임계값(텍스트/이미지 모델 기준 10^22 FLOP)으로 GPAI 모델을 판별한다.
  • GPAI 모델 수정이 특정 컴퓨트 임계값을 넘으면 새 모델로 분류될 수 있다.
  • GPAI 모델 제공자와 하류 AI 시스템 사용자를 구분하는 게 규제 의무를 정하는 핵심이다.

AI 혁명의 설계자들은 누굴까? 헤드라인 장식하는 유명인들 말고. 기반 언어 모델, 이미지 생성기, 이 모든 변혁을 이끄는 엔진을 실제로 만드는 이들 말이다. 유럽연합(EU)이 바로 이 질문을 던지고, 이제 구체적인 답을 종이에 적었다.

2025년 4월 22일, EU AI 사무소가 폭탄 같은 자료를 터뜨렸다 – 정확히는 수십 페이지에 달하는 상세 지침서다. 건조한 법률 문서가 아니다. EU가 AI 개발의 혼란스러운 세계에서 누가 누구인지 선을 긋고, 그에 따른 책임을 명확히 한 거다.

비유하자면, AI 모델 만드는 건 마천루 짓는 거랑 같다. 핵심 인프라, 기둥, 하늘 찌를 수 있게 하는 첨단 공학. 그리고 세입자들 – 기업, 개발자, 일반 사용자들이 자기 필요에 맞게 커스터마이징하고 쓰는 공간들. EU AI 법안과 이번 지침은 바로 이 마천루 건설자세입자를 명확히 구분하려는 시도다.

이 구분이 왜 중요하냐면, AI 법안이 각 플레이어에 다른 의무를 부과하기 때문이다. GPAI 모델 제공자들은 부담이 더 크다. 문서 관리 철저히, 저작권 정책 시행, 그리고 시스템적 위험(진짜 거물들)이 있는 모델은 모델 평가, 적대적 테스트, 사고 보고, 사이버 보안 강화까지. 반대로 하류 사용자들은 자신이 만드는 AI 시스템의 위험에 초점 맞춘다. 기반 모델 자체가 아니다.

GPAI 모델이 대체 뭐냐?

정의 자체가 인상적이다. 놀라울 정도로 다재다능한 AI 모델. 다양한 작업을 처리하고, 온갖 하류 시스템에 끼워 쓸 수 있다. 핵심은 배포 방식 – 오픈소스든 API든 독점 방식이든 – 이게 분류에 영향을 안 준다는 거다. 순수 연구 목적이고 시장 출시 전이라면 모를까. EU는 명확히 했다. 모델은 부품일 뿐, 사용자 인터페이스 등과 결합해야 완전한 AI 시스템이 된다.

진짜 쟁점은 컴퓨트다. AI 사무소는 훈련이나 수정에 쓴 컴퓨팅 자원을 기준으로 삼는다. 텍스트나 이미지를 뽑아내는 모델이라면, 훈련 컴퓨트가 10^22 FLOP을 넘으면 GPAI로 추정된다. 이 수치는 매력적이다. 이 거대한 창작물에 쏟아부은 두뇌파워를 숫자로 재는 방법이다.

수정된 모델이 ‘새 모델’이 되는 건 언제?

여기서 재미가 쏠쏠하다. GPAI 모델은 정적이지 않다. 진화한다. 원래 만든 이든 하류 개발자든 파인튜닝으로 업그레이드할 수 있다. 지침에 따르면, 원래 제공자가 수정할 때 초기 GPAI 기준 컴퓨트의 1/3(현재 기준 3 x 10^21 FLOP)을 초과하면 새 모델로 볼 수 있다. 업데이트 하나로도 새 분류와 규제 의무가 생기는 동적인 게임이다.

AI 사무소의 예비 접근은 모델 훈련이나 수정에 사용된 컴퓨팅 자원(훈련 컴퓨트)을 기준으로 임계값을 정하는 것이다.

이 모든 건 EU가 AI를 위한 정교한 규제 고속도로를 깔려는 시도처럼 보인다. 명확한 진입로와 출구, 차종별 차선이 필요하다. GPAI 모델 제공자는 핵심 교차로로, 규제와 책임의 흐름을 좌우한다. 거대한 과제고, 5월 22일까지 공공 의견 수렴을 연다는 건 그 진지함과 난제 인식을 보여준다.

내 독특한 관점? 이건 단순히 누가 책임지냐가 아니다. AI 개발의 본질을 코드화하는 일이다. 그동안 프론티어는 기술 자체였다. 이제는 기반 플랫폼을 이해하고 통제하는 데 있다. 이 지침이 굳어지면 AI 분류의 로제타석이 될 거다. R&D 투자부터 국제 협력까지 모든 걸 흔든다. 미개척지 지도를 그리고, EU가 첫 별자리를 그리는 모양새다.

EU의 이 움직임은 대담한 발걸음이다. 무제한 AI 플랫폼 개발 시대가 끝나가고 있다는 신호. 안전하고 공정한 AI 미래를 위한 세밀하고 지저분하지만 필수적인 작업이 이제 시작됐다. 그리고 그 출발은 엔진을 누가 만드는지 파악하는 데서다.


🧬 Related Insights

Written by
Legal AI Beat Editorial Team

Curated insights, explainers, and analysis from the editorial team.

Worth sharing?

Get the best Legal Tech stories of the week in your inbox — no noise, no spam.

Originally reported by EU AI Act News