0005678220_001_20251112120218449.png?type=w800

과기정통부, 'AI기본법 시행령' 입법예고…"투명성 확보·기업 부담 완화" 병행 추진앞으로 사업자가 생성형 인공지능(AI)이나 고영향AI를 활용해 제품이나 서비스를 제공할 경우 AI가 개입된 사실을 사전에 이용자에게 고지해야 한다. 딥페이크처럼 실제와 구분하기 어려운 결과물에는 "AI가 생성한 콘텐츠"임을 명확히 표시해야 하며, 이용자의 연령이나 신체적 조건 등도 함께 고려하도록 했다.

고영향AI는 생명·안전·기본권에 중대한 영향을 미칠 수 있는 AI 시스템으로, 금융·의료·교육·고용 등 사회 전반에 쓰이는 기술을 말한다. 정부는 사용 영역과 위험의 중대성, 기본권 침해 가능성 등을 종합해 고영향AI 여부를 판단하며, 사업자가 요청하면 30일 내 확인 결과를 통보한다.



고영향AI 사업자는 위험관리·설명·이용자 보호·감독·문서관리 등 주요 조치를 공개해야 하며, 영업비밀은 예외적으로 보호된다.

AI 투명성과 신뢰성 확보 위한 법제화 본격화

과학기술정보통신부는 12일 '인공지능 발전과 신뢰 기반 조성 등에 관한 기본법(이하 AI기본법)'의 시행령 제정안을 마련해 입법예고한다고 밝혔다. 입법예고 기간은 12일부터 12월 22일까지 40일간으로, 산업계와 시민단체, 전문가, 관계 부처 등으로부터 폭넓은 의견을 받을 예정이다.

AI기본법은 지난해 여야 합의로 국회를 통과해 내년 1월 22일부터 시행될 예정이며, 이번 시행령은 법률에서 위임된 세부사항을 구체화해 AI산업의 혁신과 신뢰 기반 조성을 균형 있게 추진하기 위한 제도적 틀을 마련한 것이다.

과기정통부는 지난 9월 국가AI전략위원회에서 초안을 공개하고 의견을 수렴했으며, 이번 입법예고를 통해 현장의 추가 의견을 반영한다.

중복규제 최소화…산업 현장 친화적 제도 설계

시행령 제정안은 규제보다는 진흥에 초점을 맞추고 있다. 과기정통부는 식품의약품안전처, 금융위원회, 원자력안전위원회, 개인정보보호위원회 등 관계 부처와 협의해 다른 법령상 동일한 의무를 이미 이행한 경우 AI기본법상 책무를 중복 적용하지 않도록 했다.

예를 들어 의료 분야에서는 디지털 의료기기법, 금융 분야에서는 전자금융법 등 관련 법률의 안전성·신뢰성 기준을 충족하면 별도의 중복 검증을 받지 않아도 된다. 이는 기업의 행정 부담을 줄이고, 산업 현장의 자율적 혁신을 유도하기 위한 조치다.



시행령에는 국내 AI산업의 체계적 육성을 위한 지원 근거도 명시됐다. AI 연구개발(R&D)과 학습용 데이터 구축, 기술 도입 및 활용, 창업 지원, 전문 인력 양성, 산업 간 융합 촉진, 해외 진출 지원 등 AI 생태계 확장을 위한 사업의 범위와 기준이 구체화됐다.

또한 지역 기반 산업 육성을 위해 'AI집적단지' 지정 및 운영 절차가 법제화되며, 이를 종합 지원할 전담기구의 역할도 함께 명문화됐다.

정책 추진체계도 구체화됐다. AI정책센터, 인공지능안전연구소, AI집적단지 전담기구 등 국가 AI정책의 집행과 안전·신뢰 확보를 전담할 기관들의 지정·운영 기준이 마련됐다. AI정책센터는 국제규범과 정책 연구를 담당하고, 인공지능안전연구소는 기술 안전성 검증과 신뢰 확보를, 전담기구는 집적단지 운영과 기업 지원을 맡는다.

초고성능 AI 안전성 관리 기준… "10²? FLOPs 이상"

시행령은 인공지능의 안전성 확보 기준도 새롭게 제시했다. 안전성 확보 의무가 적용되는 고성능 AI시스템의 기준은 학습에 사용된 누적 연산량이 10의 26승(10²?) 부동소수점 연산(FLOPs) 이상인 경우로 규정됐다.

FLOPs(플롭스)는 '초당 부동소수점 연산 횟수(Floating Point Operations Per Second)'의 약자로, AI 모델이 학습 과정에서 수행하는 계산의 총량을 나타내는 지표다. 이 수치는 AI가 얼마나 많은 데이터를 학습하고, 얼마나 복잡한 모델을 운용할 수 있는지를 보여준다.

10²? FLOPs 이상은 국제적으로 통용되는 '초거대 AI'의 기술적 경계선으로, 이번 기준은 EU AI법(10²?)과 미국 캘리포니아주 '프론티어AI 투명성법(10²?)'을 종합해 설정됐다. 과기정통부는 기술 발전 수준과 위험도를 추가 고려해 향후 조정 가능성을 열어뒀다.

기본권 보호 위한 'AI 영향평가' 세분화

인공지능이 사람의 권리와 사회에 미치는 영향을 사전에 점검하기 위한 AI 영향평가 제도도 구체화됐다. 영향평가에는 영향받는 집단(학생, 환자, 구직자 등), 영향받는 기본권(생명권, 평등권, 교육권 등), 영향의 내용과 범위, 평가 지표 및 개선 계획 등이 포함된다. 기업이 스스로 위험 요인을 진단하고 부작용을 줄일 수 있도록 자율평가 중심으로 설계된 것이 특징이다.

배경훈 부총리 겸 과학기술정보통신부 장관이 지난달 정부세종청사에서 열린 국회 과학기술정보방송통신위원회의 과학기술정보통신부에 대한 국정감사에서 여야 위원들의 질의에 답하고 있다. 연합뉴스 제공

정부는 제도 시행 초기 기업의 적응을 돕기 위해 최소 1년 이상 과태료 부과를 유예하는 계도기간을 운영한다. 이 기간에 법 적용과 의무 이행에 어려움을 겪는 기업을 지원하기 위해 'AI기본법 통합안내지원센터(가칭)'를 설치한다. 해당 센터는 법령 해석, 가이드라인 적용, 영향평가 방법 등에 대한 상담을 제공하며, 기업이 규정을 오해하거나 불필요한 부담을 지지 않도록 돕는다.

또한 AI검·인증 및 영향평가 수행에 필요한 비용을 지원하고, 투명성 확보 의무나 고영향AI 사업자 책무에 대한 전문가 컨설팅 프로그램도 운영할 계획이다. 정부는 제도 운영 과정에서 수렴된 산업계 의견을 반영해 향후 법령과 지침을 지속적으로 개선할 방침이다.

배경훈 부총리 겸 과기정통부 장관은 "AI기본법 시행령은 우리나라가 AI 3대 강국(G3)으로 도약하기 위한 제도적 기반이 될 것"이라며 "입법예고 기간 동안 산업계와 국민의 의견을 충분히 반영해 AI산업 발전과 안전·신뢰 확보라는 두 가지 목표를 균형 있게 담아내겠다"고 말했다.

입법예고된 시행령 제정안은 과기정통부 누리집('입법·행정예고' 게시판)에서 확인할 수 있으며, 의견은 12월 22일까지 이메일이나 우편 등으로 제출할 수 있다.