[만났습니다]① 최경진 한국인공지능법학회 회장고영
페이지 정보
작성자 sans339 댓글 0건 조회 6회 작성일 25-07-28 19:50본문
동두천치과
[만났습니다]① 최경진 한국인공지능법학회 회장고영향·고위험 개념 혼란, 제34조 규제 내용 포괄 위임스타트업 부담 등 핵심 조항 손질 시급[이데일리 김현아 기자] 세계 최초로 오는 2026년 1월 22일 시행 예정인 대한민국의 ‘인공지능 기본법’(정식 명칭: 인공지능의 발전과 신뢰 조성 등에 관한 기본법)이 시행도 전에 산업계의 깊은 우려를 사고 있다.기술 발전 속도를 반영하지 못한 조문 구조, 고영향과 고위험 인공지능 개념의 혼선, 하위법령에 대한 과도한 위임 등이 규제 불확실성을 키우고 있다는 지적이다.최경진(50)가천대 교수(한국인공지능법학회 회장)는 이데일리와의 인터뷰에서 “높은 규제보다 더 나쁜 것이 불명확한 규제”라며, 법 시행 전 반드시 손봐야 할 조항으로 △제2조 제4호 고영향 인공지능 정의(‘or’ → ‘and’로 바꿔 규제 대상을 축소해야)△제2조 제7호 인공지능 사업자 구분(책임 주체가 불명확)△제34조 고영향 인공지능 관련 책무(신뢰성 안전성 확보 의무를 하위법령에 포괄 위임)등을 꼽았다.[이데일리 김태형 기자] 최경진 한국인공지능법학회 회장“고영향이면 모두 규제? ‘or’ 하나가 낳은 규제 범람”- 내년 1월 AI기본법 시행이 시작되면 가장 우려되는 점은 무엇입니까?“과징금 규정이 없다는 점은 다행이지만, 법의 근간이 구시대적인 AI 기술에 기반하고 있다는 것이 문제입니다. 지금은 거대언어모델(LLM)이 멀티모달을 넘어 AI 에이전트, 심지어 물리적 환경과 상호작용하는 피지컬 AI로 발전하고 있지만, 입법 논의 과장에서 이런 변화가 전혀 고려되지 않았습니다.”- 기술 발전 속도가 빠른 것이 왜 문제가 되는 걸까요?“결국 법이 책임 주체를 명확히 구분하지 못한다는 문제로 귀결됩니다. 법은 인공지능 개발사업자와 이용사업자를 구분하고 있지만, 실제로는 문제가 생기면 모두 책임을 져야 하는 구조입니다. 예를 들어 저는 오픈AI의 GPT를 활용해 서비스를 제공했을 뿐인데, 문제가 발생하면 제가 책임을 져야 하죠. 소스코드 수정 권한도 없는데 말입니다. 이런 책임 구조의 불균형은 유럽 AI법에서도 동일하게 제기되고 있는 이슈입니다. 1차 책임과 2차 책임을 명확히 구분하는 구조가 반드시 필요합니다.”- 이런 이유로 업계에서는 규제 조항 자체를 삭제하자는 주장도 나옵니다. 어떻게 보십니까?“그 전에 반드시 짚고 넘어가야 할 게 ‘고영향’과 ‘고위험’의 개념 혼동입니다. 현재 AI기본법에서는 고영향 인공지능을 단순히 ‘중[만났습니다]① 최경진 한국인공지능법학회 회장고영향·고위험 개념 혼란, 제34조 규제 내용 포괄 위임스타트업 부담 등 핵심 조항 손질 시급[이데일리 김현아 기자] 세계 최초로 오는 2026년 1월 22일 시행 예정인 대한민국의 ‘인공지능 기본법’(정식 명칭: 인공지능의 발전과 신뢰 조성 등에 관한 기본법)이 시행도 전에 산업계의 깊은 우려를 사고 있다.기술 발전 속도를 반영하지 못한 조문 구조, 고영향과 고위험 인공지능 개념의 혼선, 하위법령에 대한 과도한 위임 등이 규제 불확실성을 키우고 있다는 지적이다.최경진(50)가천대 교수(한국인공지능법학회 회장)는 이데일리와의 인터뷰에서 “높은 규제보다 더 나쁜 것이 불명확한 규제”라며, 법 시행 전 반드시 손봐야 할 조항으로 △제2조 제4호 고영향 인공지능 정의(‘or’ → ‘and’로 바꿔 규제 대상을 축소해야)△제2조 제7호 인공지능 사업자 구분(책임 주체가 불명확)△제34조 고영향 인공지능 관련 책무(신뢰성 안전성 확보 의무를 하위법령에 포괄 위임)등을 꼽았다.[이데일리 김태형 기자] 최경진 한국인공지능법학회 회장“고영향이면 모두 규제? ‘or’ 하나가 낳은 규제 범람”- 내년 1월 AI기본법 시행이 시작되면 가장 우려되는 점은 무엇입니까?“과징금 규정이 없다는 점은 다행이지만, 법의 근간이 구시대적인 AI 기술에 기반하고 있다는 것이 문제입니다. 지금은 거대언어모델(LLM)이 멀티모달을 넘어 AI 에이전트, 심지어 물리적 환경과 상호작용하는 피지컬 AI로 발전하고 있지만, 입법 논의 과장에서 이런 변화가 전혀 고려되지 않았습니다.”- 기술 발전 속도가 빠른 것이 왜 문제가 되는 걸까요?“결국 법이 책임 주체를 명확히 구분하지 못한다는 문제로 귀결됩니다. 법은 인공지능 개발사업자와 이용사업자를 구분하고 있지만, 실제로는 문제가 생기면 모두 책임을 져야 하는 구조입니다. 예를 들어 저는 오픈AI의 GPT를 활용해 서비스를 제공했을 뿐인데, 문제가 발생하면 제가 책임을 져야 하죠. 소스코드 수정 권한도 없는데 말입니다. 이런 책임 구조의 불균형은 유럽 AI법에서도 동
동두천치과
댓글목록
등록된 댓글이 없습니다.