• 인쇄
  • 목록

[인터뷰] 초격차 첨단미래기술 혁신의 아이콘 안철수..."AI몰러 나간다"

-단순 규제 넘어 자유와 지속성장 보장하는 AI 규제 목표로 입법 추진

 

 

 

(조세금융신문=이상현 기자) 인터넷 보편화의 부산물로 디지털 공간을 더럽혔던 컴퓨터 바이러스를 퇴치하면서 한국사회 초격차 미래기술 입국의 아이콘으로 급부상한 안철수 국회의원(국민의힘)이 이번에는 인공지능(AI) 시대에 필요한 규율 마련에 본격 착수했다.

 

지난 8월 8일 ‘인공지능 책임 및 규제법안’을 대표 발의한 것. 안철수 의원은 본지 인터뷰에서 “AI 기술이 특정 분야에서 인간의 통제수준을 넘어서서 고의적으로 악용될 수 있는 문제에 대해 법적 규제가 꼭 필요하다”고 말했다.

 

국가 차원에서 국무총리 소속 인공지능위원회를 만들어 민관이 함께 기술 장려와 규제를 도모해야 한다고도 강조했다. 다음은 안철수 의원과의 일문일답.

 

Q. 세계적으로 AI가 교통, 의료, 서비스 등 다양한 분야에 활용되면서 일상생활의 편의 증진은 물론 산업적 활용 가능성에 대한 기대를 높이고 있다. AI가 제시하는 미래는 마냥 낙관적인가.

 

인류를 이롭게 하는 측면이 분명하지만, 다른 한편으로는 인공지능의 위험성에 대한 우려도 확대되고 있다. 특히 인공지능 기술은 대량의 데이터를 학습해 성능을 향상시키는 기계학습에 기반하고 있어 불확실성과 불투명성을 가지고 있다. 바른 인식을 교란시키는 쓸데없는(noise) 데이터로 인한 오류생성 가능성도 크다. 따라서 인공지능기술이 특정 분야에서 인간의 통제수준을 넘어서서 고의적으로 악용될 수 있는 문제에 대한 법적 규제 필요성이 있다.

 

Q. 다른 나라의 경우 어떻게 규제에 접근하고 있는지.

 

ChatGPT 4.0 출시 이후 각국 별로 법률을 통해 무엇을 허용하고 무엇을 허용하지 말아야 할지 ‘가이드라인’을 설정하는 것이 더욱 시급해졌다. 가령 유럽연합(EU) 의회가 오는 2025년경 ‘인공지능법’을 세계 최초로 제정할 예정이다. 이런 상황을 고려할 때, 우리나라도 인공지능의 부작용과 위험이 무엇인지 정확하게 파악하고 인공지능 규제 정책을 형성해 나가는 것이 필요하다.

 

Q. 지난 8월 8일 ‘인공지능 책임 및 규제법안’을 대표 발의하셨는데, 좀 더 구체적으로 어떻게 규제를 인식하고 설계하고 계시는지.

 

단순한 신기술의 위험성에 대한 규제를 넘어, 개인의 자유에 대한 억압이나 제한을 지양하고, 지속적인 성장이 가능한 사회로 나아가는 것이 AI 관련 규제의 목표가 돼야 할 것이다. 이에 향후 신뢰할 수 있는 인공지능의 사용환경을 조성하기 위해 AI 개발 및 이용에 관한 기본원칙, AI사업자의 책무 및 이용자의 권리를 규정해야 한다.

 

또 금지된 AI와 고위험AI, 저위험AI 등으로 AI 유형을 구분, 각각의 이용자 보호를 위한 AI 관련 시책을 구분해 마련해야 한다. 그래야 기술진보를 장려하면서도 안전하고 신뢰할 수 있는 AI 기술과 정책의 제도적 기반을 조성할 수 있다.

 

『인공지능 책임 및 규제법안』 이름에서 알 수 있듯이 인공지능의 책무성, 사회적 책임, 위험 예방 등에 방점을 둔 법안이라는 점을 강조한다. 국제적 규제의 방향성을 읽고 그 틀을 벗어나지 않는 범위 내에서 인공지능 산업 진흥을 위해 정부가 노력해야 한다는 취지의 제정법안이다.

 

금지된 인공지능의 영역에 대해서는 끊임없이 사회적 논의가 진행되어야 한다. 인류 평화, 인간의 존엄성, 자유와 평등, 민주주의, 기본권에 대한 침해의 위협이 명백한 영역에 대해서 제한을 두어야 한다는 것이 결코 과도한 규제라고 볼 수는 없다. 그것도 법에 규정하는 것이 아니고 충분한 사회적 논의를 통해 대통령령으로 금지된 영역을 지정하자는 것이다.

 

Q. 금지된 AI라고 하니, 영화 <터미네이터>가 떠오른다.

 

그렇다. 허용되지 말아야 할 AI를 정의하고, 그것 이외의 AI 개발 및 이용에 대해 우선적으로 허용한 뒤 사후규제 원칙을 정해야 한다. 금지된 AI는 원칙적으로 개발을 금지해야 한다. 저위험 AI의 개발 및 이용은 원칙적으로 허용하되, 이용자의 생체정보를 감지해서 상호작용을 하는 경우 또는 사진·음성·영상 등을 실제와 같이 만들어 내는 경우에는 해당 사실을 공시하도록 의무화 해야 한다.

 

Q. 정부가 일이 많아질 것 같다.

 

고위험 AI로부터 이용자들을 보호하려면 정부 역할이 크다. 과학기술정보통신부장관이 3년마다 AI 안전성과 합리적 개발 및 이용 여부를 점검토록 법안에 반영했다. 민관이 함께 하는 인공지능위원회를 설립, 각종 심의·의결을 거쳐 최종 정책을 수립·시행토록 할 계획이다. 기본계획에는 AI 관련 정책의 기본 방향과 전략, 신뢰 기반 조성 등에 관한 사항이 포함되도록 법안에 명시했다.

 

물론 사업자들이 책무를 잘 수행하는지, 이용자권리는 뭐고 어떻게 보장돼야 하는지가 법률로 규정해야 한다고 본다. 지난 8월 8일 대표 발의한 ‘인공지능 책임 및 규제법안’에 이런 내용들을 두루 담았고, 심사 과정에서 머리를 맞대고 다듬어갈 예정이다.

 

Q. 인공지능위원회? 또 위원회가 생기는 건가.

 

AI사회 구현, AI산업 신뢰 확보와 관련된 사항을 심의·의결하기 위해 국무총리 소속 인공지능위원회를 두도록 법안에 제안했다. 인공지능위원회에 기본계획의 수립 및 그 추진상황 점검·분석에 관한 사항 등을 심의·의결하도록 해야한다고 봤다.

 

 

[조세금융신문(tfmedia.co.kr), 무단전재 및 재배포 금지]