(조세금융신문=안경봉 국민대 법대 교수) 지난 해 12월 19일 개최된 국세행정포럼에서는 ‘국세청 AI 세금비서’ 도입에 관한 주제발표 및 토론이 있었다. 국세청은 AI 세금비서 도입을 통해 고지서 발송부터 신고 납부, 사후 서비스까지의 납세 과정의 자동화는 물론 음성과 텍스트를 모두 지원하는 보이스 봇을 통해 납세편의를 제고하는 방안을 기대하고 있다. 그렇다면 AI 세금비서는 납세자에게 납세편의만을 제공하고 위험은 없는 것일까?
‘AI 세금비서’는 인공지능인가?
‘국세청 AI 세금비서’라 할 때 AI 즉 ‘인공지능’이라는 개념이 처음 등장한 것은 1956년 ‘다트머스 회의’에서다. 인공지능은 처음에 세상의 문제를 기호와 규칙을 통해 풀려고 하는 기호주의 접근법이 대세를 이루었다. 한계가 드러나자 ‘지식’ 그 자체를 이용하려는 방법론이 1970년대에 발전하게 되었는데, 1977년 손 메카시(Thorne McCarthy)가 개발한 ‘TAXMAN 시스템’도 미국 연방세법의 규칙을 기반으로 하는 알고리즘으로 지식을 가지는 ‘전문가 시스템’이다. 전문가 시스템도 기본적으로 인간이 외부에서 규칙을 만들어 컴퓨터에 일일이 입력하는 한계가 있다.
그리하여 이와 달리 인간이 대략적인 얼개만 만들어 두고 기계가 데이터를 통해 프로그램을 완성하는 방식이 등장하게 되었는데, 이것이 ‘머신러닝(machine learning)’이다. 고전적인 머신러닝은 입력으로 들어가는 특정값인 피쳐(feature)를 사람이 뽑는 데 비해, 딥러닝은 학습을 통해 적절한 피쳐를 스스로 생성해 낸다는 차이가 있다. 인공지능단계로 보면 ‘AI 세금비서’는 지식 그 자체를 이용하려는 규칙 기반 인공지능이라 할 수 있으므로 향후 발전여지가 많다.
‘AI 세금비서’의 편익과 위험
국세청의 AI 세금비서 도입 기획은 2019년 빅데이터 센터의 출범과 관련이 있다. 빅데이터 센터 출범이후 국세청은 업무효율성 향상을 위해 빅데이터 분석으로 1) 거부율을 산출하여 이를 사업자 등록 신청 및 정정시 현장확인 대상여부 판단에 참고자료로 사용한다거나, 2) 차명계좌의 금융정보와 NTIS 과세정보 등의 빅데이터 금융거래 자동분석을 통해 매출 탈루혐의 금액을 차명계좌 업무 담당자에게 결과 제공을 하는 서비스를 하고 있다.
또한 공정과세를 구현하기 위하여 빅데이터 분석을 통해 고액체납자의 실거주지, 은닉재산을 파악하여 체납자의 숨긴 재산 추적조사 업무에 활용하고 있다. 그러나 빅데이터 분석결과를 제공하더라도 실제 조사는 업무담당자가 다시 살펴봐야 하다 보니 빅데이터 분석에 따르는 비용 대비 징세비용절감이라는 편익의 관점에서 비판이 제기되고 있다.
납세자편의제고를 위해서도 빅데이터 시스템 하에서는 3) 소득금액의 합산은 물론 소득종류별 소득공제 및 세액공제 연계분석을 제공함으로써 납세자에게는 연말정산시 납세편의 제공, 4) 영세납세자 대상 사업관련 경비 분류 서비스 제공, 5) 챗봇 상담서비스 제공 등을 하고 있다. 일반적으로 인공지능 사용으로 인한 위험에는 데이터와 직접 관련된 내재적 위험과 사회에서의 AI 채택과 관련된 외적 위험이 있다.
내재적 위험은 공정성 및 포괄성, 시스템 안정성 및 보안, 사용자 데이터 개인 정보 보호 및 보안, 투명성(transparency) 및 책임성(accountability)이고, 외재적 위험은 일자리 감소다. AI 세금비서와 같은 개인화 알고리즘이 야기하는 위험은 몇 가지 있는데, 그 중에서도 가장 심각하게 받아들여지는 것은 개인정보침해의 문제다.
국세청도 AI 세금비서 도입에 따라 이 문제가 중요하다고 보고, 보완관련 국제표준 인증 획득, 비식별 조치 적정성 평가단 운영을 하고 있다. 그런데 문제는 알고리즘에 결함과 오류가 발생해도 그 문제의 원인이 무엇인지, 문제를 어떻게 수정해야 하는지 알기 어렵다는 점이다.
알고리즘의 책임성
그리하여 제시되는 개념이 알고리즘의 책임성(accountability) 문제이다. 알고리즘 책임성 개념은 두 가지 관점에서 정의되는데, 하나는 개인의 프라이버시 침해가 발생한 경우 이에 대한 법적, 도의적 책임을 누가 질 것인가 하는 것이고, 다른 하나는 머신 러닝에 사용되는 데이터의 수집 방식, 목적, 사용의도, 알고리즘의 작동방식, 모델링 프로세스나 가중치 등에 관해 투명하게 밝혀야 한다는 것이다.
이렇게 보면 알고리즘 투명성(transparency)은 알고리즘 책임성을 달성하기 위한 도구적 성격을 지닌다고 할 수 있다. 그런 점에서 정부가 마련하여 국회에 제출한 개인정보보호법 개정안에서 규정되어 있는 자동화된 결정에 대한 정보주체의 권리, 결정거부권 혹은 결정에 대한 설명요구권은 주목하여 볼 필요가 있다.
자동화된 행정결정에 대한 규율
한편 AI 세금비서의 발전에 따라 납세 과정의 자동화가 이루어지게 되면 자동화된 행정결정은 필연적이다. 우리의 경우에도 행정기본법 제20조에서 자동화된 행정결정에 관한 근거규정을 두고 있으나, 이것만으로는 부족하고, 자동화된 행정결정에 대한 보다 상세한 지침이 필요하다.
2019년 캐나다 재무부의 ‘자동화된 의사결정에 대한 지침’(Directive on Automated Decision-Making)에 의하면 인공지능 시스템 관리자는 알고리즘 영향평가 의무, 투명성의무, 품질보증의무, 적용가능한 이의제기 옵션제공 의무, 보고의무를 부담하고 있음을 참고할 필요가 있다.
[프로필] 안경봉 국민대학교 법과대학 교수
•(현) 금융조세협회 수석부회장
•(전) 한국국제조세협회 이사장
[조세금융신문(tfmedia.co.kr), 무단전재 및 재배포 금지]