2024.11.22 (금)

  • 맑음동두천 2.7℃
  • 맑음강릉 8.3℃
  • 맑음서울 4.8℃
  • 맑음대전 6.0℃
  • 박무대구 5.0℃
  • 맑음울산 6.2℃
  • 박무광주 7.3℃
  • 맑음부산 9.0℃
  • 구름조금고창 7.9℃
  • 구름조금제주 13.9℃
  • 맑음강화 5.8℃
  • 맑음보은 6.2℃
  • 맑음금산 7.4℃
  • 구름조금강진군 5.5℃
  • 맑음경주시 2.7℃
  • 맑음거제 6.7℃
기상청 제공

[기획취재] 인공지능, 제 앞길 막는 논리 반박…핵무기 수준의 규율 시급

AI, 상대국 완전파괴로 무한반복 군비경쟁 종결 시도…인류절멸의 위기 도래
LG AI ‘엑사원(EXAONE)’에게 ‘AI의 일자리 영향’ 묻자 “일자리 안 뺐는다” 답
이윤 목적인 기업들에 AI관련 규칙 맡기면 무모한 선택…유엔 차원 규율 필요

 

 

(조세금융신문=이상현 기자) “강력한 최신 거대 인공지능(AI) 시스템은 핵무기(Nuclear Weapons)와 같습니다. 보다 정확하고, 안전하며, 해석 가능하고, 투명하고, 견고하며, 정렬되고, 신뢰할 수 있으며, 충실하게 만드는 방향으로 연구개발을 해야 합니다. 이에 대한 지구촌 합의를 도출하기 위해 6개월간 ‘거대 AI 실험’을 중지해야 합니다.”

 

지난 3월 14일 챗지피티(ChatGPT) 개발회사인 오픈에이아이(OpenAI)가 GPT-4 대형 언어모델 최신 버전을 발표한 직후, 전 세계 기술 지식인들이 미국 미래생명연구소(Future Life Institute, FLI) 누리집에서 ‘거대 AI 실험 일시중지’ 서명운동(https://futureoflife.org/open-letter/pause- giant-ai-experiments/)을 시작하면서 동참을 촉구한 글의 일부다.

 

3만명 넘는 공학 및 인문 과학자들과 기술인 등 지구촌 전문가들 사이에서 낯익은 이름이 보인다. 스페이X(SpaceX)와 테슬라(Tesla), 트위터 최고경영자 일론머스크(Elon Musk)다. 머스크는 <트위터 스페이스(Twitter Spaces)>와의 인터뷰에서 “중국을 포함한 세계 지도자들과 함께 인공지능(AI)에 대한 규제 감독을 옹호했다”고 말했다. 머스크는 “중국이 AI 규제 관련 국제협력 프레임워크에서 함께 일할 것”이라고 덧붙였다. 일론 머스크는 인공지능의 본질을 연구하기 위해 xAI라는 연구회사를 창업했다.

 

xAI는 머스크가 대주주인 지주회사 X Corp와는 별개의 회사로 운영되지만, 트위터와 테슬라 등 계열사 들과 긴밀히 협력할 전망이다.

 

인간이 제어할 수 없는 전자지능, 어떻게 대처?

 

‘거대 AI 실험 일시중지’ 서명운동에 참여한 전문가들은 “인간에 필적하는 지능을 가진 AI 시스템은 사회와 인류에게 큰 위험을 초래할 수 있다”고 운을 뗐다. 고급 AI가 지구생명체의 역사를 근본적으로 바꿀 수 있는 잠재력을 가지고 있다는 것. 그래서 인류가 최대한의 관심과 자원을 투자해 최고로 신중하게 발전시켜야 하는 분야인데, 불행하게도 그런 계획과 관리주체가 없다고 한다. 외려 인류는 최근 수년간 AI 연구경쟁을 격렬하게 벌이고 있다.

 

서명운동 주최측은 “심지어 제작자조차도 자신의 행동을 이해하거나 예측하거나 안정적으로 제어할 수 없는 점점 더 강력해지는 전자지능(Digital Intelligence)을 개발하고 구현하기 위해 제어할 수 없는 경쟁을 벌이고 있다”고 주장했다. AI의 잠재적 위험은 전방위적이고 구체적이다. 경제협력개발기구(OECD)는 “AI는 양보다 질 측면에서 일자리에 위협적”이라는 전문가 지적을 비중 있게 소개했다.

 

영국 국립범죄청(National Crime Agency)은 최근 발표한 보고서에서 “확장현실과 인공지능(AI) 기술은 범죄자에게 성적 학대를 저지를 수 있는 새로운 기회를 제공하기 때문에 어린이 안전에 대한 새로운 위협으로 부상하고 있다”고 밝혔다.

 

AI가 생성한 이미지 공유는 실생활에서 아동 성학대로 이어질 수 있다는 지적이다. 보고서에 따르면, 영국에는 인구의 약 1.6%인 최대 83만명의 성인 성범죄자가 있으며, 이들은 어린이에게 상당한 위협이 되고 있다.

 

 

가짜 뉴스는 ‘하이브리드 전쟁(Hybrid War)’으로 명명된 현대 전쟁의 주되고 강력한 무기로 급부상했다. 실제 촬영된 영상인지 구별하기 어려운 가짜 인공영상물이 1초에 수만개 쏟아져 나올 수 있다. 교전의 한 쪽 당사자가 ‘적국이 민간인을 학살했다’고 주장하면서 그런 동영상을 퍼뜨리면, 반박할 겨를도 없이 악마같은 전쟁광으로 내몰린다. 악마에게 퍼붓는 핵무기 공격은 쉽고 빠르게 정당화 된다.

 

거대 정보통신기술(ICT) 기업들은 그러나 이런 경고에 아랑곳 하지 않고 앞다퉈 AI개발 성과를 자랑하고 있다. “더 빠르고, 정확하며, 강하고, 자율적인 AI가 필요하다”고 서명운동 주최측을 비웃고 있다. 페이스북과 인스타그램을 서비스하는 메타(Meta)의 지구촌 문제 부문장인 닉 클렉(Nick Clegg)은 지난 7월20일(미 현지시간) “현재 인공지능 모델은 매우 어리석고 자율성을 개발 측면이 현격히 떨어진다”고 밝혔다. 터미네이터를 왜 당장 만들지 않느냐는 말로 해석됐다.

 

메타는 이날 차세대 대규모 언어모델 ‘라마2(Llama2)’를 원천공개(open source) 방식으로 공개했다. 구글은 언론인과 창작물 작가 지원을 위한 인공지능기술을 시험중이라고 <뉴욕타임즈>가 7월 19일(미 현지시간) 보도했다.

 

“AI 기술경쟁 격화→초경쟁 지향→ 상호파괴→군사안보 위협→인류 절멸”

 

인류 과학과 경제에 가장 큰 영향 을 미친 각 분야 전문가들은 AI가 군사안보 분야에서 가장 걱정되는 분야라고 입을 모은다. 일론머스크는 “인류의 지나친 AI 경쟁이 3차 대전을 일으킬 수 있는 촉매제”라고 밝혔다. 2018년 작고한 고 스티븐 호킹 박사는 “인공지능 로봇의 탄생은 인류 문명사상 최악의 사건이 될 것”이라고 경고했다.

 

 

시사주간 <타임>지는 지난 6월 12일치 특집 기사에서 “아직 태어나지 않은 세대들을 포함한 수많은 사람들에게 그들의 조상들이 상상하지 못했던 강력한 도구들을 줄 것이지만 AI가 제기할 위험과 도전도 분명해지고 있으며, 지금이 바로 이를 해결해야 할 때”라는 전문가들의 지적을 주의 깊게 보도했다.

 

<타임>지는 지난해 여름 550명 이상의 Al 연구원들을 대상으로 설문조사를 했는데, 응답자의 절반 가량이 “높은 수준의 기계 지능이 만들어지면 ‘인간 멸종’ 등 매우 나쁜 종말에 이를 확률이 최소 10%에 이른다”고 응답했다.

 

미국 IT 연구 자문사 가트너(Gartner) 소속 수석 분석가인 아비바 리탄(Avivah Litan)은 <벤처비트(Venture Beat)>와의 인터뷰에서 “빠른 시간 안에 범용인공지능(Artificial General Intelligence, AGI) 기능이 탑재될 GPT-5가 GPT-4를 뒤따를 것”이라고 주장했다. 이어 “AGI가 등장하면 보안제어(Security Management)를 도입하기에는 너무 늦을 가능성이 높으며 더 이상 인류를 효과적으로 보호할 수 없을 것”이라고 깊은 우려를 표명했다.

 

 

미국을 중심으로 한 서방국가들과 중국 및 러시아를 중심으로 반서방 ‘지구촌 남방(Global South)’이 양 진영으로 나뉘면서 전략경쟁 시대로 접어든 가운데, AI를 활용해 불패의 승리를 보장할 군사 무기와 작전계획을 개발하는 기술경쟁이 양 진영 기업들을 중심으로 치열하다.

 

수백 명의 Al 과학자들은 지난 5월30일 오픈에이아이(OpenAl)와 딥마인드(DeepMind), 안쓰로픽(Anthropic) 같은 최고의 Al 연구소의 CEO들과 함께 Al에 대한 주의를 촉구하는 성명에 서명했다. 이들은 “Al로부터의 멸종 위험을 줄이는 것은 전염병과 핵전쟁과 같은 다른 사회 규모의 위험과 함께 전세계적인 우선순위가 돼야 한다”고 지적했다.

 

Al 경계론 전문가들의 핵심 주장은 Al 발전이 인류의 이익과 상충되는 목표를 가진 ‘초인간적 최첨단 인공 존재’를 만들어 낼 수 있다는 것. <타임>지는 “군비경쟁은 경기 규칙을 바꾸는 첨단 무기들이 계속 나오면서 결코 끝 나지 않는 과정”이라며 “어느쪽이든 무한반복의 군비경쟁이 이익을 해친다고 여기는 순간 게임을 떠나려 할 것”이라며 AI를 활용한 상호파괴를 경고했다.

 

<타임>지는 특히 군비경쟁의 가장 밀접한 이해당사자인 군산복합체 기업들이 자신의 이익을 추구하는 데 필요한 서사를 강화할 것이며, 이는 인류의 이해와 정확히 상충될 수 있다는 점을 지적하고 있다. 핵무기가 그렇듯, 무기화 된 Al 역시 적국 국민들을 단숨에 말살할 수 있다는 경고다. <타임>지의 결론은 “Al 관련 사항은 개발단계부터 천천히 조심스럽게 움직여라”는 것이다.

 

일자리를 빼앗아 간다…일말의 동요도 없이

 

마시어스 코르만(Mathias Cormann) 경제협력개발기구(OECD) 사무총장은 지난 7월20일(미 현지 시간) 인공지능과 일자리를 주제로 한 온라인 세미나(웨비나)에서 “지금까지 AI가 일자리 수에 상당한 영향을 미친다는 증거는 거의 없다는 점을 발견했지만, 대신 AI가 작업품질에 더 큰 영향을 미치고 있다”고 밝혔다. 대부분의 노동자에게 AI가 실직이 아니라 일자리의 강도와 질에 미치는 영향에서 가장 눈에 띄는 영향을 미칠 것이라는 것이다. AI가 반복적인 작업을 자동화하는 데 유용하지만 때로 작업 강도와 속도를 더 높여 높은 스트레스의 작업 환경을 만들 수도 있다는 경고다.

 

OECD가 제조업과 금융 분야 2000개 기업과 3500명의 노동자를 대상으로 한 설문조사에 따르면, AI가 업무 속도를 높일 가 능성이 5배나 높았다. 재무 종사자의 75%와 제조 종사자의 77%는 AI가 업무 수행 속도를 높였다고 응답했다. 5명 중 3명(60%)이 “AI가 향후 10년 동안 일자리 손실을 초래할 것”이라고 우려했지만, 노동강도에 대한 두려움이 일자리 수에 대한 위협을 훨씬 압도하고 있는 것이다. OECD는 또 향후 10년 동안 직업의 27%가 자동화에 따른 각종 문제를 낳을 것으로 전망했다.

 

OECD 고용전망(2023)에 따르면, 고도숙련노동자들이 직장에서 AI의 긍정적 영향에 대해 가장 낙관적이지만 AI때문에 일자리를 잃을 가능성이 가장 높은 것으로 나타났다.

 

<타임>지 최근 호(6월12일자) 보도에 따르면, 인류는 AI혁명에 따라 감정적·정신적 비용을 지불하는 양상이 달라진다. 사회적 동물인 인간은 다른 사람들과의 상호작용으로 성장 또는 고립되고, 일자리를 잃는다. 인간끼리는 ‘온정주의’ 때문에 일자리 교체 속도가 늦어질 수 있지만, 직장동료가 AI라면 얘기가 다르다.

 

 

로봇은 점점 많은 직장동료들을 대체할 것이고, 과거 인간끼리의 경쟁에서 뒤진 열패감 대신 로봇에 대한 적대감이 점점 커질 전망이다. LG AI 연구소는 지난 7월19일 초거대 AI '엑사원(EXAONE) 2.0'을 공개하는 자리에서 대규모 데이터를 스스로 학습해 인간처럼 사고·학습·판단하는 AI로봇인 ‘유니버스’에게 “AI와 자동화가 사람 또는 인간 근로자들을 대체할 것인지” 묻고 답하 는 장면을 현장 시연했다.

 

‘유니버스’는 논문 2개를 불러와 해당 논거까지 제시하며 “AI는 전문가와 인간 노동자를 대체하지 않고 기업의 일관된 의사결정에 도움을 주지만 저부가가치 영역, 반복적 실험 등을 대체할 수 있다”며 “자동화 관점에서 인간 노동력을 대체하는 부분도 있지만 결국은 결국 인간을 대체하기보다는 인간 고유의 능력과 효율성을 신장할 예정”이라고 답했다. AI ‘엑사원(EXAONE)’이 자신에 부정적인 논리를 반박하고, 스스로의 존재와 앞길을 두둔하고 옹호하는 순간이었다.

 

가짜 뉴스, 디지털 격차, 뇌기능 퇴화

 

세종대학교 인공지능학과 구영현 교수는 지난 7월7일 한국 프레스센터에서 열린 ‘스마트 AI포럼’에서 “현재 인공지능은 AGI(Artificial General Intelligence)로 가는 과정이며, 아직 갈 길이 멀기 때문에 지나친 걱정을 할 필요가 없다”고 했다. 구 교수는 그러나 “지나친 맹신도 하지 말아야 한다”면서 “단기적으로 가치를 만들고 잘 활용해야 하고, 장기적으로는 범용인공지능(AGI) 기술 개발에 힘써야 한다”고 덧붙였다.

 

하지만 구 교수의 낙관론이 AI의 자기증식 속도와 의지를 수량적 데이터로 가늠해 본 뒤 나온 것인지는 의문이다.

 

<타임>지 최근 호 보도에 따르면, AI 발전은 우리가 지금까지 마주친 것보다 훨씬 더 인간적으로 보이는 수많은 로봇들을 방출할 전망이다. 자신의 일자리에 대한 영향을 두둔(LG엑사원)할 수 있는 능력을 보여준 로봇은 감정의 동물인 인간에게 충분히 호의적인 모습으로 다가올 수 있다.

 

만일 인간이 범접할 수 없는 속도로 전략을 수립한 AI 세력이 조직까지 갖춘다면 인간의 뇌처럼 쉴 필요가 없는 로봇의 엄청난 속도로 추진될 수 있다는 점이 중요하다. 인간이 통제할 수 있었던 기존의 기술개발 분야와는 완전히 다른 분야가 바로 AI 분야라는 것이다. 설혹 구 교수의 진단처럼 AI가 인류의 판단 영역 안에서 진화한다고 쳐도, 갖가지 사회적 문제를 낳을 전망이다.

 

2022년 중국 상하이에서 열린 인공지능 정상회의에서는 얼굴 인식 기술이 적용된 AI가 보편화 된 사회에서 여행자나 외지인, 난민 등 소규모 집단 구성원들이 심각한 차별을 받을 수 있다는 지적이 나왔다. AI 시대는 사회 불평등을 심화시킬 수 있다는 지적이다. AI에 점점 더 의존하게 되는 인류의 뇌가 퇴화될 가능성도 높다. 상하이 AI 정상회의에서는 “AI에 대한 심화된 의존도는 되돌릴 수 없을 것이며, 어쩌면 이것이 가장 중요한 AI 과제일 수 있다”는 지적이 나왔다.

 

가짜뉴스는 모든 부분에서 인류 삶을 왜곡시키고 비용을 크게 증가시킬 전망이다. <타임>지는 “민주주의와 자유시장의 건강한 발전은 정확하고 검증 가능한 정보 접근에 달려 있지만, 최근 몇 년 동안 소셜미디어는 사실과 허구를 구별하는 것을 더 어렵게 만들었다”고 지적했다. 그러면서 “AI가 얼굴 인식 및 국가 감시에 사용할 수 있는 여러 도구를 사용해 기하급수적으로 더 높은 수준의 정교함을 얻을 것”이라고 덧붙였다.

 

규율과 거버넌스…유엔이 나서라

 

학자들은 ▲특정 문제를 해결하는 지능적 행동 ▲사람의 지능적 행동을 흉내 낼 수 있는 수준 ▲대부분의 인공지능 접근 방향 ▲중국인 방 사고실험(Chinese room thought experiment) 등을 ‘약한 인공지능(weak Al, narrow Al)’ 단계로 규정한다. ‘중국인 방 사고실험’은 인공지능 여부를 판정 할 수 없다는 것을 논증하기 위해 고안한 사고실험으로, 지능이 있어서 질문에 답변할 수 있는 기계라도 그것이 실제 지능을 가졌는지는 알 수 없다는 결론이다.

 

이와 달리 ‘강한 인공지능(strong Al)’은 ▲사람과 같은 지능 ▲마음을 가지고 사람처럼 느끼면서 지능적으로 행동하는 기계 ▲추론, 문제해결, 판단, 계획, 의사소통, 자아 의식(self-awaren 감정(sentiment), 지혜(sapience),양심(conscience) 등을 갖춘 Al를 가리킨다. ‘거대 AI 실험 일시중지’ 서명운동 당사자들은 “불행하게도, 정책 입안자들은 Al이 만든 위기에 실제 직면할 때까지 어떤 조치를 취하지 않을 것”이라고 우려하고 있다. 정책은 매우 복잡할 것이고, 해당 조치들에 수반되는 비용이 만만찮을 것이기 때문이다.

 

서명운동 주최측은 “기후변화 문제와 달리, 각국 정부는 Al혁명이 국경을 초월한 도전을 제기한다는 것에 아직 동의하지 않았다”며 “유엔은 지구적 합의를 발전시킬 수 있는 소집력을 가진 유일한 기관으로서 역할을 해야 한다”고 주장했다. 유엔이 AI의 잠재적 위험과 가능성, 영향력, 발전 속도 등에 대해 가장 빠르고 적절하게 합의를 만들어 낼 유일한 기구라는 주장이다. 구체적으로 공동조사와 연구, 지구 차원의 규율 틀을 만드는 ‘정부간 기후변화협의체(IPCC)’ 수준의 국제기구나 무분별한 AI 확산을 막기 위해 국제원자력기구를 모델로 한 기관도 거론되고 있다.

 

<타임>지는 “AI의 도전은 전 세계적 대응을 요구할 것”이라고 전제, “오늘날 인공지능은 정부 부문이 아닌 기술회사에 의해 규제되는데, 이는 인류가 함께 이해하지 못하는 게임규칙이 만들어 질 수 있는 원초적 위험을 안고 있다”고 보도했다. 그러면서 “AI 제품을 규제하기 위해 기술 회사에 게임규칙을 의존하는 것은 지속 가능한 계획이 아니다. 소비자와 국가 등 공익을 위해 존재하는 것이 아니라 기업의 배타적 이익을 얻기 위해 존재하기 때문에 국가가 AI 규율에 나서야 하는 것”이라고 덧붙였다.

 

 

[조세금융신문(tfmedia.co.kr), 무단전재 및 재배포 금지]

관련기사












배너

전문가 코너

더보기



[데스크 칼럼] 아이 낳고 싶지 않은 여성이 대부분인 나라
(조세금융신문=이상현 편집국 부국장) 1년 가까이 저출생 문제를 장기 취재하면서 줄곧 든 생각이 한국의 미디어 환경이다. 방송카메라는 온종일 독신 유명 연예인의 일거수일투족, 연예인 가족의 일상을 샅샅이 훑는다. 시청자들은 간간이 미소 짓고, 자주 한숨 짓는다. 저소득 노동자들의 일상은 대략 비슷하다. 택배상자를 뜯어 찰나의 소소한 행복감에 젖고, 대기업의 반제품 요리재료꾸러미(meal kit) 포장을 뜯어 백종원의 지침대로 요리도 해먹는다. 다국적 미디어 플랫폼 N사의 영화를 보다가 잠든다. 침대에 누워 SNS를 뒤적일 시간도 사실 그리 넉넉하지는 않다. 그저 그런, 그냥 일상의 연속이다. 바다가 보이는 별장에서 진짜 정성을 기울여 만든 요리를 함께 모여 먹는 장면을 보면서 컵라면을 먹는다. 1인당 입장료가 15만원인 호텔 수영장에서 아이와 신나게 물장난을 치는 장면을 보면서 한숨을 쉰다. 아이를 태운 유모차 값이 850만원짜리라는 걸 결혼한 친구로부터 들었기 때문에 한숨은 잠시 분노 섞인 탄식으로 이어지기도 한다. TV나 유투브를 보는 동안 내 인생과 연예인의 인생은 그럭저럭 공존한다. 폼나는 부분은 연예인 인생을 보면서 대리만족을 느낀다. 궁색하고 구질
[인터뷰] 인성회계법인 이종헌 회계사 “세무회계 전문가, AI활용으로 더욱 고도화된 역할 감당해야”
(조세금융신문=이지한 기자) 지난 8월 26일 홀리데이인 인천송도 호텔에서는 ‘2024 인천지방세무사회 회직자 워크숍’이 열렸다. 상생과 화합을 다짐하는 이 자리에서는 ‘회직자가 알아야 할 회무 관련 규정’, ‘온라인 전자투표’ ‘GPT를 활용한 전문직의 미래’ 등의 다양한 주제 발표도 이어졌다. 이날 취재를 하면서 생성형 AI를 대표하는 ChatGPT 등을 세무회계 전문가들은 어떻게 준비하고 있고, 또 앞으로 어떤 또 다른 미래가 다가올까에 관심이 더해졌다. 이날 ‘GPT를 활용한 전문직의 미래’ 강의는 인성회계법인 이종헌 회계사가 맡았다. 가장 먼저 소개한 것은 AskUp(아숙업)이다. 카카오톡 채널인 아숙업을 통해 ChatGPT 무료 버전을 활용할 수 있었다. 필자도 바로 채널을 추가해서 활용해 봤다. 변화하는 세상이 한 걸음 더 다가간 느낌이 들었다. 이종헌 회계사를 만나 워크숍 참석한 세무사들의 반응과 함께 세무회계 전문가들이 앞으로 어떻게 AI를 대비하는 게 좋을까에 대해 질문을 던졌다. “강의 반응은 매우 긍정적이었습니다. 많은 세무사가 AI, 특히 GPT에 대해 큰 관심을 보이셨어요. 질의응답 시간에는 실제 업무에 어떻게 적용할 수 있을지에 대