bibo:abstract |
1. Chat GPT와 AI의 인간스러운 지능
2. AI 알고리즘에 대한 ‘적대적 머신러닝’의 문제
3. 허위조작정보 유포는 민주주의와 주권에 대한 공격
4. AI 챗봇이 구사할 수 있는 사이버 위협
5. 민주주의 국가의 허위조작정보에 대한 대응6. 제언: 허위조작정보에 대한 대응 및 반격 정책
1. Chat GPT와 AI의 인간스러운 지능
작년 11월 Open AI의 Chat GPT 출시 이후 반년이 지난 시점에 Chat GPT를 활용한 서비스 개발이나 교육적 활용 등 다양한 프로젝트와 비즈니스가 전 세계적으로 활성화되고 있다. 오늘날 인공지능(Artificial Intelligence, AI)의 내러티브(narratives) 구사 능력 즉 AI의 자연어처리(Natural Language Processing, NLP) 기술은 앞으로 국가 간 다양한 AI 기술 경쟁 중 핵심 분야로 부상할 것을 충분히 예상하게 한다. GPT(Generative Pre-trained Transformer)는 텍스트 생성을 위한 딥러닝(Deep Learning, DL) AI 언어모델로서 대규모 텍스트 데이터를 학습하여 인간의 언어를 분석하고, 인간의 질문에 대한 답변이 가능한 대화형 AI 프로그램이다. AI의 언어구사 능력은 AI 기술의 궁극적이고 최종적인 목표인 ‘인간스러운 지능(humanistic intelligence)’을 구현하기 위한 핵심적인 능력 중 하나이다.
인간스러운 지능은 인간과 AI가 공생할 수 있는 하나의 팀이 되도록 심리적, 사회적, 기술적으로 통합된 시스템을 지원하는 것을 목표로 개발된다. 궁극적으로 Chat GPT와 같은 AI 챗봇이나 자연어처리 기술의 발전은 기계의 인간 언어 구사력을 통해 인류의 사고방식과 의사결정 과정, 감정과 가치체계에 심대한 영향을 끼칠 것이므로 향후 국가 간 기술경쟁 결과를 결정짓는 주요 변수 중 하나가 될 수 있다. 인간의 지능을 목표로 하는 AI 기술의 발전이 뇌과학(neuroscience) 연구의 진전으로 더욱 발전되고 있지만 아직까지는 AI가 인간의 뇌처럼 사고하는 것은 아니다. AI 챗봇이나 AI 스피커가 인간의 언어를 구사한다고 해도 AI가 곧 인간처럼 생각하는 것은 아니기 때문이다.
2. AI 알고리즘에 대한 ‘적대적 머신러닝’의 문제
AI 챗봇의 언어구사 능력은 인간의 지식 활동을 획기적으로 도울 것으로 예측되고 있지만, 다른 한편 Chat GPT 출시 이후 챗봇의 부정적인 발전 가능성에 대한 우려도 제기되고 있다. Microsoft가 과거 출시한 챗봇 프로그램인 ‘테이(Tay)’의 경우 트위터(Twitter)에서 트롤(Trolls)의 ‘적대적 공격(adversarial attacks)’을 받아 테이가 점점 공격적인 언어를 구사하게 되자 Microsoft가 출시 16시간 만에 이 프로그램을 셧다운(shutdown)한 바 있다. 적대적 공격이란 AI의 학습데이터를 오염시켜 잘못된 결과를 도출시키려는 사이버 공격으로서 부정확하거나 왜곡된 데이터를 학습시키게 하여 AI 알고리즘에 오작동 일으키는 ‘적대적 머신러닝(adversarial machine learning)’을 말한다. AI 기술이 적용된 자율주행차나 의료과정 알고리즘이 적대적 공격을 받을 경우 운전자나 환자의 안전이 심각하게 위협받을 수 있는 것과 같은 이치이다.
챗봇 알고리즘이 의도적인 공격을 받아 오작동을 일으킬 수 있다는 것은 곧 앞으로 AI가 구사하는 언어와 만들어내는 담론이 국내적 여론 형성 과정에 영향을 끼칠 수 있고, 현재 국제사회에서 공격적으로 다뤄지고 있는 ‘허위조작정보의 유포(disinformation campaign)’ 문제가 앞으로 더 심화될 수 있음을 말해준다. New York Times 저널리스트 에즈라 클라인(Ezra Klein)이 Chat GPT를 국가 간 ‘정보전(information warfare)의 무기’라고 묘사한 것은 조금도 과장된 묘사가 아니다. 미국과 유럽의 경우 2016년 이후부터 지속적으로 거의 모든 주요 선거철마다, 그리고 코로나19 팬데믹 기간 동안 진영 간에 방역정책의 정치체제적 우월성으로 경쟁했던 시기에 AI 봇이 동원되어 가짜뉴스(fake news)가 확산된 일련의 추세를 감안하면, AI 챗봇은 앞으로 형성될 세계질서가 누구에게 유리하게 전개될 것인지 그 방향을 유도하는 경쟁에 심대한 영향을 끼칠 것이다. 요컨대, 국가 간, 진영 간 담론 경쟁은 AI 알고리즘의 내러티브 구사 능력 증진 경쟁과 직결되고 있는 것이다.
3. 허위조작정보 유포는 민주주의와 주권에 대한 공격
2023년 4월 27일 미 의회 상·하원 합동의회 연설에서 윤석열 대통령은 ‘허위조작정보(disinformation)’의 문제를 거론하며 “자유민주주의 가치”와 “민주주의 연대”를 강조했다. 윤 대통령은“세계 도처에서 허위선동과 거짓정보가 진실과 여론을 왜곡하여 민주주의를 위협”하고 “전체주의 세력이 자유와 민주주의를 위협하고 부정하면서도 마치 자신들이 민주주의 운동가, 인권 운동가인 양 정체를 숨기고 위장하는 경우가 대부분”이므로 “소중한 민주주의와 법의 지배 시스템이 거짓 위장 세력에 의해 무너지지 않도록 우리 모두 힘을 합쳐 용감하게 싸워야”한다고 강조했다. 동맹 70주년을 기념하는 대통령의 미 의회 연설에서 허위조작정보의 문제가 민주주의 연대의 차원에서 언급된 이유는 무엇이었을까?
주로 트위터(Twitter), 페이스북(Facebook), 유튜브(YouTube)와 같은 소셜미디어 플랫폼(social media platform)에서 대규모로, 빠르게 확산되는 허위조작정보 유포의 문제는 단순히 사이버 공간에서의 사실왜곡을 통한 이윤 추구 활동이나 정치적 편향성을 부추기는 여론몰이 수준의 사안이 아니다. 오늘날 가짜뉴스와 딥페이크(deep fake)와 같은 허위조작정보에 대해 각국이 공격적으로 대응하기까지 국제적 문제로 대두되게 된 데에는 두 가지의 큰 이유가 있다. 첫째는 주로 사이버 공간을 통해 확산되는 허위조작정보의 생산과 조직적인 유통에 앞서 언급한 AI 알고리즘의 내러티브 기술이 적극적으로 사용되고 있는 것이고, 두 번째는 미·중 경쟁과 진영 간 갈등 속에서 국가가 발신하는 내러티브와 담론이 서로 다른 정치체제와 가치·이념 간 우월경쟁의 중요한 무기가 되고 있는 점이다.
이미 미국은 트럼프 대통령이 당선된 2016년 대통령 선거를 시작으로 하여 러시아와 이란 등 권위주의 국가의 AI 알고리즘 기술을 사용한 ‘컴퓨터 프로파간다(computational propaganda)’ 활동으로 선거 여론이 좌지우지되는 경험을 반복적으로 경험했다. 유럽도 2016년 영국의 브렉시트(Brexit) 국민투표를 비롯하여 이후 프랑스, 독일 등 각종 주요 선거철 외부로부터의 허위조작정보 유포의 공격의 피해를 입었고, 그 배후로서 러시아와 이란 등을 지목한 바 있다. 선거철 사이버 공간에서 펼치는 허위조작정보 유포 활동은 사실상 평시(peacetime) ‘사이버 영향공작(influence operations)’과 다름없다.
사이버 공간에서 챗봇과 같은 AI 알고리즘의 내러티브 구사능력과 봇부대(bot army)와 같은 대규모 정보확산 알고리즘 프로그램을 사용하여 여론을 교란시키고 사회갈등을 증폭시키며 선거와 같은 민주주의 제도의 핵심 기능과 정부의 ‘정치적 정당성(political legitimacy)’을 훼손하려는 활동은 본질적으로 ‘전복적인(subversive)’ 행위이다. 따라서 서방은 이러한 국가 배후 허위조작정보 유포 활동을 ‘사이버 테러(cyber terror)’이자 ‘주권(sovereignty)’에 대한 개입으로 간주하고 군사적 차원에서 대응하고 있다. 미국과 유럽에서 개별 국가 차원에서 혹은 다국적(mutli-national) 연대 차원에서 이루어지는 수많은 사이버 모의군사훈련에 허위조작정보의 유포 상황을 가정한 시뮬레이션이 반드시 동반되는 것은 허위조작정보 유포에 대한 서방의 군사적인 접근법을 보여준다.
이러한 맥락에서 볼 때, 한·미 정상회담 계기 이루어진 윤 대통령의 이번 미 의회에서의 연설은 서방이 지속적으로 경험해온 국가 배후 허위조작정보 유포 문제의 심각성을 미국의 동맹으로서 한국이 깊이 공감하고 있고 향후 민주주의 연대 차원에서 이 문제를 미국과 적극적으로 다루겠다는 의지를 표출한 것으로 볼 수 있다.
4. AI 챗봇이 구사할 수 있는 사이버 위협
인류의 지식활동에 기여할 수 있는 AI 챗봇은 적대적 공격을 통해, 혹은 의도적인 오염된 데이터 학습을 통해 허위조작정보의 생성에도 악용될 수 있고, 또한 우리가 익히 알고 있는 다른 사이버 위협에도 악용될 수 있다. 그 중 가장 쉽게 일어날 수 있는 문제는 개인정보 유출이다. 챗봇은 일반적인 검색엔진보다 데이터에 ‘굶주려(data-hungry)’ 있기 때문에 채팅 상대인 인간으로부터 더 많은 질문을 던져 더 다양한 대화를 이끌어내려 한다. 이러한 대화 유발을 위해 챗봇은 인간 사용자로 하여금 경계심을 잃게 만드는 내러티브를 사용하게 되고, 사용자는 자신의 민감한 개인정보를 쉽게, 자발적으로 공개하게 되는 취약한 커뮤니케이션 환경에 놓이게 된다.
사용자 개인이 스스로 유출시키는 정보 문제 외에도, 챗봇 서비스 제공 업체가 저장하고 있는 데이터가 해킹되어 유출될 가능성도 있다. 챗봇이 수집하는 정보는 개인이 입력하는 텍스트 외에도, IP 주소, 사용자의 목소리, 기기 정보, 장소, 소셜미디어 활동, 전화번호, 이메일 주소 등이 있고, 이러한 정보를 통해 챗봇은 사용자를 프로파일링(profiling) 할 수 있다. 즉 챗봇 서비스 제공 회사는 사용자의 대화 정보를 볼 수 있고, 개인이 실명을 사용하지 않거나 IP 주소를 숨기기 위해 VPN을 사용하더라도 사용 시간이 경과함에 따라 축적되는 데이터를 통해 사용자 개인을 특정할 수 있는 식별은 얼마든지 가능할 수 있게 된다. 만약 범죄집단, 해커조직이 이러한 데이터에 접근하게 된다면 개인이나 집단에 대한 더 파괴적인 사이버 공격이 가능할 뿐만 아니라 그러한 사이버 공격 방법 자체도 Chat GPT를 통해 쉽게 학습할 수 있다.
AI 챗봇을 악용한 사이버 영향공작의 문제도 더욱 심화될 것으로 보인다. 다양한 소셜미디어와 메타버스(metaverse)에 적용될 수 있는 AI 챗봇 기능을 통해서한 국가의 여론 및 국내 정치과정에 영향을 끼치려는 평시 사이버 영향공작이나 유사시나 전시(wartime) 사이버 심리전(psychological warfare)도 더욱 쉬워질 것이다. 개인의 이념, 가치, 정치성향에 맞춰진 형태의 대화형 심리전이나 조직적인 범죄도 얼마든지 가능해질 수 있다.
이러한 쉽게 예측해볼 수 있는 우려로 인해 이탈리아는 Chat GPT 사용을 차단하는 국가가 되었고, 이탈리아는 현재 Open AI가 유럽의 데이터보호법(GDPR)을 위반하는지의 여부를 검증하고 있다. 이번 해 3월 영국의 국가사이버안보센터(National Cyber Security Centre, NCSC)도 Chat GPT에 의해 제작될 수 있는 아주 그럴듯한 이메일 피싱에 대해 경고했다. JP Morgan이나 Amazon의 경우 직원들의 Chat GPT 사용을 아예 금지했으며, 삼성기업의 직원이 Chat GPT 사용하여 기밀 소스코드를 유출하는 사고가 발생하여, 삼성은 직원의 Chat GPT 사용 시 해고할 것을 경고하기도 했다.
5. 민주주의 국가의 허위조작정보에 대한 대응
최근 사이버 공간에서 이루어지는 다양한 활동에 대한 추적 기술이 발전되어 사용자 개인이나 해커를 특정할 수 있는 수준에 이르고 있음에도 불구하고 허위조작정보에 대응하기 위한 조치로서 전시가 아닌 평시에 국가기관이 정보유입 자체를 규제하는 일은 쉽지 않다. 미국을 비롯하여 자유주의 진영의 대부분의 민주주의 국가들은 평시 외부로부터의 적대적 혹은 오도하는 성격의 정보가 국내 온라인 공간으로 유입되는 것 자체를 규제하는 방식으로 허위조작정보 유포에 대응하지 않았었다. 미국과 유럽을 비롯한 서구 자유주의 진영의 민주주의 국가들은 권위주의 진영의 국가군과 달리 ‘정보의 자유로운 초국경 이동’을 원칙적으로 지지하고 있기 때문이다.
다만 미국의 경우, 특히 선거철 타국으로부터 혹은 타국 배후의 허위조작정보의 국내 온라인 공간으로의 유입에 대해 군사안보적으로 대응하고 있다. 2022년 미 대통령 중간선거를 앞두고 미국은 외부로부터의 선거개입 즉 러시아, 중국, 이란으로부터의 사이버 심리전 공격을 차단하기 위해 사이버사령부(U.S. Cyber Command)와 국가안보국(National Security Agency)을 중심으로 합동선거안보그룹 즉 ‘Joint USCYBERCOM-NSA Election Security Group(ESG)을 설치했고, 미 공군, FBI, 국토부도 ESG와 공조한 바 있다.
또한 미국의 경우 2019년 미 의회에서 미군의 심리작전 수행을 용인해주는, 일명 “Section 1631”로 불리는 법을 통과시킨 바 있다. 이 법은 미국의 국익을 수호하기 위해 타국의 허위조작정보의 공격에 반격하는 활동을 용인하는 내용을 담고 있다. 과거 평시 심리작전은 CIA의 활동영역이었으나 미군도 이러한 활동을 합법적으로 수행할 수 있게 된 명분이 생긴 것이다. 최근 러시아-우크라이나 전쟁 기간 동안 미 국방부 US Central Command가 주도하여 트위터와 페이스북과 같은 소셜미디어의 봇계정(bot accounts)을 사용하여 해외에서 정보작전 및 심리작전을 펼치기도 했는데, 미군이 이러한 ‘군사정보지원작전(Military Information Support Operations)’ 혹은 간단히 ‘MISO’를 전개한 데 대해 미 국방부가 소셜미디어 플랫폼 정책을 위반했다는 지적이 2022년 가을 미국 국내적으로 제기된 적이 있었다. 미군은 러우전쟁 동안 중동, 북아프리카 및 중앙아시아와 남아시아 등 21개국에서 그러한 정보작전 및 심리작전을 수행했고 현재는 모두 소셜미디어 플랫폼 회사에 의해 작전에 사용된 봇계정이 폐쇄(takedown)된 상태이다.
이러한 전시 정보작전 및 심리작전을 수행한 미군의 소셜미디어 계정들은 모두 러시아-우크라이나 전쟁 관련 ‘진실’ 즉 ‘사실’에 기반을 둔, 反러시아 내러티브를 확산시킨 활동이었다. 이러한 방식의 작전은 ‘거짓’이 아닌 ‘진실’을 확산시키는 백색선전(white propaganda) 활동이라는 점이 미군이 수행한 작전에 정당성을 부여해주고 있다.
반면 전시가 아닌 평시 허위조작정보 혹은 가짜뉴스를 직접적으로 규제하는 국가는 프랑스, 독일, 싱가포르 정도이고 미국은 표현의 자유에 대한 헌법적 가치에 의거, 국가가 직접 그러한 정보를 규제하지는 않는다. 영국의 경우 ‘온라인 안전법(Online Safety Bill)’ 통해 러시아 등 적성국의 허위조작정보 유포에 대응하고 있다. 프랑스의 경우 2018년 7월 3일 ‘정보조작대처법’을 통과시켰는데, 이 법은 선거철 3개월 동안 온라인 플랫폼에 허위조작정보 삭제 요청 시 이러한 요청에 대해 법원이 48시간 이내에 삭제여부를 판단하여 판결하고, 기업은 삭제 및 그러한 정보에 대한 후원자가 누구인지 밝혀야 할 의무를 기업에 지운다. 만약 플랫폼 기업이 그러한 요구에 응하지 않으면 징역 1년 및 벌금 7만 5000 유로(약 1억314 원)를 지불해야 한다.
독일은 2017년 혐오발언(hate speech)과 가짜뉴스를 차단하기 위해 네트워크집행법(Network Enforcement Act, NetzDG)을 통과시킨 바 있다. 이 법에 의하면 수익 창출을 목적으로 한 200만 명 이상 사용자를 보유한 대형 소셜미디어 플랫폼이 불법적 성격의 정보를 삭제하거나 접속을 차단하는 조치를 24시간 내 불이행 시 기업 소유주는 최대 500만 유로(약 68억 원), 기업은 최대 5000만 유로(약 687억 원)의 벌금을 지불해야 한다. 싱가포르의 허위조작정보법의 경우 플랫폼 사업자와 소셜미디어 이용자 모두에게 허위조작정보나 가짜뉴스에 대해 정정이나 삭제를 요구하고, 불이행 시 최대 100만 싱가포르 달러(약 8억 7000만 원)의 벌금 지불 의무, 개인 사용자는 최대 10년 이하의 징역 또는 10만 싱가포르 달러(약 8700만 원)의 벌금형에 처하게 되어 있다.
EU의 경우 사이버 공간에서의 정보를 관리하는 데에 있어서 ‘디지털서비스법(Digital Service Act, DSA)’과 ‘디지털시장법(Digital Markets Act, DMA)’이 제도적 근거로 기능하고 있다. 이 법들에 의하면, 인터넷 서비스 사업자(Internet Service Provider, ISP), 소셜미디어 플랫폼, 컨텐츠 제공 사업자(Contents Provider, CP), 앱(app) 제공자 등 거대 온라인 플랫폼 기업이 정보의 문지기(gatekeeper)로서 자기규제를 하도록 유도하고 있다. 즉 이 법들은 EU가 월간 집계하고 공개하는 ‘이용자 수’에 근거하여 업체를 ‘초대형 온라인 플랫폼’으로 지정할 경우 이러한 업체는 외부 독립 회계, 해당 정부 및 연구자와 데이터 공유 및 일련의 행위 규범을 4개월 이내에 준수해야 하는 의무를 진다. DSA는 2024년 1월부터, DMA는 2024년 3월부터 시행이 예고되고 있는 상황이다.
한국의 경우 허위조작정보가 확산되는 공간인 포털 및 소셜미디어 플랫폼에 대해 법적으로 대응하는 장치가 부재하다. 우리의 경우 방송법에 근거, 방송에 등장하는 허위 정보, 청소년 유해 광고는 정부가 제재할 수 있지만 현행 방송법은 사이버 공간에서의 콘텐츠에 대해서는 제재를 할 법적 근거를 갖지 못하고 있다.
6. 제언: 허위조작정보에 대한 대응 및 반격 정책
인간과 AI 알고리즘이 만들어내고 서로 대화하며 형성되는 오늘날의 복잡하고 역동적인 정보커뮤니케이션 환경에서 국가 기관은 대중의 정보분별과 정보 공간 및 AI의 신뢰성을 확보하기 위해 어떤 노력을 펼쳐야 할까?
허위조작정보에 대한 법적인 규제 및 자율규제 등 법제도적 조치는 국회를 통해서 마련되어져야 하므로 다양한 논쟁이나 논의 속에서 시간이 많이 소요되는데, 그러한 법제도적 장치가 마련되기 전에 정부가 추진할 수 있는 효과적인 장치는 허위조작정보가 유포되고 확산되고 있는 상황 자체를 실시간으로 모니터링하고 그러한 정보의 위험을 대중에게 선제적으로 알리는 작업 및 개인이 이러한 정보를 쉽게 확인할 수 있도록 하는 지식제공이다. 또한 허위조작정보에 대한 강력한 대응의 필요성에 대한 공감대가 여론에 널리 확산되면 법적 규제 마련에도 동력이 생길 수 있으므로 허위조작정보에 대한 팩트체크와 이러한 정보의 적극적인 제공은 지난하고 반복적 과정임에도 불구하고 여전히 중요하다.
이러한 작업을 위해 정부 각 부처마다 혹은 각 부처가 모은 정보를 집대성해놓는, 허위조작정보를 탐지하고 그러한 정보를 반격하는 전용 플랫폼을 운영할 필요가 있다. 위협적인 허위조작정보를 탐지하고, 그러한 정보에 대한 팩트체크나 혹은 그러한 정보의 주요 내러티브 전술을 알려주는, 시민들에 대해 공개된 형태의 플랫폼이나 상황실, 센터 등을 마련할 필요가 있다. 최근 유럽의 경우 유럽을 상대로 한 국가 배후 허위조작정보 유포(state-sponsored disinformation campaign) 활동을 차단하기 위한 조치로서 EU는 2023년 2월 대외관계청(European External Action Service, EEAS) 산하에 ‘정보공유분석센터(Information Sharing and Analysis Center, ISACs)’를 설치했다. 이 센터는 러시아, 중국 등 주로 권위주의 레짐이 배후에 있는, 유럽에 대해 적대적인 허위조작정보를 유포시키는 활동에 대해 EU의 다양한 사이버 안보 기관 및 민간단체들이 함께 실시간으로 대처하는 역할을 수행하고 있다.
유럽은 이미 국가 배후 허위조작정보 유포 활동을 신속하게 탐지하고 강력하게 대처하는, 한 번에 모든 허위조작정보를 반격하는 성격의 웹사이트인 “기록을 똑바로 하기(Setting the Record Straight)”를 운영해오고 있던 터였다. 이 웹사이트는 온갖 허위조작정보의 거짓 사실을 확인하고 공개하는 작업을 위해 전 세계의 다양한 연설, 성명, 인터뷰, 영상, 이미지 자료를 여러 언어로 제공하고 허위조작정보를 공격적으로, 지속적으로 추적하여 밝혀내고 NATO의 담론을 확산시키는 역할을 수행하고 있다. EU가 운영하고 있는 팩트체크 웹사이트인 “EU vs. Disinfo”도 러시아와 중국이 서방의 민주주의 제도를 흠집내기 위한 주요 담론과 허위조작정보를 집중적으로 다루는 페이지를 이 웹사이트에서 개별적으로 운영하고 있다.
두 번째는, 국가 위기 시 사회혼란을 가중시키기 위해 적성국이 전개할 수 있는 조직적인 허위조작정보 유포 활동 즉 사이버 심리전 활동에 대응할 수 있는 기능을 국가의 정보기관이나 관련 부처가 갖출 수 있어야 한다. 우리의 경우, 국내법 체계에서 ‘국가위기관리기본지침’(대통령 훈령 제299호)에 ‘위기시’라는 별도의 단계를 마련하고 있으므로, ‘위기’의 정의규정에 있어서 적대적 허위조작정보의 대량 유입 문제를 포함시킬 수 있다.
또한 정보식별 역량과 대응 역량을 국가기관이 우선적으로 갖추는 것만큼 민간 혹은 시민사회가 그러한 역량을 갖는 것도 중요하다. 평시의 경우 정보식별과 허위조작정보에 대한 대응 역량을 민간기관에게 일부 위임하여 전 사회적으로 국가 배후 적대적 허위조작정보에 대해 대응할 수 있는 역량을 증진시키는 것도 효과적인 대응 방법이 될 수 있고 민관협력을 이끌어낼 수 있는 방법이기도 하다. 미군의 경우 정보작전과 심리작전을 기획하는 주체와 수행하는 주체가 서로 분리되어 있는 것을 볼 때, 우리의 경우 유사시 혹은 전시에 국가 배후 적대적 허위조작정보를 식별하고 반격하는 내러티브를 만들어내는 주체와 그러한 작전을 직접으로 수행하거나 대응하는 주체를 분리하여 대응태세를 갖출 필요가 있다.
그러한 측면에서 NATO의 전략커뮤니케이션센터(NATO StratCom COE)가 발간한 보고서 “악의적 온라인 활동 식별을 통한 정보영향공작 주체에 대한 책임지우기 전략(Attributing Information Influence Operations: Identifying Those Responsible for Malicious Behavior Online)”은 평시 수행할 수 있는 허위조작정보 유포 활동에 대한 기본적인 방어전략을 제시하고 있어 우리가 참고할 만하다. 이 보고서가 제안하고 있는 ‘책임지우기 전략(attribution strategy)’은 허위조작정보 유포 주체를 명명하고 망신을 주어(Naming & Shaming) 허위조작정보 유포활동을 제어하는 전략으로서 불법적으로 허위조작정보를 유포하는 주체가 누구인지 식별하고 책임을 지우며 비난하기 위해서는 먼저 외부세력의 디지털 플랫폼에서의 정보영향공작(Information influence operation, IIO) 활동의 증거를 수집하고 평가하며 이를 대중에 알리는 일련의 대응절차를 마련해야 한다.
특히 허위조작정보 유포 활동은 주로 대중에게 공개되어 있는 소셜미디어 플랫폼에서 이루어지고, 이러한 플랫폼의 오픈소스(open source)는 대중에 공개되어 있으므로 정보에 대한 대규모 수집이 가능하다. 따라서 책임지우기 전략을 위해 가장 먼저 수행할 것은 디지털 정보활동을 모니터링하고 추적하는 일이며 의심정보가 발견된 Facebook, Google, Twitter, Youtube 등의 소셜미디어 플랫폼과 다양한 웹페이지에서 웹 도메인 소유권, IP 주소 및 OSINT(open-source intelligent techniques), SIGINT(signals intelligence)에 대한 정보를 수집하고, 이러한 플랫폼과 외부 세력 간의 금전적 연계를 추적하는 일은 허위조작정보의 기술증거를 확보하는 가장 기본적인 조치이다. 충분한 의심정황이 발견되면 그러한 플랫폼에 대해 허위조작정보 게시물을 제거(takedown)할 것을 요구하는 다음 절차를 수행할 수 있다. 미국과 유럽은 NATO 차원에서도 이러한 활동을 진행 중이고, 오픈소스에 대한 광범위한 조사와 구체적인 분석을 수행할 수 있는 미국 소재 씽크탱크, 대학 연구소들이 이러한 활동을 전개하고 있다.
이 밖에도 NATO는 허위조작정보에 대한 ‘행동증거’와 ‘문맥증거’ 수집도 수행하고 있다. SNS 계정, 웹페이지, 게시글, 공유된 게시글, 팔로우 하는 계정과 팔로우되는 계정의 리스트(follows & followers) 및 네트워크가 이루어져있는 플랫폼들에 대한 데이터를 수집하는 것이 ‘행동증거’수집 대상이다. 문맥증거에 대한 수집은 기술증거나 행동증거에 대한 수집보다 보다 면밀한 관찰과 분석을 필요로 한다. 소셜미디어 플랫폼의 게시물에 대해 분석 주체의 주관적, 문화적 판단, 인지적 편견이 개입될 여지가 있기 때문이다. 분석자는 다양한 콘텐츠, 담론, 내러티브, 정치적 문맥 뒤의 동기와 의도를 분별해낼 수 있어야 하고, 의심스러운 링크와의 연계를 밝혀내야 할 뿐만 아니라, 국제정치학적 혹은 문화와 역사에 대한 지식을 요하는 지정학적 분석을 수행할 수 있어야 특정 콘텐츠가 일정한 정치적 동기에 의해 생산된 것인지를 판단할 수 있다. 문맥증거 수집을 위해서는, 보다 적극적으로, 폐쇄적으로 운영되는 SNS 채팅그룹, 회사, 정보기관 등과 교류하면서 증거를 수집하는 활동도 요구된다.
특히 우리의 경우 북한 등 국가가 배후에 있는 성격의 악의적 정보와 사이버 영향공작에 대해서 어떤 대응을 취할 것인지, 정부 부처 중 어떤 부처가 대응할 것인지, 혹은 미국처럼 선거철에는 모든 부처가 하나의 팀을 구성하여 공동으로 대응할 것인지 등 법제도적 대응 장치가 마련되어야 한다. 더불어 ‘주권’과 ‘안보’에 위협이 되는 국가 배후의 악의적 허위조작정보에 대해서는 군사적 접근법도 고려할 필요가 있다. 정부를 전복하려 하거나 민주주의 제도의 정당성 훼손 등 국가 주권과 사회질서에 도전하는 성격의 외부 유입 혹은 내부 생성 정보에 대해서는 보다 강력한 안보적 차원에서의 대응이 필요하다. 따라서 우리 정부가 수행하고 있는 사이버 모의훈련에 허위조작정보 유포 상황 발생 시 이에 국가가 대응하는 시뮬레이션도 함께 수행하는 것은 평시에도 유사시와 전시의 허위조작정보 유포 상황에 대비, 대응할 수 있는 유용한 방법이 될 수 있다.
민간 및 시민사회가 사이버 안보 위협에 대해 국가 및 국제사회와 동일한 민감성과 상황인식 및 분별력을 갖도록 하는 교육, 훈련 및 자문 등을 통한 정보와 대응지침의 제공이 상시적으로 이루어질 수 있어야 한다. 특히 사이버 공간을 이용한 해킹, 포르노·도박·마약밀매·사기 등 각종 범죄, 국가 기밀 유출, 스파이 활동 및 영향공작, 테러리즘 모의 등은 대중이 일상적으로 사용하는 소셜미디어, 메타버스(metaverse) 혹은 Chat GPT 등을 통해서도 이루어질 수 있기 때문에 민간의 안보의식이나 사이버 공간 사용 방식은 국가 안보와 직결된다.
따라서 사이버 안보와 관련된 정부 부처는 ‘신뢰할 수 있는 AI’, ‘개방되고 안전하며 신뢰할 수 있는 사이버 공간 증진’ 및 ‘사이버 공간에서의 국가의 책임 있는 행동 규범’ 등 유엔을 비롯한 국제사회가 사이버 공간 및 AI 기술에 대해 공유하는 가치와 원칙을 민간 및 시민사회가 인지, 이해할 수 있도록 관련 정보와 교육의 기회를 지속적으로 제공해야 한다. 또한 국민의 사이버 안보 의식을 증진하기 위해 각 부처가 운영하는 다양한 교육 프로그램에 사이버 안보와 관련된 정보와 지식 및 토론과 훈련이 IT 기업 등 관련 종사자뿐 아니라 일반 시민들에게도 제공되게 하는 노력도 전개할 필요가 있다.
* 붙임 참조
|