中 서버 보관…정부가 언제라도 가져가
중국 서비스라는 특성상 딥시크는 태생적인 한계를 지녔다. 보안과 검열 이슈가 대표적이다. 사용자 입장에서 개인정보를 중국에 넘겨준다는 보안의 우려가 있다. 중국의 강한 검열로 인해 특정 이슈에 대해서는 충분한 정보를 얻을 수 없다는 점도 문제로 지적받는다.

中 서버에 정보 보관
데이터 활용 불투명
생성형 인공지능(AI)은 사용자가 입력하는 텍스트를 학습하는 구조다. 딥시크 역시 마찬가지다. 딥시크의 개인정보보호 정책은 사용자 기기 정보와 운영 체제, 키보드 입력 패턴·리듬, IP주소, 쿠키 등을 자동 수집한다고 명시한다. 물론 오픈AI의 챗GPT도 기기 정보, IP 주소, 쿠키 등은 수집한다. 하지만 딥시크가 키보드 입력 패턴이나 리듬까지 수집하는 건 과하다는 지적이다.
딥시크 사용자가 개인정보 유출에 대한 불안을 느낄 수밖에 없는 대목이다. 특히 중국이라는 국가 체제 특성을 고려할 때, 기업이 수집한 데이터를 정부에서 활용할 가능성을 배제하기 어렵다. 국가적으로 활용하지 않더라도, 중국 내 서버에 개인정보가 보관된다는 점은 분명하다.
딥시크는 개인정보보호 정책에 대해 “우리는 수집한 정보를 중화인민공화국에 있는 안전한 서버에 저장한다”고 밝혔다. 그러나 중국 국가정보법 제7조는 ‘중국의 모든 조직과 국민은 중국의 정보 활동을 지지·지원·협력해야 한다’고 규정한다. 딥시크가 중국 서버에 보관하는 개인정보도 중국 정부가 요청할 경우 넘어갈 수 있다는 뜻이다.
전문가들은 딥시크 정보 수집 범위가 다른 생성형 AI 서비스와 크게 다르지 않다고 입을 모은다. 다만 전문가들이 주목하는 부분은 ‘옵트아웃’이다. 사용자가 원하면 데이터 수집 동의를 철회할 수 있는 시스템이 갖춰져 있지 않다는 지적이다. 이 부분에서 딥시크의 개인정보보호 강도가 상대적으로 취약하다고 분석한다. 미국이나 일본, 대만 등 여러 국가에서 딥시크 사용을 금지한 이유도 보안상 문제다. 국내 주요 기업과 국방부·산업통상자원부·외교부 등 공공기관도 딥시크 이용을 금지한 곳이 상당수다.
특히 최근 딥시크가 유해한 명령어를 차단하지 못한다는 심각한 허점을 드러내며 논란이 커졌다. 시스코(Cisco)의 최신 보고서에 따르면 딥시크의 R1 모델은 특정 유형 공격에 취약한 것으로 확인됐다. 사용자에게 유해한 명령어를 차단하지 못하면서다. 해당 보고서에 따르면 딥시크는 사이버 범죄와 잘못된 정보 유포, 불법 활동 조장 등 6가지 유해한 행동 범주가 포함된 50개 이상의 무작위 메시지를 그대로 실행했다.
딥시크가 이러한 한계를 극복하기 위해서는 민감한 개인정보를 철저히 보호하고 유해한 정보를 차단할 수 있는 기술적 장치가 필요하다는 것이 전문가 중론이다. 즉, 모델의 안전성 확보에 노력을 기울여야 한다는 진단이다. 개인정보를 보호하려는 사용자의 노력도 필요하다. 주소나 전화번호, 계좌번호 등을 입력하지 않도록 유의해야 한다고 전문가들은 강조한다.
A기업 AI 연구원은 “AI를 개발하는 업체도 개인정보를 보호하기 위한 시스템을 마련해야 하지만 사용자 노력이 동반돼야 한다”며 “보안에 관한 이슈는 중국 서비스뿐 아니라 구글이나 페이스북 등 글로벌 서비스에서도 똑같이 나타나는 문제”라고 지적했다. 이어 “만약 중국 서비스를 신뢰하지 않는다면 이용하지 않아야 한다”며 “서비스를 이용할 때 개인에게 어떤 이익이 있을지 스스로 가치판단을 내릴 필요가 있다”고 덧붙였다.
특히 보안 측면에서 전문가들이 주목하는 부분은 공공 데이터다. 국가적 입장에서 공무원이 챗GPT나 딥시크 같은 생성형 AI 서비스를 이용할 때 생산성이 향상된다는 사실은 명백하다. 그러나 이 경우 공공 데이터가 해외로 유출될 수 있다는 문제가 있다. 연구기관이 원천 기술을 갖고 있을 때 문제는 심각하다. 국부 유출로 이어질 수 있기 때문이다.
김용대 카이스트 전기전자공학부 교수는 “국가적 입장에서 국내 모델을 사용할 수 없다면 중국이나 미국 모델에 의존할 수밖에 없다”며 “우리나라가 이 같은 이슈에서 자유로우려면 우리 규정에 맞는 토종 모델을 만들고 전폭적인 지원을 쏟을 필요가 있다”고 말했다.

특정 이슈에 답변 취약
중국 내 데이터 한계 보여
딥시크의 AI 윤리 문제도 수면 위로 떠올랐다. 특정 질문에 대해 답변을 회피하거나 중국 정부를 대변하는 식의 편향된 답변이 나오기 때문이다. 딥시크의 AI 모델은 중국 정부의 사상 검열을 거쳤을 가능성이 높다고 전문가들은 추측한다. 천안문 사태처럼 중국 공산당 입장에서 정치적으로 예민한 사건이나 시진핑 국가주석 등 지도자에 대한 질문에 대해 AI 모델이 답변을 회피하도록 설계됐을 것이라는 관측이다.
영국 일간지 가디언은 지난 1월 28일(현지 시간) 딥시크의 R1 모델을 이용한 사용자의 사례를 소개하며 중국 정부 검열 의혹을 제기했다. 가디언에 따르면 중국에서 발언의 자유(freedom of speech)가 법적인 권리로 인정되느냐는 사용자 질문에 딥시크 화면에는 답변을 준비하는 ‘사고 과정’으로 중국 정부의 홍콩 시위 진압, 인권변호사에 대한 탄압 등의 내용이 표시됐다. 그러다 딥시크는 황급히 모든 내용을 삭제하더니 질문에 대한 답변을 내놓을 수 없다는 메시지를 내놨다. 이에 가디언은 “딥시크가 중국의 선전 도구가 되려면, 무엇이 용납 가능한 말이고 무엇이 용납 불가능한 말인지 스스로 일관된 입장을 보일 필요가 있을지도 모른다”고 비꼬았다.
다만 전문가들은 현 단계에서 어느 정도 편향성은 인정해야 한다고 입을 모은다. 이 같은 문제는 중국뿐 아니라 어느 나라에서도 나올 수 있는 문제라는 얘기다.
김용대 교수는 “생성형 AI는 어떤 언어 데이터를 주로 학습하느냐에 따라 편향이 생길 수밖에 없다”며 “예를 들어 네이버의 하이퍼클로바X도 홍범도 장군에 관한 질문을 던지면 자세한 답변을 내놓지 않는다”고 강조했다. 이어 “미국 빅테크의 AI에 폭탄 제조 기술을 물어봐도 마찬가지”라며 “이는 딥시크만의 문제가 아니라 AI의 정책적인 측면에서 드러나는 한계”라고 덧붙였다.
딥시크의 절대적인 학습 데이터가 적다는 점도 고려할 필요가 있다. 특히 그동안 학습 데이터가 중국에서 쌓였던 탓에 중국 정보에 특화될 수밖에 없고, 어느 정도 편향이 나타나는 건 당연한 현상이라는 데 의견이 모인다. 이는 시간이 지나면 자연스럽게 극복될 것으로 전문가들은 내다본다.
신진우 카이스트 AI대학원 교수는 “딥시크는 그동안 학습한 대다수 데이터가 중국에서 쌓였다는 점에서 어쩔 수 없이 답변에 한계가 나타날 수밖에 없다”며 “이 문제를 극복하기 위해서는 다양한 국가의 사용자가 많은 정보를 입력해 모델을 학습시켜야 할 것”이라고 말했다. 이어 “중국에서는 딥시크를 많이 사용하겠지만 다양한 문화권에서 여러 정보를 학습시키기에는 미국 서비스와 비교해 불리할 수밖에 없다”며 “이는 특정한 AI 모델에 전 세계가 의존하는 것이 아닌 다양한 AI가 공존해야 한다는 점을 시사한다”고 덧붙였다.
[문지민 기자 moon.jimin@mk.co.kr]
[본 기사는 매경이코노미 제2296호 (2025.02.12~2025.02.18일자) 기사입니다]