아닌디아 고즈 뉴욕대 스턴비즈니스스쿨 교수

인간에게는 미지에 대한 두려움이 있다. 새로운 장소를 가면 긴장하고, 위기 상황이 발생하면 "이 위기를 잘 헤쳐 나갈 수 있을까"라는 불안감이 들 수 있다. 기술에 대한 불안감도 있다. 신기술이 출현하면 해당 기술 때문에 개인 삶과 직장생활이 어떻게 변화할 것인가에 대한 걱정과 불안감이 들 수 있다. 인공지능(AI)을 예로 들어보면, AI가 처음 나왔을 때부터 현재까지 많은 사람들의 일자리가 AI로 대체되고, 저작권이 침해된다는 등 부정적 견해가 쏟아져 나왔다. 과연 AI는 대중의 생각처럼 사람들에게 긍정적 영향보다 부정적인 영향을 더 크게 미치는 것일까.

그에 따르면 AI는 특히 의학 부문에 긍정적 영향을 미친다. 사람이 잡아내지 못한 악성종양을 AI가 잡아낸 사례가 대표적이다. 나아가 고즈 교수는 인간을 안전하게 보호하는 AI에 대해 사람들이 부정적 시선을 갖고 걱정하는 이유를 "AI가 미래에 사람들에게 제공하는 기회보다 당장 느낄 수 있는 인공지능의 일자리 대체가 더 와 닿기 때문"이라고 설명했다.
그가 라비 바프나 미네소타대 칼슨 경영대학원 교수와 공동집필한 저서 '번영: AI 시대에 인간의 웰빙 극대화하기(원제 Thrive: Maximizing Well-Being in the Age of AI)'는 지난 10월 해외에서 출간됐다. 다음은 일문일답 내용.

▷지난 1년 동안 AI 산업에는 상당한 발전이 있었다. 특히 생성형 AI 모델 개발과 배포 관련 큰 발전이 있었다. 생성형 AI 모델은 실험단계에서 다양한 섹터들에 실질적으로 적용되는 단계로 바뀌었다. 관련 주요 적용 사례는 다음과 같다.
첫 번째는 마이크로소프트(MS), 구글 등 기업에서 생성형 AI를 자사 제품에 통합해 검색엔진 및 사무용 소프트웨어의 기능을 향상시켰다. MS의 '빙 챗'과 구글의 '바드'(현 제미나이) 등이 사용자 경험 개선을 위해 AI 기반 기능을 도입한 소프트웨어다.
두 번째는 오픈소스 AI 모델 출시다. 메타의 '라마'와 같은 오픈 소스 모델 출시는 고급 AI 기술에 대한 접근을 민주화(democratize)했다. 그 덕분에 더욱더 광범위한 (AI 관련) 실험을 하고 응용 프로그램을 개발할 수 있었다.
세 번째는 국가안보에 AI 활용도가 커져가고 있는 변화다. 최근 메타는 오픈소스로만 제공했던 '라마' 사용을 미 정부기관과 국방 계약업체에 허가했다.
네 번째는 신약개발에 AI 사용이 점차 많아지고 있다는 점이다. 생명공학 회사 '앤티버스'는 AI가 설계한 항체를 개발하기 위해 글로벌 기업들과 협력 중이다. AI를 사용해 신약개발 프로세스를 더 신속하고 경제적으로 만드는 것이 목표다.
마지막은 검색엔진에 AI가 도입된 변화다. 오픈AI는 인공지능 기반 검색엔진인 '서치GPT'를 출시했다. 이는 기존 검색 플랫폼에 직접적인 도전을 하는 것을 의미하며, AI 기반 정보 검색부문의 경쟁 환경을 강조한다.

-저서 '번영: AI 시대에 인간의 웰빙 극대화하기'를 공동집필하게 된 계기는.
▷AI를 포함한 모든 새로운 범용기술(GPTs) 출현에는 따라오는 것이 있다. 바로 과제와 기회다. 범용기술은 산업을 재정의하고, 특정 기업 혹은 일자리를 쓸모없게 만들고, 일반적으로 생산성을 높인다. AI와 이전에 나왔던 범용기술의 차이점은 AI가 훨씬 더 복잡하고, 무형적이라는 것이다. 그 때문에 누가 이야기하는지에 따라 AI 관련 얘기는 다르다. AI가 화이트칼라 일자리의 상당 부분을 차지할 것이라는 디스토피아적 서사부터 유토피아적 이야기까지 다양하다.
바프나 교수와 나는 일상생활에 AI가 이미 어떻게 내재돼 있는지에 대해 알리고자 저서를 집필했다. 일반 사람들의 건강생활, 교육, 업무, 관계 등에 AI는 이미 (널리) 사용되고 있다. AI는 지속될 것이며 AI가 사회 이익을 위해 작동되려면 AI 관련 정보를 얻고 교육받은 시민이 필요하다. AI의 '현황'을 사람들에게 알리기 위해 저서를 출간했다. 참고로 저서에서 말하는 AI는 약인공지능(weak AI)이다. 즉, 전문성 혹은 자원이 부족해 사람이 하기 어려운 업무들을 머신러닝을 기반으로 대신 수행하는 AI를 의미한다. 인간과 같이 자발적 사고를 할 수 있는 강인공지능(strong AI)을 뜻하지 않는다.
-구체적으로 AI는 현재 사람들 일상에 어떻게 사용되고 있는가.
▷사람들이 깨닫지 못하지만, AI는 상상 이상으로 우리를 안전하게 지켜주고 있다. 예로, AI는 플랫폼에 올라온 가짜 리뷰를 감지하거나, 데이팅 사이트에서 보기 싫은 선정적인 이미지를 감지해 노출되는 것을 막을 수 있다.
-여태까지는 AI에 대한 긍정적 여론보다 부정적 여론이 더 컸다. 그 이유가 무엇이라 생각하는가.
▷여러 가지 상호 연결된 요인들로부터 AI에 대한 인간의 두려움이 비롯된다. 사람들이 갖고 있는 진화적 편향(evolutionary bias)은 어떤 일이 발생하면 그에 대한 기회보다 잠재적 위협에 더 집중하게 만든다. 그 때문에 AI 관련 알려지지 않은 특성들에 대해 사람들은 더욱더 걱정한다. AI가 새로운 일자리를 창출할 것이라는 점에는 의심할 여지가 없다. 하지만 사람들에게는 추상적인 미래 기회보다 당장 느낄 수 있는 AI의 인간 일자리 대체가 더 와 닿는다.
AI모델 만드는건 집짓기와 같아 기반 구축에 60~70% 시간 들죠

▷헝가리 부다페스트의 유방암 클리닉인 맘마클리니카(MaMMa Klinika) 사례를 들겠다. 맘마클리니카에서는 방사선 전문가 두 명이 내린 유방암 진단을 AI가 검토한다. 대개의 경우 AI는 의사 진단에 동의하지만, 간혹 의사들이 놓친, 재확인할 부분을 표시한다. 뉴욕타임스 보도에 따르면 2021년 이후 맘마클리니카의 5개 센터에서 방사선 전문의가 놓친 암을 AI가 발견한 사례는 22건이다. AI는 계속해서 사람들을 살리는 데 사용되고 있다.
―AI 낙관론은 무엇에 기반해 생기는가.
▷사람들이 직장 혹은 일상생활에서 처음으로 AI 기술을 의미 있게 접하게 되면 AI의 실질적인 이점을 발견하고, 이를 토대로 진정한 낙관주의가 형성된다. 예전에는 개인 시간을 잡아먹던 반복적이고 재미없는 업무를 AI 도구를 사용해 처리할 수 있다는 점을 사람들이 경험하면서 AI에 대한 긍정적 시각을 갖게 될 수 있다.
나아가 AI 관련 과학적·연구 응용은 AI 낙관론을 강화한다. AI 시스템을 사용하는 과학자들과 연구자들은 AI가 방대한 양의 데이터를 사람들보다 훨씬 빠르게 처리하고 분석한다는 점을 직접 체험하고 목격한다. 신약 개발부터 기후과학까지 다양한 분야에서 AI를 사용해 획기적 발전이 있었다. 이로 인해 인류가 직면한 큰 문제들을 AI가 해결할 수 있다는 가능성에 대한 사람들의 기대감이 커지고 있다.
다수 초기 AI 낙관론자들에게 가장 매력적이었던 점은 AI가 다양한 자원들에 대한 장벽을 허물고 이에 대한 접근성을 민주화한 것이다. 언어장벽을 제거하거나, 장소 상관없이 고품질 교육을 받을 수 있도록 만든 것이 AI가 인간 사회에 긍정적인 변화를 불러올 기술이라고 생각하도록 만들었다.
―사람들은 어떻게 AI와 관련해 더 객관적인 시각을 가질 수 있을까.
▷AI가 미치는 영향에 대한 보다 균형 잡힌 관점을 갖추기 위해서는 교육의 역할이 매우 중요하다. 특히 사람들에게 AI가 할 수 있는 일과 할 수 없는 일, 그리고 기본적인 AI 기능들을 이해하는 데 도움이 되는 'AI 리터러시'에 중점을 둬야 한다. AI를 사용해 질병을 조기에 발견하고, 의약품 개발을 가속화하고, 교육에 대한 접근성을 향상하고, 기후변화 문제 해결에 AI가 사용된 구체적인 성공사례를 강조하는 것도 중요하다.
AI와 관련해 사람들이 객관적인 시각을 갖추는 데 가장 중요한 점은 윤리학자, 사회과학자, AI에 영향을 받은 공동체들을 포함한 다양한 분야의 사람들을 포함해 포괄적인 AI 거버넌스 형성을 보장하는 것이다. 이는 AI 발전에 보다 균형 잡힌 접근 방식의 토대가 될 것이다.

▷AI에는 광범위한 기술과 애플리케이션이 포함된다. 예측과 설명, 인과추론, 자연어 처리, 딥러닝, 생성형 AI 등 다양한 기술의 집약체와 같다. '하우스 오브 AI'는 AI 모델을 구축하는 데 튼튼한 데이터 엔지니어링 기반이 필요하다는 점을 강조한다. AI 프로젝트 진행 시간 중 60~70%가 데이터를 정화·통합·큐레이팅하는 데 소요된다.
하우스 오브 AI는 조직이 AI를 이해하고 적용하는 데 필요한 프레임워크다. 주택(하우스)이 층별로 나뉘듯, 해당 프레임워크도 단계별, 즉 층별로 나뉜다. 조직은 1층부터 차례대로 'AI 주택'을 만들어가야 한다. 탄탄한 기반 없이는 AI 솔루션을 적용하려는 시도가 실패할 가능성이 높다는 점을 조직은 인식해야 한다.
하우스 오브 AI의 기반이 되는 1층(1단계)은 세 가지 주요 요인이 자리한다. 데이터 인프라 및 거버넌스, 컴퓨팅 인프라, AI 인재 및 기술이다. 해당 요소들은 모든 AI 이니셔티브의 기반이 된다. 저서에서도 설명했듯, 데이터 정화·통합·큐레이팅 등이 해당 1단계 과정에 포함된다.
여기서 나온 데이터는 총 4가지 방식의 데이터 분석으로 이어진다. 저서에서 이를 네 가지 기둥(pillar)으로 표현한다. 첫 번째 기둥은 '기술적 기둥'이다. 인간 사고의 한계인 3차원을 넘어 초차원 데이터(hyperdimensional data)를 분석해 패턴을 찾는 것이다. 두 번째 기둥은 '예측기둥'이다. 데이터를 기반으로 특정한 상황에서 일어날 수 있는 일을 예측하는 것이다. 세 번째 기둥은 '인과추론 기둥'이다. 'X로 인해 Y가 발생했는가'에 대한 분석을 하는 것이다. 마지막 기둥은 '처방기둥'이다. 특정한 문제에 대한 해결책을 데이터를 통해 찾는 것이다.
다음 층은 분석된 데이터를 기반으로 만든 AI 모델을 실제 비즈니스 환경에 적용하는 과정이다. 1단계에서 모은 데이터를 기반으로 딥러닝, 강화학습 등의 과정을 거치며 비즈니스에 적용하는 것이다.
마지막 층은 AI 전략과 윤리성이 중심이 된다. 어떠한 사회적 문제를 해결할지를 생각하고 기관들이 AI를 적용하는 것이다. AI를 책임감 있게 사용하는 것 역시 해당 단계에 포함된다.

―하우스 오브 AI가 기업에 제공하는 가치는.
▷해당 프레임워크는 AI 구현과 적용에 대한 명확한 과정을 보여준다. 그래서 기업들에 특히 유용하다. 하우스 오브 AI는 인공지능 기술을 적용하기 전 탄탄한 기초를 다지는 것의 중요성을 강조한다. 특히 윤리성 요소를 AI 기술 적용 후 고려할 사항이 아닌, AI를 개발하는 과정의 주요 일부로 여긴다. 이렇게 구체화된 과정을 토대로 조직들은 AI를 성공적으로 적용하기 위해 무엇이 필요한지, 또 성공적 실현을 위한 과정이 무엇인지 더 잘 이해할 수 있다. 동시에 책임감 있게 AI를 개발하고 배포하는 데 중점을 둘 수 있다.
―AI의 긍정적인 영향에도 불구하고 데이터 보안 문제는 여전하다. AI의 개인 데이터 사용이 더 안전하게 진행될 수 있는 방법은.
▷AI 기반 시스템에서 개인 데이터 사용을 더욱 안전하게 만들기 위해서 조직과 정책입안자들은 기본적 보안 조치를 넘어서는 다중계층보안 방식을 적용해야 한다. 기본적 단계는 데이터 암호화 시스템을 강화하는 동시에 연합학습(federated learning·기기, 기관 등 다양한 곳에 분산 저장된 데이터를 직접 공유하지 않고 각자의 데이터를 기반으로 학습한 모델을 상호교환해 최종 모델을 만드는 AI 학습법)을 도입하는 것이다.
덧붙여 조직들은 강력한 데이터 거버넌스를 구축해야 한다. 데이터 수집, 저장, 프로세싱, 삭제 관련 명확한 방침을 세워야 한다. AI 시스템 개발 초기 단계에서 '개인정보 보호 중심 설계' 원칙을 세우는 것 역시 중요하다. 또한 조직들은 데이터 보호와 관련해 정기적으로 직원 교육에 투자해야 하며 사용자들에게 개인 데이터가 어떻게 사용되는지 투명하게 소통해야 한다.
AI 적용 관련 표준화된 데이터 보호 규정 개발 및 시행을 위해 국가 간 협력 역시 필요하다. 국경 간 데이터 전송에 대한 명확한 가이드라인 작성, AI 의사결정에 대한 책임구조 수립, 산업별 보안수준 성립 등이 있어야 한다. 덧붙여 기업들은 실시간으로 잠재적 데이터 침해를 식별하고 이에 대응할 수 있는 고성능의 위협 탐지 시스템에 투자하고 보안 사고 발생 시 어떻게 대응할 것인지에 대한 계획을 세워야 한다.

▷글로벌 비즈니스 리더들이 갖고 있는 가장 긴급한 문제는 (자사) 경쟁력을 유지하기 위한 신속한 AI 도입과 조직을 리스크로부터 보호하는 책임감 있고 안전한 방법으로 AI 적용하기, 이 둘 사이의 균형을 찾는 것이다. 비즈니스 리더들이 특히 걱정하는 점은 각기 다른 지역의 새로운 AI 규정들을 준수해야 하고, 중요한 비즈니스 운영 관련 결정을 내릴 때 AI 의사결정이 얼마나 신뢰할 만한지, 투자수익률이 불확실하지만 AI에 대한 상당한 투자가 요구된다는 점이 포함된다.
해당 우려는 몇 가지 방식으로 완화될 수 있다. 첫째, 앞서 말했듯 조직은 AI 개발 및 배포 관련 명확한 정책을 세우고, 정기적으로 AI 관련 위험성 평가를 하며, AI 시스템에 대한 투명한 문서를 작성하고, AI 사용 관련 윤리적 지침을 포함하는 강력한 AI 거버넌스 프레임워크를 구현할 수 있다.
둘째, 기업들은 조직원들에게 AI의 '능력'과 한계를 교육하는 데 투자하고, 강력한 사이버 보안 조치를 마련하며, AI 시스템에 대한 정기적 감사를 진행하는 등의 방법으로 AI 관련 우려를 완화할 수 있다.
마지막으로 조직 내에서 소규모 AI 프로젝트를 먼저 진행해 경험을 쌓고, 투자수익률을 실현하는 등 작은 규모로 AI 프로젝트를 달성한 후 규모를 키워갈 수 있다.
―앞으로 AI는 어떻게 더 발전할 것이라 예상하는가.
▷AI는 문맥을 더 인지하고, 미묘한 인간의 의도와 목표를 이해하는 것이 요구되는 복잡한 업무들을 처리할 수 있게 발전할 가능성이 있다. 인간이 다양한 경험을 토대로 새로운 문제를 해결하듯, AI 역시 다양한 유형의 지식과 역량을 통합하게 될 수도 있다. 특정한 산업부문을 말하자면, AI는 신약개발과 재료공학 부문에서 훨씬 더 발전할 것으로 예상된다. AI가 자율적으로 새로운 화합물을 설계하고 실험할 수 있게 될 것이다. 또한 헬스케어 부문에서 AI는 환자의 병력, 유전 데이터, 라이프스타일을 실시간으로 분석해 개인화된 치료 계획을 세울 정도로 발전할 수 있다.
아닌디아 고즈 교수 인도 공과대 REC에서 전자공학과 계측공학 전공으로 학사, 인도경영대학원 캘커타캠퍼스에서 MBA, 카네기멜런대에서 경영정보시스템 석박사 학위를 취득했다. 2004년부터 현재까지 뉴욕대 스턴 비즈니스 스쿨 교수로 재직 중이다. 2014년 미국 MBA 전문지 '포에츠&퀀츠'가 선정한 '세계 최고의 40세 이하 교수 40인'에 이름을 올렸다. 2017년에는 경영 전문 사이트 '싱커스 50'이 꼽은 미래 조직 관리법을 이끌 경영사상가 30인에 선정됐다.
[윤선영 연구원]