go to news

detail

* 它已被翻译通过 NAVER
papago logo

人们只是在感受到当前危机的影响,而不是未来的机会,AI并不需要恐惧 [封面故事]

输入 : 
2024-12-11 16:31:56
Getty Images Bank
Getty Images Bank


人类对未知事物有恐惧感。当去到一个新地方时会感到紧张,当危机发生时会产生“我能否顺利度过这场危机”的不安感。对技术的担忧也存在。当新技术出现时,人们会担心这种技术会如何改变个人生活和工作生活。以人工智能(AI)为例,自AI首次出现以来,许多人的工作被AI取代,版权被侵犯等负面观点层出不穷。AI真的像公众所想的那样,对人们的负面影响大于正面影响吗?



Getty Images Bank
Getty Images Bank
《每日经济》MK商业故事采访了纽约大学斯特恩商学院的安妮迪亚·戈兹教授,探讨了AI对人们日常生活的“真实”影响。戈兹教授是纽约大学“商业分析与人工智能(Master of Science in Business Analytics and AI)”硕士项目的主任,他在采访中强烈主张:“AI在保护人类安全方面的作用超出了人们的想象。”

他表示,AI在医学领域尤其产生了积极影响。AI能够发现人类无法捕捉到的恶性肿瘤就是一个典型的例子。此外,戈兹教授解释了人们对保护人类安全的AI持有负面看法的原因:“因为人们更能感受到AI对人类工作的替代,而不是AI未来所提供的机会。”

他与明尼苏达大学卡尔森商学院的拉比·巴夫纳教授共同撰写的书籍《繁荣:在AI时代最大化人类福祉(原名 Thrive: Maximizing Well-Being in the Age of AI)》于去年10月在海外出版。以下是问答内容。



사진설명
-您作为演讲者参加的2023年第24届世界知识论坛后已经过去一年。在过去的一年中,AI行业发生了哪些变化?

▷在过去的一年中,AI行业取得了显著进展。尤其是在生成型AI模型的开发和部署方面取得了重大进展。生成型AI模型已经从实验阶段转变为在各个领域的实际应用阶段。相关的主要应用案例如下。

第一个是微软(MS)、谷歌等公司将生成型AI整合到其产品中,以提升搜索引擎和办公软件的功能。MS的“必应聊天”和谷歌的“巴德”(现为Gemini)等软件引入了基于AI的功能,以改善用户体验。

第二个是开源AI模型的发布。像Meta的“LLaMA”这样的开源模型的发布使得对高级AI技术的访问得到了民主化。得益于此,能够进行更广泛的(与AI相关的)实验并开发应用程序。

第三个是国家安全中AI的应用越来越广泛。最近,Meta允许美国政府机构和国防承包商使用之前仅以开源形式提供的“LLaMA”。

第四个是AI在新药开发中的使用逐渐增多。生物技术公司“Antiverse”正在与全球企业合作,开发AI设计的抗体。目标是利用AI使新药开发过程更加快速和经济。

最后是AI在搜索引擎中的引入变化。OpenAI推出了基于AI的搜索引擎“SearchGPT”。这意味着对现有搜索平台的直接挑战,强调了基于AI的信息搜索领域的竞争环境。



사진설명


-您共同撰写《繁荣:在AI时代最大化人类福祉》的契机是什么?

▷AI等所有新通用技术(GPTs)的出现都伴随着挑战和机遇。通用技术重新定义了行业,使特定企业或工作变得无用,并通常提高了生产力。AI与之前出现的通用技术的区别在于,AI更加复杂和无形。因此,关于AI的讨论因人而异。从AI将占据大量白领工作岗位的反乌托邦叙事到乌托邦故事,种类繁多。

巴夫纳教授和我希望通过撰写这本书来告知人们AI如何已经融入日常生活。AI已经在普通人的健康生活、教育、工作和人际关系中被广泛使用。AI将持续存在,而为了使AI为社会利益而运作,需要受过AI相关信息教育的公民。我们出版这本书是为了让人们了解AI的“现状”。值得一提的是,书中提到的AI是弱人工智能(weak AI),即基于机器学习代替人类完成专业性或资源不足的工作,而不是指能够像人类一样进行自发思考的强人工智能(strong AI)。

-具体来说,AI目前是如何在日常生活中使用的?

▷人们可能没有意识到,AI实际上在保护我们方面超出了想象。例如,AI可以检测平台上的虚假评论,或在约会网站上检测不想看到的色情图像并阻止其曝光。

-到目前为止,关于AI的负面舆论似乎大于正面舆论。您认为原因是什么?

▷人类对AI的恐惧源于多种相互关联的因素。人们的进化偏见使得他们在发生某些事情时更关注潜在威胁而非机会。因此,人们对AI的未知特性更加担忧。毫无疑问,AI将创造新的工作岗位。但对人们来说,能够立即感受到的AI对人类工作的替代感比抽象的未来机会更为真实。



构建AI模型就像建房子,基础建设需要60~70%的时间。



Getty Images Bank
Getty Images Bank
-如果有一个不太为人所知的AI优势的案例,可以分享吗?

▷我想提到匈牙利布达佩斯的乳腺癌诊所MaMMa Klinika的案例。在MaMMa Klinika,两名放射科专家的乳腺癌诊断会被AI进行审核。在大多数情况下,AI会同意医生的诊断,但有时会标记出医生可能遗漏的需要重新确认的部分。根据《纽约时报》的报道,自2021年以来,MaMMa Klinika的五个中心中,AI发现了22例放射科医生遗漏的癌症。AI正在不断用于拯救人类生命。

-AI的乐观主义基于什么?

▷当人们首次在工作或日常生活中有意义地接触到AI技术时,他们会发现AI的实际好处,并在此基础上形成真正的乐观主义。人们在使用AI工具处理以往占用个人时间的重复性和无趣的工作时,可能会对AI产生积极的看法。此外,AI相关的科学和研究应用也增强了AI的乐观主义。使用AI系统的科学家和研究人员亲身体验到AI能够比人类更快地处理和分析大量数据。从新药开发到气候科学,各个领域都利用AI取得了突破性进展。这使得人们对AI能够解决人类面临的重大问题的期望不断增加。

许多早期的AI乐观主义者认为,AI最具吸引力的地方在于它打破了对各种资源的壁垒,民主化了对这些资源的访问。消除语言障碍,或使人们能够在任何地方接受高质量的教育,使得人们认为AI将为人类社会带来积极变化的技术。

-人们如何才能对AI有更客观的看法?

▷为了获得对AI影响的更平衡的观点,教育的作用至关重要。特别是要强调“AI素养”,帮助人们理解AI能做什么和不能做什么,以及基本的AI功能。强调AI在早期发现疾病、加速药物开发、提高教育可及性和解决气候变化问题方面的具体成功案例也很重要。

人们对AI的客观看法的关键在于确保包括伦理学家、社会科学家和受AI影响的社区在内的各个领域的人士参与全面的AI治理。这将为AI发展的更平衡的方法奠定基础。



사진설명
-您提出了“AI之家”的概念。请您解释一下。

▷AI包含广泛的技术和应用。它是预测与解释、因果推理、自然语言处理、深度学习、生成型AI等多种技术的集合体。“AI之家”强调构建AI模型需要坚实的数据工程基础。在AI项目的实施过程中,60~70%的时间用于数据的清理、整合和策划。

“AI之家”是组织理解和应用AI所需的框架。就像房屋(house)分层一样,该框架也分为不同的阶段,即层级。组织应从第一层开始逐步构建“AI之家”。组织需要意识到,没有坚实的基础,尝试应用AI解决方案的可能性很高会失败。

“AI之家”的基础第一层(第一阶段)包括三个主要因素:数据基础设施与治理、计算基础设施、AI人才与技术。这些要素构成了所有AI倡议的基础。正如书中所述,数据的清理、整合和策划等都包含在第一阶段的过程中。

从这里产生的数据将导致四种数据分析方式。书中将其称为四个支柱(pillar)。第一个支柱是“技术支柱”。超越人类思维的三维限制,分析超维数据(hyperdimensional data)以寻找模式。第二个支柱是“预测支柱”。基于数据预测特定情况下可能发生的事情。第三个支柱是“因果推理支柱”。分析“X是否导致Y发生”。最后一个支柱是“处方支柱”。通过数据寻找特定问题的解决方案。

下一个层级是将基于分析的数据构建的AI模型应用于实际商业环境的过程。基于第一阶段收集的数据,经过深度学习、强化学习等过程,将其应用于商业。

最后一层将以AI战略和伦理为中心。思考解决哪些社会问题,机构如何应用AI。负责任地使用AI也包含在该阶段。



사진설명


-“AI之家”给企业提供的价值是什么?

▷该框架展示了AI实施和应用的明确过程,因此对企业特别有用。“AI之家”强调在应用人工智能技术之前打下坚实基础的重要性。特别是将伦理因素视为AI技术应用过程中需要考虑的主要部分,而不是事后考虑的事项。基于这一具体化的过程,组织可以更好地理解成功应用AI所需的条件,以及成功实现的过程。同时,可以更加注重负责任地开发和部署AI。

-尽管AI有积极影响,但数据安全问题依然存在。如何使AI的个人数据使用更加安全?

▷为了在AI基础系统中更安全地使用个人数据,组织和政策制定者应采用超越基本安全措施的多层安全方法。基本步骤是加强数据加密系统,同时引入联邦学习(federated learning,即在不直接共享分散存储在不同设备、机构等的数据的情况下,基于各自的数据进行学习并交换最终模型的AI学习方法)。

此外,组织应建立强有力的数据治理。应制定明确的数据收集、存储、处理和删除政策。在AI系统开发的初始阶段,设定“隐私保护中心设计”原则也很重要。此外,组织应定期投资于员工培训,以提高数据保护意识,并向用户透明地沟通个人数据的使用情况。

为了开发和实施标准化的数据保护规定,国家间的合作也是必要的。应制定关于跨境数据传输的明确指南,建立AI决策的责任结构,确立行业安全标准。此外,企业应投资于高性能的威胁检测系统,以实时识别和应对潜在的数据泄露,并制定应对安全事件的计划。



参加2023年9月举行的世界知识论坛的安妮迪亚·戈兹教授。记者 한주형
参加2023年9月举行的世界知识论坛的安妮迪亚·戈兹教授。记者 한주형
-您在全球各地进行与AI相关的演讲。目前全球商业领袖对AI最担忧的是什么?

▷全球商业领袖面临的最紧迫问题是,在快速引入AI以保持(自身)竞争力与以负责任和安全的方式应用AI以保护组织之间找到平衡。商业领袖特别担心的是,必须遵守不同地区的新AI法规,以及在做出重要商业运营相关决策时,AI决策的可靠性,以及尽管对AI的投资回报不确定,但仍需进行大量投资。

这些担忧可以通过几种方式缓解。首先,正如前面所述,组织应制定明确的AI开发和部署政策,定期进行AI相关风险评估,撰写透明的AI系统文档,并实施包含伦理指导方针的强大AI治理框架。

其次,企业可以通过投资于员工对AI的“能力”和局限性的教育、建立强有力的网络安全措施以及定期对AI系统进行审计等方式来缓解与AI相关的担忧。

最后,组织可以先在内部进行小规模的AI项目,以积累经验,实现投资回报,然后逐步扩大规模。

-您预计未来AI将如何进一步发展?

▷AI可能会发展到能够处理需要理解上下文、微妙的人类意图和目标的复杂任务。就像人类基于各种经验解决新问题一样,AI也可能整合多种类型的知识和能力。具体到某些行业,预计AI将在新药开发和材料工程领域取得更大进展。AI将能够自主设计和实验新的化合物。此外,在医疗保健领域,AI可能会实时分析患者的病史、遗传数据和生活方式,以制定个性化的治疗计划。



安妮迪亚·戈兹教授 在印度理工学院REC获得电子工程和仪器工程学士学位,在印度管理学院加尔各答校区获得MBA,在卡内基梅隆大学获得管理信息系统硕士和博士学位。自2004年至今,担任纽约大学斯特恩商学院教授。2014年被美国MBA专业杂志《Poets & Quants》评选为“全球40岁以下最佳教授40人”之一。2017年被管理专业网站“Thinkers50”评选为未来组织管理法的30位管理思想家之一。

[研究员尹善英]