企业生成式 AI

让生成式 AI 成为企业利器

企业高管深知采用生成式AI已是势在必行,但这种意识与大规模创造价值的能力之间仍然天堑难越。

关于生成式 AI 的争论通常分为极端两派,分别是倡导者怀疑者。这两派之间的激烈争夺往往会忽略中间地带。对于企业领导者来说,这无疑是一个严峻的问题。因为企业领导者需要根据冷静、客观的事实,以及战略相关性来制定合适的 AI 方法,切忌盲目乐观和不切实际的想法。 

为了提供更加冷静客观的评估,IBM 商业价值研究院 (IBM IBV) 联合牛津经济研究院,在 2023 年 5 月针对美国、澳大利亚、德国、印度、新加坡和英国的近 400 名高管开展了的一项调研。同时,我们还调查了美国的 200 位 CEO。我们询问了企业高管在采用生成式 AI 方面的计划、所期望实现的效益以及所面临的阻碍。 

我们发现,在持续的 AI 热潮中,企业高管们确实正在积极采用生成式 AI,但仍持非常谨慎的态度。生成式 AI 项目的平均投资回报率呈稳步增长趋势。受访企业高管预计,到2025年,生成式 AI 项目的投资回报率将超过 10%,投资回报将进一步超过资本成本。

因此,许多企业都计划在未来两年内推动生成式 AI 的采用。只有 23% 的受访高管表示其组织在2022年对生成式 AI 进行了 试点、实施、运营和优化,但预计到2024年这一比例将上升至62%(见图1)

这种快速增长的趋势在一定程度上得益于对 AI 熟悉程度的变化:如今的企业高管对生成式 AI 的熟悉程度远高于2016 年传统 AI 第一波发展浪潮时的情形。因此,企业高管对部署生成式 AI 的场景有了更加聚焦的看法。 

2016年,企业高管还不够聚焦,他们在多达13个不同的业务职能中优先考虑采用 AI。但战略既关乎选择做什么,也关乎选择不做什么。如今,企业高管对于哪些领域能创造最大的价值有了更加清晰的见解。我们的调研数据显示,至少在初始阶段,受访企业高管主要关注三个关键优先事项(见图 2)。当然,组织仍在根据自身的战略能力和业务优先事项来调整其在这些广泛职能领域开展的工作。例如,IBM首席分析办公室(IBM 转型和运营领域的关键力量)专注于在IT和应用现代化、客户服务和员工互动领域应用生成式 AI,所有这一切都依托于自动化技术。

CEO 会专注于追求快速取得成效。们意识到需要迅速采取行动,因此可能64%的受访CEO表示正面临着来自投资者、债权人和贷款人的巨大压力,要求他们加速采用生成式 AI。超过一半的受访CEO表示,他们的员工要求加速采用生成式 AI。受到这些因素的推动,在未来两到三年内,对生成式 AI 的投资预计将增长四倍。尽管在目前,生成式 AI 项目的投资仍然仅占 AI 总支出的一小部分。 

哪些因素在阻碍组织更加广泛地采用生成式 AI?一言以蔽之,那就是信任。五分之四的受访高管认为至少一个与信任相关的问题会阻碍生成式 AI的采用。其中,网络安全、隐私和准确性位列榜首。此外,受访高管还对可解释性、道德和偏见问题有更广泛的担忧。

这些担忧基于当今全球的最新形势。生成式 AI 已迅速实现“消费化”。这种大规模采用意味着一些用户可以在没有正式指导的情况下使用生成式 AI。他们在没有护栏的情况下使用生成式 AI,其行为可能无法受到监管,并且可能会导致不可预测的后果。如果缺乏适当的监督,组织就无法正确识别、量化或管理采用新兴技术的相关风险。如果要安全、负责任地利用强大的生成式 AI,组织首先需要了解想要实现什么样的目标,以及实现这一愿景所需做出的改变。

什么是生成式 AI?什么是基础模型?

为了提高 AI 投资的成本效益,企业需要灵活、可重用、且支持多种应用方式的模型,包括用于生成新内容。生成式 AI 是一种深度学习模型,可根据训练数据生成高质量的文本、图像和其他内容。从较高层面来说,生成模型对其训练数据的简化表示进行编码,并从中提取特征信息,以创建与原始数据相似但不相同的新作品。 

项技术于2010年代初开始出现,当时的变分自动编码器 (VAE) 成为第一个广泛用于生成逼真图像和语音的深度学习模型。自动编码器的工作原理是将未标记的数据编码为压缩表示,然后将数据解码回其原始形式。普通自动编码器可应用于多种用途,包括重建损坏或模糊的图像。变分自动编码器不仅增强了重建数据的关键能力,而且还可以输出原始数据的变化形式。 

这种生成新数据的能力引发了一系列新技术的快速发展,从生成式对抗网络 (GAN) 到扩散模型,这些技术能够生成更加逼真的虚构图像。因此,变分自动编码器为当今的生成式 AI 奠定了基础。变分自动编码器基于编码器和解码器块构建而成,这种架构也是当今大语言模型 (LLM) 的基础。具体来说,编码器将数据集压缩为密集表示形式,在抽象空间中将相似的数据点排列得更紧密。解码器从这个抽象空间中进行采样以创建新内容,同时保留数据集的最重要特征。

基础模型可以帮助企业加速和扩大生成式 AI 的采用。

Transformer 将“编码器-解码器”架构与文本处理机制相结合。编码器将原始文本转换为 “嵌入”表示。解码器将这些嵌入与模型之前 的输出相结合,并连续预测句子中的每个单词。通过填空猜谜游戏,编码器可以了解单词与句子之间的关系,而无需任何人标记词性。Transformer甚至可以在未指定特定任务的 情况下进行预训练。学习这些强大的表示之后,就可以使用更少的数据来增强模型的专业化水平,以便执行给定的任务。 

Transformer 因其全面多样的功能而被称为基础模型。基础模型在理论上可以应用于许多领域,因而提供了加速和扩大生成式 AI 采用的机会。例如,大规模参数的LLM可以改变整个组织中的信息生成和共享方式。(参数是在训练模型时使用的变量,有助于推断新内容。)只需对LLM进行适当调整,以适应语义搜索、分类、预测、摘要生成和翻译等任务即可。

基础模型的采用还得到了一系列已成为主流的新兴AI工程最佳实践的支持。从模型开发到快速工程,这些通用实践和方法大幅简化了整个企业和生态系统的协作。 

尽管基础模型具有无比广阔的前景和潜力,但同时也带来了一些新的挑战。比如说,基础模型需要大量的计算、存储和网络资源,而这会消耗大量能源。训练一个大型自然语言处理模型的碳足迹与五辆汽车在其整个生命周期中的碳足迹大致相同。

与其他颠覆性技术一样,采用生成式 AI 和基础模型也需要做出适当的权衡。只有经过持续不断的实验和迭代才有可能取得成功。对于企业而言,平衡 AI 项目所需的投资与其可创造的价值是一项尤其重要的工作。那些能够找到这一平衡点的组织将定义 AI 的未来。

以下是报告节选正文内容

财经自媒体联盟更多自媒体作者

新浪首页 语音播报 相关新闻 返回顶部