InfoQ 推荐 ( ) • 2023-05-13 20:48

导读:本文讨论了人工智能在特定行业中的应用和限制,特别是在受到严格监管的领域中。文章提到,在这些领域中,人工智能可能会面临数据隐私和监管要求等方面的挑战,因此需要更加精确和可靠。此外,本文还强调了使用人工智能工具的有效专业知识和人工智能承诺提供的效率之间存在的摩擦。最后,本文还探讨了大型语言模型的使用,以及它们在保证精度和准确性方面面临的挑战。

 

人工智能不会很快接管所有人的工作"(即使有可能),因为模型的运行成本仍然很高,难以使用,并且经常出错。

 

“我们应该自动化所有的工作,包括那些令人满意的工作吗?”这是最近由未来生命研究所"(Future of Life Institute)提出的关于暂停“巨型人工智能实验”的呼吁中的问题之一。现在,包括伊伊隆·马斯克"(Elon Musk)、史蒂夫·沃兹尼亚克(Steve Wozniak)和安德鲁·杨(Andrew Yang)在内的超过 10000 人已经签署了这份呼吁。虽然可能有点夸张,但听起来仍然很可怕。那么,人工智能如何才能用于自动化所有工作呢?不考虑这是否可取,它是否真的可能呢?

 

“我认为真正的障碍是类似于 OpenAI" 和 Google Bard" 所展示的通用人工智能能力的出现,就像早期互联网变得普遍可用或云基础架构作为一种服务变得可用时一样,”麻省理工学院连接科学研究所(MIT Connection Science Institute)的研究员 Douglas Kim" 说。“它还没有准备好供数亿工人广泛使用,正如所建议的那样。”

即使是研究人员也无法跟上人工智能创新的步伐

 

Kim 指出,虽然革命性技术能够快速传播,但在证明自己具有有用且易于访问的应用程序之前,它们通常难以广泛采用。他指出,生成式人工智能需要“具体的商业应用”来超越早期采用者的核心受众。

 

Augment.co" 的人工智能主管 Matthew Kirk" 持有类似的观点。“我认为正在发生的事情类似于互联网的早期。当时充斥着各种各样的想法,没有标准。人类需要时间和合作才能确定人们遵循的标准。即使是测量时间这样的平凡事情也非常复杂。”

 

标准化是人工智能发展中的痛点。用于训练模型和微调结果的方法被保密,这使得回答它们如何运作的基本问题变得困难。OpenAI 宣称 GPT-4 能够通过许多标准化测试,但是该模型真正理解了这些测试,还是只是训练来重现正确答案呢?对于它处理新颖任务的能力,这意味着什么?研究人员似乎无法就答案达成一致意见,也无法就可能用于得出结论的方法达成一致意见。

OpenAI 的 GPT-4 可以通过许多标准化测试。它真正理解这些测试,还是只是被训练来输出正确答案呢?

即使可以达成共识标准,但设计和生产基于大型语言模型(large-language model,LLM)的人工智能工具(如 GPT-4 或其他生成式人工智能系统)的物理硬件可能会面临挑战。Optiver" 全球研究基础设施负责人 Lucas A. Wilson" 认为,人工智能行业正在进行一场“竞赛”,以生产最复杂的大型语言模型。这反过来又迅速增加了训练模型所需的计算资源。

 

“人工智能领域的创新速度意味着,即时可用的计算研究现在超越了技术行业开发新的、新颖硬件能力的能力,所以硬件供应商必须迎头赶上人工智能开发者的需求。”Wilson 说,“我认为在可预见的未来,供应商将难以跟上这个速度。”

 

就像你一样,人工智能也不会免费工作

 

同时,开发人员必须找到应对限制的方法。从零开始训练一个强大的大型语言模型可以提供独特的机会,但这只适用于大型、资金充足的组织。利用现有模型提供服务则较便宜(例如 Open AI 的 ChatGPT-3.5 Turbo,API 访问价格约为每 750 个英语单词 0.002 美元)。但一旦人工智能驱动的服务流行,成本仍然会累积。无论何种情况,推出无限使用的人工智能并不实际,开发人员必须做出艰难的选择。

 

“一般来说,使用人工智能构建的初创公司应非常注意不要过度依赖任何特定供应商的 API。也有可能构建这样的架构,以便不浪费 GPU 资源,但这需要相当多的经验。” Hidden Door" 的首席执行官兼联合创始人 Hilary Mason" 说。Hidden Door 是一家构建故事和叙事游戏人工智能平台的初创公司。

这是一个使用人工智能技术的工具截图,用于生成叙事游戏。它包括多个角色和提示,用户可以进行选择。

大多数基于生成式人工智能的服务都会设定每月生成内容的数量上限。这些费用对于企业来说会逐渐增加,同时也会减慢想要自动化任务的人们的进度。即使是 OpenAI,尽管有其资源,仍然会对使用 ChatGPT" 的付费用户进行限制,具体取决于当前的负载:截至本文编写时,每三个小时内 ChatGPT 的查询上限为 25 个。这对于那些依赖 ChatGPT 工作的人来说是一个大问题。

 

人工智能工具的开发者也面临着与计算机一样古老的挑战,即设计良好的用户界面。一款能够完成多项任务的强大的大型语言模型应该是无与伦比的工具,但是工具的能力在用户不知道从哪里开始的情况下是无关紧要的。Kirk 指出,尽管 ChatGPT 是易于接近的,但当用户需要专注于特定任务时,通过聊天与人工智能交互的开放性可能会让人不知所措。

 

“我从经验中学到,让工具完全开放往往会让用户感到困惑,而不是有所帮助,”Kirk 说。“把它想象成一个无限的门厅。大多数人会在那里犹豫不决。我们还有很多工作要做,以确定向用户呈现最佳的门。”Mason 也有类似的观察,她补充说:“就像 ChatGPT 主要是对 GPT-3" 的用户体验改进一样,我认为我们刚刚开始发明我们将需要的界面比喻来有效地在产品中使用人工智能模型。”

 

学习使用人工智能本身就是一项工作

 

一个特定的问题已经引起了争议,并威胁到为敏感和重要工作构建人工智能工具的努力:幻觉"。大型语言模型具有独特文本生成的能力,可以开玩笑,编织关于虚构人物的叙述。然而,当精度和准确性至关重要时,这种优点就成为了障碍,因为大型语言模型通常会将不存在的来源或不正确的陈述作为事实呈现出来。

 

“某些受到严格监管的行业(银行、保险、医疗保健)中的特定职能将发现很难调和非常严格的数据隐私和其他监管要求,以防止歧视,”Kim说,“在这些受监管的领域,你不能让人工智能犯下写学校论文时可以通过的错误。”

 

“请问,雇佣人员为大型语言模型提供训练的全新工作如何让已经在工作的其他人有更多时间专注于更复杂或抽象的任务?” ——Lucas A. Wilson, Optiver

 

公司可以通过招募具有使用人工智能工具专业知识的员工来应对这一挑战。Anthropic 是一家人工智能安全和研究公司,最近因招聘广告而引起轰动,寻找一名快速工程师和库管理员,负责构建“高质量提示或提示链库以完成各种任务”,以及其他一些工作。年薪为 17.5 万至 33.5 万美元。

 

然而,Wilson 认为,使用人工智能工具的有效专业知识和人工智能承诺提供的效率之间存在摩擦。Wilson 问道:“通过招聘完全新的人为大型语言模型提供训练,如何使任何其他已经工作的人专注于更复杂或抽象的任务?我没有很清晰的答案。”

 

尽管存在这些问题,但通过人工智能增强工作可能是值得的。计算机革命显然是如此:许多人需要接受使用 Word 和 Excel 的培训,但很少有人会认为打字机或纸张是更好的选择。不过,未来“我们会自动化所有工作,包括那些充实的工作”尚需六个月以上,如生命未来研究所的信件所担忧的那样。人工智能革命正在发生,从今天开始还将继续发展十年。

作者简介:

 

Matthew S. Smith 是一位自由职业的消费科技新闻记者。他是一位狂热的游戏玩家,曾在 Digital Trends 担任过编辑一职,尤其钟爱可穿戴设备、电动自行车、各种智能手机以及消费电子展(CES),自 2009 年起每年都会参加。

 

原文链接:

 

https://spectrum.ieee.org/ai-taking-over-jobs