最近,一家知名银行的CEO给我打电话,讨论了生成式AI的前景。我们最初会通过各种场景改善欺诈检测和客户服务,但随着最近一系列新闻的不断发布,很明显他有更大野心。和许多行业一样,银行业也存在劳动力问题:对熟练员工的需求,与愿意回到办公室并遵守疫情前规则的工人供应之间存在着差距。
他认为生成式AI也许能解决这个问题。这些新工具可以通过自动化降本增效,但它们是否也能解决人才短缺问题?简单地说:AI多久能取代人类员工?
这个对话呼应了去年11月以来我与许多企业高管的谈话,这些高管来自保险、制造、制药,甚至好莱坞的电影公司——他们的编剧和演员现在正在罢工。他们都想知道如何用更少的人力资源创造更大价值。这么问是因为,去年秋天OpenAI开发的聊天机器人ChatGPT突然走红,展示了AI自主生成电子邮件、论文、食谱、财务报告、文章和想法的能力。高盛估计,在未来十年内,3亿工作岗位将会被淘汰或大量减少。
动荡开始出现。“提示工程师”(prompt engineers),即要求ChatGPT等系统生成内容的人,这一职位的发布上提供了30万美元或更高的年薪。OpenAI的GPT-4通过了美国律师执照考试,并暗示了在不久的将来,我们可能就不需要律师来处理交易工作了。事实上,沃尔玛正在制作一个生成式AI系统的原型(与OpenAI无关)来制定部分供应商合同;另一方面,75%的合同律师和采购人员表示,比起人类同行,他们现在更喜欢与AI谈判。谷歌的Med-PaLM 2是一种专门训练医学知识的模型,现在正以医生的专家水平回答医学检查问题。2023年夏天,合作伙伴将开始测试可以查看X光并自动撰写乳腺X光检查报告的应用程序,且无需人类医生参与。
这一领域的发展速度惊人,难怪这么多高管得出了同样结论:短短几年内,强大的AI系统将在与人类劳动力相同(甚至更高)的水平上执行认知工作。受到AI可能性的诱惑,担忧寻找和留住合格员工,并因最近的市场调整或未达到分析师预期而感到不自信,商业领袖们设想,未来的工作场所中不会有今天这么多人。在我看来,这是一个巨大误判。
首先,现在想明确预测AI的未来还为时过早——特别考虑到生成式AI只是相互关联领域中的一个小领域,而每个领域都处于不同的开发阶段。AI将会以及何时淘汰哪些工作,还都只是猜测。对于一个AI系统来说,仅仅执行一项任务是不够的;其成果必须被证明是值得信赖的,集成到现有工作流程中,并针对合规性、风险和监管问题进行了管理。
其次,在技术带来快速颠覆的时期,领导者会过于关注眼前收益,而不是其价值网络在未来将如何转变。随着AI的发展,它将需要我们在完全了解未来之前,随时重新构想整个业务领域。还记得公共互联网和网络浏览器的发展初期吗,那时它们还被视为娱乐。没有人能想到这两个根本性转变都会大规模爆发。那时根本无法预测它将如何影响总统选举或世界上第一批万亿美元级别公司的创建。
可以肯定的是,今天的高管必须在自互联网时代早期以来,我见过的最复杂的运营环境中做出决策。可以理解的是,担心错过下一波技术浪潮的领导者,正在不知不觉地对公司的未来进行高风险押注。为应对生成式AI和人力共存、未来将以未知方式发展的不确定世界,领导者可以采取以下步骤。
这里有一个悖论:我们需要把劳动力看作是随着生成式AI发展,而不是被取代。劳动力需要发展,员工将不得不在多年的时间里反复学习新技能。领导者必须采取一种新方法,最大限度发挥组织中AI的潜力,这需要以不同的方式跟踪AI的关键发展,用迭代过程培养出准备就绪的员工队伍,最重要的是,创造有证据支持的未来情景,挑战组织内部的传统思维。
那么领导者可以怎样应对这个时期?
首先,降低对生成式AI能够以及将会为业务做什么的期望。从历史上看,AI经历了几个阶段,包括突破、资金激增和主流兴趣的短暂时刻,然后是未达到预期和资本减持。
1970年,有影响力的计算机科学家、AI的创始人之一马文·明斯基(Marvin Minsky)告诉《生活》(Life)杂志,通用人工智能——一种认知能力与人难分上下的AI——再有三年就会出现。20世纪70年代,这种AI所需的计算能力还不存在,超级计算机大多是理论上的。个人电脑也是如此。Datapoint2200及其处理器最终成为了我们后来所知的个人电脑的重要基础。明斯基和其同事承诺的宏伟抱负从未实现,资金和兴趣也至此枯竭。1987年,这种情况再次发生,计算机科学家和企业再次对AI的时间表做出了大胆承诺,却依然碰壁。
尽管功能强大,但今天主流的生成式AI工具,ChatGPT、Midjourney、DALL-E 2,还不是完成品。很快,人们就会对它们的新颖感到不满,并意识到虽然AI可以创建内容,但还不足以实际应用。同样,在医学、气候和生命科学领域的特定AI工具方面,现在还处于早期阶段。为了让生成式AI实现被承诺的奇迹,即规模和成本效益,要做的工作还有很多。记住,这些工具直到最近都还只是理论上的。
高管需要明确生成式AI今天将在其组织中发挥的实际功能。他们还应务实地看待生成式AI最终将释放的机遇和风险,我们才刚踏上一条漫漫长路。根据我的观察,很少有领导者正在制定一个将今天的运营与明天的愿景联系起来的现实战略,在管理的团队中进行社会化,相应修订绩效指标。
最近,我与一家渴望与生成式AI公司合作的跨国快消品(CPG)公司的高管见了面。我和他们讲了一个很可能出现的场景:聊天工具回答了顾客几个关于他们偏好和目的的问题,并让线上购物车自动装满了他们一周所需的物品。但是,这个CPG的品牌没有出现在购物车中——或者即使出现,也不在列表的第一位。正如谷歌和亚马逊等发明了新的机制和规则优化搜索引擎一样,未来,跨零售商和购物车应用程序等平台的生成式AI,将为CPG公司带来新挑战,这些公司可能会处于涉及关键决策的价值链的下游。
其次,评估公司正在生成哪些数据,以及生成式AI现在和将来会如何使用这些数据。商业数据是无价的,因为一旦模型经过训练,将这些数据转移到另一个系统就可能非常昂贵,技术上也很麻烦。目前新兴的平台间很难互相操作,设计就是如此。生成式AI平台正在演变成围墙花园,在那里,创造技术的公司控制着他们生态系统的各个方面。最大的AI公司正在争夺市场份额,以及使他们的模型最具竞争力所需的大量数据。通过向公司推销他们的平台,他们希望锁定它们,与他们的数据。
今天AI系统的创建,使用的是一种被称为强化学习机制(RHLF)的技术。本质上,AI系统需要持续的人为反馈,否则就会有学习和记忆错误信息的风险。数据输入越多,需要的注释、标签和训练就越多。今天,在肯尼亚和巴基斯坦等地,这项工作已经实现了自动化。随着AI的成熟,对有专家知识专家的需求也在出现。我见过的许多商业领袖都没有计划未来包括一个内部RHLF部门,负责持续监控、审计和调整AI系统和工具。(没有领导者会希望看到一个无人监督的AI系统决定如何自我进化。)
即使有训练有素的人参与其中,企业也必须不断制定方案,以暴露与生成式AI系统合作的风险,特别是由第三方运营的系统。因为AI系统不是静态的;随着时间推移,它们正在逐步改进。每有一个新发展,新的潜在风险和机遇都会出现。如果没有快速淘汰这些预测,就不可能提前排除所有潜在的负面结果。(现在还无法建立一个可以完全准确预测未来的蒙特卡洛模拟。)相反,应该有一个专门团队负责监控生成式AI系统的学习,以及相关的网络安全挑战,他们应该开发简短的“假设”情景,想象可能会出现的错误。
同样,随着AI的发展,释放新增长的机会也会随之而来。这意味着企业还应该有一个专门的内部业务开发团队,为新兴工具提高生产力和效率、促进产品开发、刺激创新等多种方式,开发近期和长期情景。
再次,涉及AI时,领导者的关注点必须从一线转移到高层。这似乎违反直觉,因为许多人都认为生成式AI是降低运营成本的方法。今天的智能聊天机器人很快就会让位于多模态系统,这些人工智能可以同时解决不同问题,并实现不同的目标。想象一下,一家财产保险公司中,每个承保人会都与AI沟通。最初,承保人可能会要求AI评估与保险财产相关的风险;在对文本进行初步分析后,她可能会要求它使用检查报告的图像或与潜在投保人的音频访谈来完善结果。她可能会来回使用不同的数据源,直到收到保险公司和客户的最佳报价。
高效利用多模态AI的关键在于理解如何以及将什么委托给机器,这样人类和AI就可以通过协作完成更多工作。然而,委派是专业人士经常遇到的问题:要么分配太多,要么分配不足,要么分配的任务不对。与多模态AI一起工作,需要员工掌握委派的艺术。
一旦员工了解如何正确对其委派任务,它将成为组织内的力量倍增器。通过构思和模拟新的收入来源、寻找和获取新客户,以及寻求公司整体运营的各种改进,团队对于增加公司收入可以有更大雄心。
这预示着,我们未来需要一种不同的技能提升方法。大多数员工不需要学习如何编码或如何编写基本提示。相反,他们需要学习如何利用多模态AI做更多、更好的工作。可以参考每天被7.5亿知识工作者使用的Excel。这个软件包括500多个功能,但绝大多数人只会使用几十个,因为他们不完全理解如何将Excel提供的大量功能与日常认知任务匹配起来。想象一下,未来,AI,一种更加复杂的软件,将会无处不在。仅仅因为商业领袖过于狭隘地处理技能提升,留下的效用还会有多少?
劳动力变化是技术发展带来的不可避免的副作用,领导者需要一种系统化的方式看待组织在生成式AI发展后的样子。为此,这个简单的框架可以帮助领导者预测劳动力需要如何以及何时进行变革,才能发挥AI的杠杆作用。这里的目标不是做出长期预测,而是让组织在AI不断进化的过程中做好准备(见“IDEA框架”图)。
在这个充满变革和不确定的时期,组织能做的最好的事情,就是有条不紊地规划未来。这就需要我们了解生成式AI的局限和优势,并采取持续评估和改进的文化。领导者应该抵制减少员工的诱惑,利用战略远见创造未来。在这个未来中,高技能的员工可以利用AI,人类和AI团队合作会比各自单独工作,有更高的生产力、创造力和效率。
艾米·韦伯(Amy Webb)| 文
艾米·韦伯是量化未来学家、Future Today Institute的CEO、纽约大学斯特恩商学院战略前瞻教授。她是《信号在说话:为什么今天的边缘是明天的主流》(The Signals Are Talking: Why Today’s Fringe Is Tomorrow’s Mainstream)《九巨头:科技巨头及其思维机器如何扭曲人类》(The Big Nine: How the Tech Titans and Their Thinking Machines Could Warp Humanity)和《创世纪机器:我们在合成生物学时代重写生活的探索》(The Genesis Machine: Our Quest to Rewrite Life in the Age of Synthetic Biology)的作者。
常见问题
相关文章
猜你喜欢
- OpenAI挖走微软生成式人工智能研究的领军人物 2024-10-16
- 黄仁勋自曝每天使用ChatGPT!相信它会越来越强 2024-10-14
- 物理学诺奖授予AI先驱,ChatGPT:难以相信 2024-10-14
- 腾讯研究院对话前OpenAI研究员:为什么伟大不能被计划? 2024-10-12
- 人工智能开始与人类思维产生不祥的分离,人工AI发展 2024-10-12
- 我是万万没想到,诺贝尔化学奖也给了程序员 2024-10-12
- 刚刚,ChatGPT 发布重磅更新!让我看到了 AGI 时代的终极交互形态 2024-10-12
- 雷军国庆将网友“骂”了整整七天,AI语音方向错了? 2024-10-09
- 新突破!非Transformer架构AI模型Liquid亮相,或将重塑智能领域格局? 2024-10-08
- 十一出去旅游的人,终究没能依靠上AI 2024-10-08