面向CEO的生成式AI关键要点:以速度与信任革新业务

2023年7月5日

作者:Noam Harel

生成式AI因其卓越的速度和前所未有的迅猛发展而区别于其他技术突破。自首次进入公众视野仅仅几个月以来,这项前沿创新已经实现了可扩展性,旨在实现可观的投资回报。然而,必须有效利用这项强大的技术,确保其能够大规模部署并产生能赢得业务利益相关者信任的成果。

在组织内部署和采用生成式AI时,您需要考虑到它正处于彻底改变业务知识工作、革新创新方式并开辟新商业模式的边缘。采纳负责任的生成式AI原则不仅仅是业务风险管理,更是一种竞争优势。虽然与传统AI相比,生成式AI更易于获取,但它仍然需要现有员工学习和掌握新技能,需要考虑未来新人才的需求,并在整个业务中培养创新文化。

生成式AI给CEO们带来了重大挑战。虽然当前的重点是提高生产力、效率、降低成本、伦理道德以及解决技术限制,但一场商业模式创新革命即将来临。正如开创性的免费网页浏览器Mosaic推动了互联网时代并改变了我们的工作和生活方式一样,生成式AI具有颠覆几乎所有行业的潜力。它既预示着业务竞争性创新优势,也带来了潜在“幻觉”的创造性破坏前景。CEO们必须认识到这意味着:当前忙乱的活动必须演变(并提炼成必备的关键用例),形成一套被高管层、部门负责人、业务部门和知识工作者接受的生成式AI战略。

然而,这项任务绝非易事,而且CEO们通常与技术本身存在距离,可能对下一步感到不确定。然而,从我们的角度来看,CEO的首要重点不应是完全沉浸在技术本身。相反,他们应该专注于理解生成式AI将如何影响他们的组织和行业。通过做出战略选择,他们可以有效抓住机遇并克服挑战。

生成式AI给CEO们带来了严峻的挑战,这是一个残酷的事实。尽管当前的重点围绕着生产力提升和技术限制,但商业模式创新的范式转变即将到来。生成式AI有能力颠覆几乎所有行业,而且这种影响绝不仅限于科技巨头。这就要求CEO们制定一个新的采用计划,依靠其部门层面的业务领导者来认识到生成式AI战略的需求和用例。通过做出战略选择,他们可以有效利用机会并应对挑战。

CEO们面临着围绕三个基本支柱的关键决策:潜力、人力资本和政策。这些支柱提出了需要他们关注的紧迫问题。生成式AI的巨大记忆能力将如何赋能每一位员工并开启新的业务创新领域?这项颠覆性技术将如何重新定义员工角色、技能要求及其管理方式?领导者如何有效应对生成式AI模型可能产生的虚假或有偏见的输出?

毫无疑问,生成式AI领域正在不断进步,上述每个支柱都包含短期和长期的影响,以及无数悬而未决的问题。然而,CEO们必须积极为现有商业模式不可避免的过时做好准备。以下是应对未来的战略方法

拥抱潜力:探索利用生成式AI巨大记忆能力所带来的无限可能性。鼓励员工利用这项技术推动创新、激发创造力并发现新的解决方案。

赋能人才:拥抱不断变化的员工角色和管理格局。提供必要的培训和资源,以适应生成式AI赋能环境下不断演变的工作性质。培养并赋能持续学习和成长的文化。

制定政策:建立健全的框架来应对与生成式AI相关的挑战。优先考虑透明度、公平性和问责制,以减轻虚假或有偏见输出的风险。定期审查和更新政策,使其与不断发展的行业标准保持一致。

通过战略性地关注这些支柱,CEO们可以自信地应对未来的复杂性。拥抱生成式AI及其潜力,同时应对相关挑战,将使企业在瞬息万变的格局中持续取得成功。

当然,生成式AI领域正在快速发展和演变,上述每个支柱都包含短期和长期的考虑,以及无数悬而未决的问题。然而,CEO们必须为现有商业模式过时做好准备,并整理好内部事务,包括数据管理和分类。让我们深入探讨应对未来的策略。

放眼大局

AI从未像现在这样易于获取,ChatGPT、Bard、DALL-E、Midjourney、开源LLM模型和Stable Diffusion等新工具的发布速度比以往任何时候都快。这些“低代码、无代码”的生成式AI工具也将促进业务用户和组织内部知识工作者广泛采用AI能力。作为CEO,您肯定正在评估生成式AI在您组织中的功能属性,同时考虑最佳的采用策略。例如,您可能正在关注生产力和效率的短期和长期提升,这可以显著降低成本,比如在几秒钟内以惊人的准确性总结大量业务数据(例如,支持文档),而研究人员或客户支持人员可能需要花费数小时完成同一任务(估计每小时成本为40至60美元,具体取决于地理位置)。

生成式AI对您的业务的民主化影响意味着您的竞争对手在评估依赖于现有大型语言模型(LLM)应用程序的众多用例时,也将拥有类似的访问权限和能力,例如利用GitHub Copilot提高研发或工程团队程序员的生产力,或者通过Jasper.ai辅助市场内容开发人员。在评估正确的战略时,请放眼大局  —  仅仅跟上其他竞争组织的步伐可能不足以超越竞争对手。注意不要将您的生成式AI创新和差异化归结为单一的边缘用例。如果您想转型业务,您需要考虑以更大、更可定制的规模采用生成式AI,并在多个用例中利用您自己的内部数据。

确定最佳用例

对于CEO来说,关键任务是发现公司容易实现且最理想的起步用例——那些能提供真正竞争优势并与现有解决方案相比产生最大影响的用例。

这些用例可以在业务价值链的任何阶段找到。一些公司可以通过增强其产品来实现增长,另一些公司可以通过降低支持成本或内部产品创新周期来实现增长。增长机会还存在于缩短上市时间(TTM)和降低成本,以及激发员工的想象力并产生新想法。

一旦您让您的领导者确定其关键用例,他们将与技术团队合作,做出关于是否微调现有大型语言模型(LLMs)或训练定制模型以解决您独特用例的战略决策。

规划您的业务投资战略

评估您投资的时机,仔细权衡在必要人才和技术可能尚未完全准备好的情况下,快速推进复杂项目所带来的潜在业务风险,以及落后或被竞争对手超越的风险。当前的生成式AI仍然受到其易出错性质的限制,应主要应用于那些能够容忍变动且具有容错性的用例。

此外,CEO们必须考虑数据和基础设施的新资金机制。例如,如果他们认为定制开发是一个关键且时间紧迫的需求,他们可能需要确定预算应来自数据科学、IT、研发、CIO办公室还是其他来源。

生成式AI时代与不断扩大的LLM市场

随着研究势头增强并日益走向专有化,以及算法变得更加复杂,跟上尖端和开源模型带来了重大挑战。您的数据科学家和数据工程师将需要专门的培训、高级技能和深厚的专业知识来理解这些模型的内部工作原理——理解其能力、局限性以及在新的业务场景中的适用性。考虑投资提升您的技术工程团队的技能,以保持您的竞争优势。

重新定义业务角色、范围和职责

这场革命已经到来。某些生成式AI的转变已经发生,您的竞争对手肯定正在采用或即将采用生成式AI元素。传统的AI和ML算法采用强大的逻辑或统计方法来分析数据集,自动化流程或增强决策工作流。凭借其生成初步类人内容的卓越能力,生成式AI将通过提高生产力、绩效、效率、处理日常任务和激发创造力来增强众多知识工作者和业务角色。

然而,这种巨大的变化不应孤立发生。CEO们必须认识到AI对员工情绪健康和职业身份的影响。生产力提高常被错误地与整体裁员联系起来,AI已经给员工灌输了这种担忧。然而,AI也可能创造与取代的岗位一样多的工作机会。

因此,AI的影响代表了一个关键的文化和劳动力问题,需要CEO们与人力资源部门紧密合作,理解角色不断演变的性质。随着生成式AI在各个业务部门和部门实施,确保评估采用情况、进展和员工情绪。总体的讯息应该强调人类能力的不可或缺性和极大增强,以及他们在有效和道德地部署AI以推动创新中的关键作用,而不是取代人力资本。

随着AI变得越来越普及,CEO们必须适应并持续学习,制定适应当前技术进步的战略性劳动力规划。CEO们今天就必须制定这个计划,并随着技术的演变和形态变化保持灵活性和敏捷性。在考虑采用生成式AI的战略计划时,要放眼大局,规划超出炒作周期和你组织必须发布以跟上竞争对手的下一个AI功能。重点不仅仅是预测工作技能、角色、范围和描述的变化;更是确保公司拥有具有前瞻性和适应性的人员,以及一个有效且精通的管理层,以保持质量、增长、竞争力,并最大限度地发挥公司在生成式AI方面的投资效益。

鉴于数据科学和工程日益重要的地位,许多公司将受益于指定一名高级管理人员,例如AI负责人、AI转型负责人、首席数据官(CDO)或首席数据分析官(CDAO),来监督AI举措的业务和技术方面。

为了取得成功,这位高管必须在每个采用生成式AI的业务部门内建立小型且灵活的数据科学或工程团队。这些专项团队将推动、定制和优化模型,释放其在特定用例驱动的任务和应用中的真正潜力。

这种方法将确保技术团队具备领域专业知识并能直接接触支持个人业务贡献者或知识工作者最终用户,从而最大限度地缩小生成式AI低代码技术和应用与普通员工之间的差距。

保护您的业务免受生成式AI挑战

生成式AI尽管能力卓越,但面临一个根本性障碍——缺乏可靠的真实性功能。这种限制,被称为“幻觉”,会产生各种后果,从有趣的错误到潜在的有害错误。企业必须认识到生成式AI带来的风险,包括版权侵犯、机密信息泄露以及产品发布后出现的意外功能,即所谓的“能力溢出”。

做好风险准备

公司制定政策以促进员工安全和负责任地使用生成式AI至关重要。这些政策应明确规定其性能符合既定准则的具体用例。在鼓励实验的同时,同样重要的是确保所有实验都在整个组织中进行跟踪,避免可能危及敏感信息的“影子实验”。此外,这些政策应强调清晰的数据所有权,建立完善的审查流程以防止发布错误或有害内容,并保护公司的专有数据及其客户的数据。

在不久的将来,一项重要任务是为您的员工在其专业领域内有效利用生成式AI提供全面培训,例如关于提示工程的培训。生成式AI的低代码特性可能导致员工过度自信,即使缺乏必要的背景、技能或批判性判断来评估输出,也能快速“高效”地完成任务,从而导致低于标准的结果和公司产出。您必须鼓励所有员工对AI生成的见解、内容和回应保持健康的怀疑态度。公司政策必须规定,员工只能使用他们完全经过质量保证并理解的数据,并且所有AI生成的内容必须经过数据业务所有者的彻底审查——称之为新的质量保证。

确保质量和安全:以人为本的方法

领导者必须告诫员工不要使用公共通用LLM模型和公共聊天机器人共享业务信息和数据。重要的是要注意,输入生成式AI工具的任何数据都会被存储并用于进一步的模型训练。即使是生成式AI的重要投资者微软,也建议其员工不要与ChatGPT分享机密数据。

在当前环境下,公司在不损害数据隐私的情况下利用大型语言模型(LLMs)的选择有限,除非他们使用像ClearGPT这样安全的生成式AI企业平台。将完整的模型存储在专用服务器上或本地部署是解决数据隐私问题的一种方法。随着LLMs的发展,保护敏感信息的解决方案将变得更加复杂。CEO们定期更新安全协议和政策以适应这些进步至关重要。

生成式AI带来了前所未有的商业机遇,但也给CEO们带来了重大的未知和业务风险。在这个未知领域中航行可能会感到陌生和不适。为了从噪音中分辨出有价值的见解,领导者必须针对其独特的组织和用例,制定一套有效的生成式AI战略性业务方法。这可能包括重新构想您的商业模式,识别应抓住的正确或错误的机会,组织并可能重组劳动力以及运营和收入模式,以促进生成式AI的大规模创新,并确保您组织的业务实验和未来采用遵循安全、生产力和伦理原则。通过践行这些方法,领导者可以在长期内创造可持续的竞争优势。

Facebook
Twitter
LinkedIn
回到顶部