Page 1 of 1

关于生成式人工智能的常见误解

Posted: Mon Dec 09, 2024 8:48 am
by subornaakter02
生成式人工智能是一项变革性技术。企业应该开始探索其能力,而不是观望竞争对手如何采用它们。同时,企业还需要对生成式人工智能能做什么和不能做什么抱有现实的期望。

与其他新技术相比,支持ChatGPT 等生成式 AI 工具的大型语言模型 (LLM)迅速引起了公众的关注。LLM 并不是慢慢地建立公众的认知和理解,而是突然成名或声名狼藉,这取决于你的观点。

现在许多人都对法学硕士有一定的经验——足以对其形成看法。但这些印象通常不足以提供足够的基础来了解法学硕士的能力。对 ChatGPT 和类似工具的普遍看法可能并不完全准确。

由于法学硕士课程非常新颖,与熟悉的内容处理方式截然不同 山东省手机号码数据库 因此很容易将其视为炒作或对其所能提供的内容过于乐观。许多流行的观点反映了误解,即使它们包含了一些事实。

误解 1:人工智能生成的内容质量不佳,因为该技术无法掌握细微差别或背景
生成式人工智能的产出有多好,尤其是与人类可以创造的内容相比?

人类善于理解语境和细微差别,而机器通常不具备这种能力。除非经过训练,人工智能机器人无法理解隐含的细微差别并做出反应。虽然与具有专业知识的人相比,人工智能机器人的开箱即用行为似乎很笨拙,但机器人可以快速学习,并在短时间内提供可接受的结果。经过调整和培养后,机器人通常可以提供令人惊叹的结果。

我们都见过执行不力的人工智能带来的后果:内容模糊、杂乱无章,甚至不准确。人们很容易将这些问题归咎于技术。但尽管技术确实存在内在局限性,但很多时候问题更多是技术实施方式造成的,而不是技术本身。

由于 AI 模型的实现方式不尽相同,因此很难概括 AI 模型可能产生的结果。如果不了解实现方式,就很难知道一个人的体验是否反映了底层技术的全部功能。例如,不同的用户使用 ChatGPT 会得到不同的结果。

误解 2:客户和员工需要能够“设计”提示

Image

这种误解的产生是因为 ChatGPT 等生成式人工智能依赖于自然语言输入,这降低了创建查询的门槛。例如,网络用户现在可以将自己的提示输入 Bing 并获得输出。但提示工程比因果提示创建要复杂得多。

好的答案取决于提出正确的问题。在实践中,提示通常需要比日常口语中更具体,日常口语中涉及简单的问题(现在几点了?)或请求(递给我盐)。直截了当的提示只有在没有歧义或其他解释的情况下才有效。

大多数人对 LLM 的体验都来自直接面向消费者的应用程序,例如 ChatGPT 工作室的免费版本、Bing 的聊天机器人搜索或可以从应用商店下载的众多 GPT 智能手机应用程序。这些应用程序允许提出一个问题,并在一次交互中立即得到答复——你不需要调整你的问题或让机器人在提问之前理解某些内容。零样本应用程序适用于基本问题或提供一般信息就足够的情况。但期望某人每次需要 AI 模型的输出时都写一个新的提示是低效的。

提示需要预测潜在的歧义和其他解释。虽然随着 LLM 的发展,零样本结果的精度正在提高,但它们通常无法为更复杂的问题提供令人满意的答案。第一次写出完美的提示很有挑战性——我们经常需要跟进并提供澄清。对于作者来说,不断改进他们所要求的内容可能是一种负担。

设计提示的开发人员采用有条不紊的方法,将提示视为一个问题,而不是一个指令。他们指定指令细节、上下文、输入数据和输出指导。精心设计的提示应该经过测试,并且可以在不同时间被许多人重复使用。

许多提示指令可以用自然语言表达,但由于提示请求将与一系列来源和系统交互,因此它们还应包括技术参数,例如权重、端点或文本模式。

虽然非技术型最终用户可以创建简单的提示,但您需要将更复杂的提示设计委托给技术更精湛的员工。他们可以试验哪些方法有效,哪些方法无效,然后为所有人提供这些优化的提示。

误解 3:人工智能可以编写公司的内容,这意味着不再需要作家
人们对法学硕士的另一个误解是认为法学硕士很强大并且可以轻松承担许多工作角色。

这种误解在那些不参与内容写作的企业高管中最为普遍。也许他们看到学龄儿童使用智能手机上的文本生成应用程序做作业,并得出结论,如果孩子们可以使用它们来写作,那么这些机器人将取代对专职作家的需求。一些开发人员总是想方设法节省时间,他们也可能倾向于认为生成式人工智能可以自动化写作,以至于不需要作家的参与。

目前从事内容开发的人不太相信生成式人工智能的自主性。写作既需要确保信息细节正确,又需要有效地表达它们。在将内容创建任务交给生成式人工智能之前,您需要确保能够提供准确性和适合受众的交付方式。

ChatGPT 可以回答几乎所有主题的问题,尽管不一定具有权威性。企业需要输出准确、具体、完整且明确的信息。如果员工和客户需要依赖这些信息,那么他们就需要信任这些信息。

在某些情况下,生成式人工智能无需主动监督即可开发可靠的内容。例如,生成式人工智能可以根据每种产品的明确产品特性列表来开发产品描述。

但许多情况涉及概念复杂性,其中区别很重要,但对于机器人来说可能很难识别或传达。根据机器人摄取(查找和检索)信息的方式,它可能会生成无意义的文本,这种现象称为幻觉。当与问题相关的数据不足、不准确、矛盾或缺乏背景时,就会出现幻觉。

除了获取正确的事实之外,机器人还需要清楚地传达信息。

现成的 AI 服务提供的写作通常不太好。ChatGPT 开箱即用,提供的是冗长且过于正式的笨拙文章。文章可能不是重点,例如,漫无目的地谈论某个话题的优缺点。虽然可以训练 AI 以反映适当的风格,但您可能仍需要最初监督输出,以确保其符合您的品牌准则和标准。

除非你的提示经过精心调整,并且你确定输出结果可靠,否则你会希望作者与机器人互动,以检查结果并改进它们。人工智能当然可以加速内容开发工作,但它不一定能取代作者可以提供的创造性判断或知识专长。