人工智能是一个深奥而复杂的领域。从事该领域研究的科学家们经常使用专业术语和行话来解释他们正在进行的工作。因此,我整理一份通俗易懂的术语表来帮助大家在阅读AI方面的文章时扫清障碍。
我将定期更新这份术语表,添加新的条目,因为研究人员不断发现新的方法来推动人工智能的前沿。
Artificial General Intelligence(AGI):人工通用智能
“人工通用智能”(Artificial General Intelligence,简称AGI)是一个模糊的术语,但通常指的是在许多,甚至大多数任务上都比普通人更强大的人工智能。OpenAI首席执行官山姆·阿尔特曼最近将AGI描述为“相当于一个普通人类员工,你可以雇佣他作为你的同事。”与此同时,OpenAI的章程将AGI定义为“在多数经济价值高的工作中超越人类的高自主性系统。”谷歌DeepMind对AGI的理解略有不同;该实验室认为AGI是“在大多数认知任务上至少与人类一样有能力的人工智能。”感到困惑?不用担心——就连人工智能研究领域的专家也感到困惑。
AI Agent:人工智能代理
人工智能代理指的是一个利用人工智能技术代表你执行一系列任务的工具——这些任务远远超出普通人工智能聊天机器人所能完成的范围,比如报销费用、预订机票或餐厅座位,甚至编写和维护代码。然而,正如我们之前所解释的,在这一新兴领域中有许多复杂的组成部分,因此“人工智能代理”对不同的人来说可能意味着不同的东西。基础设施也仍在建设中,以实现其预期的能力。但基本概念意味着一个可以借助多个人工智能系统完成多步骤任务的自主系统。
Chain of Thought(CoT):思维链推理
当人类面对一个简单的问题时,通常无需过多思考就能回答——例如“长颈鹿和猫哪个更高?”但在很多情况下,你往往需要借助纸笔才能得出正确答案,因为中间需要一些步骤。比如,如果一个农夫有鸡和牛,它们一共有40个头和120条腿,你可能需要列出一个简单的方程才能得出答案(20只鸡和20头牛)。
在人工智能的语境下,大型语言模型的思维链推理意味着将问题分解为更小的中间步骤,以提高最终结果的质量。通常,得到答案需要更长的时间,但答案更有可能是正确的,尤其是在逻辑或编程的上下文中。推理模型是从传统的大型语言模型发展而来的,并通过强化学习优化为适用于思维链推理的模型。
Deep Learning:深度学习
深度学习是自我改进机器学习的一个子集,其中人工智能算法被设计成多层的人工神经网络(ANN)结构。这使它们相比基于更简单机器学习系统的算法,如线性模型或决策树,能够建立更复杂的关联。深度学习算法的结构受到人类大脑中神经元相互连接路径的启发。
深度学习人工智能模型能够自行识别数据中的重要特征,而不需要人类工程师来定义这些特征。这种结构还支持从错误中学习的算法,通过重复和调整的过程,不断改进其输出结果。然而,深度学习系统需要大量的数据点才能产生良好的结果(通常数百万个或更多)。它们的训练时间也通常比更简单的机器学习算法要长——因此,开发成本往往更高。
Diffusion:扩散
扩散是许多生成人工智能模型(如艺术、音乐、文本生成模型)的核心技术。受物理学启发,扩散系统通过逐步“破坏”数据的结构,比如照片、歌曲等,直到数据完全被噪声覆盖。在物理中,扩散是自发且不可逆的过程——咖啡中的糖无法恢复成方糖的形态。但人工智能中的扩散系统旨在学习一种“反向扩散”过程,以恢复被破坏的数据,从而具备从噪声中恢复数据的能力。
Model Distillation:模型蒸馏
蒸馏是一种通过“教师-学生”模型从大型人工智能模型中提取知识的技术。开发者向教师模型发送请求并记录输出结果。有时这些输出会与数据集进行比较,以判断其准确性。然后,这些输出结果被用来训练学生模型,使其行为接近教师模型。
通过蒸馏,可以在损失最小的情况下,基于一个大型模型创建一个更小、更高效的模型。这很可能是OpenAI开发GPT-4 Turbo(GPT-4的更快版本)所采用的方法。
虽然所有人工智能公司都会在内部使用蒸馏,但一些公司可能也利用蒸馏来追赶前沿模型。不过,从竞争对手那里进行蒸馏通常违反人工智能API和聊天助手的服务条款。
Fine-tuning:微调
这指的是进一步训练人工智能模型,以优化其在比之前训练中更具体任务或领域的性能,通常是通过输入新的、专门的(即任务导向的)数据来实现的。
许多人工智能初创公司都以大型语言模型作为起点,来构建其商业产品,但它们正在通过补充早期训练周期,以基于其自身的领域专业知识来增强目标行业或任务的实用性。
Generative Adversarial Network(GAN):生成对抗网络
生成对抗网络(GAN)是一种机器学习框架,支撑着生成人工智能在产生逼真数据方面的一些重要进展,包括(但不仅限于)深度伪造工具。GAN使用一对神经网络,其中一个是根据其训练数据生成输出,然后将输出传递给另一个模型进行评估。因此,第二个判别模型在生成模型的输出上扮演了分类器的角色,从而使其能够随时间改进。
GAN的结构被设计为一种竞争(因此称之为“对抗”)——两个模型本质上被编程为相互超越:生成器试图让其输出通过判别器,而判别器则致力于识别出人工生成的数据。这种结构化的竞争可以在无需额外人工干预的情况下,优化人工智能输出使其更加逼真。尽管GAN在特定应用(如生成逼真照片或视频)中表现最佳,而不是通用人工智能。
Hallucination:幻觉
幻觉是人工智能行业对人工智能模型编造信息的首选术语,即字面意义上生成错误的信息。显然,这对人工智能质量来说是一个巨大的问题。
幻觉会导致生成人工智能输出结果具有误导性,甚至可能带来现实中的风险,可能产生危险的后果(比如关于健康问题的查询返回有害的医疗建议)。这正是为什么大多数生成人工智能工具的使用条款中现在都会提醒用户验证由人工智能生成的答案,尽管这些免责声明通常远不如工具一键提供的信息那么显眼。
人们认为,人工智能编造信息的问题源于训练数据中的不足。对于通用型生成人工智能(也被称为基础模型)尤其如此,这似乎很难解决。世界上根本不存在足够的数据来训练人工智能模型,以全面解答我们可能提出的所有问题。简而言之:我们还没有创造出上帝(至少现在还没有)。
幻觉正在推动人工智能模型向越来越专业和/或垂直方向发展,即要求更狭窄专业知识的领域特定人工智能,以此减少知识空白的可能性并降低虚假信息的风险。
Inference:推理
推理是运行人工智能模型的过程。它是指释放模型以从之前见过的数据中进行预测或得出结论。明确地说,没有训练,推理就无法进行;模型必须先在一组数据中学习模式,之后才能有效地从这些训练数据中进行外推。
许多类型的硬件都能执行推理,从智能手机处理器到强大的GPU,再到专门设计的人工智能加速器。但它们并不能同样好地运行模型。非常大的模型在笔记本电脑上进行预测可能需要很长时间,而相比之下,在配备高端人工智能芯片的云端服务器上则可以迅速完成。
Large Language Models(LLMs):大型语言模型
大型语言模型(LLMs)是像ChatGPT、Claude、Google的Gemini、Meta的AI Llama、Microsoft Copilot或Mistral的Le Chat等流行人工智能助手所使用的人工智能模型。当你与人工智能助手聊天时,你实际上是在与一个大型语言模型互动,它直接或借助各种可用工具(如网络浏览或代码解释器)来处理你的请求。
人工智能助手和大型语言模型可以有不同的名称。例如,GPT是OpenAI的大型语言模型,而ChatGPT是其人工智能助手产品。
大型语言模型是深度神经网络,它们由数十亿个数值参数(或权重,见下文)组成,学习词语和短语之间的关系,并创建一种语言表示,即一种词语的多维地图。
这些模型是通过对数十亿本书籍、文章和转录文本中的模式进行编码而创建的。当你提示一个大型语言模型时,模型会生成最有可能符合提示的模式。接着,它会根据之前的内容,评估最后一个词之后最可能的下一个词。重复、再重复、不断重复。
Neural Network:神经网络
神经网络指的是支撑深度学习的多层算法结构,更广泛地说,它也是大型语言模型出现后,整个生成人工智能工具热潮的基础。
尽管从人类大脑中密集连接的路径中获得灵感,作为数据处理算法的设计结构的想法可以追溯到20世纪40年代,但真正释放这一理论潜力的是图形处理硬件(GPU)的迅速发展,这主要得益于视频游戏产业。这些芯片非常适合训练比以往更复杂的多层算法,从而使得基于神经网络的人工智能系统在许多领域,包括语音识别、自动驾驶和药物发现,都取得了显著的性能提升。
Training:训练
开发机器学习人工智能涉及一个称为训练的过程。简单来说,这指的是将数据输入模型,使模型能从数据模式中学习并生成有用的输出。
在人工智能的堆栈中,这一点可能会变得有些哲学化——因为在预训练之前,用于开发学习系统的数学结构只是一些层和随机数字。只有通过训练,人工智能模型才能真正成形。本质上,正是系统对数据特征的响应,使其能够调整输出以达到所追求的目标——无论是识别猫的图片,还是按需生成俳句。
需要注意的是,并非所有人工智能都需要训练。那些被编程为遵循手动预定义指令的人工智能系统(例如线性聊天机器人)并不需要进行训练。然而,这样的系统可能比(经过良好训练的)自我学习系统更加受限。
不过,训练可能成本高昂,因为它需要大量输入。通常,这类模型所需的输入量正在不断上升。
有时会采用混合方法来缩短模型开发过程并帮助控制成本。例如,对基于规则的人工智能进行数据驱动的微调——这意味着如果开发者从零开始构建模型,那么开发所需的数据、计算资源、能源和算法复杂性都会减少。
Transfer Learning:迁移学习
这是一种技术,即使用先前训练过的人工智能模型作为开发新模型(通常用于不同但相关任务)的起点,从而使之前训练中获得的知识得以重新应用。
迁移学习可以通过缩短模型开发过程来实现效率的提升。当用于开发模型的任务数据有限时,迁移学习也可能是有用的。但需要指出的是,这种方法也有其局限性。依赖迁移学习来获得泛化能力的模型,可能需要在关注的领域上进行额外的数据训练,才能表现良好。
Weights:权重
权重是人工智能训练的核心,因为它们决定了在用于训练系统的数据中,不同特征(或输入变量)被赋予多少重要性(或权重),从而塑造人工智能模型的输出。
换句话说,权重是数字参数,它们定义在给定训练任务中数据集的哪些部分最为关键。它们的功能是通过将权重应用于输入来实现的。模型训练通常从随机分配的权重开始,但随着训练过程的进行,权重会随着模型尝试得出更接近目标的输出而进行调整。
例如,一个用于预测目标地区房价的人工智能模型,可能包括对卧室和浴室数量、房产是否为独立式或半独立式、是否拥有停车位或车库等特征的权重。
最终,模型对每个输入赋予的权重反映了它们在根据给定数据集预测房产价值时的重要性。
订阅我的公众号,获取更多人工智能术语解析与行业深度洞察!
点击关注,不错过每一次AI的突破与革新!