分享

揭开AI世界的神秘面纱:20大专业术语详解

 張先民 2024-06-26 发布于江苏

人工智能已成为我们日常生活的一部分,每天都有新的人工智能产品发布。几乎每家公司要么计划采用人工智能,要么积极使用人工智能,要么将其旧的基于规则的引擎重新命名为人工智能技术!!!

出于对不断发展的人工智能世界的好奇,我们首先解读需要解读它的流行语,然后再进行深入研究。

揭开AI世界的神秘面纱:20大专业术语详解

2024 年 20 大人工智能流行语

  1. 人工智能(AI)

计算机科学的一个广泛领域,专注于创建可以执行通常需要人类智能的任务的系统,包括解决问题、决策和语言理解。

该术语最初由斯坦福大学名誉教授约翰麦卡锡提出,是机器学习、深度学习等各种途径和方法的总称。

  1. 机器学习(ML)

机器学习是人工智能(AI)的一个子集,专注于算法和统计模型的开发,使计算机系统能够通过经验提高其在特定任务上的性能,而无需明确编程。

此过程通常涉及分析数据集以检测模式并构建你可以构建、托管和查询的模型和算法。

机器学习的最终目标是使机器学习系统能够在无需人工干预或协助的情况下独立学习并做出决策。

  1. 监督机器学习

监督学习使用标记数据来训练算法/模型,以准确预测未知数据。它涉及输入与输出标签相关的数据,然后根据这些数据训练算法以识别其中的复杂模式。

揭开AI世界的神秘面纱:20大专业术语详解

监督机器学习

例如:图像识别是一种经过训练的系统,可以区分猫和狗的图像。训练过程包括为算法提供大量带标签的图像数据集,其中每幅图像都被标记成猫或狗。该算法学习识别每个类别特有的模式和特征,例如耳朵的形状、动物的大小或皮毛的质地。经过充分的训练后,系统可以通过分析视觉特征并将其与学习到的模式进行比较,准确地将新的未标记图像分类为猫或狗。

  1. 无监督机器学习

无监督机器学习专注于在不依赖标记数据的情况下发现数据中的模式和结构。这是一种从大型数据集中发现隐藏联系和有价值见解的方法。

揭开AI世界的神秘面纱:20大专业术语详解

无监督机器学习

示例:音乐推荐系统无需事先标记即可将歌曲归类为不同的类型。系统会分析每首歌曲的特征,例如节拍、节奏和旋律,并将相似的歌曲归类。这个过程称为聚类,它允许系统发现数据中的模式和关系,从而使其能够向喜欢该类型的用户推荐特定类型的歌曲,即使在训练阶段从未明确按类型标记这些歌曲。

  1. 强化机器学习

强化学习使用决策算法从与环境的重复交互中学习。这是一个专注于开发能够交互并采取行动实现特定目标的代理的领域。但请稍等,这些子领域的实际应用可以超越我刚才提到的范围;关注深度强化学习等概念。

揭开AI世界的神秘面纱:20大专业术语详解

强化学习

示例:训练国际象棋机器人,其中代理(AI 玩家)与环境(棋盘)交互。动作是下棋,奖励系统的结构是代理在吃掉对手棋子时获得正奖励,在丢失棋子时获得负奖励。随着时间的推移,通过玩多局游戏并体验其动作的结果,AI 会学习并改进其策略以最大化正奖励,从而逐步提高其国际象棋技巧。

  1. 深度学习

深度学习是机器学习的一个子集,专注于神经网络。这些计算模型受到人类大脑的启发,由相互连接的节点(神经元)和相关权重组成。信息通过这些网络中的多层进行处理,因此被称为“深度”。这种结构使模型能够学习数据中的复杂模式。

揭开AI世界的神秘面纱:20大专业术语详解

深度神经网络

深度学习对于图像识别(识别照片中的物体)和自然语言处理(如语言之间翻译)等任务非常有效。

  1. CNN(卷积神经网络)

卷积神经网络是一种专门用于处理网格状数据(如图像和视频)的神经网络。它们旨在识别图片中的图案和形状,非常适合识别物体或面部等任务。

揭开AI世界的神秘面纱:20大专业术语详解

卷积神经网络

以下是它们的工作原理(简化):

  1. 卷积:可以将其想象成一束照射在图像上的闪光灯。CNN 将这束闪光灯移动到整张图片上,每次聚焦一个小部分。分析每个小部分以找到模式(如边缘、纹理或颜色)。
  2. 池化:找到模式后,CNN 希望制作出更简单的图像版本。它通过池化来实现这一点,即取小区域并用该区域中最重要的信息(如最强的模式)对其进行总结。
  3. ReLU(整流线性单元):此步骤有助于确定发现的模式是强还是弱。它保留强模式并去除弱模式,从而使模型更高效、更专注。

完成所有这些步骤后,CNN 就能很好地了解图片中的内容,并能判断它是一只猫、一只狗、一辆汽车等等。

CNN 是使用过滤器和池化层的前馈神经网络

示例:用于图像识别任务,如识别照片中的物体、面部识别以及自动驾驶汽车检测道路标志。

  1. RNN(循环神经网络)

循环神经网络 (RNN) 是一种专为序列数据(如句子或时间序列)而设计的神经网络。与常规神经网络不同,RNN 具有记忆功能,可以捕获迄今为止计算的信息。这种记忆有助于网络理解数据的上下文和序列。

揭开AI世界的神秘面纱:20大专业术语详解

循环神经网络

前馈神经网络 CNN 不同, RNN 将结果反馈到网络中。因此,RNN 被命名为循环神经网络。

示例:RNN 在理解和生成语言方面非常有用。它们用于自然语言处理 (NLP) 任务,例如编写预测文本(就像发短信时看到的内容)、将语音转换为文本(就像在语音助手中一样)以及实时翻译语言。

  1. MLP(多层感知器)

MLP 是一种深度前馈人工神经网络。它至少包含三层:输入层、一个或多个隐藏层和输出层。一层中的每个神经元都与下一层中的所有神经元相连,从而使网络完全连接。MLP 使用一种称为反向传播的技术进行训练,其中模型通过调整连接的权重从其所犯的错误中学习。

示例:MLP 广泛用于分类问题,其中输入数据已标记,输出是离散类标签。例如,在手写识别任务中,输入可以是手写数字图像的像素数据,输出则是图像代表哪个数字(0 到 9)。MLP 将学习识别与每个数字对应的像素数据中的模式并准确对图像进行分类。

  1. GAN(生成对抗网络)

生成对抗网络 (GAN) 是一种机器学习框架,由两个神经网络组成:生成器和鉴别器。这两个网络以某种竞争的方式同时进行训练。生成器试图创建看起来真实的数据,而鉴别器则试图区分真实数据和生成的数据。随着时间的推移,生成器越来越擅长生成逼真的数据,而鉴别器越来越擅长区分真假数据。

揭开AI世界的神秘面纱:20大专业术语详解

示例:用于根据草图创建逼真的图像、生成逼真的人脸或物体、制作将一个人的脸与另一个人的脸令人信服地交换的深度伪造视频,以及在称为超分辨率的过程中增强图像的分辨率。

  1. Transformer

Transformer 是一种深度学习架构,它极大地推动了自然语言处理 (NLP) 领域的发展。与之前按顺序处理输入数据的模型不同,Transformer 一次性处理整个数据序列,从而实现并行化并更有效地处理长距离依赖关系。这在很大程度上归功于它们使用了注意力机制,该机制使模型能够以不同的方式衡量输入数据不同部分的重要性,从而更加关注特定任务的相关部分。

示例:Transformer 是最先进的 NLP 模型(如 BERT(Transformer 的双向编码器表示)和 GPT(生成式预训练 Transformer))的基础架构。这些模型通过有效捕捉语言的上下文和细微差别,在包括文本分类、翻译、摘要和问答在内的各种 NLP 任务中树立了新的标杆。

  1. GPT(生成式预训练Transformer)

GPT(生成式预训练 Transformer)是一种基于 Transformer 的模型,擅长生成与人类书写极为相似的文本。它已在大量文本数据上进行了预训练,能够理解和生成具有出色连贯性和上下文相关性的语言。GPT 模型尤其以能够执行广泛的自然语言理解和生成任务而闻名,而无需特定于任务的训练数据。

示例:OpenAI 开发的 GPT 4 因其能够生成与人类书写的文本难以区分的文本而备受关注。其应用范围从创建内容和在聊天机器人中交谈,到编码等更复杂的任务,以及在各个行业提供复杂的基于文本的服务。

  1. GenAI(生成式人工智能)

GenAI(生成式人工智能)包括能够自主创建内容(例如文本、图像、视频或音乐)的 AI 系统。这些系统利用生成对抗网络 (GAN) 或大型语言模型 (LLM) 等先进技术来生成新的原创输出,这些输出可能与人类创建的内容非常相似。GenAI 尤其以其创造潜力和模仿各种风格和格式的能力而闻名。

示例:GenAI 的应用包括生成与人类难以区分的对话响应的聊天机器人、创作音乐或编写故事的 AI 驱动平台以及创建逼真的视觉艺术品或深度伪造视频的系统。这些系统越来越多地应用于娱乐、媒体和客户服务,展示了生成式 AI 技术的多功能性和创造潜力。

  1. NLP(自然语言处理)

NLP(自然语言处理)是人工智能的一个分支,涉及计算机与人类(自然)语言之间的交互。它涉及使机器能够以有意义且有用的方式理解、解释和生成人类语言。NLP 将计算语言学与机器学习和深度学习模型相结合,以处理和分析大量自然语言数据。

揭开AI世界的神秘面纱:20大专业术语详解

示例:NLP 的应用非常广泛,包括可以像人类一样做出反应进行对话的聊天机器人、可以确定文本中表达的情绪或观点的情感分析系统,以及可以准确地将文本或语音从一种语言转换为另一种语言的 Google 翻译等语言翻译服务。

  1. LLM(大型语言模型)

LLM(大型语言模型)是指在大量文本数据集上进行训练的 AI 模型,用于理解和生成与人类写作非常相似的语言。这些模型利用深度学习技术来处理和生成文本,擅长掌握语言的细微差别、背景和复杂性。LLM 以能够出色地执行各种与语言相关的任务而闻名。

示例:LLM 的著名实例包括 OpenAI 的 GPT-4 和 Google 的 BERT。这些模型用于各种自然语言处理应用程序,从生成连贯且上下文相关的文本到增强文本摘要、情感分析和对话式 AI 系统等任务中的语言理解。

  1. TTS(文本转语音)

文本转语音是一种辅助技术,可以大声朗读数字文本。这是人机交互领域的一项重大进步,使计算机、智能手机和其他数字设备能够将任何类型的文本转换为语音输出。该技术涉及从书面文本合成类似人类的语音,可用于各种需要或需要口头交流的应用。

揭开AI世界的神秘面纱:20大专业术语详解

示例:文本转语音广泛应用于语音助手应用程序,例如 Siri、Alexa 和 Google Assistant。它还用于有声读物旁白,为阅读传统书籍提供了一种替代方式,也用于 GPS 导航系统。此外,TTS 技术在可访问性方面具有显著优势,通过提供文本的口语版本来帮助阅读困难的人。

  1. RAG(检索和生成)

RAG,即检索增强生成,是 Meta AI 研究人员引入的一种方法,它将基于检索的模型和基于生成的模型结合起来,以解决知识密集型任务。检索组件从大型外部数据集中获取相关信息或文档,而生成组件则使用这些信息来创建连贯、符合上下文的响应或摘要。

揭开AI世界的神秘面纱:20大专业术语详解

检索和生成(RAG)简化

示例:RAG 用于复杂的聊天机器人和问答系统,使它们能够提供准确且上下文丰富的答案。这些系统首先从综合知识库或数据库中检索最相关的信息以响应查询。然后,他们使用生成模型来制作响应,该响应不仅可以回答查询,还可以顺利整合检索到的信息,确保输出既信息丰富又措辞自然。

  1. XAI(可解释人工智能)

XAI(可解释人工智能)是指专门设计用于使人类用户理解其操作、决策和行为的 AI 系统。XAI 的重点是确保透明度和可解释性,使用户能够理解 AI 如何得出特定决策或结论。这种理解可以增进信任并促进人类与 AI 系统之间更有效的协作,尤其是在关键应用中,决策背后的推理与决策本身同样重要。

揭开AI世界的神秘面纱:20大专业术语详解

可解释人工智能(XAI)简化

例如:在医疗领域,XAI 发挥着至关重要的作用。例如,用于诊断疾病或推荐治疗的 AI 系统如果能够解释其推理,则更有价值。医生和医疗保健专业人员可以查看和了解 AI 的诊断过程或治疗建议,确保 AI 的建议符合医疗标准和实践,并在做出关键决策之前提供额外的验证层。

  1. AGI(通用人工智能)

AGI(通用人工智能)是指能够以与人类智能难以区分的方式理解、学习和应用知识的人工智能水平。与擅长特定任务的专业人工智能不同,AGI 能够执行人类可以执行的任何智力任务,包括推理、解决问题和跨广泛领域的创造力,同时理解上下文和细微差别。

到目前为止,AGI 仍然是一个理论概念,也是未来人工智能研究的目标。目前还没有人工智能系统能够达到 AGI 所要求的广泛、适应性和综合性的认知能力,这使得它更像是人工智能未来的愿景,而不是现实。

  1. ASI(人工超级智能)

ASI(人工超级智能)代表一种人工智能,它在创造力、一般智慧和解决问题等所有领域不仅与人类智能相匹配,而且远远超过人类智能。它体现了一种在各个方面都优于人类智能的人工智能,可能具有自主改进的能力,从而导致其能力呈指数级增长。

ASI 仍是一个理论和推测概念,远远超出了当前 AI 技术的能力。目前尚无 ASI 实例,其潜在实现是 AI 伦理、未来研究和技术预测领域争论和思考的话题。

结论

人工智能不仅仅是一种趋势。它现在是商业创新的关键驱动力。它可以自动执行任务,通过数据分析提供见解,并提高客户参与度。人工智能正在改变企业的运营方式,并在不同领域开辟新的可能性。

    本站是提供个人知识管理的网络存储空间,所有内容均由用户发布,不代表本站观点。请注意甄别内容中的联系方式、诱导购买等信息,谨防诈骗。如发现有害或侵权内容,请点击一键举报。
    转藏 分享 献花(0

    0条评论

    发表

    请遵守用户 评论公约

    类似文章 更多