人工智能根据输入线索产生连贯响应的能力也变得更加清晰。 机器学习和神经网络训练 机器学习和神经网络在 ChatGPT 的运行中发挥着至关重要的作用。 训练神经网络类似于通过例子教孩子。我们没有对其进行显式编程来识别特定特征,而是为其提供大量图像并让它从中学习。这使得 ChatGPT 能够超越训练示例并理解“什么是猫”或“什么是狗”等概念。 在训练期间,根据给定的示例将权重分配给神经网络。这使得网络能够重现所需的输出并在实例之间有效地进行插值(插入单词或文本)。这构成了 ChatGPT 等人工智能聊天机器人的核心功能。 随着 GPT-4 等进步,神经网络的能力得到增强,可以在复杂任务中实现更高效的性能。例如,OpenAI 的 Whisper 技术简化了音频转录,节省了时间和资源。 chatgpt 是如何工作的 资料来源: 迈向数据科学 超越基础训练 要了解 Chat GPT 的工作原理,需要了解很多幕后知识。经过原始训练后,ChatGPT 中的神经网络开始根据提供的提示生成自己的文本。 虽然这些结果最初似乎是合理的,但在较长的文本片段上它们往往会以非人类的方式偏离——这种现象很容易被人类读者注意到,但无法通过传统的统计方法检测到。 为了帮助 ChatGPT 产生更接近人类的输出,引入了一个额外的步骤:与人类的主动交互。
人类与 ChatGPT 进行交互并对其响应进行评分——本质上是提供关于什么是好的聊天机器人的反馈。 然后将该反馈与专门为预测这些评级而设计的另一个神经网络模型结合使用。通过在原始网络上像损失函数一样运行这个预测模型,它可以根据给定的人类反馈有效地调整系统。 语义语法和计算语言的力量 创造有意义的人类语言曾经被认为是只有人类大脑才能实现的壮举。然而,ChatGPT 令人印象深刻的功能挑战了这一观念。 ChatGPT 基于 GPT-3 的神经网络工作,该神经网络反映了人脑中的过程,使其能够生成连贯的文本数据。 ChatGPT 的成功表明,有意义的人类语言比以前理解的更加结构和简单。这一启示不仅源于句 华裔美国人数据 法语法规则,而且源于语义规则。 在语法中,我们识别词性,例如名词和动词。然而,语义 需要更精细的层次,例如识别“移动”或“物体”等概念。语义规则可能规定对象可以移动,反映了捕捉复杂现实的简单规则。 ChatGPT 的与众不同之处在于它不仅能够生成语法正确的句子,而且还能够提供上下文相关的响应。这种卓越的能力是多年完善和持续学习的结果,使 ChatGPT 能够从其庞大的知识库中提取连贯的信息。 ChatGPT 是如何工作的:逐步分解 从较高层面来看,ChatGPT 是一种使用 Transformer 网络架构变体的语言模型,特别是生成式预训。

它旨在根据收到的输入理解并生成类似人类的文本。 以下是 ChatGPT 工作原理的逐步细分: 预训练: ChatGPT 最初使用来自互联网的大量文本数据进行训练。它学习语法、事实、推理能力和一定程度的常识推理。在此阶段,模型学习根据前面的单词预测句子中的下一个单词。 GPT 背后的核心概念是 Transformer 架构,它由注意力机制组成,允许模型权衡句子中不同单词的重要性。 标记化:文本被分解为更小的单元,称为标记。它们可以短至一个字符,也可以长至一个单词。例如,“ChatGPT 太棒了!”这句话可能会被标记为过一次迭代地生成一个标记来完成的,将前面的标记视为上下文。 微调:预训练后,模型在人工审阅者的帮助下生成的更窄的数据集上进行微调。这些审阅者遵循 OpenAI 提供的指南,对一系列示例输入的可能模型输出进行审阅和评级。该模型根据此反馈进行概括,以响应更广泛的用户输入。 用户交互:当用户与 ChatGPT 交互时,模型会获取用户的输入,对其进行处理,并根据对话上下文生成响应。模型没有真正的理解或意识;它只是生成从训练数据中学到的文本。 适应用户输入: ChatGPT 的响应受到从训练数据中学到的模式的影响,无论是在预训练还是微调过程中。它没有个人经历、情感或信仰。它根据从训练数据中学到的概率生成响应。 |