凯发·k8国际新闻中心
ChatGPT到底是什么?会给我们生活来这些改变↓K8凯发官网网址,
人工智能作为当今最前沿的科技之一,正在以令人惊叹的速度改变着我们的生活。从智能语音助手到无人驾驶汽车,从 AI 绘画到机器学习,它为我们打开了一个充满无限可能的未来。本栏目将以通俗易懂的方式,用视频和文字给孩子讲述人工智能的原理、应用及其对社会的深远影响。
很多行业,比如新闻、律师、教育、客服咨询等等,已经把 ChatGPT 应用在了生产、服务中。
那么,ChatGPT 究竟是什么?本期内容,我们就来了解 ChatGPT 和它背后的技术。
Chat,直译为“闲聊”,可以说 Chat GPT 是用起来如同微信或 QQ 的一个聊天应用。只不过,在那一头的不是你的朋友,而是一个 AI。
Generative意思是“生成式的”,这意味着它能够根据接收到的信息,生成文本做出回应。
Pre-trained指“预训练的”,是说在跟你对话之前,Chat GPT 就已经经过了大量的文本训练。
要想理解“ChatGPT”,我们就要从 AI 是如何学说话这件事情说起。
人类说话,是从脑海中的“词典”里挑出一些词,组成句子。如果只是简单地让 AI 从词典里随机取词,组成的句子大概率是不通顺的,没有任何含义。
为了让计算机能够说出人类的语言,人们引入了马尔科夫模型。简单的说,马尔科夫模型能把一个词和前面的几个词建立起联系。
举个例子,根据语料库,“苏打”的下一个词是“饼干”或“汽水”的概率远比“桌子”或“胡萝卜”之类的词要高。假如继续在“苏打”前面添加一个“吃”字,那么,填“饼干”的可能性又比“汽水”的概率要高。通过这种方式生成的句子,就比随机生成的语句,更接近人类语言。
基于这样的思考,在 20 世纪 70、80 年代K8凯发官网网址,,一种叫做循环神经网络的模型诞生了。循环神经网络简称 RNN,它能够很好地考虑词语的顺序性以及前面词语对后面词语的影响。
但 RNN 也有一些局限性,比如它存在“梯度消失”效应。随着句子长度增长,说着说着,它就忘记前面说了什么了。
于是,人们对 RNN 模型进行了优化,开发出了长短期记忆模型,简称 LSTM,以解决“健忘”的问题。
但这还不够。基于 RNN 的模型有两个问题,一是学习速度太慢。二是对于词义的理解不够好。
为此,新的神经网络架构 transformer 出现了。基于 transformer 的模型有着非常快的学习速率,能够在短时间里学习大量的文本资料。
并且 transformer 中引入了一种叫做“self attention”的技术。这让它能够根据文章中的其他词汇K8凯发官网网址,,辅助理解词义,更好地听懂我们所说的话。
当然了,GPT 还在不断优化中。比如 GPT-4.0 就具备了更强的逻辑推理能力,甚至能理解图片上的内容,前景不可估量。
其实,像 GPT 这样参数极其复杂、需要经过大量文本训练的语言模型,被称作大语言模型。除了 GPT,比如阿里的 PLUG,华为的盘古-α、百度的 ERNIE 3.0 等等,都属于大语言模型。