OpenAI公布大型语言模型的最新版本GPT-4

360截图20230317011547459.jpg

科技进步的速度和力度,再一次让人震撼。前一阵大家疯狂试用的ChatGPT,是基于GPT-3.5模型,截至大模型GPT-4发布只用了105天。

刚感叹完GPT-3.5通过谷歌程序员面试,GPT-4就已经把美国的模拟律师资格考试都考到前10%了。

GPT-4哪厉害?

1,具体学习参数,没公布。OpenAI只给这次迭代定了个性: “GPT-4比GPT-3.5更可靠、更有创造力,并且能够处理更加细致复杂的指令”。

2,支持多模态,但是就多了一个图片,并且只支持你输入图片,轮到GPT输出时,依然只打字回你。进步的步子迈多大,不明确,但大方向,却是大致准确的。

所以要真正理解GPT,这2个大方向,建议你真的看懂:大模型,多模态。

多模态是什么?

想象一下,同事忽然发你一句微信消息:“嘘,于总在你后面。

”你收到后马上回头,看到王总,打了一声招呼:“于总。

”这件事,要做到,很了不起吗?很了不起。短短几秒钟,你一口气处理了文字、声音、图像等多种信息数据。

多模态,就是多种信息数据的模式和形态。

而这些种类不同的信息数据,比如你在消息里认出的文字,回头看到的一个图像,嘴里说出的一段声音,有时还指向同一个信息:“于总”。

对你来说,在多模态中识别和对应出同一个“于总”,很简单,好像没什么了不起。

但对GPT来说,却是一个远大的理想:跨越多个模态,处理更复杂的任务。