GPT(Generative Pre-trained Transformer)模型是由OpenAI开发的一种自然语言处理模型。从基于GPT3.5模型采用交互式方式应用的ChatGPT发布以来,这一全新产品引发了全球的沸腾,知己知彼百战不殆,先看看它是怎么变得这么牛的。
GPT-1,于2018年6月发布,基于Transformer架构,参数量1.17亿,预训练数据量约5GB。通过生成预训练提高语言理解,GPT-1提出了使用未标记的数据学习生成语言模型,然后通过提供特定下游任务(如分类、情感分析、文本蕴涵等)的示例来微调该模型。无监督学习作为监督微调模型的预训练目标,因此称为生成预训练。
GPT-2,于2019年2月发布,参数量15亿,预训练数据40GB。GPT-2使用了更大规模的预训练数据,并且在预训练阶段使用了更复杂的任务,即无监督的预测下一个句子的任务。GPT-2在多个自然语言处理任务上取得了比GPT-1更好的性能。
GPT-3,于2020年5月发布,参数量1750亿,预训练数据量45TB。GPT-3使用了更大规模的预训练数据和更多的参数。GPT-3在多个自然语言处理任务上取得了非常出色的性能,甚至在一些任务上超过了人类水平。
GPT-3.5,于2022年11月发布,即ChatGPT的底层模型,参数量千亿级,预训练数据量百T级。其更接近人类对话与思考方式的特点吸引了全球的目光。
GPT-4,于2023年3月发布,参数量估计有3.5万亿级。GPT-4 可以进行文字加工、图像识别等,极大程度提升相关工作效率。GPT-4 保留了对话式 AI 的模式,新增图像识别功能。根据 OpenAI 官网展示的例子,GPT-4 可以理解图片所表达的内容,也可以对文字进行加工和扩充,生成营销文案,将极大缩减人工劳动,只需提出正确的问题即可。
随着GPT交互方式的不断友好、思维方式的不断进化,可以预见每个人都将会有一个随身智囊。 |
|