真得感谢DeepSeek的开源,让国内实现了大模型平权,直接洗牌了整个AI行业,让AIGC产品的竞争回到同一起跑线上了。
腾讯元宝我觉得火起来的主要原因,一是迅速接入了满血版的DeepSeek R1模型(免费用),二是加上微信等流量平台的推广。
另外文生图方面,腾讯元宝是接入了自研的文生图模型:
而DeepSeek目前是没有上线文生图模型的。DeepSeek春节期间发布了全新的多模态大模型Janus-Pro-7B,Janus-Pro-7B可以文生图,虽然可以达到比较好的文本到图像的指令跟随能力,但是生成的图分辨率较小,目前并不能实际应用。
如何看待 DeepSeek 深夜发布的全新多模态大模型 Janus-Pro-7B?带来了哪些影响?读图的话,主要是依赖是多模态大模型VLM,而DeepSeek目前也是没有上线VLM模型的,目前的识图只是识别图像中的文字(即OCR):
而腾讯元宝已经接入了可以识别图像内容的图像理解能力:
不过呢,DeepSeek其实之前一直在做VLM,目前也已经开源了DeepSeek-VL2,虽然模型不大,但是同参数量还有很大性能优势,我想今年DeepSeek应该会在这方面继续发力。
我个人认为,其实语言模型是最重要的,这个才是智能的核心,图像能力其实只是感知或者理解,语言模型做好是一切的基础。所以,虽然现在DeepSeek看起来功能不全,但是在核心能力方面是最强的。 |
|