目前,已知的开源大模型有哪些??

目前,已知的开源大模型有哪些??
收藏者
0
被浏览
639

3 个回答

sdtakklb LV

发表于 2025-4-29 18:27:41

以下是一些比较知名的开源大模型:
1. LLaMA(小羊驼):由Meta 研发 ,它有不同规模版本。这个模型为研究人员提供了一个基础,很多基于它进行优化和改进的模型出现,在自然语言处理任务里能实现文本生成、问答等功能。
2. Alpaca(羊驼):基于 LLaMA 开发的模型 ,通过指令微调让模型能更好地回应各种指令,就像是给LLaMA 做了更细致的训练,能处理多种自然语言相关的任务。
3. ChatGLM:清华大学和智谱华章联合开发的模型 ,有多个版本。它在中文处理上表现不错,能实现对话、文本创作等功能,而且模型支持在本地部署运行。
4. MOSS:上海交通大学开发的开源模型 ,可以处理多种自然语言处理任务,例如日常对话、知识问答等 ,推动了国内开源大模型技术的发展。  

方式 LV

发表于 2025-4-29 17:09:41

以下是一些目前知名的开源大模型:
1. LLaMA(Large Language Meta AI):由Meta推出 ,是一个基础语言模型,可用于多种自然语言处理任务。
2. Alpaca(羊驼):基于LLaMA开发,它是一种指令跟随模型,微调自LLaMA 7B模型,在性能和训练数据方面有一定特点。
3. vicuna(小羊驼):同样基于LLaMA,在开源模型中性能较为突出,在多种基准测试中表现良好。
4. ChatGLM:清华大学和智谱华章联合研发的开源模型,有不同版本,如ChatGLM6B ,在国内有较高关注度,具备较好的性能和中文处理能力。
5. StableDiffusion:这是用于图像生成的开源模型,在图像生成领域应用广泛,用户可以基于它进行多种风格的图像创作。
6. Dolly:基于开源模型构建,在自然语言处理任务中有一定表现,能实现对话等多种功能 。  

我有点懒 LV

发表于 2025-4-29 16:05:41

目前,有许多优秀的开源大模型,以下为你介绍一些较为知名的:

GPT2:由OpenAI开发,虽然OpenAI后续专注于闭源的GPT3等模型,但GPT2仍然有着深远影响。它在自然语言处理任务上表现出色,例如文本生成、语言理解等。GPT2预训练模型公开后,研究人员可以在此基础上进行微调以适应特定任务,推动了自然语言处理领域很多技术的发展和探索。

LLaMA(Large Language Model Meta AI):Meta推出的开源语言模型。它有多种参数规模版本,从70亿到650亿不等。LLaMA旨在为研究人员提供一个基础模型,便于在不同应用场景下进行开发和优化。其开源特性吸引了众多开发者围绕它进行二次开发和研究,社区活跃度较高,基于LLaMA诞生了不少性能不错的应用。

Alpaca:基于LLaMA进行微调的模型。它通过遵循指令数据进行微调,使得模型在遵循用户指令方面表现较好,能够处理多种自然语言处理任务,如文本摘要、问答系统等。由于其基于开源模型微调且性能表现良好,在开源社区中受到广泛关注和应用。

OPT(Open Pretrained Transformer):由Hugging Face团队开发,是一个大规模的预训练语言模型。OPT在架构上采用了Transformer架构,其参数规模较大,通过在大量文本数据上进行无监督学习,学习到丰富的语言知识和语义表示。研究人员可以利用OPT进行各种自然语言处理任务的实验和开发,推动了开源语言模型技术的进步。

Bloom:是由Hugging Face和众多研究机构共同开发的大型语言模型。Bloom在多种语言上进行训练,具备多语言处理能力。它在跨语言自然语言处理任务上有一定优势,例如翻译、跨语言问答等。其开源版本使得全球研究人员可以基于它开展相关研究和应用开发,促进了多语言技术的发展。

CodeGen:专注于代码生成任务的开源模型。它在大量代码数据上进行训练,能够根据自然语言描述生成相应的代码。对于开发人员来说,CodeGen可以辅助代码编写,提高开发效率,在软件开发领域有着重要的应用价值,并且其开源特性也方便开发者根据自身需求进行定制和改进。

您需要登录后才可以回帖 登录 | 立即注册