核心推荐大模型:文本

通义千问

里达摩院推出的大模型,拥有千亿参数,可用于智能问答、知识检索、文案创作等场景

标签:
通义千问
中国

Qwen-7B大型语言模型(LLM),正式开启了我们的开源之旅。今天,我们介绍Qwen开源家族,更全面的展示我们的工作和目标。下面是开源项目和社区的重要链接。

Paper: https://arxiv.org/abs/2309.16609
GitHub: https://github.com/QwenLM
Hugging Face: https://huggingface.co/Qwen
ModelScope: https://modelscope.cn/organization/qwen
Discord: https://discord.gg/z3GAxXZ9C

我们还建立了微信群组供大家交流,您可以通过我们GitHub的 README文件中提供的链接加入群聊。

总览

整体上,Qwen不仅仅是一个语言模型,而是一个致力于实现通用人工智能(AGI)的项目,目前包含了大型语言模型(LLM)和大型多模态模型(LMM)。下图展示了Qwen的主要组成部分:

通义千问

在这里,“Qwen” 指的是基础语言模型,而 “Qwen-Chat” 则指的是通过后训练技术如SFT(有监督微调)和RLHF(强化学习人类反馈)训练的聊天模型。我们还有提供了专门针对特定领域和任务的模型,例如用于编程的 “Code-Qwen” 和用于数学的 “Math-Qwen”。大型语言模型(LLM)可以通过模态对齐扩展到多模态,因此我们有视觉-语言模型 “Qwen-VL” 以及音频-语言模型 “Qwen-Audio” 。值得注意的是,本篇博客仅介绍语言模型,至于多模态模型(LMM),例如Qwen-VL和Qwen-Audio,请参阅其各自的博客。

基础模型:对齐的良好起点

构建助手模型的一般流程包括预训练和后训练,后者主要由SFT(有监督微调)和RLHF(强化学习人类反馈)组成。至于预训练,与之前的大语言模型GPT-3、Llama类似,Qwen是一个基于Transformer的语言模型,通过预测下一个词的任务进行预训练。为了简化和稳定性,我们没有为语言模型引入更多的任务,而是专注于模型规模的扩展和数据的扩展。目前,我们已经开发了5种不同大小的模型,其中4种已开源,包括 1.8B、Qwen-7B、Qwen-14B和Qwen-72B。

通义千问

模型经过2-3T tokens进行了充分的训练。由于预训练数据是多语言的,Qwen本质上是一个多语言模型,而不是单一语言或双语模型。由于我们预训练数据的限制,该模型在英语和中文方面具有很强的能力,同时也能处理其他语言,如西班牙语、法语和日语。为了扩展其多语种能力,我们采用了一种在编码不同语言信息方面具有高效率的分词器。与其他分词器相比,我们的分词器在一系列语言中展示了高压缩率。

通义千问

预训练的另一个重点是扩展上下文长度。我们直接应用了具有更长上下文长度和更大基数值的RoPE(旋转位置编码)的持续预训练。此外,我们发现这种方法在外推方面也是有效的。目前开源的 Qwen 模型大多支持32K词标记的上下文长度,并且通过L-Eval和“大海捞针”进行了评估,验证了其有效性。

通义千问 通义千问

评估基准显示,我们最大的开源模型Qwen-72B以及最大的私有模型在性能上与Llama 2、GPT-3.5和GPT-4具有竞争力。

通义千问

请注意,这是对基础语言模型的评估。这仅表明我们有了一个良好的后续训练起点,为后续SFT(有监督微调)和RLHF(强化学习人类反馈)做好了准备。

对齐

我们将后训练涉及的两种技术(SFT,RLHF)统称为“对齐”。目前的共识是可以通过相对较少量的微调数据获得一个聊天模型。我们专注于提高SFT数据的多样性和复杂性(如instag和tulu 2),并通过人工检查和自动评估严格控制质量。 基于一个良好的SFT模型,我们可以进一步探索RLHF的效果。特别是基于PPO(近端策略优化)的方法,但训练RLHF是困难的。除了PPO训练的不稳定性之外,另一个关键是奖励模型的质量。因此,我们在构建可靠的奖励模型上进行了大量努力,通过在大规模偏好数据上进行奖励模型预训练,以及在精心标记的高质量偏好数据上进行微调。与SFT模型相比,我们发现经过RLHF的模型更具创造性,更好地遵循指令,因此其生成的回复更受人类评注者的青睐。

通义千问

工具使用和 Agent

目前大型语言模型(LLMs)最令人惊叹的能力之一是工具使用和扮演Agent的能力。我们直接标记ReAct格式的数据,赋予模型生成思考和行动的能力,并基于之前的步骤和观察生成回复。此外,模型直接学习到了情境学习的能力,可以通过理解指令和示例来使用未见过的工具。 我们目前支持函数调用、代码解释器和huggingface代理,分别用于工具使用、数据分析以及使用AI模型生成不同的输出,比如图像生成。此外,基于我们的代理框架,我们进一步构建了一个名为AgentFabric的项目,类似GPTs,这允许您仅通过与我们的模型进行聊天式配置,就可以为自己构建一个专门的AI Agent。

总结

我们发布了Qwen系列,在这篇博客中,我们对Qwen语言模型进行了简单的介绍。目前,我们仍在遵循预训练、SFT和RLHF的方法,正在探索扩展模型和数据的新路径。希望我们的开源工作能够对研究和应用社区做出贡献。

数据统计

数据评估

通义千问浏览人数已经达到909,如你需要查询该站的相关权重信息,可以点击"5118数据""爱站数据""Chinaz数据"进入;以目前的网站数据参考,建议大家请以爱站数据为准,更多网站价值评估因素如:通义千问的访问速度、搜索引擎收录以及索引量、用户体验等;当然要评估一个站的价值,最主要还是需要根据您自身的需求以及需要,一些确切的数据则需要找通义千问的站长进行洽谈提供。如该站的IP、PV、跳出率等!

关于通义千问特别声明

本站哆咪虾提供的通义千问都来源于网络,不保证外部链接的准确性和完整性,同时,对于该外部链接的指向,不由哆咪虾实际控制,在2024-04-16 下午3:27收录时,该网页上的内容,都属于合规合法,后期网页的内容如出现违规,可以直接联系网站管理员进行删除,哆咪虾不承担任何责任。

相关导航

暂无评论

您必须登录才能参与评论!
立即登录
暂无评论...