Reflection 70B 是世界顶级的开源大型语言模型 (LLM),使用一种称为 Reflection-Tuning 的新技术进行训练。 它可以检测并纠正推理过程中的错误。
通义是一个通情、达义的国产AI模型,可以帮你解答问题、文档阅读、联网搜索并写作总结,最多支持1000万字的文档速读。通义tongyi.ai_你的全能AI助手
Gemma 2 2B这个可以在设备端运行的模型,这个模型在LLM竞技场上的得分也超过了一众比它大很多的LLM。
我们发布了开放权重模型,供每个人在他们想要的地方进行定制和部署。我们的超高效模型 Mistral Nemo 可在 Apache 2.0 下使用,而 Mistral Large 2 可通过免费的非商业许可证和商业许可证获得。
百度推出的知识增强型对话语言模型,千亿级参数量,在知识问答、创意生成等任务上表现出色。
Claude,美国人工智能初创公司Anthropic发布的大型语言模型家族,拥有高级推理、视觉分析、代码生成、多语言处理、多模态等能力,该模型对标ChatGPT、Gemini等产品。
ChatGPT可以通过对用户输入的语句进行分析和理解,生成符合语境和逻辑的自然语言回复。
Grok-1.5 comes with improved reasoning capabilities and a context length of 128,000 tokens. Available on 𝕏 soon.
APACHE MXNET:A FLEXIBLE AND EFFICIENT,LIBRARY FOR DEEP LEARNING
scikit-learn: 针对Python语言的免费机器语言学习库,machine learning in Python — scikit-learn 1.4.1 documentation
Lamini是现有软件团队快速开发和控制自己的LLM的企业LLM平台。Lamini有内置的最佳实践,可以将LLM专门用于数十亿专有文档,以提高性能、减少幻觉、提供引用并确保安全。Lamini可以安全地安装在室内或云端。得益于与AMD的合作,Lamini是唯一一个在AMD GPU上运行LLM并自信地扩展到数千个的平台。Lamini现在被财富500强企业和顶级人工智能初创公司使用。
BLOOM:一个拥有1760亿参数的开放式多语言语言模型
清华开源的生物医药基础模型
MuseV是一个由腾讯音乐娱乐的天琴实验室开源的虚拟人视频生成框架,专注于生成高质量的虚拟人视频和口型同步。它利用先进的算法,能够制作出具有高度一致性和自然表情的长视频内容。MuseV支持自定义动作和风格,视频时长理论上无限,且生成速度快。这一技术在AI创作领域中表现出色,为虚拟人视频制作提供了新的可能性。
M6是中文社区最大的跨模态预训练模型,模型参数达到十万亿以上,具有强大的多模态表征能力。
MOSS,复旦大学开发的对话式大语言模型
谷歌的PaLM 2 AI模型,它也是2023年最好的大型语言模型之一。Google在PaLM 2模型上专注于常识推理、形式逻辑、数学和20多种语言的高级编码。据说,最大的PaLM 2模型已经在5400亿个参数上进行了训练,最大上下文长度为4096个令牌。
Cohere是一家人工智能初创公司,由曾在谷歌大脑团队工作的前谷歌员工创立。它的联合创始人之一Aidan Gomez参与了Transformer架构的“Attention is all you Need”论文的撰写。与其他AI公司不同,Cohere为企业服务,并为企业解决生成式AI用例。Coherence有很多模型,从小到大,从只有6B个参数到训练了52B个参数的大模型。
Gemini 是最新、功能最强大的大型语言模型 (LLM),由 Google 子公司 Google Deepmind 团队开发,Gemini 是一个“原生多模态 AI 模型”,它被从头开始设计为包含文本、图像、音频、视频的多模态模型,和代码,一起训练形成一个强大的人工智能系统。
LLaMA衍生的模型中,Guanaco-65B被证明是最好的开源大模型,Guanaco有四种类型:7B、13B、33B和65B型号。Tim Dettmers和其他研究人员在OASST1数据集上对所有模型进行了微调。
LlaMA是Meta AI开发的一种新的开源大语言模型。它正式发布了各种类型的LLaMA模型,从70亿个参数到650亿个参数。LLaMA 65B模型在大多数用例中都显示出了惊人的能力。它在Open LLM排行榜上名列前十。Meta表示,它没有进行任何专有训练。相反,该公司使用了来自CommonCrawl、C4、GitHub、ArXiv、维基百科、StackExchange等网站的公开数据。
Vicuna是LMSYS开发的另一个强大的开源大模型。它也是从LLaMA衍生而来的。它使用监督指导进行了微调,训练数据是从sharegpt.com网站上收集的。这是一个自回归的大模型,基于330亿个参数进行训练。
MPT-30B是另一个与LLaMA衍生模型竞争的开源大模型。它是由Mosaic ML开发的,并对来自不同来源的大量数据进行了微调。它使用来自ShareGPT Vicuna、Camel AI、GPTeacher、Guanaco、Baize和其他的数据集。这个开源模型最棒的部分是它有8K令牌的上下文长度。
悟道2.0参数达到1.75万亿个,可以同时处理中英文和图片数据。
里达摩院推出的大模型,拥有千亿参数,可用于智能问答、知识检索、文案创作等场景
科大讯飞推出的AI大模型,支持对话、写作、编程等功能,还能提供语音交互方式。
云雀大模型不仅是一个技术平台,更是一个创作平台。基于云雀大模型,字节跳动推出了多款智能创作的产品和服务,为用户提供了更多的可能性和便利。