一个完全开源、允许商用的百亿参数中英文基座模型。它采用Transformer自回归架构(auto-regressive),在超万亿(trillion)高质量语料上进行预训练,拥有强大的基础能力。开发者...
中文领域效果最好的开源底座模型之一,针对中文问答和对话进行了优化。经过约 1T 标识符的中英双语训练,辅以监督微调、反馈自助、人类反馈强化学习等技术的加持
TigerBot是一个多语言多任务的大规模语言模型(LLM)。TigerBot致力于开源,目前已经开源的成果包括模型(TigerBot-7B,TigerBot-7B-base,TigerBot-180B)、基本训练和推理代码、数据、API、领域数据等。另外TigerBot还致力于不同类型的插件研发,目前已经推出的代表性的插件有“TigetBot Search”。随着不断的研发,TigerBot还会为人们带来更多的便利与科技体验。
书生·浦语是一款由多家知名机构联合发布的千亿级参数AI大语言模型。在知识掌握、阅读理解、数学推理和多语翻译等多个任务上表现卓越,是AI语言处理领域的新里程碑。
开源了基于BLOOMZ和LLaMA优化后的一系列模型,同时包括训练数据、相关模型、训练代码、应用场景等,也会持续评估不同训练数据、训练算法等对模型表现的影响。
阿里云研发的通义千问大模型系列的70亿参数规模的模型,使用了超过2.2万亿token的自建大规模预训练数据集进行语言模型的预训练。数据集包括文本和代码等多种数据类型,覆盖通用领域和专业领域,能支持8K的上下文长度,针对插件调用相关的对齐数据做了特定优化,当前模型能有效调用插件以及升级为Agent。
多语种大模型