大模型之家讯 11月6日,元象 XVERSE 宣布开源 650 亿参数高性能通用大模型 XVERSE-65B,无条件免费商用。
XVERSE-65B 是由深圳元象科技开发的一种支持多语言的大型语言模型。它采用了 Transformer 网络结构,参数规模达到了 650 亿。该模型具有 16K 的上下文长度,适用于多轮对话、知识问答和摘要等任务。模型已在多个标准数据集上进行了测试,并取得了良好的性能。
大模型之家讯 11月6日,元象 XVERSE 宣布开源 650 亿参数高性能通用大模型 XVERSE-65B,无条件免费商用。
XVERSE-65B 是由深圳元象科技开发的一种支持多语言的大型语言模型。它采用了 Transformer 网络结构,参数规模达到了 650 亿。该模型具有 16K 的上下文长度,适用于多轮对话、知识问答和摘要等任务。模型已在多个标准数据集上进行了测试,并取得了良好的性能。