欢迎来到球速体育·(中国)官方网站QIUSU SPORTS!

Apache

当前位置: 球速体育·(中国)官方网站 > 服务器教程 > Apache

英伟达Mistral炼出新模型:12B小杯、128k上下文性能超过Llama 3 8B

时间:2024-10-11 02:15:45|栏目:Apache|点击:

  球速体育welcome智东西7月19日消息,昨日晚间,就在OpenAI推出GPT-4o mini模型不久后,也联合发布了名为Mistral NeMo的小杯模型,旨在提供性能优越、部署便捷、安全性高的企业级AI功能。

  Mistral NeMo的参数大小为120亿,具备128k的超大上下文窗口,具备同量级开源模型中最先进的推理、世界知识和代码能力。这一模型对包括中文在内的多种语言进行了优化,为全球企业应用这一模型提供了便利。

  英伟达深度参与了这一模型的开发工作。Mistral NeMo的训练算力由英伟达提供,被纳入了英伟达的推理微服务NIM。因此,Mistral NeMo在部署于英伟达设备上时能获得性能优化,只需1块英伟达RTX 4500 GPU就可全本地运行。NIM也让Mistral NeMo模型具有较高的安全性,这对企业应用来说是不可或缺的。

  此外,这一模型在发布时遵循了Apache 2.0许可证的要求,这是一种开源许可证,允许用户在保留版权声明的前提下自由使用、修改和分发代码,对商业用途十分友好。

  此先,谷歌和Facebook母公司Meta都曾发布过类似的小杯模型,但这些模型的上下文窗口仅有8k,这意味着它们在进行较复杂任务时有一定难度。而Mistral NeMo的上下文窗口大小达到了128k,这与昨天晚间OpenAI发布的GPT-4o mini是一样的。

  根据Mistral提供的测试结果,Mistral NeMo在7个基准测试中都领先于谷歌和Meta的小杯模型。Mistral NeMo在开卷考测试OpenBookQA和常识测试CommonSense这2个基准测试上有较大的优势,这与Mistral NeMo较大的上下文窗口和120亿的参数有直接的关系。

  此外,Mistral NeMo从设计之初就瞄准了全球市场。这一模型在英语、法语、德语、西班牙语、意大利语、葡萄牙语、中文、日语、韩语、阿拉伯语和印地语方面的表现较为突出,共支持100多门语言。

  在处理非英语文本时,Mistral NeMo的效益有显著提升。这一模型使用了一个新的分词器Tekken,经过训练后能处理超过100种语言,相比之前Mistral模型使用的分词器,Tekken在压缩源代码和中文、法语、德语时的效率提高了约30%。在压缩韩语和阿拉伯语时,效率分别提高了2倍和3倍。与Llama 3的分词器相比,Tekken在大约85%的语言中都表现出更高的文本压缩能力。

  Mistral NeMo经历了高级微调和优化,相比Mistral 7B,它在以下4个方面表现更好:指令执行、逻辑推理、连续对话处理及代码生成。

  英伟达深度参与了Mistral NeMo模型的开发。NeMo这一名字其实就来自于英伟达为企业AI平台NVIDIA NeMo,这一模型也是在英伟达的NeMo平台上云训练的。英伟达称Mistral AI在训练数据方面具有很多专业技能,而英伟达在软硬件优化方面经验丰富,二者的结合让这一模型能在各种丰富的应用场景中提供不错的表现。

  Mistral NeMo经过量化意识训练,能在处理低精度(如8位浮点数,FP8)表示的数据时仍然能保持高性能。这种方法确保模型在训练过程中就适应了低精度计算,从而在实际使用时可以直接使用低精度进行推理。

  FP8是英伟达近期主推的一种新技术,对FP8的支持带来了更大的数据吞吐量和更高的计算性能。虽然数据精度有所降低,但是结合其它技术和工程手段,模型仍然可以提供和更高精度数据类型相媲美的结果,而且在性能和能效上有较大的改善。这对有意部署AI模型的中小型企业来说十分友好。

  Mistral NeMo被纳入了英伟达的推理微服务NIM中,能在诸多使用英伟达设备的计算设备上提供性能优化的推理,支持成本极低的本地化部署,只需要1块英伟达Geforce RTX 4090或者英伟达RTX 4500 GPU就可全本地运行。NIM还提供了严格的验证流程与企业级的安全与支持,这也回应了不少企业对安全性的需求。

  具备这些特性的Mistral NeMo可以在云端、数据中心或者本地工作站上运行。不过,根据英伟达应用深度学习研究副总裁布莱恩·卡坦扎罗(Bryan Catanzaro)接受美国媒体VentureBeat采访时的表述,这一模型虽然对计算性能的要求有显著降低,但尚未降低到能在智能手机上运行的程度。英伟达对这一模型的预期用例是笔记本电脑或台式电脑。

  此外,Mistral NeMo经过了专门的函数调用训练,这一特点与128K大型上下文窗口结合后,提升了模型在代码开发上的实用性。而开源发布则对企业商用这一模型提供了很大的便利。

  经历昨晚的两个重大发布后,海外几乎所有AI领域的主要玩家都发布了他们的小杯模型。英伟达和Mistral在训练本次的Mistral NeMo模型时,专门面向企业应用,尤其是中小企业的应用进行了针对性的优化,这也显示出这一市场的巨大潜力。

  英伟达作为当今AI浪潮中最大受益者之一,过去的主要收益来源都仰仗云端业务。本次他们通过推出面向企业的高能效低成本AI解决方案,或许能给企业环境中的AI应用带来新的可能性。让AI更接近最终用户的竞赛,正在不断升温。

上一篇:急性胰腺炎严重程度的评估方法

栏    目:Apache

下一篇:系统解析JDK源码

本文标题:英伟达Mistral炼出新模型:12B小杯、128k上下文性能超过Llama 3 8B

本文地址:http://aihaoedu.com/fuwuqijiaocheng/2667.html

广告投放 | 联系我们 | 版权申明

重要申明:本站所有的文章、图片、评论等,均由网友发表或上传并维护或收集自网络,属个人行为,与本站立场无关。

如果侵犯了您的权利,请与我们联系,我们将在24小时内进行处理、任何非本站因素导致的法律后果,本站均不负任何责任。

联系QQ:88888888 | 邮箱:aihaoedu.com

Copyright © 球速体育·(中国)官方网站 版权所有