近日,阿里云通義宣布了一項重大開源舉措,推出了支持100萬Tokens上下文的Qwen2.5-1M模型。這一新模型在處理長文本任務中展現出了卓越的性能,穩定超越了GPT-4o-mini。
Qwen2.5-1M模型提供了7B和14B兩種尺寸供用戶選擇,以滿足不同場景下的需求。在處理長文本輸入時,該模型能夠保持穩定的性能,為用戶提供更加準確、可靠的輸出結果。
除了推出新模型外,阿里云通義還同時開源了推理框架。這一框架在處理百萬級別長文本輸入時,可實現近7倍的提速,極大地提升了用戶的處理效率。通過這一框架,用戶可以更加便捷地應用Qwen2.5-1M模型,實現長文本處理的高效化。
阿里云通義此次開源的Qwen2.5-1M模型和推理框架,為人工智能領域帶來了新的突破。這一舉措不僅提升了長文本處理的能力,也為用戶提供了更加便捷、高效的使用體驗。未來,阿里云通義將繼續致力于人工智能技術的研發和創新,為用戶提供更加卓越的產品和服務。
-
人工智能
+關注
關注
1802文章
48310瀏覽量
243857 -
模型
+關注
關注
1文章
3444瀏覽量
49683 -
阿里云
+關注
關注
3文章
997瀏覽量
43637
發布評論請先 登錄
相關推薦
利用英特爾OpenVINO在本地運行Qwen2.5-VL系列模型

評論