返回    放大 +    縮小 -
阿里發布Qwen2.5-Turbo 支持100萬Tokens上下文
推薦
28
利好
46
利淡
12
AASTOCKS新聞
為滿足用戶和開發者的需求,阿里-W(09988.HK)(BABA.US)在Qwen2.5-Turbo 版本,將上下文從之前的128K擴展至100萬tokens,相當於約100萬個英文單詞或150萬個漢字,足以涵蓋10部長篇小說、150小時的演講稿或三萬行代碼,使得模型的整體理解及生成能力獲得大幅度提升。

以理解長篇小說為例,Qwen2.5-Turbo能夠處理包含690k tokens的三部《三體》系列小說,並提供英文的劇情摘要,展示其在深度理解長文本和跨語言摘要方面的強大能力。

相關內容《大行》中金:阿里(09988.HK)次財季收入及EBITA低於預期
在擴展上下文長度的同時,Qwen2.5-Turbo幾乎不影響短文本任務的能力。在短文本基準測試中,在大多數任務上顯著超越之前上下文長度為1M tokens的開源模型,並且與GPT-4o-mini和Qwen2.5-14B-Instruct模型相比,在短文本任務性能接近的同時,支持八倍長度的上下文。(ta/da)
AASTOCKS新聞