為滿足用戶和開發者的需求,阿里-W(09988.HK) 0.000 (0.000%) 沽空 $7.69億; 比率 19.949% (BABA.US) 在Qwen2.5-Turbo 版本,將上下文從之前的128K擴展至100萬tokens,相當於約100萬個英文單詞或150萬個漢字,足以涵蓋10部長篇小說、150小時的演講稿或三萬行代碼,使得模型的整體理解及生成能力獲得大幅度提升。
以理解長篇小說為例,Qwen2.5-Turbo能夠處理包含690k tokens的三部《三體》系列小說,並提供英文的劇情摘要,展示其在深度理解長文本和跨語言摘要方面的強大能力。
在擴展上下文長度的同時,Qwen2.5-Turbo幾乎不影響短文本任務的能力。在短文本基準測試中,在大多數任務上顯著超越之前上下文長度為1M tokens的開源模型,並且與GPT-4o-mini和Qwen2.5-14B-Instruct模型相比,在短文本任務性能接近的同時,支持八倍長度的上下文。(ta/da)(港股報價延遲最少十五分鐘。沽空資料截至 2024-11-21 16:25。) (美股為即時串流報價; OTC市場股票除外,資料延遲最少15分鐘。)
AASTOCKS新聞