Mistral 宣布最新开放大模型 Mixtral 8x22B

法国 AI 创业公司 Mistral 宣布了其最新的开放大模型 Mixtral 8x22B,公布的测试显示它是目前最先进的开放模型。Mistral 称 8x22B 是真正开放的模型,使用 Apache 2.0 许可证,允许任何人不受限制的使用。它是一种稀疏 Mixture-of-Experts (SMoE)模型,有 1410 亿参数,但活跃参数仅为 390 亿,在其规模下提供了无与伦比的成本效率。Mixtral 8x22B 的优点包括:精通英语、法语、意大利语、德语和西班牙语,具有强大的数学和编码能力,原生能函数调用,64K 令牌上下文窗口。

© 2024, 免責聲明:* 文章不代表本網立場,如有侵權,請盡快聯繫我們 info@uscommercenews.com * 讀者評論僅代表其個人意見,不代表本網立場。評論不可涉及非法、粗俗、猥褻、歧視,或令人反感的內容,本網有權刪除相關內容。.