AI企業Mistral AIが「Mistral Small 3.1」というモデルを発表しました。128Kトークンのコンテキスト長、240億のパラメーターを備えつつ、単一のRTX 4090または32GB RAM搭載のMacで動作する軽量さが特徴とのことです。
Mistral Small 3.1 | Mistral AI
https://mistral.ai/news/mistral-small-3-1
Mistral Small 3.1はテキストと画像の理解能力を備えたマルチモーダルAIモデルで、最大128Kトークンのコンテキスト長、240億のパラメーターを備え、毎秒150トークンの推論速度を実現するほか、さらに英語や日本語など数十の言語をサポートしています。Apache 2.0ライセンスで公開されているため、商用・非商用を問わずある程度自由に利用できます。
ベースとなったモデルは、Mistral AIが2025年1月に公開した「Mistral Small 3」です。Mistral Small 3をさらに軽量化し、低レイテンシでコスト効率に優れた機能を融合することで、Googleの「Gemma 3」やOpenAIの「GPT-4o mini」のような同等のモデルをしのぐ性能が実現されました。
高速推論が可能なレイテンシ重視AIモデル「Mistral Small 3」がリリースされる – GIGAZINE
具体的なユースケースとしては、会話支援や画像理解、関数呼び出しなどが挙げられています。Mistral AIは「Mistral Small 3.1は幅広い生成AIタスクを処理するように設計された汎用(はんよう)性の高いモデルです。単一のRTX 4090または32GB RAM搭載のMacで動作するためオンデバイスのユースケースに最適です。レスポンスの速度が重視されるシーンや、自動化されたワークフローを実行するシーン、法律相談や医療診断など専門性の高いシーンで役立ちます」と述べました。
テキスト指示の応答に対するベンチマークテストでは、数学的問題解決の能力を測るMATHベンチマーク以外、Gemma 3-it (27B)、Cohere Aya-Vision (32B)、GPT-4o mini、Claude-3.5 Haikuとほぼ同等か上回る性能を発揮します。
マルチモーダル処理ではこの通り。
多言語理解においても、他者に引けを取らない性能があります。
長いコンテキストにおいてはこの通り。
事前トレーニング済みモデルの能力比較においては、ほとんどのテストでGemma 3-it (27B)を上回りました。
Mistral Small 3.1は、Hugging Faceのウェブサイトからダウンロードできるほか、Mistral AIの開発者向けプレイグラウンド「La Plateforme」やGoogle Cloud Vertex AIでも利用可能です。
この記事のタイトルとURLをコピーする
ソース元はコチラ
この記事は役に立ちましたか?
もし参考になりましたら、下記のボタンで教えてください。