top of page
日本語VLM(大規模視覚言語モデル)
「NABLA-VL」
画像と動画の多様な情報を、1つのAIで理解・分析。
NABLA-VLは、画像・動画などの視覚情報をもとに、分類・検出・説明文生成といった複数のタスクを1つのAIで処理できる、大規模視覚言語モデル(VLM)です。日本語や動画を含む複雑な情報の理解に優れており、正解ラベルのないデータや少量データにも対応。業界・業務を問わず、視覚データの活用を効率化し、現場の意思決定や作業支援に貢献します。
※本モデルは、経済産業省「GENIAC」プロジェクトに採択され、NABLASが自社開発したものです。
Use Cases
このような活用ができます

外観検査による製品品質の安定化
検査効率の向上
画像や動画から微細な傷・異常を自動で検出し、検査作業を効率化

医療画像解析による診断支援
CTやX線、顕微鏡画像などから異常部位や特徴を抽出し、医療判断や研究をサポート

衛星画像解析による広域情報の把握と分析
地表の変化や災害被害、農地の状況などを画像から読み取り、把握や判断をサポート
Solution Features
このような活用ができます

*高精度 × 少量データ対応
実用性の高い国産VLM
日本語・動画対応で*高精度。ラベルなしや少量データでも安定して使える国産VLM

自社開発による技術力と
カスタマイズ可能な柔軟性
社内で自社開発されたモデルのため、開発ノウハウも豊富で業界・業務ニーズに合わせたカスタマイズが可能

マルチモーダル
画像×動画の解析に対応
画像に加えて動画も入力でき、分類・検出・説明など複数の視覚タスクを横断的に処理
*国内トップクラスの精度を実証
マルチモーダルAIのベンチマーク「JMMMU」において0.4515のスコアを達成。
日本国内モデルとしてはトップクラスの性能を達成しています。
Pickup!
食品領域での活用例
NABLA-VLを活用した「NABLA-VL.food」では、
画像・動画から食品のトレンドを可視化するデモを開発中です。
紹介動画はこちら
この技術に興味がある方、デモをご希望の方はこちらからご相談ください。