2025.12.08 リコー、中小企業向け日本語LLM Gemma 3 27Bを独自強化しオンプレ最適化

新開発LLMを搭載したサーバー(右)

新開発のLLMを説明する梅津本部長新開発のLLMを説明する梅津本部長

 AI(人工知能)の企業活用が広がる中、リコーは中堅・中小企業でも導入可能なオンプレミス(社内運用)環境向けの日本語LLM(大規模言語モデル)を開発した。米グーグルのオープンモデル「Gemma 3 27B」を基盤に日本語性能を強化。高い初期応答性と執筆能力を兼ね備え、パソコン(PC)サーバーで構築できる点を強みに、企業のAIエージェント活用を支援する。

 8日に開催した記者説明会で、リコーデジタルサービスビジネスユニットAIサービス事業本部の梅津良昭本部長は「小型高性能なGoogle Gemmaをベースにした日本語モデルで、拡大するAIエージェントのさまざまなニーズに応えていく」と、AI戦略を強調した。

 今回のLLMはGemma 3 27Bをベースに独自のモデルマージ技術を適用し、ベースモデルから大幅な性能向上を実現した。独自開発を含む約1万5000件のインストラクションチューニングデータによるInstructモデルから抽出した複数のChat Vectorを統合した。

 同規模パラメーター数のLLMとのベンチマークでは、米オープンAIのオープンウェイトモデル「gpt-oss-20b」など最先端モデルと同等性能を達成したという。非推論モデルの特徴を生かした初期応答性と、ビジネスに対応した執筆能力を兼ね備えている点も強みだ。

 モデル規模は270億パラメーターと比較的コンパクトながら、同社の70Bモデル(700億パラメーター)を上回る高性能を示し、PCサーバーなどで構築できるため低コストでプライベートLLMを導入できる。

 提供形態は、個別提供に加え、リコージャパンが12月下旬から、エフサステクノロジーズのオンプレミス向け対話型生成AI基盤「Private AI Platform on PRIMERGY(Very Smallモデル)」に、量子化モデルと生成AI開発基盤「Dify」をプリインストールした環境を提供する。専門人材が不足している企業に対し、「Dify支援サービス」による伴走支援も用意する。

新開発LLM構成図

 梅津本部長は、企業が持つ暗黙知の活用が十分に進んでいない現状に触れ、「非構造化データは企業データ全体の7~9割を占める。社員の経験・知識などの暗黙知を“秘伝のタレ化”(使用可能な資産へ転換)していく」と述べた。

 今後は、推論性能や業種特化モデルの開発を進めるとともに、マルチモーダル性能を強化し、フィジカルAI分野などLLMラインアップの拡充を図る。