2024.03.21 楽天、日本語に最適化したLLM開発 対話型など3モデル公開

 楽天グループは21日、高い日本語処理能力を持つ大規模言語モデル(LLM)の基盤モデル「Rakuten AI 7B」や対話型の「Rakuten AI 7B Chat」など3モデルを公開したと発表した。

 AI 7Bは、仏スタートアップ企業のMistral AI社のオープンモデル「Mistral-7B-v0.1」をベースに大規模なデータを学習させて開発した日本語基盤モデル。LLMの性能を示すパラメーター数は70億という。

 基盤モデルの事前学習は、複数のGPU(画像処理装置)サーバーをネットワークで接続して動作させるマルチノードGPUクラスターを楽天が設計。内製で実施し、複雑なデータを使った事前学習プロセスを高速で実現したという。

 AI 7Bを基に、指示形式のデータで基盤モデルをファインチューニングし、利用者が入力した指示に対して返答を生成することができる「Rakuten AI 7B Instruct」を構築した。

 AI 7B Instructを会話形式の文章生成のためのチャットデータを使ってファインチューニングしたのがAI 7B Chatで、対話型で質問に返答できる。いずれも楽天の公式「Hugging Face」リポジトリからダウンロード可能だ。

 楽天のティン・ツァイCDO(最高データ責任者)は「AI 7Bの開発を通じて、楽天が得た知見をオープンソースコミュニティと共有し、日本語LLMのさらなる開発と発展に貢献していきたい」とコメントしている。

(25日付の電波新聞/電波新聞デジタルで詳報します)