ELYZA、日本語における論理的思考能力を強化したLLMを開発

ELYZA(東京都文京区、曽根岡 侑也代表取締役)は、日本語における論理的思考能力を強化したLLM(大規模言語モデル)『ELYZA-Thinking-1.0-Qwen-32B』を開発した。

同モデルは、米OpenAIの『o1/o3』シリーズや中国DeepSeekの『DeepSeek-R1』と同様、思考の連鎖(CoT:Chain of Thought)を通して複雑な論理的思考を行う能力を強化した「Reasoning Model」。中国アリババが公開している「非Reasoning Model」である「Qwen2.5-32B-Instruct」に対して、日本語追加事前学習と長い思考過程を伴うデータによるSupervised Fine Tuning (SFT) を実行することで、日本語における論理的思考能力を向上させた。

また、今回の開発過程で得られた「Shortcut Model」である『ELYZA-Shortcut-1.0-Qwen-32B/7B』も合わせて公開した。Shortcut Modelは、Reasoning Modelの学習用に探索された多数の (問題、思考過程、回答) セットから思考過程を取り除いた (問題、解答) ペアを使用して SFT を行うことで開発したもの。Reasoning Modelの思考過程をショートカットして回答を返すように訓練した。

各モデルはApache2.0ライセンスで公開、研究・営利目的での利用が可能。

同社は、今後もAIエージェントなどを含む最先端の研究開発に取り組んでいくとともに、その研究成果を可能な限り公開・提供することを通じて、国内におけるLLMの社会実装の推進、並びに自然言語処理技術の発展を支援する。
 

2025年05月07日 11時00分 公開

2025年05月07日 11時00分 更新

おすすめ記事

その他の新着記事

  • スーパーバナー(コムデザイン)

●コールセンター用語集(マネジメント編)

●コールセンター用語集(ITソリューション編)

 

記事検索 

購読のご案内

月刊コールセンタージャパン

定期購読お申込み バックナンバー購入