ELYZA(東京都文京区、曽根岡 侑也代表取締役)は、日本語における論理的思考能力を強化したLLM(大規模言語モデル)『ELYZA-Thinking-1.0-Qwen-32B』を開発した。
同モデルは、米OpenAIの『o1/o3』シリーズや中国DeepSeekの『DeepSeek-R1』と同様、思考の連鎖(CoT:Chain of Thought)を通して複雑な論理的思考を行う能力を強化した「Reasoning Model」。中国アリババが公開している「非Reasoning Model」である「Qwen2.5-32B-Instruct」に対して、日本語追加事前学習と長い思考過程を伴うデータによるSupervised Fine Tuning (SFT) を実行することで、日本語における論理的思考能力を向上させた。
また、今回の開発過程で得られた「Shortcut Model」である『ELYZA-Shortcut-1.0-Qwen-32B/7B』も合わせて公開した。Shortcut Modelは、Reasoning Modelの学習用に探索された多数の (問題、思考過程、回答) セットから思考過程を取り除いた (問題、解答) ペアを使用して SFT を行うことで開発したもの。Reasoning Modelの思考過程をショートカットして回答を返すように訓練した。
各モデルはApache2.0ライセンスで公開、研究・営利目的での利用が可能。
同社は、今後もAIエージェントなどを含む最先端の研究開発に取り組んでいくとともに、その研究成果を可能な限り公開・提供することを通じて、国内におけるLLMの社会実装の推進、並びに自然言語処理技術の発展を支援する。
2025年05月07日 11時00分 公開
2025年05月07日 11時00分 更新
コールセンタージャパン 2025年6月号(5月20日発売)
特集人とAIの“バディ”が実現する「ヒアリング」の最適化第2特集事例に…
千客万来 百鬼夜行
2025年6月号 <千客万来 百鬼夜行>
多和田 元
AfterCall~電話の後で
2025年6月号 <AfterCall〜電話の後で>
山田祐嗣
元ファーストクラスCAの接客術“おもてなし力”の磨き方
2025年6月号 <元ファーストクラスCAの接客術 “おもてなし力”の…
江上 いずみ
市界良好
2025年6月号 <市界良好>
秋山紀郎
スキマ時間で声を変える! 毎日できるボイストレーニング
2025年6月号 <スキマ時間で声を変える! 毎日できるボイストレーニ…
秋竹朋子