
NTTは10月20日、大規模言語モデル(LLM)「tsuzumi 2」を発表した。同社が独自開発した「tsuzumi」の後継モデルで、日本語性能が向上し、専門知識分野での活用効率を高めたという。発表会で島田明社長は「国産AI開発競争に負けられない」と強い意気込みを示した。
tsuzumi 2は2023年11月発表のtsuzumiをベースに、NTTが一から開発。パラメータ数は300億と前モデルの70億から大幅に増強した一方、米NVIDIAのGPU「A100 40GB」1基で動作し、低コスト運用が可能としている。
日本語性能では長文読解や指示実行能力を強化。同サイズ帯の米Google「Gemma-3 27B」や中国Alibaba「Qwen-2.5 32B」と比較し「世界トップクラスの日本語性能」とアピールする。出力安全性のベンチマークでも、これらを上回るスコアを獲得した。
金融や医療、公共分野の専門知識も強化。生成AIと外部データ検索を組み合わせる「RAG」や、追加学習による「ファインチューニング」を活用し、業務最適化の開発効率を高めたという。
tsuzumi 2には事前にタスクを精査して回答する「リーズニング機能」を搭載し、ハルシネーション低減を実現。20日よりNTTのAI導入支援事業で提供開始。NTTドコモビジネスと富士フイルムビジネスイノベーションが連携し、同社のデータ構造化技術と組み合わせたサービス提供を目指す。
No Comments