ライオンは、同社オリジナルの大規模言語モデル(LLM)「LION LLM」の開発に着手したことを発表した。OSSのLLM「Qwen 2.5-7B」をベースモデルに、機械学習の学習データには研究報告書や製品組成情報、品質評価データなど過去のアセットを用いており、初期段階で専門的な分野における情報網羅性が大きく向上しているという。


AWSジャパン生成AI実用化推進プログラムに4月から参加する同社は、社内にHPC(High Performance Computing)向けクラスタ管理ツールAWS ParallelClusterやNVIDIAの分散トレーニングフレームワーク「Megatron-LM」を組み合わせた分散学習基盤を構築し、ここに「LION LLM」の開発環境を設置している。

熟練技術者の退職など専門分野での技術継承が大きな課題となっていた同社は、2023年に生成AIと検索システムで構築されるRAGによる研究ナレッジの検索で情報検索における所要時間を1/5以下に短縮するなどで成果をあげているが、"専門知識が前提となる高度な質問"や"体系的なナレッジ整理を要する複雑な業務"など自社独自の包括的な暗黙知には回答が困難であったと開発背景を明かしている。

今後は学習データの拡充や整備に加え、経済産業省やNEDOが主導するGENIAC(Generative AI Accelerator Challeng)開発の国産モデルの活用など多角的に精度向上を図ることで、デジタル分野での重点テーマに掲げる"ものづくりDX"を推進し、収益力とクリエイティビティを備える製品やサービスの迅速投入のためのツールとして磨きをかける構えだ。
編集部おすすめ