コードを書いてLLMを鍛える──Tinkerが下げる参入障壁
AI活用が企業の競争力を左右する時代になったが、自社専用のAIモデルを構築するには、多額の資金と専門家チームが必要だ。フルスクラッチでAIモデルを訓練するには数億円規模の投資が必要になることも珍しくない。多くのスタートアップや中小企業は、この高額な参入障壁を前に、汎用的な市販のAIサービスに頼らざるを得ない状況が続いている。Thinking Machinesが発表したTinkerは、こうしたハードルを大幅に下げるツールだ。同社は、ChatGPT開発企業であるOpenAIの元最高技術責任者(以下、CTO)だったミラ・ムラティ氏が立ち上げたAIスタートアップであり、動向が注視されている注目株の1つ。
Tinkerはドラッグ&ドロップで操作できる簡易ツールではなく、Python言語を使って損失関数や学習ループを細かく設計できる開発者向けのAPI。研究者や開発者が「どのように」AIを訓練するかをコントロールする仕組みを提供する。
具体的には、forward_backwardやsampleといった基本的な命令を組み合わせることで、さまざまな学習方法を自由に設計できる仕組みだ。対応するAIモデルの幅も広く、小規模なものから、複数の専門知識を持つAIを組み合わせたQwen-235B-A22Bのような大規模モデルまで扱える。モデルの切り替えも簡単で、Pythonコード内でたった1カ所の文字列を変更するだけで完了する。
さらに、LoRAという効率的な技術を採用している点も重要だ。これは、AIモデル全体を学習し直すのではなく、必要な部分だけを調整する手法で、計算負荷を大幅に軽減できる。複数の学習作業で同じ計算資源を共有できるため、コスト削減にもつながる仕組みとなっている。
学習処理そのものはThinking Machinesが管理するクラウドインフラ上で実行される。
Hugging FaceのTrainer APIやOpenAIの微調整エンドポイント、MosaicMLのComposerといった、既存ソリューションと比較した際のTinkerの特異点は、低レベルの基本コマンドを公開している点である。これにより、既存の手法に縛られることなく、新しい学習手法を自由に試すことが可能だ。さらに、同社はオープンソースのライブラリ「Tinker Cookbook」も公開し、一般的な学習手法の実装例を提供。これにより、ゼロから実装する必要がなく、既存の手法を土台に独自の改良を加えていくことが可能となる。
大学研究が証明──15%から50%へ精度3倍の衝撃
Tinkerの本格稼働前から、複数の研究機関がこのAPIを使った実験を進めてきた。その成果は、理論だけでなく実用面でも注目に値する。プリンストン大学のチームは、数学の定理を自動的に証明するAIモデルの訓練にTinkerを活用した。通常、AIモデルの精度を高めるには大量のデータが必要とされるが、同チームはTinkerとLoRAという効率的な学習手法を組み合わせることで、全データのわずか20%を使うだけで、従来の全パラメータ学習と同等の性能を達成。MiniF2Fと呼ばれる数学ベンチマークでは88.1%の正答率を記録し、自己修正機能を加えた場合は90.4%まで向上した。この数値は、より大規模なクローズドモデルを上回る結果だという。
化学分野でも劇的な成果が報告されている。
一方、バークレー大学のSkyRLグループは、複数のAIが協調しながら学習する複雑な実験を行った。AIが複数回のやり取りを重ねながらツールを使いこなす訓練プロセスを構築したが、これもTinkerの柔軟性があってこそ実現できたという。
また、Redwood Researchは、Qwen3-32BモデルをAI制御という特定の課題に特化させる訓練を実施。同組織の研究者エリック・ガン氏は、複数のコンピュータにまたがる大規模な学習環境の構築が常に大きな壁だったと指摘したうえで、「Tinkerがなければこのプロジェクト自体に取り組むことはなかっただろう」と述べている。
数学的推論から化学反応の予測、複雑な制御タスクまで、多様な分野で成果を上げている事実は、汎用性の高さを物語る。特に注目すべきは、データ量を大幅に削減しながら高い精度を維持できる点で、これは資金やデータに限りがある企業・組織にとって大きな利点となる。
元OpenAI CTOが仕掛ける逆襲──クローズドへのアンチテーゼ
Thinking Machinesは、OpenAI 元CTOのムラティ氏が2024年9月に同社を離れた後、2025年2月に設立したスタートアップだ。2025年7月、製品もなく売上もない創業直後の企業としては異例の規模となる20億ドル(約3,000億円)の資金調達を発表、評価額は120億ドル(約1兆8,000億円)に達した。この調達ラウンドはベンチャーキャピタルのAndreessen Horowitzが主導し、半導体大手のNVIDIAをはじめ、Accel、ServiceNow、AMDなど名だたる企業が参加した。
シリコンバレー史上最大級のシード資金調達が実現した背景には、AI業界における人材争奪戦の激化がある。
Thinking Machinesが掲げる企業理念は3本の柱から成る。第一に「ユーザー固有のニーズに合わせたAIシステムの構築支援」、第二に「信頼性の高い安全なAI基盤の確立」、そして第三に「モデル、コード、研究のオープンリリースによるオープンサイエンスの推進」だ。
特に最後の点は、大規模AI企業がクローズドな開発を進める中で際立つ姿勢といえる。ムラティ氏自身も、資金調達発表時に「数カ月以内に最初の製品を発表する。それには重要なオープンソース要素が含まれ、カスタムモデルを開発する研究者やスタートアップにとって有用なものになる」と明言。また同社設立時には「インフラの信頼性、効率性、使いやすさが研究生産性を大きく左右する」とし、長期的視点での開発インフラ構築を重視する姿勢を示していた。
中小企業でも手が届く──3つの壁を崩すTinkerの実力
Tinkerのような開発基盤が登場したことで、日本の中小企業にも自社専用AIを構築するチャンスが広がりつつある。これまで多くの企業が直面してきた壁は主に3つ。第一は初期コストの高さ。GPU調達やクラウド設定、セキュリティ対策まで含めると最初の一歩はかなり重労働となる。
Tinkerが変えるのは、この構図そのものだ。分散実行やGPU調達、障害復旧やログ管理といった煩雑な作業はクラウド側が引き受けるため、利用者は「何を、どう学ばせるか」というアルゴリズムの設計とデータの選定だけに集中できる。結果として、概念実証(以下、PoC)から検証、本番展開までのサイクルが小さく速く回るようになる。
具体的な応用例を見てみよう。カスタマーサポート部門では、自社の過去の問い合わせ履歴や回答ナレッジを学習させたメール・チャット対応AIを構築できるはずだ。見積もり業務では、過去案件の受注確度データを使った確度予測モデルで、営業リソースの最適配分が可能になる。製造業なら、設備の稼働ログと故障記録から予知保全モデルを訓練し、突発的なダウンタイムを削減することも不可能ではない。人事部門では、採用データからマッチング精度を高めるモデルを作り、早期離職リスクの低減につなげることもできるだろう。
実装までの道筋も明確だ。
従量課金とLoRAによるコスト管理も可能で、日本の中小企業にとって現実的な選択肢となりつつある。元OpenAI CTOが仕掛けるAI民主化の波は、どこまで広がるだろうか。
文:細谷 元(Livit)

![[のどぬ~るぬれマスク] 【Amazon.co.jp限定】 【まとめ買い】 昼夜兼用立体 ハーブ&ユーカリの香り 3セット×4個(おまけ付き)](https://m.media-amazon.com/images/I/51Q-T7qhTGL._SL500_.jpg)
![[のどぬ~るぬれマスク] 【Amazon.co.jp限定】 【まとめ買い】 就寝立体タイプ 無香料 3セット×4個(おまけ付き)](https://m.media-amazon.com/images/I/51pV-1+GeGL._SL500_.jpg)







![NHKラジオ ラジオビジネス英語 2024年 9月号 [雑誌] (NHKテキスト)](https://m.media-amazon.com/images/I/51Ku32P5LhL._SL500_.jpg)
