
技術立国を目指していたはずの日本だが、今や人工知能をはじめとする世界の革新的開発に遅れをとることが目立ってきた。
とりわけ生成AIの分野では、日本は世界で3位のOpenAIのサイトのアクセス数を誇りながら、その開発という点では他国に後塵を拝している。
一体なぜこんな状況になってしまったのか?
人工知能にくわしい人材の不足やAIの学習を行うハードウェアの不足も考えられるが、もう1つ、日本の言語や文化の独自性もあるかもしれない。
外国語で訓練されたAIシステムは日本語と文化の複雑さを理解できないと感じている研究者も多く、日本独自のChatGPTを開発する動きが高まっている。
生成AIの開発で遅れをとる日本 生成AI開発の鍵は、ChatGPTやバイドゥのERNIE Botのような、膨大なデータセットを処理して、テキストなどを生成できる「大規模言語モデル(LLM)」だ。
CNBCによると、米国では、OpenAI、マイクロソフト、google、METAといったテック大手が開発を行なっている。
中国では、アリババやテンセントといったハイテク企業が、過去3年間に少なくとも79の大規模言語モデルを立ち上げたという。
一方、日本はこうした規模言語モデル開発において、規模とスピードどちらにおいても遅れているという。
超高齢社会を迎え、若い働き手が減少している日本では、生産性を維持するためにAIやロボット技術を発展させる強い動機があるはずだ。
だが現状を見る限り、少なくとも生成AIの分野ではそうなっていない。一体なぜなのか?
[画像を見る]
photo by Unsplash
人材不足とハードウェア問題 日本のLLM新興企業コトバテクノロジーズの小島熙之氏は、CNBCの取材に対して、人材不足の影響を指摘している。
大規模言語モデルの開発には、インフラやアプリケーションを開発するための「強力なソフトウェアエンジニアのコミュニティが必要」と小島氏は説明する。
だがCNBCによると、日本は2030年までに78万9000人のソフトウェア・エンジニア不足に直面すると予測され、IMDの世界デジタル競争力ランキングでも63カ国中29位と低迷している。
またハードウェアの問題もある。
だが、それに匹敵するような「世界トップクラスのマシン」を所有する民間企業が日本にはないと、CNBCは指摘する。
そのため理化学研究所が管理する「富岳」のようなスパコンが、和製大規模言語モデル開発の鍵を握っていると、小島氏は説明する。
[画像を見る]
photo by iStock
英語ベースの生成AIでは日本語や日本の文化をうまく扱えない 日本にはAIを開発する強い動機があることは述べたが、それは労働人口が減少する中で生産性を上げる必要があることだけではない。
もう1つの理由は、今ある主要な大規模言語モデルが英語をベースにしており、日本語や日本文化の複雑さをうまく扱えていない懸念があることだ。
「GPTのような一般的な大規模言語モデルは、英語では優れていますが、日本語では文字の違いやデータの少なさといった要因のために、しばしば機能が劣ります」と、東北大学の坂口慶祐准教授はNatureに語っている。
たとえば英語のアルファベットは26文字だが、日本語は46文字のひらがな(カタカナを入れれば倍だ)と、2136種の常用漢字がある。
しかも、ほとんどの漢字には2つ以上の読み方があり、それ以外のあまり使われない漢字が5万ほどもある。
このような複雑な日本語が紡ぎ出す文化的な機微を、主に英語で訓練されたChatGPTが適切に扱うのはかなり難しいことだろう。だからこそ、日本版のChatGPTが必要とされるのだ。
[画像を見る]
photo by iStock
日本独自の生成AIが開発されようとしている そんな中、日本でも遅れを取り戻そうと、反撃の狼煙が上がろうとしている。
たとえば6月には、経済産業省が北海道に建設予定のスパコンに68億円(総開発費の半分に当たる)の資金援助をすると報じられた。
このスパコンはさくらインターネットが手がけるもので、和製生成AIの開発をうながすため、大規模言語モデルのトレーニングに特化しているという。
さらに経済産業省は7月にも、ソフトバンクが取り組む生成AI開発向けスーパーコンピュータに53億円の補助を決定している。
同様に、NTTやサイバーエージェントといったほかの企業からも、大規模言語モデルを利用したサービスへの参入が発表されている。
スタートは遅かったかもしれない。だが日本勢は今、民間企業の取り組みによって生成AI開発の一歩を踏み出そうとしている。
いったん「強固なインフラ」さえ確立されてしまえば、あとはオープンソースのソフトウェアや蓄積されたデータを利用することで、それ以外の技術的課題は大幅にクリアしやすくなるだろうと、小島氏は語っている。
References:Why Japan is lagging behind in generative AI and creation of LLMs / Here's why Japan is gearing up to build its own ChatGPT / written by hiroching / edited by / parumo
『画像・動画、SNSが見れない場合はオリジナルサイト(カラパイア)をご覧ください。』
とりわけ生成AIの分野では、日本は世界で3位のOpenAIのサイトのアクセス数を誇りながら、その開発という点では他国に後塵を拝している。
一体なぜこんな状況になってしまったのか?
人工知能にくわしい人材の不足やAIの学習を行うハードウェアの不足も考えられるが、もう1つ、日本の言語や文化の独自性もあるかもしれない。
外国語で訓練されたAIシステムは日本語と文化の複雑さを理解できないと感じている研究者も多く、日本独自のChatGPTを開発する動きが高まっている。
生成AIの開発で遅れをとる日本 生成AI開発の鍵は、ChatGPTやバイドゥのERNIE Botのような、膨大なデータセットを処理して、テキストなどを生成できる「大規模言語モデル(LLM)」だ。
CNBCによると、米国では、OpenAI、マイクロソフト、google、METAといったテック大手が開発を行なっている。
中国では、アリババやテンセントといったハイテク企業が、過去3年間に少なくとも79の大規模言語モデルを立ち上げたという。
一方、日本はこうした規模言語モデル開発において、規模とスピードどちらにおいても遅れているという。
超高齢社会を迎え、若い働き手が減少している日本では、生産性を維持するためにAIやロボット技術を発展させる強い動機があるはずだ。
だが現状を見る限り、少なくとも生成AIの分野ではそうなっていない。一体なぜなのか?
[画像を見る]
photo by Unsplash
人材不足とハードウェア問題 日本のLLM新興企業コトバテクノロジーズの小島熙之氏は、CNBCの取材に対して、人材不足の影響を指摘している。
大規模言語モデルの開発には、インフラやアプリケーションを開発するための「強力なソフトウェアエンジニアのコミュニティが必要」と小島氏は説明する。
だがCNBCによると、日本は2030年までに78万9000人のソフトウェア・エンジニア不足に直面すると予測され、IMDの世界デジタル競争力ランキングでも63カ国中29位と低迷している。
またハードウェアの問題もある。
大規模言語モデルを訓練するには、IBMのVelaやマイクロソフトのAzureのようなスーパーコンピュータが必要になる。
だが、それに匹敵するような「世界トップクラスのマシン」を所有する民間企業が日本にはないと、CNBCは指摘する。
そのため理化学研究所が管理する「富岳」のようなスパコンが、和製大規模言語モデル開発の鍵を握っていると、小島氏は説明する。
[画像を見る]
photo by iStock
英語ベースの生成AIでは日本語や日本の文化をうまく扱えない 日本にはAIを開発する強い動機があることは述べたが、それは労働人口が減少する中で生産性を上げる必要があることだけではない。
もう1つの理由は、今ある主要な大規模言語モデルが英語をベースにしており、日本語や日本文化の複雑さをうまく扱えていない懸念があることだ。
「GPTのような一般的な大規模言語モデルは、英語では優れていますが、日本語では文字の違いやデータの少なさといった要因のために、しばしば機能が劣ります」と、東北大学の坂口慶祐准教授はNatureに語っている。
たとえば英語のアルファベットは26文字だが、日本語は46文字のひらがな(カタカナを入れれば倍だ)と、2136種の常用漢字がある。
しかも、ほとんどの漢字には2つ以上の読み方があり、それ以外のあまり使われない漢字が5万ほどもある。
このような複雑な日本語が紡ぎ出す文化的な機微を、主に英語で訓練されたChatGPTが適切に扱うのはかなり難しいことだろう。だからこそ、日本版のChatGPTが必要とされるのだ。
[画像を見る]
photo by iStock
日本独自の生成AIが開発されようとしている そんな中、日本でも遅れを取り戻そうと、反撃の狼煙が上がろうとしている。
たとえば6月には、経済産業省が北海道に建設予定のスパコンに68億円(総開発費の半分に当たる)の資金援助をすると報じられた。
このスパコンはさくらインターネットが手がけるもので、和製生成AIの開発をうながすため、大規模言語モデルのトレーニングに特化しているという。
さらに経済産業省は7月にも、ソフトバンクが取り組む生成AI開発向けスーパーコンピュータに53億円の補助を決定している。
同様に、NTTやサイバーエージェントといったほかの企業からも、大規模言語モデルを利用したサービスへの参入が発表されている。
スタートは遅かったかもしれない。だが日本勢は今、民間企業の取り組みによって生成AI開発の一歩を踏み出そうとしている。
いったん「強固なインフラ」さえ確立されてしまえば、あとはオープンソースのソフトウェアや蓄積されたデータを利用することで、それ以外の技術的課題は大幅にクリアしやすくなるだろうと、小島氏は語っている。
References:Why Japan is lagging behind in generative AI and creation of LLMs / Here's why Japan is gearing up to build its own ChatGPT / written by hiroching / edited by / parumo
『画像・動画、SNSが見れない場合はオリジナルサイト(カラパイア)をご覧ください。』
編集部おすすめ