裸眼3D映像を見るには画面の真正面に近づき、体を動かさずにいなければならない。少し横にずれるだけで二重像が現れ、5分も見るだけで目まいがしてしまう。
2025年末に「ネイチャー」誌に掲載された研究成果が、この現状を変える希望をもたらした。この成果を挙げたのは、上海人工知能実験室と復旦大学が共同で育成した博士課程学生の馬煒傑(マー・ウェイジエ)氏(26)だ。馬氏は2年をかけて次世代裸眼3D表示技術「書生・瞳真EyeReal」を開発し、デスクトップサイズとしては初めて、超広範囲のフルパララックス3D表示を実現した。「どこから見ても酔わない」裸眼3Dが現実のものとなった。
従来の裸眼3D技術は、大画面化、広視野角、視覚の連続性を同時に満たすことが難しく、業界ではこれを「不可能なトライアングル」と呼ばれてきた。馬氏のチームは発想を転換し、「光場(ライトフィールド)生成モデリング+ニューラルネットワークによるデコード」という融合型の技術ルートを採用し、「書生・瞳真EyeReal」を開発。この技術はAIを用いて裸眼3Dに「スマートなブレイン」を与えるようなもので、従来技術の行き詰まりを乗り越えた。
馬氏は、「平たく言えば、画面に搭載された高精度センサーが『トラッカー』のようにユーザーの目をリアルタイムで追跡する。座っていても立っていても、左右に動いても、瞬時に両眼の位置を特定できる。
業界の専門家は、「この若手研究者による成果は、AIが私たちの生活を変える重要な力になることを示している。将来、裸眼3Dによる『立体的なインタラクション』は、現在のスマートフォンのように身近な存在になる可能性がある」との見方を示した。(提供/人民網日本語版・編集/YF)











