NVIDIAのCEO、黄仁勳は昨日のGTC 2026の基調講演の最後に突然、特別ゲストを紹介しました。NVIDIAとディズニー、Google DeepMindが共同開発したロボット「オラフ(Olaf)」が初めて驚きの登場を果たしました。この先進的な人工知能と物理シミュレーションを融合したロボットは、柔軟な動きと踊るような動作を披露しました。ディズニーは最近、オラフが3月末からパリと香港のディズニーリゾートに登場することを予告しています。
NVIDIAはGoogle DeepMindと協力してNewtonを開発し、オラフに歩行を学習させる
ロボットのオラフが歩くことを可能にした技術は、ハードウェアの計算能力とソフトウェアのシミュレーションを融合させたもので、ディズニーリサーチ、NVIDIA、Google DeepMindが共同開発したNewton Physics Engine(ニュートン物理エンジン)を採用しています。この物理エンジンは、高性能なロボットがGPU環境下で高速にシミュレーションを行うことを可能にします。NVIDIAのGPUドライバーとシミュレーションプログラムを通じて、ロボットは現実の環境で安定して動作を維持できます。アニメーションの映像的な質感を再現するために、オラフの体には雪の光沢を模擬する閃光繊維が織り込まれ、磁石式の設計により、棒状の腕やニンジンの鼻、毛髪を取り外して再組み立てできるようになっています。これにより、映画の中の象徴的な動きや表情の変化を再現しています。
動作設計においては、ウォルト・ディズニー・スタジオのアニメーターが大量のAI訓練データを提供し、ロボットが仮想環境で歩行を学習できるよう支援しました。開発チームは単に移動能力を求めるだけでなく、オラフの独特な「ふらつき歩き」を正確に再現することに重点を置きました。この技術は、従来のロボットの動きが硬直していたりキャラクター性に欠けていた制約を克服し、オラフがテーマパーク内をより原作に近い姿で自由に歩き回れるようにしています。インタラクションデモでは、オラフの動きは良好で、口と目の連動がキャラクターのリアルな交流感を大きく高めています。
オペレーターによるオラフの音声補助
CNETの編集者がロサンゼルスのディズニー・ファンタジーエンジニアリング本部で行ったメディアプレビューによると、現時点ではオラフの会話には人工的な補助が必要で、現場のオペレーターが状況に応じて音声で応答を選択できる仕組みになっています。現段階では台詞に制限はありますが、あらかじめ設定されたシナリオに沿って演技を行うことが可能です。ディズニー・ファンタジーエンジニアのジョシュ・ゴリン(Josh Gorin)は、長年にわたり仮想キャラクターの実体化に取り組んできたチームが、現在のAIとハードウェア技術によってこの目標を達成できると述べています。このロボットは、将来的にゲストと身体的なハグを行う準備はまだできていませんが、今後もインタラクション機能を拡張し、ゲストとの没入型体験を最適化していく予定です。
昨日登場したオラフは、すぐに世界巡回の計画を開始します。最初の公演は、3月29日にパリのディズニーランドの「アナと雪の女王」テーマエリアの開幕式で正式に披露され、その後は香港ディズニーランドにも登場します。AI駆動のオラフは園内でゲストと交流し、今後はディズニーのIPがロボットを通じて人間と交流することも増えていく見込みで、ディズニーファンにとって大きな喜びとなるでしょう。
この文章は、「NVIDIAとディズニー、Google DeepMindが共同開発したロボットオラフがテーマパークに登場予定」と最初に掲載されたものです。