動画を元に画像や人物を動かす技術、特に自分の動きに合わせて動画内のキャラクターや人物が反応するようなAIについての質問をよく耳にします。今回は、そのような技術がどのように実現されているか、また、LivePortraitのように表情の動きだけでなく、他の動きにも対応できるツールがあるかについて解説します。
1. 動きに連動するAI技術とは?
AIを使った人物の動き連動技術は、主に「モーションキャプチャー」と呼ばれる手法を用いています。この技術は、実際の人間の動きをデジタルデータとして捉え、その動きに合わせて3Dキャラクターや動画内の人物を動かすことができます。最近では、AIがより自然な動きをリアルタイムで再現できるようになっています。
2. 自分の動きに合わせてキャラクターを動かす方法
現在、個人でも自分の動きに合わせてキャラクターを動かすことができるツールが増えてきました。例えば、リアルタイムで人間の動きを3Dキャラクターに反映する「Live2D」や、「Adobe Character Animator」などがそれにあたります。これらのツールは、カメラで捉えた自分の動きに合わせて、キャラクターが表情だけでなく、全体の動きに反応する機能を備えています。
また、さらに精度を高めるために、VRゴーグルや専用の動きキャプチャ機器を使用することもできます。
3. LivePortraitとその限界
LivePortraitは、顔の表情をリアルタイムで動かす技術を提供するツールですが、確かにその機能は「表情のみ」に限定されています。動きに連動した全身の動きまでは対応していません。しかし、これも技術的には進化しつつあり、今後は表情だけでなく、手足や体全体の動きも連動させることができるツールが登場する可能性があります。
4. その他のツールと未来の可能性
モーションキャプチャ技術を使ったAIツールは、今後さらに進化し、もっと簡単にリアルタイムでキャラクターに動きを与えることができるようになるでしょう。例えば、「DeepMotion」や「NVIDIA Omniverse」などのツールは、AIを活用してユーザーの動きをリアルタイムでキャラクターに反映させることができます。
これらのツールは、VRやARのような未来的な体験を可能にし、キャラクターとのインタラクションをより現実的なものにします。
まとめ
現在、LivePortraitのように表情のみを動かすツールや、AIを活用してキャラクターの全身動作を再現するツールが増えてきています。今後は、個人でも手軽にリアルタイムで自分の動きに合わせてキャラクターを動かすことができるツールがさらに普及していくと予想されます。まずは、モーションキャプチャー技術を使ったツールを試し、自分の動きとキャラクターをどのように連動させるかを体験してみましょう。


コメント