KI-Stuntman könnte durch Deep Learning Videospiele realistischer machen
Entwickler von Videospielen setzen für eine geschmeidige Animation oftmals of Motion Capturing (Mocap). Die Methode ist aufgrund der dafür nötigen Technik und den professionellen Schauspielern recht teuer, außerdem gibt es Probleme bei der Übertragung von Bewegungsabläufen auf unterschiedliche, virtuelle Körperformen und verschiedenes Terrain.
Eine neue Deep Learning Engine namens DeepMimic verfolgt einen anderen Ansatz. Sie kann Bewegungsabläufe durch Vorgabe von nahezu beliebigen Animationsquellen über viele Versuche hinweg selbst erlernen. Als Vorgabe können Mocap-Animationen oder sogar handanimierte Keyframes dienen. So wird die KI quasi zum virtuellen Stunt-Schauspieler.
Die KI verspricht dabei realistische Bewegungen mit einer gewissen Flexibilität, sodass auch Terrainänderungen mit einbezogen werden. Dabei soll die KI den Regeln der Physik folgen, sodass sie auch lernt die einstudierten Bewegungen unter erschwerten Bedingungen und Unterbrechungen, wie etwa durch ein Projektil, mit den dementsprechenden Konsequenzen durchzuführen. Dadurch kann die Bewegung an die Umstände angepasst werden, es muss also nicht für jedes Szenario neu gecaptured werden. Auch die Übertragung auf andere virtuelle Körperformen beherrscht die KI.
Das Training folgt dem Prinzip des Belohnungslernens, also der Konditionierung. Je näher der Bewegungsversuch der KI an das Originalmaterial heranreicht, desto positiver wird die Verstärkung. Auch in der Robotik könnte die Methode nützlich sein, um den Maschinen bereits vorab Bewegungsabläufe beizubringen, welche diese dann nur noch an die realen Umstände anpassen müssen.
Quelle(n)
Bild: Jason Peng/Roxanne Makasdjian/Stephen McNally, UC Berkeley