VIDEO - MEETMIKE: EIN SEHR REALER VR-AVATAR
Vom 30. Juli bis 3 August, wurde in Los Angeles die Siggraph 2017
http://s2017.siggraph.org/ durchgeführt. Das ist die weltgrößte
Konferenz für Computergrafik und interaktive Technologien. Unter
anderem hat dort eine Gruppe verschiedener Entwickler und Forscher
einen Avatar vorgestellt, der so realistisch aussieht, dass es schon
schwer wird, ihn als Avatar zu identifizieren.
Allerdings wird dieser Avatar über Scanner, Tracker und Kameras in Echtzeit von seinem RL-Pendant gesteuert. Das ist Mike Seymour, ein Reporter für Visual Effects Themen und Mitgründer der Plattform fxguide.com. Die genannten Hilfsmittel übertragen die Gesichtsmimik von RL-Mike an den Avatar, was ein Großteil des Realismus ausmacht.
Ansehen konnten sich das die Besucher der Siggraph in einem virtuellen Studio mittels VR-Brille. Als Umgebung diente die Unreal Engine 4. Als Hardware hat ein PC mit 32 GB RAM und einer GTX 1080 TI Grafikkarte ausgereicht.
Bei diesem Avatar hat man es fast geschafft, den Uncanny Valley Effekt zu umgehen. Also das unbehagliche Gefühl bei der Betrachtung eines hyperrealistischen Avatars, wenn man dann trotzdem an unscheinbaren Kleinigkeiten erkennt, dass es eben doch kein echter Mensch ist. Bei diesem Mike sind es die Zähne, die für immer noch nicht ganz menschlich wirken.
Noch ein paar Daten zum virtuellen Mike:
440.000 Poligone, von denen 75% allein für die Haare verwendet wurden.
Der Kopf enthält 80 Gelenkpunkte, auch hier wieder die meisten zum Bewegen der Haare. Das eigentlich Gesicht hat nur 10 Gelenkpunkte.
Etwa 750 Blendshapes erzeugen beim Bewegen der Knochen die gesamte Gesichtsmimik.
Neben der klassischen Rendersoftware, werden für das Avatar-System auch drei AI Engines eingesetzt.
Allerdings wird dieser Avatar über Scanner, Tracker und Kameras in Echtzeit von seinem RL-Pendant gesteuert. Das ist Mike Seymour, ein Reporter für Visual Effects Themen und Mitgründer der Plattform fxguide.com. Die genannten Hilfsmittel übertragen die Gesichtsmimik von RL-Mike an den Avatar, was ein Großteil des Realismus ausmacht.
Ansehen konnten sich das die Besucher der Siggraph in einem virtuellen Studio mittels VR-Brille. Als Umgebung diente die Unreal Engine 4. Als Hardware hat ein PC mit 32 GB RAM und einer GTX 1080 TI Grafikkarte ausgereicht.
Bei diesem Avatar hat man es fast geschafft, den Uncanny Valley Effekt zu umgehen. Also das unbehagliche Gefühl bei der Betrachtung eines hyperrealistischen Avatars, wenn man dann trotzdem an unscheinbaren Kleinigkeiten erkennt, dass es eben doch kein echter Mensch ist. Bei diesem Mike sind es die Zähne, die für immer noch nicht ganz menschlich wirken.
Noch ein paar Daten zum virtuellen Mike:
440.000 Poligone, von denen 75% allein für die Haare verwendet wurden.
Der Kopf enthält 80 Gelenkpunkte, auch hier wieder die meisten zum Bewegen der Haare. Das eigentlich Gesicht hat nur 10 Gelenkpunkte.
Etwa 750 Blendshapes erzeugen beim Bewegen der Knochen die gesamte Gesichtsmimik.
Neben der klassischen Rendersoftware, werden für das Avatar-System auch drei AI Engines eingesetzt.
Mehr Informationen zum MeetMike Projekt gibt es in diesem
PDF-Dokument
von Mike Seymour und Epic Games (Unreal Engine).
Englische Quelle
Englische Quelle
Kommentare
Kommentar veröffentlichen