Einfuehrung in das Puppetry (Puppenspiel) in Second Life

Eintrag veröffentlicht von Linden Lab in Tools & Technologie (von mir übersetzt)

Foto von Alex Linden

Wäre es nicht cool, wenn ihr euren Avatar in Echtzeit animieren könntet? Wie wäre es, wenn ihr mit dem Arm winken könntet und euer Avatar eure Bewegungen nachahmen könnte? Oder stellt euch vor, euer Avatar könnte die Hand ausstrecken und etwas in der Welt berühren oder Animationen ausführen? Linden Lab erforscht diese Möglichkeiten mit einer experimentellen Funktion namens "Puppetry".

Wir arbeiten schon seit einiger Zeit an dieser Funktion und sind nun bereit, sie der Second Life-Gemeinschaft zur weiteren Entwicklung zu öffnen und herauszufinden, welche erstaunlichen Dinge unsere Ersteller mit dieser neuen Technologie anstellen werden.

Die Codebasis befindet sich in der Alpha-Phase und enthält einige Ecken und Kanten, die noch verfeinert werden müssen. Das Projekt ist jedoch funktional vollständig und es ist möglich, dass die Skriptautoren und Ersteller von Second Life damit beginnen, es auszuprobieren.

Im Abschnitt "Wie man mitmacht" erfährt ihr, wie ihr Puppetry selbst nutzen könnt.

Schaut euch das an

Wir haben einige grundlegende Dinge mit einer Webcam und Second Life zum Laufen gebracht, aber es gibt noch mehr zu tun, bevor es so animiert ist, wie wir es uns wünschen.


Puppetry-Technologie

Puppetry akzeptiert Zieltransformationen für Avatar-Skelettknochen und verwendet inverse Kinematik (IK), um die verbindenden Knochen so zu platzieren, dass die angegebenen Knochen ihre Ziele erreichen. So kann beispielsweise die Position und Ausrichtung der Hand als "Ziel" angegeben werden, und mithilfe der IK wird berechnet, wie der Unterarm, der Ellbogen, der Oberarm und die Schulter positioniert werden müssen, um dieses Ziel zu erreichen. Die IK-Berechnung kann schwierig sein und ist noch in Arbeit.

Die Zieldaten werden von einem Plug-in geliefert, das als separater Prozess läuft und mit dem Viewer über das LLSD Event API Plug-in (LEAP) System kommuniziert. Hierbei handelt es sich um eine weniger bekannte Funktionalität des Viewers, die zwar schon seit einiger Zeit existiert, aber bisher nur für automatisierte Test- und Aktualisierungszwecke verwendet wurde.

Der Viewer überträgt die Puppetry-Daten an den Regionalserver, der sie an andere Puppetry-fähige Viewer in der Nähe weiterleitet. Die empfangenden Betrachter verwenden die gleichen IK-Berechnungen, um die Avatare in der Ansicht zu animieren.

Weitere Details zur Puppetry-Technologie findet ihr im Knowledge Base-Artikel Puppetry: So funktioniert's

Verwendungszwecke und Möglichkeiten

Wir sind begeistert von dem Potenzial von Puppetry, die Art und Weise zu verändern, wie wir in Second Life interagieren. Wenn ihr beispielsweise eine Webcam verwenden, um euer Gesicht und eure Hände zu verfolgen, könnte euer Avatar eure Gesichtsanimationen und Fingerbewegungen nachahmen, oder eine natürlichere Positionierung der Hände und Füße des Avatars gegenüber Objekten in der Welt wäre ebenfalls möglich. Für die Einspeisung von Informationen in Second Life zur Animation eures Avatars könnte alternative Hardware verwendet werden - ein Game-Controller oder eine Mocap-Ausrüstung. Es gibt viel zu erforschen und auszuprobieren, und wir laden die Second Life-Community ein, sich an der Entwicklung dieser Funktion zu beteiligen.

Wie man mitmacht ?

Das Puppetry-Feature erfordert einen Projekt-Viewer und kann nur in unterstützenden Regionen verwendet werden. Ladet den Projekt Viewer auf der Seite Alternative Viewer herunter. Regionen mit Puppetry-Unterstützung sind auf dem Second Life Preview Grid vorhanden und heißen: Bunraku, Marionette und Castelet.

Wenn ihr den Puppetry-Viewer in einer dieser Regionen verwendet, solltet ihr, wenn jemand dort Puppetry-Daten sendet, dessen Avatar entsprechend animiert sehen. Um euren eigenen Avatar mit Puppetry zu steuern, ist es etwas mehr Arbeit, das System einzurichten. Ihr benötigt: eine funktionierende Python3-Installation, ein Plug-in-Skript, das ausgeführt werden kann, und alle Python-Module, die es benötigt. Wenn ihr interessiert und abenteuerlustig seid: Bitte versucht es. Ausführlichere Anweisungen finden Ihr auf der Seite Puppetry Development.

Was kommt als Nächstes?


Wir freuen uns darauf zu sehen, was unsere Entwickler mit der neuen Puppetry-Technologie anstellen werden. Im Vergleich zu anderen Funktionen, die wir eingeführt haben, ist sie noch recht experimentell und unausgereift, also habt bitte etwas Geduld! Wir werden sie weiter verfeinern, aber bevor wir weitermachen, möchten wir die Meinung unserer Bewohner einholen.

Wir werden am Donnerstag, dem 8. September um 13:00 Uhr SLT in den Regionen Bunraku, Marionette und Castelet auf dem Preview Grid eine offene Diskussion veranstalten. Wir sind auch gerne bereit, bei den nächsten Treffen der Server User Group oder der Content Creators darüber zu sprechen. Kommt vorbei, lasst uns wissen, was ihr denkt, und erfahrt mehr über unsere Zukunftspläne!

Englische Quelle Second Life Community Forum

Kommentare

Beliebte Posts

Simtipp: Dutch estate - Villa Utrecht im Winterambiente (Moderat)

Wusstet ihr das schon: Es gibt da etwas Hilfreiches, gratis Shoe Bases …

Hotspots auf Angel of Pain: Folge 5 - Island of Pain (Tower)

Simtipp: Cherishville - Winter 2024 (Moderat)

Angel of Pain Photo Contest 2024: Einsamkeit (for english version please scroll down)