INFOS VOM CONTENT ERSTELLER TREFFEN
Am 31. August gab es, nach drei Wochen Pause wegen Urlaub von Vir
Linden, wieder ein Content Ersteller Treffen in Second Life. Das
Content Ersteller Treffen wurde wieder von Medhue Simoni
aufgezeichnet. Die besprochenen Themen sind weitgehend in der
Reihenfolge gelistet, in der sie angesprochen wurden. Es ging sowieso
fast beim gesamten Treffen nur um das Thema Animesh.
Projekt "Animesh"
Kurzerklärung: Bei diesem Projekt sollen zukünftig Mesh-Objekte mit
dem Bento Skelett ausgestattet werden. Diese lassen sich dann genauso
animieren, wie ein normaler Second Life-Avatar. Damit ist es möglich,
Tiere, NPCs und andere bewegliche Objekte, mit flüssigen Animationen
auszustatten. Als Animesh kann man jedes Objekt definieren, dass ein
Bento Skelett enthält. Die zugehörigen Animationen und Skripte
liegen im Content-Ordner, der im Baufenster in der Registerkarte ganz
rechts angezeigt wird.
Aussagen vom Treffen:
Vir erklärt gleich zu Beginn, dass für die Animation eines Animesh
die drei LSL-Funktionen LLStartObjectAnimation,
LLGetObjectAnimationNames und
LLStopObjectAnimation verwendet
werden müssen. Diese Funktionen sind aktuell noch nicht im SL-Grid
eingeführt, was man an den roten Hinweisen erkennen kann. Die
bisherigen Seiten in der Wiki werden bis zur Einführung noch
erweitert.
Bei Einführung von Animesh sollen ein paar Demo-Objekte für alle
zur Verfügung gestellt werden. Dazu wollen die Moles für die
Bibliothek im Inventar des Viewers (dort, wo auch die Starter-Avatare
liegen) ein paar Animesh-Objekte zum Ausprobieren hinterlegen.
Es gibt noch keinen definierten Termin für das Erscheinen des ersten
Projekt Viewers. Vir sagt, dass er diesen so früh wie möglich
herausgeben will. Ein Problem ist derzeit noch die relative Position
des Bento Skeletts innerhalb der Animesh-Objekte, wenn das Animesh an
einem Avatar angehängt wird (z.B. ein Hund an einer Leine). Dann
werden die Animesh-Objekte oft nicht richtig animiert und schweben um
den Avatar herum.
Die Limits für Animesh-Anwendungen müssen von Linden Lab noch
festgelegt werden. Das betrifft sowohl die Anzahl von Objekten in
einer Region als auch die Anzahl möglicher Attachments von
Animesh-Objekten am Avatar. Wahrscheinlich legt man diese Limits erst
fest, wenn schon ein öffentlicher Projekt Viewer verfügbar ist.
Denn je mehr Leute Animesh nutzen, umso besser kann man die
Auswirkungen auf Server und Viewer beobachten.
Es wird auch Limits bezüglich der physischen Größe und der Anzahl
der Polygone für ein Animesh geben.
Die neuen LSL-Funktionen werden sich auch in einem HUD anwenden
lassen, so dass man Animesh-Objekte mit einem HUD zum Beispiel
fernsteuern kann.
Alexa Linden hat bereits einen internen Test mit einem
Animesh-Werwolf (ein konvertierter Starter-Avatar) gemacht. Dabei
konnte sie 300 dieser Objekte mit je sechs verschiedenen Animationen
gleichzeitig tanzen lassen. Sie sagt, es hätte dabei keinen
spürbaren Lag gegeben. Allerdings wurden einige Objekte im
Sichtbereich beim Zoomen nicht richtig geladen. Sie vermutet Probleme
mit der Interest List Berechnung. Einen kurzen Videoclip mit zwei
Werwölfen und einem Zombie hat Alexa HIER hochgeladen, ein Foto dazu:
Vir bestätigt auf eine Frage eines Teilnehmers auch noch einmal,
dass Animesh-Objekte von einer zur nächsten Region laufen können.
Also Regionsgrenzen passieren können.
Animesh-Objekte werden die gleichen LOD-Einstellungen verwenden, wie
normale Mesh-Objekte, die an einen Avatar angehängt sind. Dennoch
kann es kleine Abweichungen im Verhalten der LOD-Sprungdistanzen
geben.
Ein Animesh-Objekt wird für sich gesehen physikalisch sein. Dies
wird allerdings durch die Animationen außer Kraft gesetzt, genau wie
beim normalen SL-Avatar. Wenn also ein Werwolf tanzt, kann er genauso
Hindernisse durchdringen, wie der SL-Avatar auch.
Ein Sitzpunkt (definierte Position eines Avatars, wenn er auf einem
Animesh sitzt), wird nicht mit dem Skelett des Animesh mit animiert.
Also wird man wohl Animesh-Pferde nur schwer erstellen können.
Allerdings lassen sich diese ja eh viel besser als Bento-Attachment
direkt am Avatar umsetzen.
Linden Lab wird für Animesh-Objekte keine künstliche Intelligenz
(KI) per API zur Verfügung stellen. Das müsste also so, wie heute
mit geskripteten Prim-Avas umgesetzt werden. Zum Beispiel, indem man
einen Chatbot wie A.L.I.C.E
verwendet.
Animations-Projekt (einstellbare Geschwindigkeit)
Dieses Thema wird jede Woche angesprochen. Es wird mittelfristig ein
Projekt zur Erweiterung von Animationsmöglichkeiten geben wird. Beim
Animations-Projekt soll es generell ermöglicht werden, die
Abspielgeschwindigkeit von Animationen zu ändern. Neue
Standard-Animationen für den SL-Avatar, soll es erst einmal noch
nicht geben. Vir sagt aber, dass dies dennoch denkbar wäre. Solche
neuen Animationen ließen sich dann auch in AOs als zusätzliche
Slots für Avatar-Aktionen nutzen.
Projekt "Mesh Baking"
Kurzinfo: Bei diesem Projekt sollen später einmal alle Texturen auf
einem Mesh Body genauso serverseitig berechnet und zu einer
Gesamttextur vereinigt werden, wie das heute mit den System-Layern
auf einem Standard SL-Avatar gemacht wird. Vorteile sind schnelleres
Laden der Textur und weniger Arbeit für den Viewer.
Aussagen vom Treffen:
Bei diesem Projekt hat sich seit dem letzten Treffen nicht viel
getant. Einmal, weil Vir im Urlaub war. Und zum anderen, weil der
Schwerpunkt der Entwickler eben bei Animesh liegt. Zur Zeit wird
gerade intern eine neue Version des Baking Prozess getestet, der
Texturen mit einer Auflösung von 1024 x 1024 Pixel verwendet. Beim
normalen Avatar beträgt die Auflösung der Texturen nur 512 x 512
Pixel.
Vir erzählt, dass man je nach Umfang der Auswirkungen auf das
Gesamtsystem, verschiedene Maßnahmen in Betracht ziehen muss. Evtl.
müssen sogar neue Server angeschafft werden.
Ebenso muss man die Auswirkungen des Baking Prozess im Viewer genau
analysieren. Zum Beispiel beim Cache und Texturspeicher.
Kommentare
Kommentar veröffentlichen