Comming Soon: Second Life Lips Moving

Bereits im aktuellen Release Candidate über Ctr+Alt+D erreichbar, ist die echt sinnvolle und coole Funktion Lip Syncing. Damit werden wohl auch für Machinima-Produzenten hochpreisige Lösungen wie diese überflüssig.

Kommentare

  1. Phar says:

    Zur Info: Die korrekte Tastenkombi zur Aktivierung des Advanced Menü ist SHIFT-STRG-ALT-D … nicht nur STRG-ALT-D wie es im Artikel und Video heißt.

    Wir haben das Lippensync in SL jetzt mal getestet. Gar nicht so schlecht, auch wenn von Synchronität noch nicht wirklich die Rede sein kein. Vokale werden aber schon recht gut umgesetzt.

  2. Patrick says:

    Das ist interessant. Im Hintergrund muss demnach eine „Echtzeit-Spracherkennung“ laufen, die Vokale erkennt und entsprechende Lippenbewegungen simuliert.

    Zufällig weiss ich, wie anspruchsvoll sprecherunabhängige Spracherkennung ist, da ich 1996 mit einem Kollegen eine Spracherkennungs-Engine für ein Computerspiel selbst entwickelte.

    Wieder einmal einen Schritt, den LL als Vorsprung vorweisen kann, neben dem Engagement ein HTTP für das 3D-Internet zu lancieren.

  3. Michael Wald says:

    @Phar
    THX für die Infos.

    Die Latenz war auch bei den ersten Harddiscrecording Systemen ein großes Problem. Also muss man wohl für Machinimas bei der PostPro die Tonspur nach vorne schieben. Nur blöd wenn die Athmo Synchron ist… hm

    @Andreas
    Habt Ihr das „Damals“ mit Assembler oder C(++) umgesetzt?

  4. Wir hatten das in JavaScript umgestzt! Har Har!

    Nein in C++ mit extremer hardwarenaher Denke. Wir hatten uns einen sprecherunabhängigen Wortschatz für 10 Wörter deinfiert für die Auswahl der Waffen wie „Sonar, Waffensysten, Radar, …“. Dann sollte quasi ein Menuaufgehen und hier hätte man dann mit den Zahlen 0-9 das Untermenu ausgewählt.

    Leider konnten wir damals keine Library lizensieren, da die Libraries für die hohen Echtzeitanforderungen der Computerspiele nicht geeignet waren. Wir implementierten dann alles selbst auf Basis mit Autokorrelationsfunktionen und einem Verfahren, dass noch schneller war als die diskrete Fouriertransformation (DFT). Mit der Gravis Ultrasound haben wir in einem Tonstudio tausende von Sprachaufnahmen gemacht. Aus dem WAV-Dateien haben wir dann eigene n-dimensionale Merkmalsvektoren für die einzelnen Wörter aus dem Wortschatz gebaut. Dazu bauten wir eine eigene Statistik-Software, die mehrere Tage über die tausende Sprachsamples unseres Wortschatzes liefen. Nach einem Jahr mit zwei Mann kam dann eine sprecherunahängige Spracherkennung in Echtzeit heraus für ein Wortschatz über ca. 20 Wörter mit einer Erkennungsrate über 90%.

    Jaja, damals, als wir jung waren und bis in die Nacht in C++ und Assembler hackten … das waren Zeiten …. Die Engine entwickelte ich damals mit dem tcheschischen Gaststudenten Jarmil Slesinger, der heute ein guter Freund ist und Manager bei Acision. Heute beschäftigt sich der ehemalige Spracherkennungsprofi mit globalen SMS-Gateways und seinem Hobby der Fotografie. Es gibt fast nichts, was Jarmils Kamera entgeht :-)

  5. Michael Wald says:

    JavaScript, LOL. Der Witz war gut ;-)

  6. Consiliera says:

    Na endlich (ich muss euer Blog wieder regelmäßiger lesen), das funktioniert wirklich gut, finde ich. Weiß hier jemand, wie der AO heißt, den der Professor da verwendet? Die Gesten gefallen mir besser als manch andere, weil er beide Arme benutzt. Danke schon mal im voraus

  7. AO = Animation Overriding

  8. Michael Wald says:

    Welchen AO (Animation Overriding) er benutz, ka (keine ahnung).

    Frag Ihn doch einfach ;-)
    Professor Merryman

  9. @Gaby: Danke für das Kompliment. Ich habe Dich ja auch schon einmal zu Schreiben eingeladen :-) Das Angebot steht nach wie vor…. Grüße, Andreas

Trackbacks

  1. […] wieder mühsam, sich solche Add-Ons zusammen zu suchen (abgesehen von den Zusatzkosten). Über Avameo bin ich jetzt darauf aufmerksam geworden, dass die Lippensynchronisation bereits im aktuellen […]

Ihre Meinung ist uns wichtig

*