Noch was unklar? Dann in unserem Forum nachfragen
Zum Original-Thread / Zum KI-Forum

Infoseite // VFX leicht gemacht: mit KI Gesichter animieren und Stimmen synthetisieren



Newsmeldung von slashCAM:



Wie einfach und doch wirkungsvoll inzwischen verschiedene KI-Tools im Zusammenspiel eingesetzt werden können, um interessante Effekte in Videos zu realisieren, hatte kürz...



Hier geht es zur Newsmeldung auf den slashCAM Magazin-Seiten:
VFX leicht gemacht: mit KI Gesichter animieren und Stimmen synthetisieren


Space


Antwort von -paleface-:

Ich sag ja...noch 10 Jahre dann läuft alles auf Knopfdruck.

Space


Antwort von patfish:

Da Face replacement ein extrem aufwendiges Verfahren ist, die Bewegung/Animation der Muskel extrem komplex ist und wir Menschen aus täglichen Training jede kleine Unnatürlichkeit sofort bemerkten (uncanny), hat KI hier tatsächlich einen großen Vorteil. Einzig, um wirklich 100 % realistische, hochaufgelöste Modelle (z.B. für Hollywoodfilme) anzutrainieren, braucht es eine riesige und hochqualitative Datenbank an Referenzfototage und enorm viel Rechenkapazität. Dafür spart man sich aber Motion Capture und viele CG Artists.

Bei klassischen VFX Tasks wie Rotoscoping, Keying, Inpainting, Cleanplates usw. sind die aktuellen KI-Tools aber noch nicht ausgereift genug, um hochwertigen VFX-Projekten zu genügen. Speziell die manuelle Kontrolle über den Output muss noch viel zugänglicher werden. Das ist generell, der Punkt an dem noch am meisten geforscht und entwickelt werden muss!

Aja, und Ebsynt ist kein KI Toll! Das setzt auf klassische Optical Flow Algorithmen.

Space


Antwort von medienonkel:

Ich frage mich auch, wie man in stable diffusion konstant passende keyframes erzeugt. Selbst bei neutralem Hintergrund und betonierter Kadrierung, konstantem seed und unangetasteten settings/prompt kommt 100 frames später ganz was anderes raus.

Wie patfish ja schon sagte hat ebsynth nichts mit KI zu tun. Bei relativ statischem Gesichtsausdruck kann die Methode so klappen, sobald aber größere Mimik dazu kommt, geht das Glitchen los.
Da wäre entsprechendes deep faking eher angebracht. Gibt's ja auch schon seit... Jahren.
Und auch schon für full body faking.

Trotzdem hat er sehr kreativ die tools genutzt. Aber auch gleich die aktuellen Einschränkungen gezeigt.

Space


Antwort von roki100:

https://www.youtube.com/watch?v=Jr8yEgu7sHU

Space


Antwort von Darth Schneider:

Viel echter, irgendwie doch, wirklich fast wie der Elvis, zumindest das Bild, nur wenn er singt…;)
Gruss Boris

Space


Noch was unklar? Dann in unserem Forum nachfragen
Zum Original-Thread / Zum KI-Forum

Antworten zu ähnlichen Fragen //


Kostenloses Nvidia KI-Tool: Gesichter einfach per Sprache in Echtzeit animieren
Gesichter einfach per iPhone animieren: MetaHuman Animator für Unreal Engine vorgestellt
Neue LG gram Notebooks: Extrem leicht mit 99% DCI-P3 Displays und Thunderbolt 4
Singen mit berühmten Stimmen - YouTube soll an Voice-Cloning-KI arbeiten
Suche Interview-Licht-Setup "zum Mitnehmen" (leicht transportabel)
Auf der Suche nach dem richtigen beruflichen Weg - wie leicht kommt man in einem Synchronstudio unter?
Fluidhead möglichst klein und leicht
Text-zu-Sprache per KI: Ersetzen synthetische Stimmen bald professionelle Sprecher?
KIs imitieren Stimmen perfekt - Vorsicht vor anrollenden Betrugswellen
Synthetische KI-Stimmen machen professionellen Sprechern Konkurrenz
DVD Player -> TV: Farben stimmen nicht (rotlila etc.)
Mit welcher Software wurde das gemacht?
Wir haben Ferien beim Bergdoktor gemacht
Wie haben die das gemacht?
Er hat es als erster gemacht
Wie wird das gemacht?
Super(c) installiert, audio codec kaputt gemacht...
Super(c) installiert, audio codec kaputt gemacht... Es läuft wieder, jubel!!




slashCAM nutzt Cookies zur Optimierung des Angebots, auch Cookies Dritter. Die Speicherung von Cookies kann in den Browsereinstellungen unterbunden werden. Mehr Informationen erhalten Sie in unserer Datenschutzerklärung. Mehr Infos Verstanden!
RSS Suche YouTube Facebook Twitter slashCAM-Slash