Newsmeldung von slashCAM:
Nach Bild- und Text-generierenden KIs gibt es noch weiteres Feld, in welchem gerade per künstlicher Intelligenz enorme Fortschritte gemacht werden und zwar bei der Synthese von menschlichen Stimmen per DeepLearning. Die Qualität von per KI generierten Stimmen wird immer besser - sie sind kaum mehr zu unterscheiden von echten Stimmen. Sogar existierende Stimmen können anhand von nur wenig Trainingsmaterial inzwischen nahezu realistisch nachgeahmt werden.
Hier geht es zum slashCAM Artikel:
Essays: Text-zu-Sprache per KI: Ersetzen synthetische Stimmen bald professionelle Sprecher?
Antwort von Frank Glencairn:
Leider sind die deutschen STS Stimmen bisher katastrophal schlecht - kein Vergleich zu den englischen.
Auch beim Cloning - was ja eigentlich viel interessanter ist - auf Deutsch leider nix.
Antwort von tom:
"Frank Glencairn" hat geschrieben:
Leider sind die deutschen STS Stimmen bisher katastrophal schlecht - kein Vergleich zu den englischen.
Auch beim Cloning - was ja eigentlich viel interessanter ist - auf Deutsch leider nix.
Welche Dienste hast Du ausprobiert?
Antwort von Jalue:
"Ersetzen synthetische Stimmen bald professionelle Sprecher?"
Ich denke, davon ist auszugehen, zumindest in der Online-Massenproduktion von News und (billigen) Corporate Videos. Eingesetzt werden die Tools ja schon jetzt, z.b. um erste Schnittfassungen für die Abnahme quick and dirty zu vertonen.
Im nächsten Schritt wird es, auch da bin ich mir ziemlich sicher, automatisierten Schnitt auf Basis von Text- oder Spracheingaben geben. So folgen z.B. kurze Newsbeiträge Schema F und das dürfte relativ leicht in Codezeilen zu gießen sein.
Ist das "traurig"? Wenn wir ehrlich sind, reden wir hier ein stückweit auch von Bullshit-Jobs und Betroffene haben noch (!) genug Zeit, sich umzuorientieren. Dorthin, wo individuelle Gestaltung und Qualität gefragt sind.
Antwort von Frank Glencairn:
tom hat geschrieben:
"Frank Glencairn" hat geschrieben:
Leider sind die deutschen STS Stimmen bisher katastrophal schlecht - kein Vergleich zu den englischen.
Auch beim Cloning - was ja eigentlich viel interessanter ist - auf Deutsch leider nix.
Welche Dienste hast Du ausprobiert?
play.ht, murph, Speechelo und Google.
Speechelo geht so halbwegs, aber komischerweise nur die weibliche Stimme, Google scheint mir aktuell das beste zu sein, was deutsche TTS betrifft.
Für deutsches Cloning gibt's - soweit ich weiß - aktuell nur open source - selbst bastel Lösungen.
Antwort von r.p.television:
"Frank Glencairn" hat geschrieben:
Leider sind die deutschen STS Stimmen bisher katastrophal schlecht - kein Vergleich zu den englischen.
Auch beim Cloning - was ja eigentlich viel interessanter ist - auf Deutsch leider nix.
Ich finde auch die englischen Stimmen nur bedingt zu gebrauchen. Selbst in der Speechelo-Werbung hört sich das sehr plätschernd und einschläfernd an. Sobald man auch nur ansatzweise Emotionen rüberbringen muss, ist das ganze aktuell eigentlich nicht zu gebrauchen.
Antwort von Brave:
Ich kann die deutschen Stimmen von Amazon Polly (Neuralversionen) und - mit noch größerer Auswahl und deutlich mehr Funktionen - von MS Azure direkt empfehlen. Es ist teilweise erstaunlich, wie gut Texte gesprochen werden. Wir haben es mit medizinischen Texten getestet und auch die Fachbegriffe werden meist gut erkannt.
Bei Azure kann man noch mit einem "Phonembaukasten" einzelne falsche Wörter fixen. Klar reicht die Qualität noch nicht für gescheite Kundenprojekte, aber in Einzelfällen für schnelle Sachen ist das schon ganz gut.
Was noch feht ist, dass die Systeme den Text verstehen und Zusammenhänge zwischen den Sätzen erkennen um die Betonung dementsprechend anzupassen. Das Beispiel aus dem Artikel in dem Video geht schon etwas in die Richtung.