Newsmeldung von slashCAM:Blackmagic Design hat soeben Beta Nr. 3 von DaVinci Resolve zum Download zur Verfügung gestellt. Zu den neuen Funktionen zählen u.a. nochmals verbesserte H.264 Performance von DaVinci Resolve Studio unter Windows, angepasste Gesichts-Selektierung, verbessertes Compare-Tool, die Möglichkeit das Project Manager Fenster zu resizen, Data Burn-In jetzt als Floating Window und auch auf der Edit Seite und viele Bugfixes, darunter bsp. auch das Decoding von Panasonic GH5 8 Bit Files.
Hier geht es zur Newsmeldung auf den slashCAM Magazin-Seiten:
DaVinci Resolve 14 beta 3 erschienen
Antwort von wolfgang:
Und funktionieren auch bereits die 10bit GH5 files?
Antwort von Frank Glencairn:
Soweit ich weiß, nur in der Studio Version.
Antwort von Axel:
wolfgang hat geschrieben:
Und funktionieren auch bereits die 10bit GH5 files?
Bei mir (MacOS) noch immer Media offline. Im Artikel oben stand ja auch "8-bit". Das ging allerdings schon immer. Es ist mir ein Rätsel, warum Studio das (GH5 10-bit) angeblich macht, "lite" aber nicht.
Antwort von wolfgang:
Na wenn es in der Studio Version schon geht ist das ja schon was. Mich hatte eben der Hinweis auf 8bit GH5 Material auch irritiert - das ist ja keine Besonderheit.
Dass die Studio Version noch irgendwo mehr können muss und das dann eher willkürlich geschnitten wird was fdie mehr kann ist auch klar.
Antwort von dienstag_01:
Meines Wissens gab und gibt es eine Beschränkung auf HD in der Liteversion, egal wieviel Bit ;)
Antwort von Axel:
dienstag_01 hat geschrieben:
Meines Wissens gab und gibt es eine Beschränkung auf HD in der Liteversion, egal wieviel Bit ;)
Auf U-HD, genau genommen. Cinema 4k wird nicht mehr unterstützt. Dass die eine Version die GH5-Codec-Implementierung liest und die andere nicht, lässt vermuten, dass es nicht so schwierig sein kann für Premiere, das zu unterstützen. Was ich wiederum so deute, dass das bei Adobe ein schlimmer Schnarchverein sein muss.
Antwort von wolfgang:
Bei Resolve Lite hat man eine Limitierung auf UHD, 4K DCI geht eben nicht. Und 10bit h.264 als 10bit zu dekodieren können ja einige Anwendungen, nur gibts ja außer XAVC I eh bisher nur die GH5 die das Dekodieren der high profiles braucht.
Interessanter ist eher wie das neue Beta im Hinblick auf Bugfreiheit und Performance aussieht.
Antwort von motiongroup:
Jo Frank das funktioniert nun..Daumen
Antwort von Frank Glencairn:
Yeah!
Antwort von Axel:
Habe eben erst eine Vorstellung zu den Neuerungen von 14 gesehen, von Alexis van Hurkman. Ich dachte, na ja, die Gesichtsverfeinerung sehen wir uns aber mal genauer an (im Video unten ab ca. 9'30"). Tafel: "YOU HAVE REACHED A LIMITATION IN DAVINCI RESOLVE - unlock all features in STUDIO". Das Resolve-Logo ist als Wasserzeichen im Bild, farblich ändern kann ich nichts, aber das Gesicht, Punkt, Punkt, Komma, Strich, wird in Echtzeit getrackt. Wow! Bin schwer beeindruckt.
Antwort von mash_gh4:
Axel hat geschrieben:
..., aber das Gesicht, Punkt, Punkt, Komma, Strich, wird in Echtzeit getrackt. Wow! Bin schwer beeindruckt.
naja -- wenn man die werkzeuge kennt, mit denen das in wahrheit bewerkstelligt wird -- im gegenständlichen fall vermutlich das
face landmarking feature in
dlib --, ist es nicht ganz so was aufregend neues. obwohl es natürlich BMD immer wieder wunderbar versteht, sich mit fremden federn zu schmücken und derartige spielereien perfekt zu vermarkten.
ein anders detail der 14er version finde ich allerdings viel spannender:
With Resolve 14, its best you go with a single GPU which is used for both UI and compute. It will give you better performance than a GUI + Compute card generally.
Only exception being if you have multi GPU system (for example 4), it might be better to have a GUI card for display and 4 dedicated cards for compute.
(Rohit Gupta --
https://forum.blackmagicdesign.com/view ... 99#p342673)
offenbar wendet man sich also langsam endlich davon ab, die video-datenströme auf kosten der effektiven performance sinnlos zwischen verschiedensten karten hin und her zu schieben, statt die leistungsfähigkeit heutiger videokarten effektiv auszuschöpfen. das kann ich wirklich nur begrüßen -- auch wenn ich die momentanen betas, genauso wie die bisherigen linux ausgaben, leider gegenwärtig für noch nicht praktisch nutzbar halte!
Antwort von Jost:
mash_gh4 hat geschrieben:
Axel hat geschrieben:
ein anders detail der 14er version finde ich allerdings viel spannender:
With Resolve 14, its best you go with a single GPU which is used for both UI and compute. It will give you better performance than a GUI + Compute card generally.
Only exception being if you have multi GPU system (for example 4), it might be better to have a GUI card for display and 4 dedicated cards for compute.
(Rohit Gupta -- https://forum.blackmagicdesign.com/view ... 99#p342673)
offenbar wendet man sich also langsam endlich davon ab, die video-datenströme auf kosten der effektiven performance sinnlos zwischen verschiedensten karten hin und her zu schieben, statt die leistungsfähigkeit heutiger videokarten effektiv auszuschöpfen. das kann ich wirklich nur begrüßen -- auch wenn ich die momentanen betas, genauso wie die bisherigen linux ausgaben, leider gegenwärtig für noch nicht praktisch nutzbar halte!
Auf die GUI beim Compute verzichten heißt: kein Intel Quicksync nötig.
Ich würde das als gute Nachricht für all diejenigen interpretieren, die CPUs ohne Grafikeinheit haben: Xeon, Intel 2011-3-Sockel, AMD-Ryzan.
Ich warte auch noch auf die 14-Alpha-Version. In meinem Clevo-Notebook ist die Grafikeinheit des 6700k abgeschaltet. Wenn es BM gelingt, mehr Leistung auf die CPU zu legen und die Last auf der dezidierten Grafikkarte zu verringern, damit die nicht ewig ins GPU-Limit läuft, wäre das für mich ein Riesenfortschritt.
Antwort von mash_gh4:
Jost hat geschrieben:
Auf die GUI beim Compute verzichten heißt: kein Intel Quicksync nötig.
Ich würde das als gute Nachricht für all diejenigen interpretieren, die CPUs ohne Grafikeinheit haben: Xeon, Intel 2011-3-Sockel, AMD-Ryzan.
naja -- im prinzip besitzen alle besseren grafikkarten ganz ähnliche video-beschleunigungsfeatures, wie sie auf den iGPUs geboten werden. im prinzip wäre es fein, wenn beides vernünftig unterstützt wird, je nachdem, was halt im betreffenden gerät verfügbar ist. nur ist das halt ein ziemlich hoch gestecktes ziel, das sicher nicht ohne spürbare problem zu erreichen ist. ich bin allerdings auch kein wirklich großer fan von potenteren grafikarten, weil es damit zumindest unter linux einfach deutlich mehr probleme als mit iGPUs gibt, die ja für einfache zwecke mittlerweile auch oft völlig ausreichen.