Frage von SgtPepper:Ich kann die kleinen Tentacles sehr empfehlen,
durfte selbst mit den Prototypen schon zwei mal arbeiten und alles hat reibungslos funktioniert!
Gerade läuft eine Crowdfunding-Kampagne bei Indiegogo (
http://igg.me/at/tentacle), mit der die Kölner Entwickler die Produktion einer ersten Charge finanzieren wollen. Nur wenn die Kampagne erfolgreich ist, können sie das Produkt herstellen lassen.
Die beiden haben nicht nur einen günstigen Timecode-Generator entwickelt, sondern haben vor allem auch eine super Postprolösung um mit einem Klick alle Dateien zu syncen (funktioniert mit DSLRs, Blackmagic, Alexa etc…)
vll. für den einen oder anderen ja interessant
Antwort von WoWu:
Das ist ja eine Goldquelle, wenn man bedenkt, dass man die beiden (dafür erforderlichen) Chips im US Markt für knapp 4 US$ bekommt.
Fehlt nur das Gehäuse und der Batteriehalter.... und natürlich das Klettband
Das zu entwickeln braucht man 90.000 € ?
Antwort von rush:
Mir stellt sich auch ganz banal die Frage nach dem Mehrwert in Zeiten von PluralEyes... Selbst weit entfernte Kameras können notfalls mit dem Hupen einer Tröte "auf Takt gebracht" und so später gesynced werden.
Weiterhin scheint ein MAC Voraussetzung für die entsprechende Software zu sein:
"System Requirements: min. OSX 10.9"
Antwort von WoWu:
Und das bei den schlechten Übersprechwerten der Kamera zwischen den Spuren.
Da muss man schon ganz schön taub sein, sich da so einen 2kHz Sägezahn aufzuspielen.
Ich glaube auch, da sammelt einer viel Kohle für wenig Leistung ein.
Immerhin 90.000 € ... nicht schlecht.
Da druckt jemand Geld.
Antwort von SgtPepper:
Alternative: Ambient tiny Lockit, 5 mal so teuer
@Wowu.. bitte bau so ein Teil für 4$, ich kauf dir dann 10 davon ab
mir ist es egal, wieviel die Teile im Einkauf kosten, Fakt ist, ich als Tonmeister brauche Lockits bei jedem Dreh, und da entscheide ich mich für das günstigste Produkt, was zuverlässig funktioniert
Plural Eyes findet (nach meiner Erfahrung) in professionellen Produktionen für TV/Kino/Werbung keinen Einsatz. zu unsicher, weil es dann doch bei 1 von 10 Clips nicht funktioniert und dann unproportional viel Zeit kostet.
Alle Produzenten für die ich arbeite verlangen TC-Kopplung
Antwort von SgtPepper:
http://www.cinema5d.com/tentacle-sync-t ... indiegogo/
Antwort von WoWu:
Ich hab ja nicht gesagt, dass man es für 4 $ bauen kann aber die Platine da drin ist auch für unter einem € herzustellen (Bestückung und Lödbad vielleicht nochmal 2 € ) und das Layout dafür macht dir jeder Elektrotechnikstudent in einem Tag.
Kommt das Kästchen dazu .. und die Materiehalterung.
Eine Fertigung von
1.000 Stk bekommst Du für rd. 15.000 €.
Da kassiert einer tierisch ab... und sorry, aber der Film sagt über das Produkt so gut wie nichts aus. Was der nun soll, verschliesst sich mir völlig.
Und wenn Du als Tonmeister solche Teile brauchst, dann gibt es diverse Geräte am Markt, für preise zwischen 200 und 400 $, die dann aber auch der gesamten SMPTE Spezifikation entsprechen und nicht nur eine Sägezahnspur raus-tun, sondern Spitzen gefiltert werden, die Dinger Color-Sync machen und man alle möglichen -und nützlichen- Metadaten setzen kann.
Dazu haben sie Videoausgänge, um sie ins Videobild einzusetzen, bzw in Digitalkameras in die entsprechenden Header ... und sie sind Systemclock kompensiert, um sich bei Farmerinnen wie 29,97 korrekt zu verhalten.
Und als Tonmeister weisst Du ja auch, wie sich so ein Sägezahn auf Audiospuren verhält.
Nee SgtPepper, da sahnt einer dicke ab, wenn es ihm gelingt, die 90.000 € den Leuten aus der Tasche zu ziehen.
Und wenn er die 1.000 Stk dann für je 40 € verkauft, dann sind das nochmal 25.000 € als Sahnehäubchen.
Antwort von SgtPepper:
ich will hier überhaupt nicht das Produkt oder die Kampagne verteidigen,
mir kommen die 90000 auch komisch vor.
Ich würde das Signal auch nicht auf eine Tonspur aufnehmen, sondern damit die Kameras via TC-Schnittstelle füttern, damit (bei Akkuwechsel oder Playback) der TC über den Drehtag nicht verloren geht.
warum kostet denn der Ambient tiny lockit soviel?
dann gibt es diverse Geräte am Markt, für preise zwischen 200 und 400 $
kannst du mir Hinweise geben, welche?
Ich habe mal einen Test gelesen, wo die "günstigeren" (vgl. m. Ambient) leider nicht über einen Drehtag so stabil gelaufen sind. (gemessener Drift bis zu 5f pro Tag)
Antwort von WoWu:
Was meinst Du, wie gross der Drift bei diesem Teil sein wird.
Das liegt eben daran, dass sie nicht mit der Clock der Kamera verkoppelt werden können denn dann kann das Teil nur soweit driften, wie die Kamera und in der Summe ist es dann eben Null.
Ausserdem holt sich jeder Slave in regelmässigen Abständen (spätestens bei Start der Kamera) den aktuellen Wert ab und synchronisiert sich bei jedem Take.
Ich bin auch nicht davon überzeugt, dass dies Teil an irgend eine TC Schnittstelle passt. Das wird (vermutlich) nur eine Audiospur raus tun, die dann extern aufgezeichnet werden wird.
Schau mal bei www.bhphotovideo.com
Da wirst Du mit Sicherheit fündig.
Antwort von SgtPepper:
genau bei BH war ich gerade :)
das günstigste, was ich dort sehe ist doppelt so teuer und nicht in D erhätlich.
Bei den Drehs mit den Prototypen (die Kamerafrau hatte die Tentacles dabei... dort bin ich drauf gestoßen) war das Tentacle mit dem BNC-TC-In der C300 verbunden.
Was meinst Du, wie gross der Drift bei diesem Teil sein wird.
ist auf der Seite angegeben mit 1f pro Drehtag
Ich weiß schon, dass Clock der Kamera und TC in einem Zusammenhang steht und das es während eines Takes ohne Clock-Kopplung zu einem Drift kommt.
Aber doch nur bei sehr langen Takes im Frame-Bereich, oder?
Antwort von SgtPepper:
das Problem ist ja, am Bsp. der C300
sobald man die Kamera ausschaltet, oder in den PlayBack Mode wechselt, verliert sie den vorher ge-jam-ten TC
d.h. ich müsste jedes mal wieder mit meinem SoundDevices und TC-Kabel zur Kamera gehen und neu syncen
Antwort von WoWu:
Na ja, die Dinger werden ja im Free Run laufen. Da ist es dann egal, wie lang die Takes sind weil die konstant Counter. Aber 1 Frame erscheint mir ja sehr mutig. Ich konnte leider die Drift aus den Specs eines solchen Chips nicht ersehen aber das erscheint ziemlich ambitioniert.
Leider tun sie ja keine Spezifikationen raus sondern drehen dafür lieber solche unterirdischen Bauernfänger-Filme .
Wenn sie wirklich seriös wären, würden sie zumindest mal die Rahmenden des Gerätes nennen.
Dazu gehört ja nicht viel und damit verraten sie ja auch keine Geheimnisse.
Interessant wäre ja auch, ob sie auch 50 Frames zählen können oder bei 25/30 aufhören.
Also ne, für mich ist das eine ganz klare Abzocke, selbst wenn sie hinterher Geräte liefern, von einer Qualität, die man jetzt noch gar nicht abschätzen kann.
Was die Verkopplung mit der Kamera betrifft, sodürften keine Probleme entstehen, wenn beide auf Free-Run laufen.
Dann hängst Du Dich einmal dran und wenn der Drehtag vielleicht etwas länger ist, noch ein zweites Mal und dann dürfte da nix mehr auseinander laufen.
Sie müssen nur eben beide frei laufen und dieselbe Basis haben.
Antwort von SgtPepper:
Was die Verkopplung mit der Kamera betrifft, sodürften keine Probleme entstehen, wenn beide auf Free-Run laufen.
genau das ist der Fall, Freee Run, Jam once
Dann hängst Du Dich einmal dran und wenn der Drehtag vielleicht etwas länger ist, noch ein zweites Mal und dann dürfte da nix mehr auseinander laufen.
Sie müssen nur eben beide frei laufen und dieselbe Basis haben.
genau, theoretisch sollte das so sein.
habe aber bei C300 und auch Sony F5 bemerkt, dass die Kameras nachdem der Akku gewechselt wurde, oder mal für eine Pause ausgestellt, die Kameras nach dem Anschalten verglichen zum meinem SD-Recorder 4-5 Frames daneben sind.
Antwort von WoWu:
Dann liegt der Fehler aber woanders ... die takten heutzutage so hoch, dass das kaum sein kann.
Bei welcher Farmrate passiert das denn ?
Kann das sein, dass die Kamera 29,97 und der Recorder auf 30 Frames eingestellt ist ?
Dann wäre das klar und würde Sinn ergeben. Aber wenn beide Frameraten identisch sind und die TC-Generatoren im FR laufen, kann das so gut wie nicht sein.
Antwort von SgtPepper:
immer 25 Frames
wie gesagt, immer beim Aus- und Anschalten..
ist nicht nur meine Beobachtung, habe ich schon oft gehört
Antwort von SgtPepper:
ich würde mich ja freuen, wenn es nicht so wäre...
Antwort von WoWu:
Vielleicht ist die Knopfzelle für den Datenerhalt ja leer und der TC Generator wird an der Stelle unterbrochen ... :-(
Denn normal ist das nicht.
Antwort von SgtPepper:
okay,
mit der Batterie ist eher unwahrscheinlich, habe es schon bei vielen Kameras getestet..
ich dachte für genau dieses Problem gibt es das Ambient tiny lockit?
Antwort von WoWu:
Nee, eigentlich gibt es für solche Probleme die Reklamationsabteilung bei den Kamerafirmen und die dazugehörige Reparatur.
Ansonsten erfüllt die Kamera nicht den Zweck, für den sie gebaut und verkauft wurde.
Wenn eine Kamera schon TC anbietet, muss er auch funktionieren.
(Und das ohne kostenpflichtiges Zusatzgerät)
Solche Sachen, wie das Ambient sind für Kameras, die gar keinen TC anbieten.
Antwort von SgtPepper:
sorry, aber das Thema beschäftigt mich
http://jwsoundgroup.net/index.php?/topi ... anon-c300/
The C300 will lose timecode on battery swaps, or shutting down the camera.
Timecode reliability is nil unless you have a sync box mounted full time feeding the camera.
As mentioned above, battery swaps and what seems like just about any other function except pushing 'record' will cause jam to fail.
Antwort von Frank Glencairn:
Ich würde das Signal auch nicht auf eine Tonspur aufnehmen, sondern damit die Kameras via TC-Schnittstelle füttern, damit (bei Akkuwechsel oder Playback) der TC über den Drehtag nicht verloren geht.
Wenn ich eine TC Schnitstelle an der Kamera habe, dann brauch ich das ganze ja nicht. Jam-Sync und gut is. Das Teil oder Lockit sind für Kameras ohne TC Schnittstelle.
Mann kann aber auch einfach einen kostenlosen TC Generator auf einem Tablett laufen lassen und mit Sennheiser Funken an Kamera und Recorder verteilen, da driftet dann auch nix.
Antwort von SgtPepper:
ich glaube, du hast den Thread nicht gelesen ;)
sobald man manche Kameras ausschaltet, geht der TC flöten..
(beobachtet bei der C300 und F5)
Bei EpicM/Dragon/Alexa bleibt es, aber bei anderen nicht.
Mann kann aber auch einfach einen kostenlosen TC Generator auf einem Tablett laufen lassen und mit Sennheiser Funken an Kamera und Recorder verteilen, da driftet dann auch nix.
da finde ich die Tentacle Lösung aber sicherer und deutlich günstiger
Antwort von DV_Chris:
Mann kann aber auch einfach einen kostenlosen TC Generator auf einem Tablett laufen lassen und mit Sennheiser Funken an Kamera und Recorder verteilen, da driftet dann auch nix.
Hallo Frank, kannst Du diese Arbeitsweise bitte ein wenig näher ausführen?
Antwort von Frank Glencairn:
1. TC app auf Tablett/Smartphone laden und laufen lassen.
2. Normalen Funkmikro Sender and der Kopfhörerbuchse anschließen.
3. Empfänger an die Kamera - TC auf einem Knnal aufzheichen - auf dem anderen , wenn du willst zusätzlich noch Kameraton.
4. Zweiten Empfänger an den externen Audiorecorder.
Alternativ kann man das TC Signal auch direkt durch den Recorder schleifen, dann spart man einen Empfänger.
Nachteil: Man verliert immer eine Tonspur an das TC Signal- ist aber bei Tenacle oder Lockit das selbe.
Antwort von domain:
Interessanter Vorschlag, allerdings gibt es meines Wissens keine kleinen und preiswerten Funkempfänger für die Kamera außer den teuren Sennheisergeräten.
Habe mal im Internet gestöbert, die 2,4 oder 5,8 GHz Transmitter sind relativ groß (ca. 8*10 cm) und arbeiten glaube ich mit kleinen Netzgeräten.
Oder gibts da doch was?
Antwort von WoWu:
Wenn es schon so eine "sendelösung" sein soll, würde ich aber ein Frequenz nehmen, worauf man das machen kann.
Wireless Systeme gibt es für unter 50$ (Sender und Empfänger).
http://www.dslrfilmnoob.com/2011/03/20/ ... rks-great/
Antwort von SgtPepper:
gute Idee,
scheint es aber nur für jeweils einen Empfänger zu geben (zumindest mit BT), oder?
Antwort von WoWu:
Da weiss ich nicht. kann auch gut sein, dass sich mehrere Empfänger darauf synchronisieren.
Ist ja kein Hexenwerk ;-)
Antwort von domain:
Normalerweise nicht, aber es gibt z.B. den Kokkia A10m Multistream-Transmitter
http://www.amazon.com/KOKKIA-A10m-MULTI ... B0069G1SIC
Antwort von Abercrombie:
1. TC app auf Tablett/Smartphone laden und laufen lassen.
2. Normalen Funkmikro Sender and der Kopfhörerbuchse anschließen.
3. Empfänger an die Kamera - TC auf einem Knnal aufzheichen - auf dem anderen , wenn du willst zusätzlich noch Kameraton.
4. Zweiten Empfänger an den externen Audiorecorder.
Alternativ kann man das TC Signal auch direkt durch den Recorder schleifen, dann spart man einen Empfänger.
Nachteil: Man verliert immer eine Tonspur an das TC Signal- ist aber bei Tenacle oder Lockit das selbe.
Da gefällt mir aber die Tentacle/Lockit-Lösung deutlich besser. Smartphone mit Kabel an einem Sender, Pairing und Multicast per Funk, diverse Akkus du beobachtet und regelmäßig geladen werden müssen. Und dann hat es neben dem finanziellen keinen weiteren Vorteil.
Da würde ich bei jeder Produktion, die mehr als eine Kamera nutzt entweder was leihen oder bei regelmäßiger Nutzung etwas kaufen. 700 € für vier Geräte erscheint mir persönlich da nicht viel. Ich hoffe ich treffe mal jemanden mit den Tentacles, um sie mir mal persönlich anzuschauen.
Antwort von Abercrombie:
Nee SgtPepper, da sahnt einer dicke ab, wenn es ihm gelingt, die 90.000 € den Leuten aus der Tasche zu ziehen.
Und wenn er die 1.000 Stk dann für je 40 € verkauft, dann sind das nochmal 25.000 € als Sahnehäubchen.
Chrosziel möchte auch für ne Filterbühne 130 € haben. Ist auch nur Alu, ne Feder und ein wenig Stahl. Herstellungskosten liegen bei max. 10 € pro Stück. Wenn die 1.000 Stk verkaufen... ;)
Antwort von carstenkurz:
gute Idee,
scheint es aber nur für jeweils einen Empfänger zu geben (zumindest mit BT), oder?
Mehr als ein Empfänger ist standardmäßig nicht vorgesehen, das ist leider etwas ärgerlich. Allerdings - bei den Preisen für BT-Übertrager ist es auch nicht so arg schlimm, wenn man dann einfach zwei Sender mit Y-Kabel verbindet und zusammentaped.
Freilich - BT impliziert eine relativ deutliche Verzögerung Ein->Aus. Die ist konstant und kann später relativ einfach korrigiert werden. Da es aber dafür keine Automatismen gibt, wird der Vorteil eines schnellen Workflows dadurch wieder aufgehoben. Wenn ALLE beteiligten Empfänger die gleiche Verzögerung bekämen, könnte man es auch ignorieren. Dann dürfte man aber eben keine einzige Direktverbindung vom TCG zu den Empfängern haben und ALLE müssten über baugleiche BT Sender/Empfänger laufen.
Also, so richtig cool ist das nicht.
LTC ist aber ein relativ simples Signal, und muss in dieser Anwendung auch nicht zwangsläufig 100% sicher übertragen werden, gelegentliche Aussetzer sind in der Regel kein Problem, solange die TC Quelle sauber durchläuft. Man kann TC über billigste AM und FM Funkstrecken übertragen, etwa 433 oder 866MHz Fernbedienungsmodule, PMR-Funken, etc. Da geht dann auch ein Sender - mehrere Empfänger. Nur gibts da keine billigen Fertiggeräte für, ist wieder ne Bastellösung, und die erwähnten Funksysteme sind auch nicht für so eine Anwendung zugelassen (Daten, Dauersenden). Allerdings dürfte man bei kurzen on-Set Strecken da niemals Ärger kriegen.
Diesbezüglich ist BT allerdings vollkommen unbedenklich.
- Carsten
Antwort von WoWu:
Nee SgtPepper, da sahnt einer dicke ab, wenn es ihm gelingt, die 90.000 € den Leuten aus der Tasche zu ziehen.
Und wenn er die 1.000 Stk dann für je 40 € verkauft, dann sind das nochmal 25.000 € als Sahnehäubchen.
Chrosziel möchte auch für ne Filterbühne 130 € haben. Ist auch nur Alu, ne Feder und ein wenig Stahl. Herstellungskosten liegen bei max. 10 € pro Stück. Wenn die 1.000 Stk verkaufen... ;)
Klar, Chromziel hat sich aber wenigstens nicht die Firmengründung von andern Leuten vergolden lassen.... und hast Du mal deren mechanische Fertigung gesehen ?
Antwort von Ab-gedreht:
mhh da kommt mir gerade eine Idee.
wie wäre es mit einer app? die macht man auf zwei Telefone. Eins an die Kamera und eins an den Ton. Die könnte man ja über wifi / BT oder ähnliches Syncen. Dann könnte man beliebig viele hinzufügen. Oder das Signal noch an eine Clapper-App auf dem Tablet schicken, der den TC anzeigt.
Antwort von WoWu:
Da wird man sich dann aber mal die Latenz anschauen müssen. Bei BT ist es auch schon grenzwertig aber bei WLAN .... das wird ziemlich eng.
Antwort von Ab-gedreht:
Da wird man sich dann aber mal die Latenz anschauen müssen. Bei BT ist es auch schon grenzwertig aber bei WLAN .... das wird ziemlich eng.
aber die Geräte sollten doch ziemlich genau zählen können. Die müssen sich ja nicht permanent abgleichen. Wenn ich beide gleichzeitig laufen lasse, sollten die doch in der Lange sein eine ganze Weile Parallel zu laufen oder? Die Telefone müssen ja nur das gleiche Audiosignal (audiocode) zur gleichen Zeit ausgeben. Den Audiocode kann ich dann nachträglich in einen TC entschlüsseln? - Fertig
Was mich bei dem hier Vorgestelltem Gerät extrem nervt, ist diese merkwürdige Software. Ich soll dann in dem Ding mein Footage rendern? Was wird mir das Programm erzählen wenn ich mit komprimierten DNG"s ankomme.
Lieber ein open FX Plugin, das ich überall verwenden kann.
oder ein Programm, das mir in meine Files den richtigen TC reinschreibt. Aber bitte nicht meine Bilder anfasst!
Antwort von carstenkurz:
Der Vorteil von 'Audioausgängen' als TC Generatoren - ob jetzt SmartPhone oder MP3-Player, ist jedenfalls schonmal, dass man schöne oberwellenarme Signale erzeugen kann, die man obendrein noch zur weiteren Optimierung des Übersprechverhaltens separat am Sender pegeln kann - viele einfachen Recorder/Kameras haben ja keine kanalunabhängige Aussteuerung. Und da digital, kann man sehr einfach mit sehr niedrigen Pegeln arbeiten, der TC kann später, notfalls nach Normalisierung, immer noch sehr sicher gelesen werden.
Nun ist das alles nicht neu, den Tip, MP3 Player als TC Generatoren zu nutzen, incl. herunterladebarer 2h MP3-LTC Files gibts ja schon seit fast nem Jahrzehnt.
Das entscheidende ist die Verteilung auf die Geräte, also Rekorder UND Kamera(s), und vor allem der Workflow dazu. Und da muss man eben sagen, ist PluralEyes meilenweit vorne, weil es leider kaum verbreitete Tools gibt, die 'einfach so' den LTC einer wählbaren Audiospur in die logische LTC Spur eines Containers kopieren, respektive, nicht alle Container unterstützen sowas, und nicht alle Editing-Tools können mit LTC in Audiospuren vernünftig umgehen. Da sehe ich das größte Problem.
Schöne Idee, LTC in Audio und Multicamera-Files, aber wie dann weiter...tja, eben Plural Eyes.
Nebenbei - Smartphones sind üblicherweise über den Netzprovider oder notfalls sehr genau über GPS unabhängig synchronisiert. Allerdings sollte man tunlichst den Flugmodus aktivieren, wenn man nicht seine Audioaufnahmen ständig durch die allfälligen Basisstation-Connects versaut haben will. Aber das gilt ja grundsätzlich für Smartphones on Set.
Deswegen ist das auch tendenziell heikel mit dem laufenden Sync über BT oder Wifi (für Wifi bräuchte man eh nen Hotspot zusätzlich). Die meisten Smartphones schalten halt ALLE Funkinterfaces ab, wenn das Telefon im Flugmodus ist. Alternative ggfs. - SIM Karte raus...
Allerdings gibts mittlerweile so viele nützliche Apps für die Anwendung am Set, dass die Idee schon auch wieder langsam schwierig wird, soviele Smartphones kann man ja nicht mehr haben wie man bräuchte, um alle Aufgaben zu erfüllen ;-) Und dann kosten die Dinger doch wieder mehr als ein LockIt oder Tentacle, wenn man es extra kaufen müsste. Und kleiner und leichter könnten sie auch sein.
Gegen die Indiegogo Kampagne habe ich nix - wieso sollte man das moralisch verurteilen, das ist einfach ein neues Finanzierungskonzept, keine gemeinnützige Organisation. Zu dem Preis finde ich es allerdings schlicht unattraktiv. Das hängt halt davon ab, für wen das Produkt interessant ist und was er zu zahlen bereit ist. Für den Indy-DSLR etc. Anwender ist das schlicht zu teuer, und der Profi hat auch andere Optionen, da ist Tentacle jetzt ja auch nicht das einzige Produkt, und wenn Profi Material zur Anwendung kommt ist es eh meistens geliehen und der TC-Kram ist auch dabei oder fällt im Budget nicht groß extra auf.
Ich sehe mehr Sinn in einer reinen Softwarelösung.
- Carsten
Antwort von carstenkurz:
Was mich bei dem hier Vorgestelltem Gerät extrem nervt, ist diese merkwürdige Software. Ich soll dann in dem Ding mein Footage rendern? Was wird mir das Programm erzählen wenn ich mit komprimierten DNG"s ankomme.
Lieber ein open FX Plugin, das ich überall verwenden kann.
oder ein Programm, das mir in meine Files den richtigen TC reinschreibt. Aber bitte nicht meine Bilder anfasst!
Ja, aber ich denke, das Transcoding ist nur eine Option, es wird sicher auch möglich sein, den TC nur einzubetten.
Damit wären wir aber schon beim Punkt - eine reine Softwarelösung, integriert in die bisher schon verbreiteten Trancoding/DIT-Assistenztools/Kopier/Duplizierverifizierer würde aus meiner Sicht mehr Sinn machen. Schließt aber die Verwendung von Tentacle als TCGs auch nicht aus.
Das Problem ist halt auch: PluralEyes und die integrierte Syncfunktion von FCP-X haben den Markt für Timecode-Anwendungen und Hardware im Semiprofi Bereich leider ziemlich kaputt gemacht.
- Carsten
Antwort von Abercrombie:
Klar, Chromziel hat sich aber wenigstens nicht die Firmengründung von andern Leuten vergolden lassen.... und hast Du mal deren mechanische Fertigung gesehen ?
Ich verstehe deinen Eifer irgendwie nicht. Da sind Leute, die bieten ein Produkt für 700 € an. Jeder muss sich überlegen, ob es ihm das Wert ist. Der "Shop" ist halt etwas anders aufgebaut, aber mehr doch nicht...
Nein, ich habe Chrosziels mechanische Fertigung nicht gesehen. Selbst wenn sie die beste der ganzen Welt wäre, läge der Material- und Fertigungswert nicht bei 130 €. Aber das ist okay! Sie bieten es an und ich kaufe es. Das ist meine Entscheidung. Andere entscheiden sich dagegen. Marktwirtschaft. So what?
Antwort von carstenkurz:
WoWus Eifer in manchen Dingen kann man nicht verstehen, sondern nur hinnehmen ;-)
- Carsten
Antwort von floit:
Hallo in die Runde!
Ich bin Uli, einer der geldgierigen Tentacle-Typen, die euch mit Timecode und Sägezahn das Geld aus der Tasche ziehen wollen ;-) Habe den Thread erst so spät gesehen, weil ich vor lauter Schampus, Lachs und Kaviar zu gar nichts mehr komme...
Möchte hier ein paar Dinge klarstellen, welche wir in unserer Crowdfunding-Kampagne offensichtlich nicht gut genug beschrieben haben. Zuerst zu uns: Wir sind zwei Kameraleute, die schon etliche Jahre in der Branche arbeiten. An Tentacle Sync arbeiten wir schon seit 2 Jahren, seitdem testen und verbessern wir das Teil kontinuierlich. Ich selbst habe meine Diplomarbeit über Timecode geschrieben, die Materie ist uns also bekannt. Wir wollten einfach nur ein Gerät entwickeln, das wir selbst gerne benutzten würden, da uns weder Plural Eyes noch die teueren LockIt's überzeugen. Übrigens wurde sowohl die komplette Hard- wie Software von mir selbst entwickelt.
Zu den 90.000 Euro: Ehrlich gesagt haben wir am Anfang auch so gedacht wie WuWo. Billige Hardware, dicke Marge :-) Wenn man sich damit dann etwas tiefer beschäftigt, stellt man fest, dass das Ganze doch nicht so einfach ist.
Ich gebe euch hier mal einen kurzen Einblick:
Zuerst bekommt der deutsche Staat schon mal 19%, da es sich natürlich um Bruttopreise handelt, indiegogo bekommt 6%, PayPal 2%. Der Rest ist das absolut nötigste, was wir brauchen um die Teile mit einer Mindestabnahme von 1000 Stück herstellen zu lassen. Doch unser Gerät besteht ja nicht nur aus einer Platine. Für das Kuststoffgehäuse muss eine Gussform von einem Werkzeugmacher angefertigt werden, Handarbeit -> richtig teuer! Dazu kommen noch Kosten für CE Kennzeichnung, Altgeräteentsorgung, Batterieverordnung usw. In Deutschland muss es eine Bedienungsanleitung geben, die muss geschrieben, gelayoutet und gedruckt werden usw.
Ehrlich, hätte ich das alles vorher gewusst, würde es das Teil jetzt nicht geben...
Zu Plural Eyes: Wir kennen natürlich Plural Eyes und haben das auch selbst schon oft benutzt. Das ist wirklich eine gute und kostengünstige Möglichkeit zu syncen. Können aber beide Kameras nicht den gleichen Ton aufzeichnen oder haben einfach schlechten Ton, kann das schon mal in die Hose gehen. Ausserdem braucht Plural Eyes auch selbst bei schnellen Rechner etwas länger, bis alles synchron ist. Timecode ist hier tatsächlich sehr viel genauer und zuverlässiger, da sich Zahlen (Timecode) natürlich sehr viel schneller vergleichen lassen als Tonwellenformen.
Timecode funktioniert super, ist aber leider viel zu teuer und oftmals in der Handhabung viel zu kompliziert. Ich glaube man kann hier im Thread schon erkennen, wie viel gefährliches Halbwissen zu Timecode existiert. Wir wollen das ändern, weil wir denken dass Tentacle die Lücke zwischen Plural Eyes und high End super fancy Timecode-Shit schließt. Timecode für alle sozusagen.
Zur Funktion: Ich habe hier gelesen, dass einige noch nicht den Unterschied zwischen Timecode und Audio-Timecode kennen. Tentacle benutzt LTC Timecode nach SMPTE 12M Standard, ist somit also kompatibel mit allen Kameras und Sound-Recordern welche einen TC-In besitzen. Dazu gehören z.B. Arri Alexa, RED, Canon C300, Sony F5 als auch Soundevices 422T usw.
Darüber hinaus kann Tentacle aber auch mit Kameras arbeiten, welche über keinen Timecode oder TC-In verfügen, wie z.B. alle Blackmagic Kameras (ausser URSA), Canon 5D (Mark III hat Timecode, aber keinen TC In), Sony A7s usw... Hier gibt es einen Trick: Timecode ist im Prinzip nichts anderes als ein hörbares Audiosignal und dieses Signal lässt sich einfach auf einer Audiospur dieser Kameras aufzeichnen. Später kann unsere Software (aber auch z.B. Avid MC, Premiere, FCPX) diesen Audio-Timecode lesen und zum syncen benutzen.
Unsere Software kann neben dem Sycen aber auch das reine einbetten von Audio-Timecode in die Metadaten des Files übernehmen (wie. z.B. das Tool AuxTC)
So das wars erst mal ich bekomm wieder Hunger und möchte den Lobster nicht kalt werden lassen. Wenn ihr fragen habt, immer her damit!
Und falls ihr zufällig in Köln oder Umgebung wohnt, kommt gerne vorbei - wir freuen uns!
www.tentaclesync.com
Antwort von CameraRick:
Später kann unsere Software (aber auch z.B. Avid MC, Premiere, FCPX) diesen Audio-Timecode lesen und zum syncen benutzen.
Ich synche Timecode immer gerne in DaVinci, einfach weil es dort unkompliziert als "Batch" klappt und dann läuft (Premiere ist ja oft Per-Clip-Basis beim Synchen, das ist untragbar find ich). Kann DaVinci den Audiotimecode auch synchen?
Jetzt mal ein absolutes Mini-Setup als Beispiel, damit ichs verstehe:
Micro geht in Mini-Audio Rekorder, zB H4n
Cam ist eine Timecode-generierende Cam ohne Input (BMD, 5D3)
Fall 1: Ich synche die beiden Geräte, nehme auf einem Kanal jeweils Timecode statt Ton auf (verliere also einen Kanal), und synche das in der Post
Fall 2: Ich nutze den Jam-Sync um auf dem Timecode der Cam zu fahren... aber wie läuft das? Wie krieg ich den TC aus der Cam in den Tentacle?
Oder verstehe ich das ganz falsch?
Antwort von floit:
DaVinci kann tatsächlich Audiotimecode lesen, hab das aber selbst nie ausprobiert. Habe aber schon öfters die Rückmeldung bekommen, dass DaVinci da nicht so ganz zuverlässig ist, wenn das Signal nicht Einwandfrei aufgezeichnet worden ist. Prinzipiell sollte es aber gehen.
Bei Deinem Setup würde das so laufen:
1. Beide Tentacles einmal am Anfang des Drehtages miteinander synchronisieren indem man sie kurz über ein Klinkenkabel verbindet. Dauert wenige Sekunden. Jetzt läuft auf beiden Tentacles der exakt gleiche Timecode.
2. Ein Tentacle an den H4N anschliessen, praktischer Weise über die Klinkenbuchse auf der Rückseite. Der H4N muss im 4Kanal Modus laufen, auf der Mic-Spur wird Timcode aufgezeichnet, beide XLR Eingänge können für Mikros genutzt werden. (Geht aber auch umgekehrt)
3. Das andere Tentacle einfach an den Mikrofoneingang der Kamera anschließen. Auch hier wird der Timecode des Tentacles auf der Tonspur der Kamera aufgezeichnet.
Hinterher kann man diese Timcode-Tonspuren entweder mit unserer oder 3dr Party Software auslesen und syncen. In etwa so.
Antwort von CameraRick:
Ergo könnte ich in so einem Setup den Timecode, den die Cam produziert, gar nicht damit "verknüpfen"?
Ich stelle mir das in der Praxis spontan gar nicht so dolle vor, wenn ich "zwei Timecodes" habe, oder ist das ein Trugschluss? DaVinci schaut, soweit ich weiß, nur nach dem embedded-timecode der Datei
Antwort von Frank B.:
Bei Deinem Setup würde das so laufen:
1. Beide Tentacles einmal am Anfang des Drehtages miteinander synchronisieren indem man sie kurz über ein Klinkenkabel verbindet. Dauert wenige Sekunden. Jetzt läuft auf beiden Tentacles der exakt gleiche Timecode.
2. Ein Tentacle an den H4N anschliessen, praktischer Weise über die Klinkenbuchse auf der Rückseite. Der H4N muss im 4Kanal Modus laufen, auf der Mic-Spur wird Timcode aufgezeichnet, beide XLR Eingänge können für Mikros genutzt werden. (Geht aber auch umgekehrt)
3. Das andere Tentacle einfach an den Mikrofoneingang der Kamera anschließen. Auch hier wird der Timecode des Tentacles auf der Tonspur der Kamera aufgezeichnet.
Hinterher kann man diese Timcode-Tonspuren entweder mit unserer oder 3dr Party Software auslesen und syncen. In etwa so.
Das krieg ich aber auch mit nem Smartphone und ner Clapper-App hin.
Smartphone vor die Kamera, TC (der ist an die eingestellte Uhrzeit gebunden) abfilmen und Syncton aufzeichnen, mit dem Smartphone zum Audiorecorder gehen und ebenfalls Syncton aufzeichnen und den entspr. TC an dieser Stelle vom Smartphone aufschreiben (bei meiner App kann man den sogar abspeichern und per Mail versenden). Dann die Differenz zwischen beiden Audio-Syncsignalen anhand des von der Kamera abgefilmten TC und dazugehörigem Audiosyncsignal und dem Audiosyncsignal des Audiorecorders und dazugehörigen aufgeschriebenen TC ausrechnen. Gibt kostenlose TC-Rechner als App oder auch für PC. Auf der Timeline in entsprechendem Abstand Marker setzen und die Audiosyncsignale darauf synchronisieren.
Bei den meisten Anwendungen reicht es auch, wenn man das Mikro des Audiorecorders gleich bei der ersten Klappe mit neben die Kamera hält, so dass der identische Audiosyncimpuls von beiden Geräten aufgezeichnet wird, dann einfach durchlaufen lassen.
Antwort von floit:
Ergo könnte ich in so einem Setup den Timecode, den die Cam produziert, gar nicht damit "verknüpfen"?
Ich stelle mir das in der Praxis spontan gar nicht so dolle vor, wenn ich "zwei Timecodes" habe, oder ist das ein Trugschluss? DaVinci schaut, soweit ich weiß, nur nach dem embedded-timecode der Datei
Tja das geht tatsächlich leider nicht, da die Hersteller einem keine Möglichkeiten geben den internen Timecode dieser Kameras (also 5D oder BM) abzugreifen, bzw. zu setzten.
Faktisch gäbe es dann wirklich 2 Timecodes, einmal embedded und den AudioTC. Wie DaVinci das handhabt weiss ich leider nicht, bei unserer Software kann man vorgeben mit welchem Timecode gearbeitet werden soll.
Antwort von floit:
Das krieg ich aber auch mit nem Smartphone und ner Clapper-App hin.
Smartphone vor die Kamera, TC (der ist an die eingestellte Uhrzeit gebunden) abfilmen und Syncton aufzeichnen, mit dem Smartphone zum Audiorecorder gehen und ebenfalls Syncton aufzeichnen und den entspr. TC an dieser Stelle vom Smartphone aufschreiben (bei meiner App kann man den sogar abspeichern und per Mail versenden). Dann die Differenz zwischen beiden Audio-Syncsignalen anhand des von der Kamera abgefilmten TC und dazugehörigem Audiosyncsignal und dem Audiosyncsignal des Audiorecorders und dazugehörigen aufgeschriebenen TC ausrechnen. Gibt kostenlose TC-Rechner als App oder auch für PC. Auf der Timeline in entsprechendem Abstand Marker setzen und die Audiosyncsignale darauf synchronisieren.
Hmm. Kann man machen, klar. Klingt für mich jedenfalls nicht nach No-Brainer. Und dann verlässt du dich nur auf die interne Uhr der Geräte, welche schon nach einer Stunde erheblich auseinander laufen können. Tentacle hat einen kalibrierten, temperaturkompensierten Quarz, welcher eine Genauigkeit von weniger als 1 Frame in 24 Stunden garantiert.
Und es gibt natürlich immer viele Wege. Wir behaupten ja nicht DIE Synchronisationslösung für alle und alles zu sein. Das kommt natürlich auf das Anwendungsgebiet, Budget und persönliche Vorlieben an.
Antwort von SgtPepper:
welcher eine Genauigkeit von weniger als 1 Frame in 24 Stunden garantiert
gilt das bezogen auf 2 Tentacles oder auch, wenn man SoundDevices (selbstgetaktet) und 1 Tenatcle (auf der Kamera) synct?
Antwort von floit:
gilt das bezogen auf 2 Tentacles oder auch, wenn man SoundDevices (selbstgetaktet) und 1 Tenatcle (auf der Kamera) synct?
Das bezieht sich erst mal auf die Tentacles untereinander. Wir arbeiten aber gerade an einer Funktion, wo mit sich ein Tentacle auf den Takt des eingehen Timecode Signals kalibireren kann. Damit wäre dann auch die Genauigkeit zu einem Sound Devices gewährleistet. Ist im Prinzip so was ähnliches wie das "Tuning" bei Ambient Geräten. Wird es definitiv bei Auslieferung geben, sollten wir es schaffen das Crowdfunding Ziel zu erreichen...
Antwort von SgtPepper:
cool, das klingt doch gut
Antwort von Frank B.:
Das krieg ich aber auch mit nem Smartphone und ner Clapper-App hin.
Smartphone vor die Kamera, TC (der ist an die eingestellte Uhrzeit gebunden) abfilmen und Syncton aufzeichnen, mit dem Smartphone zum Audiorecorder gehen und ebenfalls Syncton aufzeichnen und den entspr. TC an dieser Stelle vom Smartphone aufschreiben (bei meiner App kann man den sogar abspeichern und per Mail versenden). Dann die Differenz zwischen beiden Audio-Syncsignalen anhand des von der Kamera abgefilmten TC und dazugehörigem Audiosyncsignal und dem Audiosyncsignal des Audiorecorders und dazugehörigen aufgeschriebenen TC ausrechnen. Gibt kostenlose TC-Rechner als App oder auch für PC. Auf der Timeline in entsprechendem Abstand Marker setzen und die Audiosyncsignale darauf synchronisieren.
Hmm. Kann man machen, klar. Klingt für mich jedenfalls nicht nach No-Brainer. Und dann verlässt du dich nur auf die interne Uhr der Geräte, welche schon nach einer Stunde erheblich auseinander laufen können. Tentacle hat einen kalibrierten, temperaturkompensierten Quarz, welcher eine Genauigkeit von weniger als 1 Frame in 24 Stunden garantiert.
Naja, ich arbeite halt auf Amateurniveau. Da komm ich damit klar. Profis gehen da natürlich anders ran. Von daher wünsche ich euch viel Erfolg mit eurem Projekt. Und das meine ich auch so. Ist nicht irgendwie sarkastisch gemeint oder so. Jedenfalls gehöre ich offensichtlich nicht zu eurer Zielgruppe.
Antwort von CameraRick:
Tja das geht tatsächlich leider nicht, da die Hersteller einem keine Möglichkeiten geben den internen Timecode dieser Kameras (also 5D oder BM) abzugreifen, bzw. zu setzten.
Faktisch gäbe es dann wirklich 2 Timecodes, einmal embedded und den AudioTC. Wie DaVinci das handhabt weiss ich leider nicht, bei unserer Software kann man vorgeben mit welchem Timecode gearbeitet werden soll.
Geht das nicht via SDI/HDMI, zB?
Eure Software nutzt leider niemandem der in Fenstern sitzt :)
Antwort von Werner Küster:
Ein tolles Projekt, habe zwar nicht alles verstanden ....
Um mehrere Geräte zu synchronisieren besteht vielleicht ja auch die Möglichkeit das DCF77 Telegramm zu benutzen, um für alle Geräte (die ja lt. Aussage bei 24h nur max. 1 frame abweichen) sozusagen den gleichen Startimpuls zu geben. (Ist nur so eine blöde Idee).
Das externe Gerät für die Timecodeerzeugung, bei Einsatz des Telegramms würde sich dann für alle Timecodegeneratoren auf gleiche Startzeit beziehen.
Blöde Idee von mir ....
Wenns Brainstorm-Blödsinn war .......
Gruß Werner
Antwort von Abercrombie:
@floit
Könnte man mit den jetzigen Geräten (in Zukunft) ein Timecode aus dem Sounddevices empfangen und diesen dann als Audio-Timecode auf eine DSLR zu spielen?
I.d.R. reicht mir der Sync zwischen Sounddevices und Kamera per Kabel. Nur selten habe ich den Bedarf, eine Kamera ohne TC-in zu verwenden und würde da dann gerne einen Tentacle dran hängen, der das allgemeine TC-Signal aus meinem normalen Setup übernimmt. Wenn es jetzt noch nicht geht, wann in etwa könnte es gehen?
Beste Grüße,
Cromb
Antwort von floit:
@Abercrombie
Klar geht das. Auch mit den Prototypen schon. Wir haben das Teil entwickelt um mit allen schon vorhanden Geräten nahtlos zusammenzuarbeiten.
Du holst dir mit Tentacle dem Timecode vom Sound Devices (JamSync über LEMO->Klinke Kabel) und kannst es dann an einer DSLR verwenden. Mein Geschäftspartner Max hat damit schon etliche Projekte mit 5D und 744T gedreht.
Antwort von floit:
Ein tolles Projekt, habe zwar nicht alles verstanden ....
Um mehrere Geräte zu synchronisieren besteht vielleicht ja auch die Möglichkeit das DCF77 Telegramm zu benutzen, um für alle Geräte (die ja lt. Aussage bei 24h nur max. 1 frame abweichen) sozusagen den gleichen Startimpuls zu geben. (Ist nur so eine blöde Idee).
Das externe Gerät für die Timecodeerzeugung, bei Einsatz des Telegramms würde sich dann für alle Timecodegeneratoren auf gleiche Startzeit beziehen.
Blöde Idee von mir ....
Wenns Brainstorm-Blödsinn war .......
Gruß Werner
Hallo Werner! Das ist wirklich witzig, ehrlich gesagt war das unsere ursprüngliche Idee... wir dachten: Mensch das ist doch genial, warum hat das noch keiner gemacht, liegt doch total auf der Hand! Und dann haben wir es ausprobiert und haben schnell gemerkt, dass es leider nur in der Theorie gut funktioniert :-)
Das Problem ist der Empfang des DCF77 Signals. Der wird durch so ziemlich alles gestört, was man sich nur denken kann. Wie du vielleicht weisst muss die Antenne idealerweise nach Frankfurt ausgerichtet sein. Das Signal breitet sich über Raum- und Bodenwellen aus, welche sich im ungünstigsten Fall gegenseitig auslöschen können. Der Empfang hängt tatsächlich sehr von Wetter und Tageszeit ab. Machmal gehts perfekt in 1-2 min, machmal dauert es Stunden. Ausserdem gibts DCF77 nur in Europa, andere Länder andere Funkuhren, wir wollten aber etwas für die ganze Welt...
Deshalb: So Blödsinnig ist die Idee nicht, sie lässt sich nur leider praktisch nicht befriedigend umsetzten.
Hab mal n Bild von unserem damaligen DCF-Prototypen drangehängt.
Antwort von floit:
Geht das nicht via SDI/HDMI, zB?
Eure Software nutzt leider niemandem der in Fenstern sitzt :)
SDI/HDMI ginge vielleicht, ist jedoch eine ganze Ecke teuerer und komplizierter ...
Wir betonen immer ganz deutlich, dass keiner unsere Software benutzen muss. Avid Media Composer zum Beispiel besitzt sehr umfangreiche (Audio-)Timecode Synchronisationsmöglichkeiten (auch im Batch mit hunderten Clips).
Und das mit DaVinci werde ich normal in Erfahrung bringen, vielleicht klappt das ja doch.
Wir würden die Software sehr sehr gerne für Windows anbieten, doch leider existiert dort nicht das AVFoundation Framework, welches die wichtigste Komponente von Tentacle Sync unter OSX ist.
Antwort von CameraRick:
Ich finds auch super dass ihr überhaupt eine Software anbietet, nur muss man auch ausloten wo man nachher zusammen kommt (wort wörtlich!)
Für mich privat wirds da schwierig, da ich keinen Avid habe (und Gott behüte auch nicht will) und Premiere nur Clip-by-Clip dabei kommt.
Falls ihr Testclips habt, die ihr auch teilen könntet/dürftet, kann ich das auch gern mal testen.
Antwort von floit:
Falls ihr Testclips habt, die ihr auch teilen könntet/dürftet, kann ich das auch gern mal testen.
Das wäre super! Wir haben zwar Tonnen von Material, da das aber von ganz normalen Drehs kommt, dürfen wir es nicht veröffentlichen (keine Rechte). Ich werde übers Wochenende vielleicht mal ein paar Testclips mit 5D oder BMPCC machen und hochladen. Melde mich dann.
Antwort von carstenkurz:
Ich sehe das größte Problem in der Dokumentation der Workflows und Formate. Ich lese hier im Forum sehr oft die Frage - wir haben doch 'hier' Timecode, aber was mache ich jetzt damit, wie sage ich der Editing-Anwendung, woher sie den Timecode nehmen und wie interpretieren soll.
Im Profibereich ist das alles kein Problem, Profis arbeiten auf der Basis von ausgearbeiteten und getesteten Workflows, und entscheiden sich ggfs. für eine Hard/Softwarekombi bewusst im Hinblick auf Timecode.
Und wir wollen mal nicht vergessen, dass die Klappe heute immer noch u.a. aus Sicherheitsgründen verwendet wird, weil die optische und akustische Koinzidenz eben der letzte Fallback ist, wenn es mit dem TC mal Ärger gegeben hat.
Es gibt soviele Varianten, mit Timecodes oder -stamps zu arbeiten, das Problem ist die Dokumentation funktionierender Workflows, und entsprechende Tools, damit existierende TCs auch wirklich genutzt werden können. Erst dann können sich Leute ransetzen und Erfahrungen damit sammeln. Ein Quicktime File in einen Editor laden und sagen 'hat Timecode, mach mal' reicht da nicht.
Absolut richtig ist: Es werden immer mehr Consumer oder Semiprofi-Geräte in Produktionen verwendet, die von Timecode profitieren können. Diese Geräteklassen, weder Kameras, noch Audiorekorder, werden niemals auch nur ansatzweise in der Masse professionelle TC-Ausstattung erhalten. Von daher sind Audio-LTCs auf Kamera- und Rekorderspuren die einzigen realistischen Möglichkeiten.
floit: Ich habe selbst schon Entwicklung und Kalkulationen von Kleinelektronik incl. aller damit verbundenen Kosten gemacht. Teil einer Vermarktungsstrategie ist es, an den richtigen Stellen Kompromisse zu machen, um die Kosten drücken zu können. Da muss man als Entwickler auch mal über den eigenen Schatten springen, und zumindest in den Bereichen Kompromisse eingehen, die keine echten funktionalen Nachteile für den Kunden beinhalten. Letztendlich liefert die Elektronik die Funktion.
Auch richtig ist: Nicht jedes Projekt für Amateure und Semiprofis, das mit überteuerten Zöpfen aufräumt muss 'shareware' oder low-cost sein. Selbst wenn sich die Kosten für die Hardware drücken lassen, wandert zwangsläufig enorm viel Zeit in das Projekt, und man muss ja von irgendwas leben.
Man muss sich dann überlegen, in welchem Preisbereich man welche Zielgruppe ansprechen kann. Bei Timecode-Gerät ist der Absatzmarkt wegen der Komplexität der Anwendung überschaubar. So gerne viele über DualSystemSound reden - den Aufwand mit einer geplanten Synchronisation treiben dann doch wenige, und dann noch für eine typische Produktion 2-3 Tentacles Minimum zu bezahlen, dafür gibts dann nur noch in einer kleinen Zielgruppe das Budget, mit einer Tendenz dazu, dass man das dann vor einem Kostenansatz macht, der alternative Lösungen aus dem Verleihbereich genauso gut in Betracht ziehen kann.
Timecode ist schön, wenn man ihn hat und nutzen kann - aber zu diesen Kosten wird die Zielgruppe in diesem Forum das kaum machen können. Da fehlt das Budget und der Wille und die notwendige Arbeitsteilung am 'Set'. Warum Pluraleyes und der Audio-Sync Ansatz von FCP-X sich so durchsetzt, ist der Umstand, dass man es im Grunde garnicht vorbereiten muss. Jede Kamera und jeder Rekorder liefert schon 'ab Werk' die Grundeinstellung, die man braucht, um nachträglich synchronisieren zu können. Man findet hier im Forum sehr oft die Frage von Newcomern, man habe in einem Projekt den Ton mit einem separaten Rekorder aufgezeichnet, und jetzt sei aufgefallen, wieviel Arbeit das sei, das alles zu synchronisieren. Oft erfahren die Leute dann erst nach dem Dreh, dass es die Möglichkeit von PluralEyes gibt und können es dann noch nutzen, weil die Kamera zufällig eben auch die Tonreferenz aufgezeichnet hat, auch ohne dass man das im Hinblick auf den Sync explizit beabsichtigt hat.
Daran sieht man halt, wo die Schwerpunkte in der Attraktivität für diese Zielgruppe liegen.
Nichtsdestotrotz wünsche ich Euch viel Erfolg mit dem System. Ich rate Euch, funktionierende Workflows auf Basis der üblichen Editing-Systeme zusammenzustellen und in der Bewerbung des Systems nach vorne zu stellen, nicht die Hardware.
- Carsten
Antwort von floit:
Danke Carsten für deinen sehr wohl durchdachten Beitrag! Ich kann dem eigentlich nichts hinzufügen...
Ich kann das nur bestätigen: Unsere Erfahrungen und Rückmeldungen haben auch gezeigt, dass es sehr viel Unwissen oder Halbwissen zu Timecode gibt.
Auch da wollen wir Aufklärungsarbeit leisten, wir planen Tutorials zu den Möglichkeiten verschiedener Workflows.
Ob Timecode Synchronisation etwas für einen ist oder nicht, hängt halt von vielen Faktoren ab. Wir wollen unter den vielen verschiedenen Möglichkeiten eine weitere sein, und ich denke wir haben da schon Einiges zu bieten.
Antwort von Werner Küster:
Noch eine blöde Idee, die von Funksignalen abhängt.
Schnittstelle mit USB vorsehen, diese könnte dann für die direkte Synchronisation von Timecodegeräten untereinander zur Synchronisation genutzt werden. Denkbar wäre auch der Einsatz von handelsüblichen GPS- Empfängern mit USB-Anschluß. Die Konfiguration könnte dann im Setup festgelegt werden, je nach Gegebenheiten.
Bei der GPS Information werden Date: YYYYMMDD
sowie UTC: HH:MM:SS geliefert, welche für die Synchronisation nutzbar wären. Voraussetzung ist natürlich der zweifelsfreie Funktechnische Empfang der GPS-Signale.
Zusätzlich werden ja auch noch die Signale HDOP, PDOP, Lat sowie Lon
von GPS ausgewertet. Damit könnten dann alle wesentlichen Daten für die Synchronisation von Bild und Ton sowie zur Location vielleicht als Dateikopf bereitgestellt werden.
Aber wie gesagt, noch eine blöde Idee über die man vielleicht nachdenken könnte. Die Quarzstabilität mit "Quarzofen" welche Temperatur und Driftstabil sind, wird für den Einsatz absolut nicht angezweifelt. Setze übrigens in der Meßtechnik für die Kalibrierung Quarzstabile Generatoren ein, welche zusätzlich mit dem Videosignal von öffentlich rechtlichen Sendern abgeglichen wird (Kalibrieung von Frequenzzählern). Hier wird Bildschirm Abtastung und Quarzgenerator auf die Impulsflanke synchronisiert.
mfg Werner
Antwort von WoWu:
Moin floit
Schön, dass Du Dich mal zu dem System gemeldet hast.
Leider konnte ich aus dem, was darüber berichtet wurde, keine meiner Fragen beantworten.
Aber sicher bist Du in der Lage, das zu tun, weil TC ja Dein Spezialgebiet ist.
Anknüpfen möchte ich an das, was Carsten und CamRick schon angesprochen haben denn LTC ist ja eigentlich schon ziemlich aus er Zeit gefallen und die NLEs erwarten im digitalen Bereich ja eigentlich ATC.
Mir fällt jedenfalls ao auf Anhieb kein System ein, dass LTC noch separat ausliest und selbstständig konvertiert.
So richtig konnte ich aus Deinen Ausführungen bisher nicht entnehmen, wie das eigentlich funktionieren soll, denn jedes NLE erwartet die ATC Informationen in den unterschiedlichen Filmstrukturen, ob ich es nun mit einem MPEG2 Stream oder einem MXF Generic Container System zu tun habe.
Meine Frage also, was für eine Hard-bzw. Software ist zusätzlich erforderlich, um Euern TC (Audio) Track in entsprechenden Datenworte zu übernehmen bzw. in die entsprechende ATC-Struktur wandeln, damit das NLE damit überhaupt etwas anfangen kann ?
Denn sonst habe ich ja eine ziemlich nutzlose TC-Spur.
Zweite Frage, wie geht Ihr mit den Kameras um, die z.B. LANCE herausgeben ... und das sind ja gerade nicht wenige Kameras im semi professionellen Bereich.
Ersetzt Euer Gerät so etwas wie einen LANC-Logger? Oder wie sonst werden bei Euch die Blockimpulse (Time scale) umgewandelt in einen SMPTE/EBU -LTC ? Ist dazu zusätzliche Software erforderlich, die man selbst beistellen muss ?
Speziell, wie übermittelt Ihr im analogen Signal das "TOPFEST"
... und wie geht Ihr dann mit Drop-Frame um ?
In dem Zusammenhang auch gleich die Frage, wie bei TC> 30 frames, das "paring" geschieht und wie wird es dargestellt ?
Dritte Frage, mit welchem Pegel geht Ihr (über die 3,5 mm Klinke) auf das Aufnahmemedium und wie stellt Ihr dann sicher, dass die zweite Spur noch für den Tracking-Ton individuelle geregelt werden kann, ohne dass man einen externen Audio Mischer benutzen muss?
Es wäre schön, könntest Du, über die bisher eher allgemeinen Aussagen ein paar konkrete Dinge zu dem Gerät sagen.
Denn das dürfte ja keine Schwierigkeiten bereiten, wenn es Dein Fachgebiet ist und ist ganz sicher geeignet, einwenig Vertrauen in die neue Entwicklung zu generieren.Ich habe hier gelesen, dass einige noch nicht den Unterschied zwischen Timecode und Audio-Timecode kennen.
Der Unterschied ist Audio TC und LTC ist mir übrigens auch nicht klar, vielleicht sagst Du dazu noch ein paar Worte, wo der Unterschied ist und warum LTC kein Audio ist ... und was ihr denn dann auf der Audiospur aufzeichnet.
Antwort von floit:
Moin WoWu,
Tentacle Sync ist gar nicht so kompliziert wie du vielleicht annimmst. Prinzipiell ist es ein ganz normaler Timecode-Generator, wie es sie von Ambient, TimecodeBuddy, Denecke, Betso und Mozegear gibt. All diese Geräte generieren LTC - Timecode, manche haben dazu noch einen zusätzlichen Genlock- oder Wordclockausgang. Unser Gerät macht genau das gleiche mit dem Unterschied, dass es bis jetzt das kleinste, leichteste und mit Abstand günstigste ist. Und genau das macht unser Gerät so interessant für kleine, günstige Kameras und somit auch für Produktionen mit beschränktem Budget.
Du siehst es geht hier also nicht um ATC, LANC, Blockimpulse, TOPFEST oder ähnliches. Es geht im stinknormalen LTC-Timecode nach SMPTE 12M-1, welcher übrigens aus einem in der Flankensteilheit beschränkten Rechtecksignal besteht, ist also kein Sägezahn. Timecode für us eh nur Mittel zum Zweck. Das Gerät heißt nicht Tentacle Timecode, es heißt Tentacle Sync. Es geht also am Ende ums Synchronisieren von Bild und Ton. Wir wollten kein Gerät für Messtechniker und Ingenieure entwerfen, sondern ein Teil welches einem ganz praktisch eine Menge unbequemer Arbeit abnimmt, so dass mehr Zeit für den kreativen Schaffensprozess da ist. Wir bewerben bewusst nicht die technischen Aspekte, weil das eher abschreckt und den meisten kreativen Leuten eh nichts sagt.
Aber Jedem der es genauer wissen will, erkläre ich das natürlich gerne.
Das Prinzip der Timecode Synchronisation sieht folgendermassen aus: Wenn jedes Aufnahmegerät neben dem Video- bzw. Audiostrom die exakt gleichen Zeitinformationen (Timecode) aufzeichnet, lassen sich damit in der Postproduktion diese separat aufgenommenen Ströme durch Erkennung von gleichen Zeiträumen wieder in Einklang bringen. Dazu braucht es also sehr Präzise Uhren oder Zeitgeneratoren.
Tentacles sind also präzise Uhren, welche sich untereinander synchronisieren können, damit auf allen Tentacles die exakt gleiche Uhrzeit läuft. Über den Klinkenausgang wird diese Zeitinformation in Form von LTC-Timecode ausgegeben.
Den LTC Timecode kann man auf zwei verschiedene Arten einsetzten. Erst mal mit Kameras und Audio-Rekordern welche einen separaten TC-In besitzen, wie z.B. Arri Alexa, Red, Canon C300, Sony F5, PMW200, EX3 oder sogar Sony NX5 bei den Kameras oder z.B. Sound Devices 744T, Tascam HD-P2 bei den Audio Rekordern. Bei diesen Geräten wird der externe LTC Timecode beim Start der Aufnahme als Datenwort in die Metadaten der Datei geschrieben. Egal ob Quicktime, MXF oder BWF, sie alle haben die Möglichkeit Timecode oder Zeitinformationen abzuspeichern, wenn auch auf ganz unterschiedliche Weise. Quicktime und MXF speichern das als sog. Framecount, BWF (Broadcast Wave File) im 'bext' chunk der Datei als "Samples since Midnight".
Doch was macht man mit Kameras und Rekordern, welche keinen TC-In besitzen? LTC Timecode wurde ursprünglich für analoge Bandmaschinen entwickelt. Gerade in den Anfängen der elektronischen Videoaufzeichnung hatte man ein Problem: Während man beim Film die Frames zum schneiden einfach anhand von Randnummern abzählen konnte, war das Video-Magnetband einfach schwarz. Man musste also eine Möglichkeit finden jedes Frame auf einem Magnetband eindeutig identifizierbar zu machen. Die Lösung lag darin parallel zum Videosignal eine Audioslängspur mit Timecode aufzuzeichnen. Daher auch der Name LTC (Longitudinal Time Code). LTC ist also von Anfang an dazu entworfen worden als Audiosignal aufgezeichnet zu werden. Und diese fast vergessene Tatsache machen wir uns zu nutze bei Kameras ohne professionellen Timecode oder TC-IN. Wir zeichnen das LTC Signal über den Mikrofoneingang auf einer Audiospur der Kamera auf. Doch die Kamera kann mit dem TC natürlich erst mal nichts weiter Anfangen ausser ihn aufzuzeichnen. Selbst eine 5D Mark III, welche ja bekannter weise Timecode hat, kann damit nichts anfangen. Leider. Denn so ist der 5D Timecode nicht wirklich nutzbar. Uns stört das aber erst mal nicht weiter.
Wie kommen wir jetzt an die als Audio-Signal aufgezeichneten TC Informationen ran? Die eine Möglichkeit ist unsere Software zu benutzen, sie kann den Audio-Timecode lesen und umwandeln in Embedded Timecode. Darüber hinaus kann sie aber auch gleich schon das Synchronisieren übernehmen. Das ist aber nicht die einzige Möglichkeit, Avid Media Composer kann z.B. Audio-Timcode out of the Box lesen und verarbeiten. DaVici kann auch Audio-Timecode lesen, genauere Tests stehen aber noch aus. Sonst gibt es noch auf dem Mac das Tool AuxTC. Vielleicht stellen wir ja auch eine OpenSource AudioTC Bibliothek zu Verfügung, ist aber noch nicht entschieden...
Somit gibt es übrigens keinen Unterschied zwischen AudioTC und LTC. Ich benutze den Begriff AudioTC nur zum besseren Verständniss wenn ein LTC auf eine Audiospur aufgezeichnet wird.
Man sieht Timecode ist ein weites Feld. Das Wort Timecode kann also nur als Überbegriff dienen, nicht dazu um ein bestimmtes Verfahren zu bezeichnen. Deshalb ist die Verwirrung auch so groß, jeder versteht etwas anderes darunter.
So das wars jetzt erst mal, ich leg mich wieder in die Sonne :-)
Antwort von WoWu:
@ floit
Danke für die Ausführungen, wenn auch auf keine meiner Fragen geantwortet wurde und damit wenig Klarheit darüber geschaffen worden ist, wann und wie das Gerät für den -normalen- Anwender überhaupt einsetzbar ist.
Cartstenkurz und cameraRick haben es als "workflow" bezeigenet; denn ein TC Generator, der eine Audiospur belegt nutzt noch niemandem etwas, wenn die Signale nicht anstandslos von den nachfolgenden NLEs aufgelesen und sinnvoll verarbeitet werden.
Darüber hinaus besteht TC bei den meisten der (auch von Dir genanten Kameras) aus ATC Signalen, die aus einem LTC erst umgewandelt werden müssen, was die Hardware offensichtlich nicht leistet und erst, so wie ich das jetzt verstanden habe, über eine zusätzliche Software geschehen muss, die offensichtlich auch (noch) nicht existieret.
Es geht also gar nicht darum, Geräte für "Messtechniker" zu bauen sondern für den allgemeinen Benutzer und so, wie es sich im Augenblick darstellt, wird der Benutzer eines Camcorders oder DSLRs und eines "stink normalen" NLEs, wie z.B. FCP, damit überhaupt nichts anfangen kann, weil er sich erst noch Gedanken darüber machen muss, wie er das separate Audiosignal überhaupt in seinen Workflow so einsetzt, dass hinterher die angestrebte Synchronisation dabei herauskommt.
Ich hatte wirklich erwartet, dass Du auch meine elementaren Fragen nach der Funktion des Gerätes auch ein paar schlüssige Antworten hast, weil eben Geräte wie die von "Ambient" oder einigen andern herstellen, solche Probleme lösen und damit funktionsfähige Systeme anbieten.
Zwar nicht so preisgünstig, dafür aber nutzbar, speziell auch im Hinblick auf die Kameras, die Clockbasierte Zeitinformationen erstellen, also TC-versionen, die im Consumerumfeld gebräuchlich sind.
Ich mag das ja nun falsch verstanden haben -korrigier mich mit der Beantwortung meiner Fragen-, aber im Augenblick stellt sich die Sache für mich so da, dass man einen TC Generator bekommt, der eine Audiospur belegt, die hinterher wenig Nutzen bringt.
Wie gesagt, korrigier mich, wenn ich da falsch liege.
Und was meine Nachfrage nach der Audiospur betrifft so ist mir der Zusammenhang schon klar. Du hattest in Deinem ersten Postig das nur so dargestellt, als würden User den Unterschied zwischen TC und einem Audio-TC nicht kennen.
Ich denke aber es ist wichtig festzustellen, dass TC nicht gleich TC ist und dass die meisten USER hier im Forum mit dem Audio-TC herzlich wenig anfangen können, weil sie entweder die Wandlung zu den TC Informationen, die ihre Kameras bzw. ihre NLEs benötigen gar nicht hin bekommen oder hinterher an Synchronprobleme stossen, wenn sie einen TC, der bei Frameraten, bis 30 Frames ausgelegt ist, für ihre 50p Bilder noch ein passendes "Paring" erstellen müssen, um ihn überhaupt benutzen zu können.
(Interessant werden solche Themen besonders dann, wenn P-Bilder über HDMI ausgegeben werden und PullDown die Bildfolgen verändert).
Ich hatte ja nicht ohne Grund gefragt, wie Ihr damit umgeht.
Es würde mich auch mal interessieren, welche Preisvorstellung Ihr eigentlich für die Teile habt und was die avisierte Software leisten soll, von der Du gesprochen hast- und ob sie zum Lieferumfang gehört oder extra Kosten aufwirft.
Antwort von floit:
Vor lauter rumgeschwafel hab ich ganz vergessen deine Fragen zu beantworten...
Meine Frage also, was für eine Hard-bzw. Software ist zusätzlich erforderlich, um Euern TC (Audio) Track in entsprechenden Datenworte zu übernehmen bzw. in die entsprechende ATC-Struktur wandeln, damit das NLE damit überhaupt etwas anfangen kann ?
Denn sonst habe ich ja eine ziemlich nutzlose TC-Spur.
Habe ich, denke ich, im vorherigen Post beantwortet. Umwandeln in "Datei-Timecode" würde es aber besser treffen, da sich ATC nur auf ein im SDI-Signal eingebetteten Timecode bezieht.
Zweite Frage, wie geht Ihr mit den Kameras um, die z.B. LANCE herausgeben ... und das sind ja gerade nicht wenige Kameras im semi professionellen Bereich.
Ersetzt Euer Gerät so etwas wie einen LANC-Logger? Oder wie sonst werden bei Euch die Blockimpulse (Time scale) umgewandelt in einen SMPTE/EBU -LTC ? Ist dazu zusätzliche Software erforderlich, die man selbst beistellen muss ?
Speziell, wie übermittelt Ihr im analogen Signal das "TOPFEST"
... und wie geht Ihr dann mit Drop-Frame um ?
Verstehe ich nicht wirklich die Frage. Aber ja natürlich generiert Tentacle alle standard Timecode-Raten 23.976,24,25,29.97(DF),30 incl. DropFrame Timecode
In dem Zusammenhang auch gleich die Frage, wie bei TC> 30 frames, das "paring" geschieht und wie wird es dargestellt ?
Wir behandeln das wie im SMPTE 12M-1 Standard unter Nummer 12 beschrieben:
"12 ProgressiveSystemswithFrameRaterGreaterthan30FramesPerSecond
12.1 Time Address of a Frame Pair in 50 and 60 Frames-Per-Second Progressive Systems
Since the frame rate of 50 and 60 frames-per-second progressive systems exceeds the frame count capacity of the time address, the count shall be constrained to increment only every other frame (as shown in Figure 9). This results in an edit resolution of two frames. With extensive external processing of the time code data it is possible to achieve one frame resolution and still meet all requirements of this standard."
Das bedeutet: Der LTC kann leider nicht bis 50 oder 60 zählen. Man benutzt weiter 25 oder 30 FPS, das verarbeitende Timecode-Gerät (Kamera oder Rekorder) oder die Auswertungssoftware muss das entsprechend interpretieren. Sehe also kein Problem hier.
Dritte Frage, mit welchem Pegel geht Ihr (über die 3,5 mm Klinke) auf das Aufnahmemedium und wie stellt Ihr dann sicher, dass die zweite Spur noch für den Tracking-Ton individuelle geregelt werden kann, ohne dass man einen externen Audio Mischer benutzen muss?
Man kann bei Tentacle den Ausgangspegel des Timecodesignals stufenlos zwischen Mic und Linepegel einstellen. Ausserdem gibts noch ein eingebautes Mikrofon zur Referenztonaufnahme. Benutzt man Tentacle z.B. zusammen mit einer 5D, so wird auf dem linken Kanal der Timecode auf dem rechten der Referenzton des Mikros aufgezeichnet.
Antwort von floit:
Darüber hinaus besteht TC bei den meisten der (auch von Dir genanten Kameras) aus ATC Signalen, die aus einem LTC erst umgewandelt werden müssen, was die Hardware offensichtlich nicht leistet und erst, so wie ich das jetzt verstanden habe, über eine zusätzliche Software geschehen muss, die offensichtlich auch (noch) nicht existieret.
Doch die Software existiert und wird zusammen mit dem Gerät ausgeliefert (ist im Preis mit inbegriffen), sofern wir das zugegeben hoch-gesteckte Ziel erreichen sollten.
Vergleichbare Software auf dem Mac (AuxTC) mit wesentlich geringerem Funktionsumfang kostet wesentlich mehr (250$)
Ich benutze übrigens lieber das Wort AudioTC als ATC, weil es sehr leicht mit dem Ancilliary Timecode verwechselt werden kann, welcher Timecode in SDI-Signalen beschreibt.
http://www.bet.de/lexikon/begriffe/ATC.htm
Antwort von WoWu:
Es geht da auch weniger um den Begriff als vielmehr um die Signalinhalte und die Speicherplätze in einem digitalen Strom, die im analogen Signal noch gar nicht zugeordnet sind.
Antwort von floit:
Hier gibt es übrigens einen interessanten Artikel über uns: (nein, wir haben Cinema5D nichts dafür bezahlt und sie dürfen die Geräte auch nicht behalten...)
http://www.cinema5d.com/tentacle-sync-t ... ck-review/
Antwort von phetine:
Ich hab ja nicht gesagt, dass man es für 4 $ bauen kann aber die Platine da drin ist auch für unter einem € herzustellen (Bestückung und Lödbad vielleicht nochmal 2 € ) und das Layout dafür macht dir jeder Elektrotechnikstudent in einem Tag.
Kommt das Kästchen dazu .. und die Materiehalterung.
Eine Fertigung von 1.000 Stk bekommst Du für rd. 15.000 €.
Naja, oder man macht's richtig. Nichts gegen Dich, schreibst ja oft korrekt, aber so funktioniert das niemals.
Die Elektrostudenten, die für umme in einem Tag alles realisieren, gibt's nur am Stammtisch nach dem dritten Bier.
Dann eine Serviceabteilung. Von Marketing/Verkauf gar nicht zu sprechen.
Ersatzteilversorgung/ Garantieabwicklung?
Nationale Spezifizierungen? CE? Strahlungszulassungen (Post ect.)
Oder macht das auch irgend ein Student nebenbei?
Ist alles immer einfach, die fette Kohle schnell verdient. Bis man es dann selbst machen muss...
Nichts für oder wieder dem Produkt, damit kenne ich mich nicht aus, es geht nur ums realisieren von Ideen für kleines Geld. Kleines Geld ist tot...
LG Chris
Antwort von Frank Glencairn:
Mich würde viel mehr interresieren, inwiefern das mit Resolve funktioniert.
Antwort von floit:
Mich würde viel mehr interresieren, inwiefern das mit Resolve funktioniert.
Habe es gerade mal ausprobiert. Es funktioniert mit kleinen Einschränkungen.
Resolve liest tatsächlich den Audio-LTC welcher z.B. auf einer Audiospur von 5D oder Blackmagic aufgezeichnet worden ist und man kann diesen Timecode auch zum automatischen Synchronisieren verwenden. Leider kann Resolve den Audio-LTC nur bei Video-Files auswerten, nicht aber bei Audio-Files (zumindest hab ich das da nicht hinbekommen). D.h. wenn man eine Kamera wie 5D oder Blackmagic mit einem professionellen Audio-Rekorder wie dem Sounddevices 744T benutzt, dann gehts. Vielleicht gibt es aber doch noch einen Trick, ich probier mal weiter...
Antwort von Frank Glencairn:
Irgendwie steh ich aufm Schlauch.
Was mich konkret interresiert ist raw material - also CinemaDNGs aus der BMCC. Da kommt ja ein einzelnes Wave File mit in dem Ordner wo die DNGs liegen.
Deshalb klappt das auch mit Plural Eyes nicht.
Für mich wäre es also Optimal wenn ich das Material in Resolve mit Bordmitteln syncen könnte, ohne den Umweg über Proxies machen zu müssen.
Antwort von WoWu:
@ LG Chris
Ich hab lange genug in der Entwicklung gearbeitet und wenn man sich die Integration der verwendeten Chips einmal im ansieht, dann stellt sich sehr schnell heraus, dass es eigentlich nur noch um etwas "Infrastruktur" geht und so ein Layout macht Dir jeder Student heute in ein paar Stunden.
Und bei der heutigen Rechnerunterstützung muss man nicht mal mehr das "mechanische" Layout herstellen sondern gibt das File gleich an den Platinenhersteller und der Rechner hat bereits die ersten Funktionsprüfungen durchgeführt.
Und was Strahlensicherheit und andere nationale Anforderungen angeht, bin ich nicht sicher, ob das Teil überhaupt zertifiziert wird und die Voraussetzungen dafür mitbringt.
Oder hast Du da andere Informationen, denn das macht man ja sinnvollerweise bereits im Prototypstatus. Aber es gibt ja nicht mal elementare technische Infos ... insofern ist das alles nur Spekulation.
Die Elektrostudenten, die für umme in einem Tag alles realisieren, gibt's nur am Stammtisch nach dem dritten Bier.
Da kann ich Dir nicht beipflichten. Solche Studenten gibt es heute noch zu Hauff, die durch solche Jobs auch Kontakte in die Firmen hinein finden, denn gute Leute sind auch heute noch gefragt.
Antwort von floit:
Irgendwie steh ich aufm Schlauch.
Was mich konkret interresiert ist raw material - also CinemaDNGs aus der BMCC. Da kommt ja ein einzelnes Wave File mit in dem Ordner wo die DNGs liegen.
Deshalb klappt das auch mit Plural Eyes nicht.
Für mich wäre es also Optimal wenn ich das Material in Resolve mit Bordmitteln syncen könnte, ohne den Umweg über Proxies machen zu müssen.
Hey Frank, gute Neuigkeiten! Habe es gerade mit meiner BMPCC ausprobiert und das klappt einwandfrei mit Cinema-DNG und Audio-LTC in Resolve. Wie gesagt solltest du den Ton aber dann auf einem Audio-Rekorder mit nativer Timecode-Unterstützung benutzen, wie z.B einen Sound-Devices 744T oder 633.
Antwort von Frank Glencairn:
Suuuper, Danke!
P.S. - wenn ihr soweit seid, würde ich die Tentacles gerne mal für einen Artikel auf meinem Blog testen.
Antwort von floit:
@ LG Chris
Ich hab lange genug in der Entwicklung gearbeitet und wenn man sich die Integration der verwendeten Chips einmal im ansieht, dann stellt sich sehr schnell heraus, dass es eigentlich nur noch um etwas "Infrastruktur" geht und so ein Layout macht Dir jeder Student heute in ein paar Stunden.
Also ich möchte hier noch mal klarstellen, dass wir nicht irgendeinen fertigen Timecode-Chip benutzen. Es handelt sich hierbei um eine komplette Eigenentwicklung. Meines Wissens gibt es so einen Chip auch nicht der all die Funktionalität bereitstellt welche wir nutzen. Ich habe übrigens Nachrichtentechnik studiert und schon einige Layouts erstellt, es dauert jedenfalls länger als einen Tag.
Und noch was: Natürlich muss unser Gerät die geltenden CE-Richtlininen einhalten, inklusive EMV. Sonst dürften wir das gar nicht verkaufen.
Antwort von WoWu:
Dann gib doch einfach mal ein paar Informationen zum Aufbau -speziell, wenn Ihr diskret TC erzeugt-
Und sag doch mal, warum Ihr dann solche Chips wie das ICS2008 -anders als andere hersteller- nicht benutzt, und was es nicht kann, was Euer System aber bereitstellt.
Mach doch mal ein bisschen Werbung, wenn Euer System mehr kann.
Übrigens stehen oben noch einige Fragen aus.
Gib doch einfach mal ein paar Antworten darauf.
Sollte Dir ja nicht schwer fallen.
Übrigens ist CE gar nicht das Thema bei einem solchen System. Die Störstarhlung schon eher.
Antwort von carstenkurz:
D.h. wenn man eine Kamera wie 5D oder Blackmagic mit einem professionellen Audio-Rekorder wie dem Sounddevices 744T benutzt, dann gehts. Vielleicht gibt es aber doch noch einen Trick, ich probier mal weiter...
Das ist genau eines der Probleme, die ich weiter oben mal mit 'Workflow' angesprochen habe. Da muss mehr Info hin!
Wenn ich ein Tool entwickle, dass LTC auf beliebigen Audiospuren/-kanälen üblicher Kameras oder separater Audiorekorder nutzbar machen soll, dann darf es doch keine Rolle spielen, ob der LTC auf einem Profi- oder Amateurgerät aufgezeichnet wird. Es geht doch gerade darum, Geräte zu nutzen, die NICHT explizit für TC vorbereitet sind.
Diese Ansprüche müsste man alle mal halbwegs strukturieren und in Workflows für übliche Editing-Programme konvertieren.
Hierbei gibts ja grundsätzlich zwei verschiedene Möglichkeiten:
- ich schreibe einen externen Transcoder oder Wrapper, der ein Videofile nimmt, aus dessen Audiospur einen LTC liest. Dazu eine Audio-Datei nimmt, die einen dazu (intendiert) gesyncten LTC enthält. Dann wird das Audio vom externen Rekorder in die Videodatei reingeschrieben und ist somit erstmal 'hart' synchron. Das deckt die üblichen Fälle des DualSystem Sound ab, bei dem man Mono oder Stereotracks mit OnLocation Sounds von externen Rekordern synchronisiert benutzen kann, weil das kamerainterne Audio nichts taugt oder nicht nah genug am Objekt zu kriegen ist. Idealerweise würde dieser Transcoder oder Wrapper keine Veränderungen, speziell kein Bild-Transcoding/überführen in einen anderen Codec vornehmen. Optional könnte er natürlich in übliche Codecs wie ProRes oder DNxHD konvertieren.
Vorteil so einer Lösung ist, dass die resultierenden Dateien in jedem Editing Programm sofort mit ordentlichem SyncSound verwendbar sind und die Sync Referenz unlösbar im resultierenden File festgeschrieben ist, so wie beim InKamera Ton. Das Editing Programm bräuchte im Grunde überhaupt keine speziellen TC-Fähigkeiten. Vorteil ist ausserdem, dass typischerweise der Bezug zwischen Video-TC und Audio-TC in Absolut-Zeit hergestellt ist und dieses Transcoding sehr einfach batchbasiert auf hunderte Files laufen kann, ohne dass man manuell jede Datei anpacken muss. Das Programm sucht in allen Dateien nach Timecodes, erstellt eine Datenbank mit identischen Zeitreferenzen, und arbeitet dann das Transcoding/Wrapping ab.
Grenzen hat das Verfahren, wenn es um aufwendigere Sachen wie MultiCam Editing oder komplizierteren Mehrkanal-Audioaufnahmen geht, oder die verwendeten Codecs bestimmte Features nicht unterstützen.
Dabei wäre es wichtig, dass Audio+LTC ins Schnittprogramm geladen werden und dort mit den Mitteln des Editors angelegt und gesynct werden kann. Auch hier gibt es wieder zwei Varianten:
- Das Schnittprogramm beherrscht selbst das Auslesen und Decodieren von Audio-LTC aus Tonspuren.
- Ein externes Programm, eben ggfs. wieder ein Transcoder/Wrapper erlaubt es, den LTC aus dem Audiofile zu extrahieren und als TimeCode Tracks, logischen TimeCode, etc. in eine Audio-Datei zu schreiben. Das Schnittprogramm muss dann nicht mehr selbst LTC lesen/decodieren können, sondern nur eine Möglichkeit bieten, den trackbasieretn LTC im Audio- und Videofile zu erkennen und zu nutzen.
Probleme bei diesen Varianten sind:
- welche Schnittprogramme unterstützen welche TC Varianten in welchen Datenstrukturen und erlauben ein sinnvolles Arbeiten damit? Ein schlichtes Anzeigen oder Einbrennen von LTC-Fenstern sieht zwar sofort professionell aus, nützt einem aber für einen Schnitt-Workflow überhaupt nichts.
- welche Fileformate für Bild und Ton unterstützen logische TC tracks
Hier ist ausserdem noch der durchaus nicht uninteressante Aspekt zu beleuchten, dass für LTC verkoppelten DualSystemSound zumindest grundsätzlich keinerlei Abstimmung zwischen Videobildraten und Audio-Abtastraten und dem verwendeten LTC-Format bestehen muss. Sprich, ich kann auch eine 25fps Aufnahme mit 24 oder 30fps LTC synchronisieren. Es muss nur eben auf beiden Aufzeichnungen der gleiche LTC verwendet werden (technisch wäre nichtmal das wirklich nötig). Bei professionellen TC Anwendungen mit erweiterten Ansprüchen wie Bild/Audiolocking und Absolutzeitanforderungen sieht das natürlich anders aus. Schönes Extrem-Beispiel ist PluralEyes, das ja das Ziel der Synchronisation ohne JEDE formale Beziehung irgendwelcher Bild- oder Abtastenraten bzw. Absolutzeit erlaubt. Zusätzlich gäbe es bei den Transcodern/Wrappern eventuell noch eine nützliche Zusatzfunktion, mit 'falscher' Abtastrate erstelle Aufnahmen (klassisches 44.1/48KHz Problem) auch noch abtastratenzuwandeln. Oder zumindest auf eine Diskrepanz zwischen den Abtastraten im Video- und Audiofile hinzuweisen.
Wenn das mal ordentlich strukturiert ist, kann man auch typische Workflow Szenarien entwickeln.
Ansonsten ist das relativ witzlos, wenn man ein Audio-File zusammen mit einem DNG rumliegen hat, und es keine Möglichkeit gibt, den TC zu 'verwerten' weder den im von der BMPCC lokal aufgezeichneten LTC, noch den in einer Datei von einem externen Rekorder.
Ohne saubere Strukturierung der Abläufe ist das alles relativ witzlos.
- Carsten
Antwort von Darthharry:
Hi,
ich habe auch nochmal ein paar Fragen. Das Teil sieht ja auf den ersten Blick sehr interessant aus, aber ich habe einmal überlegt wo man das am besten bei uns einsetzten kann.
Für alle Kameras die sowie eine eigene gute Tonverarbeitung haben macht das für mich keinen Sinn. Da nehm ich den Ton am liebsten sofort in der Kamera auf und habe keine Probleme mit dem Synchronisieren. Mir ist auch keine Anwendung eingefallen wo ich den Ton getrennt aufnehmen sollte. Bei mehreren Audioquellen gehen wir in einen Mischer und über den in die Kamera. Bei entfernten Audioquellen nutzen wir die Funke. Aber warum sollte man z.B. bei einer PMW 200 oder einer F5 den Ton getrennt aufnehmen ?
Das macht nur bei Kameras Sinn die keine gute Tonverarbeitung haben wie jede DSLR und die Blackmagic Kameras. Wenn ich das richtig verstanden habe nutzt der Tentacles die Audiospur des Rekorders und der Kamera für das Syncsignal. Das heisst es arbeites genauso wie Plural Eyes, nur etwas zuverlässiger und wahrscheinlich schneller, dafür unterstützt es nicht alle Systeme ( ich schneide in Premiere auf Windows). Und die gerade angesprochene RAW Aufnahme der Blackmagic Kamera wird unterstützt. Das ist super aber wir nehmen zu 90 % in ProRes auf.
Eine Frage, ist die Audiospur der Kamera dann eigentlich noch benutzbar oder wird sie von dem Syncsignal "zerstört" ?
Antwort von floit:
Dann gib doch einfach mal ein paar Informationen zum Aufbau -speziell, wenn Ihr diskret TC erzeugt-
Und sag doch mal, warum Ihr dann solche Chips wie das ICS2008 -anders als andere hersteller- nicht benutzt, und was es nicht kann, was Euer System aber bereitstellt.
Mach doch mal ein bisschen Werbung, wenn Euer System mehr kann.
Übrigens stehen oben noch einige Fragen aus.
Gib doch einfach mal ein paar Antworten darauf.
Sollte Dir ja nicht schwer fallen.
Der olle ICS2008 ist schon lange nicht mehr lieferbar. Ausserdem braucht das Ding zuviel Strom und ist viel zu groß für unsere Anwendung. Das war ein idealer Begleiter für BetaSP und VHS.
Was Tentacle Sync kann, ist alles auf unserer Indiegogo-Seite nachzulesen: www.igg.me/at/tentacle
Weitere Infos gibts aber auch auf Facebook: https://www.facebook.com/tentaclesync
Ich denke das war jetzt Werbung genug :)
Antwort von WoWu:
Tja, das hab ich mir schon so gedacht, dass da nichts kommt.
Die "Infos' auf der verlinkten Seite sind ein besserer Witz und geben überhaupt keine Auskunft.
Und Facebook ist wohl mehr die "Kindergeschichte" als Erklärung.
Und sie gestellten Fragen scheinen auch von Dir nicht Beantworter zu sein.
Sei mir nicht böse, aber ich glaube, das ist ziemliches Gebastelt, was Ihr da veranstaltet, jedenfalls hat Deine "Werbung" nicht dazu beitragen können, Vertrauen in Euer System zu generieren.
Vielleicht solltet Ihr die 33.000 €, die Eure Kampagne bisher generiert hat, besser in Marketing stecken als in das Projekt.
Ach ... übrigens hat sich (seit SP-Zeiten- ) am TC nichts geändert.
Ich weiss also nicht, was Du damit sagen willst.
Aber berichte doch mal, was Ihr mehr könnt als das, was das Chip macht.
Und schau Dir mal die Power Consumption an, und sag mal, was Euer diskreter Aufbau da verbraucht.
Antwort von Valentino:
Echt Wolfgang so langsam habe ich das Gefühl, das es dir aus irgend einem Grund nicht passt, das hier zwei Kollegen eine ganz gute Idee hatten und dir das nicht vorher eingefallen ist.
Ich empfinde es als recht nervig, wie du hier versuchst den Oberlehrer zu spielen
und die Entwickler als unwissend dahin stellst.
Nur weil das Entwicklerteam nicht ihre ganzen Schaltpläne und technische Details zu Verfügung stellt, bedeutet noch lange nicht, das sie nicht wissen was sie da tun.
BTW: Die AmbientRecording Produkte wird man auch nicht mit Platinenlayout und Logik-Skize im Netz wiederfinden.
Antwort von floit:
Hi,
ich habe auch nochmal ein paar Fragen. Das Teil sieht ja auf den ersten Blick sehr interessant aus, aber ich habe einmal überlegt wo man das am besten bei uns einsetzten kann.
Für alle Kameras die sowie eine eigene gute Tonverarbeitung haben macht das für mich keinen Sinn. Da nehm ich den Ton am liebsten sofort in der Kamera auf und habe keine Probleme mit dem Synchronisieren. Mir ist auch keine Anwendung eingefallen wo ich den Ton getrennt aufnehmen sollte. Bei mehreren Audioquellen gehen wir in einen Mischer und über den in die Kamera. Bei entfernten Audioquellen nutzen wir die Funke. Aber warum sollte man z.B. bei einer PMW 200 oder einer F5 den Ton getrennt aufnehmen ?
Um z.B. mehr getrennte Kanäle aufzeichnen zu können. Wenn du drei Funkmikros plus Angel hast, hast du später im Schnitt mehr Möglichkeiten und bist nicht nur auf den Mix angewiesen. Ausserdem brauchst du kein Kabel zwischen Kamera und Mischer, Probleme mit der Funkübertragung des Tons gibt es hier auch nicht.
Ich gebe dir natürlich recht, bei nur 2 benutzen Kanälen z.B. und einer Kamera mit guten Mikrofon-Eingängen macht das wahrscheinlich weniger Sinn.
Das macht nur bei Kameras Sinn die keine gute Tonverarbeitung haben wie jede DSLR und die Blackmagic Kameras. Wenn ich das richtig verstanden habe nutzt der Tentacles die Audiospur des Rekorders und der Kamera für das Syncsignal. Das heisst es arbeites genauso wie Plural Eyes, nur etwas zuverlässiger und wahrscheinlich schneller, dafür unterstützt es nicht alle Systeme ( ich schneide in Premiere auf Windows). Und die gerade angesprochene RAW Aufnahme der Blackmagic Kamera wird unterstützt. Das ist super aber wir nehmen zu 90 % in ProRes auf.
Man kann Tentacle auf zwei Arten einsetzten, einmal mit Kameras welche Timecode nativ unterstützen (wie z.B. C300 / PMW200 usw.) Bei diesen Geräten kannst du Tentacle direkt an den TC-In der Kamera anschliessen.
Unterstützt die Kamera nicht nativ Timecode oder besitzt keinen TC-In kann man Tentacle dazu benutzen den Timecode auf eine freie Audio-Spur aufzuzeichnen. Das macht man dann z.B. bei DSLRs oder BM Kameras.
Eine Frage, ist die Audiospur der Kamera dann eigentlich noch benutzbar oder wird sie von dem Syncsignal "zerstört" ?
Bei einer 5D wird der linke Kanal für das Timecodesignal genutzt, auf dem rechten Kanal wird der Referenzton des in Tentacle eingebauten Mikrofons aufgezeichnet.
Antwort von WoWu:
@Valentino
Nichts dagegen einzuwenden.
Die Alternative ist aber, dass zwei Kollegen versuchen eine ganze Schaar anderer Kollegen abzurocken.
Hättest Du da auch nichts gegen ?
Warum also darf man nicht nachfragen, um Gewissheit zu bekommen, was stimmt und was nicht ?
Kitteltreue war bei mir noch nie angesagt -mehr das Querdenken-
Was ist dagegen einzuwenden.
Und von andern Systemen gibt es sehr wohl, sehr detaillierte Systembeschreibungen, aus denen man mehr als die elementaren Parameter ersehen kann.
Das relativiert Deine Aussage.
Du solltest vielleicht den Informationsgehalt der beiden Anbieter einmal miteinander vergleichen.
Nur weil das Entwicklerteam nicht ihre ganzen Schaltpläne und technische Details zu Verfügung stellt, bedeutet noch lange nicht, das sie nicht wissen was sie da tun.
Das ist wirklich Quatsch .. lies mal meine Fragen oben durch. Die sind alle anwendungsbezogen aber nicht mal die Frage nach dem benutzten Audiopegel konnte er beantworten und wenn ich jetzt lese, dass beide Spuren der D5 ohne Audioanpassung nutzbar sind, dann wird die Frage wieder aktuell, weil das davon abhängt, mit welchem Pegel sie daraufgehen, denn die D5 lässt sich nicht individuell angleichen.
@Valentino
Denk einfach mal mit.
Antwort von carstenkurz:
Ja, WoWu hat sich leider mal wieder verbissen und wirft ATC Nebelkerzen, um eine Fundamentaldiskussion anzuzetteln. Sorry Wolfgang, das ist nicht hilfreich.
Die Tentacles wollen nicht das Timecode-Rad neu erfinden, sondern nur in einen Marktbereich hinein Lösungen anbieten, wo bisher ein Defizit herrscht.
Da muss man keine Standards-Diskussionen führen, das Zielgebiet ist hinreichend genau abgegrenzt und der offensichtliche Bedarf angesichts zahlloser Kameras und Audiorecorder ohne Sync/LTC Option auch da.
- Carsten
Antwort von WoWu:
Tja Carsten
Was sie wollen -wie sie es sagen- ist mir schon klar.
Frage ist nur, ob dabei ein verwertbares Produkt herauskommt, das ja noch dazu von Andern bezahlt wird.
Ich werfe lieber Nebelkerzen, als -so wie Du- im Nebel zu stehen.
Es ist noch weniger hilfreich, sich nicht zu fragen, warum auch die einfachsten technischen Nachfragen nicht beantwortet werden (können) und wenn jemand 100.000 € einsammeln will, sollte schon mal die eine oder andere Frage erlaubt sein.
Wenn sie nicht von Dir kommen, weil Dir das Hintergrundwissen fehlt, müssen sie wenigstens von andern kommen.
Aber was spricht dagegen, die Fragen zu beantworten ?
Kannst Du mir einen plausiblen Grund nennen, warum man den Pegel nicht angibt, der auf die Audiospuren geleitet wird ?
Oder warum soll man nicht nachfragen dürfen, wie sie die 50p im signalisieren und/oder wie sie mit andern Timecode, beispielsweise auf den SONY Kameras umgehen ?
Nenn mir mal einen plausiblen Grund.
Also ... nicht labern, ... nachdenken.
Antwort von Jott:
"Man kann bei Tentacle den Ausgangspegel des Timecodesignals stufenlos zwischen Mic und Linepegel einstellen."
Reicht das nicht?
Antwort von Werner Küster:
Ja, WoWu hat sich leider mal wieder verbissen und wirft ATC Nebelkerzen, um eine Fundamentaldiskussion anzuzetteln. Sorry Wolfgang, das ist nicht hilfreich.
Carsten: Sorry Wolfgang, dies ist nicht hilfreich.
Dies ist auch meine Meinung!!!
Meine Meinung dazu: Lasst die beiden doch erst einmal machen.
Viele Entwicklungen in der Technikgeschichte wurden zuerst als Utopie oder gar schlimmer bezeichnet.
Wer schon mal versucht hat 2-4 Kameras bei Events einzusetzen, weiss welche Schwierigkeiten beim Editing auftauchen. Sich am Ton zu orientieren, zB dem Anstieg des Toneinsatzes zu nutzen, weiss wie schwierig es ist, die 2-4 Kameras in der Timeline zu synchronisieren, vor allem wenn an allen Kameras unterschiedliche Bild einstellungen gewählt werden.
Ein Techniker wird stolz das Ergebnis seiner Arbeit bis ins Detail erläutern,
der Kaufmann wird nur soviel weiter geben, wie er für den Verkauf seines Produktes braucht.
Die Technikgeschichte mal sorgfältig lesen und feststellen wer was von seiner Arbeit hatte ............
viele Grüße
Werner
Antwort von floit:
Tja, was soll ich zu all dem sagen?
Als Max und ich die Idee zu einem kleinen, einfachen, möglichst universell einsetzbaren und unkomplizierten Timecode-Generator hatten, hatten wir immer die Community von slashcam im Hinterkopf. Ich selbst bin ein großer Fan dieser Platform. Wir habe kein Problem mit Kritik, ganz im Gegenteil: Wir nehmen das wirklich Ernst und wollen darauf gerne eingehen. Wir wollen keinen in die Pfanne hauen, wir möchten nur eine Lösung für ein Problem anbieten und denken dass das auch für andere interessant sein könnte.
Aber was hier gerade passiert enttäuscht mich jedoch schon ein wenig. Wir haben sehr lange an diesem System gearbeitet und von Anfang an professionelle Tonleute und Kameramänner in die Entwicklung mit einbezogen.
Selbst das Research & Development Department der BBC hat unser System schon getestet und für gut befunden, ebenso der WDR ist interessiert. Für ZDF neo wurden damit sämtliche Folgen der Serie "heimwärts mit..." gedreht und gesynced. Die ifs-köln (internationale filmschule) hat gerade einen Doku-Dreh in Sibirien damit abgeschlossen (-30 °C !!!) - das Team ist begeistert. So ein Bullshit kann das System also nicht sein.
Und zu dem Crowdfunding kann ich nur sagen: Wir wollen ja keine 90.000 Euro geschenkt haben. Für das Geld bekommen die Unterstützer im Gegenzug Tentacle Geräte der ersten Produktion und das zu einem deutlich günstigeren Preis als später im Laden. Es ist also eher eine Vorbestellung. Wir machen das ganze nur weil es sich erst lohnt ab einer bestimmten Menge produzieren zu lassen. Das tun wir übrigens ausschließlich in Deutschland.
Das wars, weiter möchte ich mich an dieser Diskussion auf dieser Ebene eigentlich nicht mehr beteiligen. Wer interessiert ist kann mir gerne eine email schreiben, mich anrufen oder auch in unserem Büro in Köln vorbeikommen. Für einen Kaffe haben wir immer Zeit :)
Antwort von Jott:
So würde ich's auch halten. Das Produkt ist jetzt hier bekannt für Leute, die wissen, was sie damit anfangen können. Das ist die potenzielle Kundschaft. Hobbynörgler und Besserwisser sind es sich sicher nicht.
Antwort von WoWu:
@floit
Das sind alles nette Worte aber keine einzige Begründung, warum nicht eine meiner Fragen, selbst so eine einfache Frage nach dem Audiopegel, der aufgezeichnet wird, von Dir beantwortet wird.
Nimm es mir nicht übel, dass da Zweifel an der Ernsthaftigkeit an dem Projekt aufkommen.
Ich kann jedenfalls keinen Grund erkennen, Fragen nicht zu beantworten.
Wenn jemand 100.000 € einsammelt für ein "gut klingendes" Projekt, aber keine auch noch so einfache Nachfragen beantworten kann, dürften Zweifel angebracht sein.
Du hattest ausreichend Gelegenheit, sie auszuräumen, verlierst Dich aber lieber in "Prosa" statt in Fakten denn auch jetzt wieder ... keine Antworten.
Und nun sonnst Du Dich theatralisch im Mitleid des Abgangs.
Gute Nummer.
Antwort von Jott:
Echt festgebissen. Mit welchem Pegel aufgezeichnet wird, regelt doch der Kameramann. Im Monitorweg der Kamera kann er sogar prüfen, ob ein Übersprechen zu hören ist (was eher früher bei analogem Ton ein Problem war). Und für simple Kameras ohne Regelmöglichkeit kann man den Ausgangspegel zwischen Line und Mic - so wurde es beschrieben - stufenlos regeln. Wo soll da jetzt ein Problem sein?
Das Ganze ist doch auch eine Wiedergeburt der Technik aus den 90ern, wo man analoge Geräte mit Time Code auf Tonspuren gesynct hatte - da konnte man zum Beispiel eine 8-Spur-Fostex einem VHS-Player framegenau hinterher laufen lassen. Ging auch wunderbar.
Antwort von WoWu:
Echt festgebissen. Mit welchem Pegel aufgezeichnet wird, regelt doch der Kameramann. Im Monitorweg der Kamera kann er sogar prüfen, ob ein Übersprechen zu hören ist (was eher früher bei analogem Ton ein Problem war). Und für simple Kameras ohne Regelmöglichkeit kann man den Ausgangspegel zwischen Line und Mic - so wurde es beschrieben - stufenlos regeln. Wo soll da jetzt ein Problem sein?
Ich sehe, Du hast keine Ahnung.
Die D5 (um die es in diesem Fall geht) hat keine getrennt regelbaren Wege und wenn auf der einen Seite ein Mikrofonpegel ankommt und auf der andern Seite ein TC, dann wirst Du nicht um eine solche Reglung umhin kommen, es sei denn, Du schleifst die beiden Pegel durch ein Gerät oder ersatzweise durch einen Mischer.
Hat der TC aber nur Mikrofonpegel (oder besser noch geringer) dann stehen andere Probleme an.
Es ist also keine "Wiedergeburt".
Also Jott ... spar Dir den Salm und verstehe erst mal richtig, was da eigentlich passiert.
Antwort von Jott:
Du hast recht, den Salm kann man sich sparen. Wenn du dich mal festgebissen hast, ist alles zu spät! :-)
Antwort von Frank Glencairn:
Wovon zum Teufel redet ihr eigentlich?
Das ganze funktioniert doch offensichtlich ganz wunderbar.
Antwort von phetine:
Tja, was soll ich zu all dem sagen?
Als Max und ich die Idee zu einem kleinen, einfachen, möglichst universell einsetzbaren und unkomplizierten Timecode-Generator hatten, hatten wir immer die Community von slashcam im Hinterkopf. Ich selbst bin ein großer Fan dieser Platform. Wir habe kein Problem mit Kritik, ganz im Gegenteil: Wir nehmen das wirklich Ernst und wollen darauf gerne eingehen. Wir wollen keinen in die Pfanne hauen, wir möchten nur eine Lösung für ein Problem anbieten und denken dass das auch für andere interessant sein könnte.
Aber was hier gerade passiert enttäuscht mich jedoch schon ein wenig. Wir haben sehr lange an diesem System gearbeitet und von Anfang an professionelle Tonleute und Kameramänner in die Entwicklung mit einbezogen.
Selbst das Research & Development Department der BBC hat unser System schon getestet und für gut befunden, ebenso der WDR ist interessiert. Für ZDF neo wurden damit sämtliche Folgen der Serie "heimwärts mit..." gedreht und gesynced. Die ifs-köln (internationale filmschule) hat gerade einen Doku-Dreh in Sibirien damit abgeschlossen (-30 °C !!!) - das Team ist begeistert. So ein Bullshit kann das System also nicht sein.
Und zu dem Crowdfunding kann ich nur sagen: Wir wollen ja keine 90.000 Euro geschenkt haben. Für das Geld bekommen die Unterstützer im Gegenzug Tentacle Geräte der ersten Produktion und das zu einem deutlich günstigeren Preis als später im Laden. Es ist also eher eine Vorbestellung. Wir machen das ganze nur weil es sich erst lohnt ab einer bestimmten Menge produzieren zu lassen. Das tun wir übrigens ausschließlich in Deutschland.
Das wars, weiter möchte ich mich an dieser Diskussion auf dieser Ebene eigentlich nicht mehr beteiligen. Wer interessiert ist kann mir gerne eine email schreiben, mich anrufen oder auch in unserem Büro in Köln vorbeikommen. Für einen Kaffe haben wir immer Zeit :)
Nix denken, nur wundern.
Zieht das durch, den Rest regelt der Markt. Es gibt immer wieder Leute die sich über alles mokieren, aufregen usw. Außer das, was sie selbst machen, das ist erste Sahne, meist jedoch floppt's...
;-)
Antwort von phetine:
Ich sehe, Du hast keine Ahnung.
Also ich würde ja, wenn ich irgendwas im Netz verkaufen möchte, wie Du Dein Buch, grundsätzlich freundlich sein. Es lesen ja auch andere mit...
Antwort von Frank Glencairn:
Aaaalso...
ich hab die Tentakles mal ausprobiert.
Wie vermutet - und entgegen aller Unkenrufe - funktioniert das System ganz hervorragend und problemlos.
Ich hab einen Testartikel geschrieben, falls es jemand genauer wissen will:
https://frankglencairn.wordpress.com/20 ... -the-butt/
Ich hoffe, die Jungs bekommen genug Kapital auf GoGo zusammen, um das ganze richtig anzuschieben.
Antwort von carstenkurz:
You need a recorder, that generates it’s own timecode, when you want to use the Tentacles with Resolve (at least for now).
Warum?
- Carsten
Antwort von Frank Glencairn:
Weil Resolve nur "richtigen" TC lesen kann. und sich nicht wie PluralEyes an den Waveforms orientiert.
Deshalb muß man entweder mit einem Recorder aufzeichnen der selbst einen TC schreiben kann, oder du nimmst einen Zoom oder ähnliches, dann mußt du die Wavefiles vorher durch das die mitgelieferte Software jagen, die das Wavefile interpretiert und "richtigen" TC in die Metadaten schreibt. Dann geht es auch ohne teuren Recorder in Resolve.
EDIT: wobei ich gerade noch auf was gestoßen bin, womöglich funktioniert es auch so mit Resolve, ohne über die Software zu gehen. Probiere ich aus, wenn ich wieder zuhause bin.
Antwort von DV_Chris:
Hier ein weiterer Test:
http://www.cinema5d.com/tentacle-sync-t ... ck-review/
Und hier noch eine Aussage der Entwickler zum Drift:
"Ok, wir benutzen einen TCXO mit weniger als 0.5 ppm in 24h bei einem Temperaturbereich von -30 bis +85 Grad Celsius. Wir garantieren damit einen Drift von weniger als 1 Frame in 24h. Unter "normalen" Temperaturbedingungen deutlich mehr (0,5 Frames und besser)."
Antwort von domain:
Ein wenig wundert mich, dass die durchschnittliche Asynchronität mit ca. 0,5 sec. pro Tag und maximal einer Sekunde als besonders lobenswert herausgestellt wird. Meine Quarz-Uhr geht im halben Jahr ungefähr 20 Sekunden nach, das wären demnach 0,11 sec. pro Tag und das war bei den vorhergehenden Modellen auch nicht anders.
Antwort von floit:
Ein wenig wundert mich, dass die durchschnittliche Asynchronität mit ca. 0,5 sec. pro Tag und maximal einer Sekunde als besonders lobenswert herausgestellt wird. Meine Quarz-Uhr geht im halben Jahr ungefähr 20 Sekunden nach, das wären demnach 0,11 sec. pro Tag und das war bei den vorhergehenden Modellen auch nicht anders.
0.5ppm (parts per million) in 24h sind ungefähr 1 frame bei 25 fps, d.h. 40 ms oder 0,04 sec. Und das nur im ungünstigsten Fall bei Benutzung des kompletten Temperaturbereichs von -30 bis +85 Grad. Unter normalen Temperaturbedingungen liegt die Genauigkeit sogar unter 0.1 ppm. Das ist also deutlich besser als deine Quarzuhr.
Antwort von carstenkurz:
Bei den BM Cams muss man ja noch die Fälle Codec mit Audio interleaved und RAW mit separatem Audio unterscheiden. Bei RAW/DNG muss Resolve ja schon erstmal beim Import eine Zeit-Referenz zwischen Bild und eigenem Audio herstellen. Ist bekannt, wie Resolve dabei vorgeht?
Im Grunde hätte man da zwei Möglichkeiten - Sync der extern aufgenommenen Spur, oder schlichtes Ersetzen des Kameratons durch den externen Ton.
Kann die Tentacle Software denn sinnvoll mit dem Material aus den BM Cams umgehen?
Hier gibts ein Tool, das basierend auf BWF-Timestamps Timecode-Files generiert. Die Idee ist wohl, dass man die zusammen mit den Audioaufnahmen importiert. Der Sinn erschließt sich mir aber nicht so ganz, eine Zeitreferenz aus den BWF Timestamps kann oder wird das Schnittprogramm doch ohnehin durchführen?
http://www.one-n.com/bwftimecoder.html
Was liefert ein TC-fähiger Sounddevices denn? Einen integrierten logischen Timecode innerhalb der Audiofiles, oder auch digitale LTC-Audiofiles?
Edit: http://www.sounddevices.com/notes/recor ... -and-avid/
Erzeugt die Tentacles Konvertierungssoftware solche Timecode-Metadaten aus LTC-Audiofiles? Können das separate Monofiles sein, die man irgendwie einander zuordnet, oder geht das nur mit Mehrkanal-Files, die Audio und LTC enthalten?
- Carsten
Antwort von floit:
Bei den BM Cams muss man ja noch die Fälle Codec mit Audio interleaved und RAW mit separatem Audio unterscheiden. Bei RAW/DNG muss Resolve ja schon erstmal beim Import eine Zeit-Referenz zwischen Bild und eigenem Audio herstellen. Ist bekannt, wie Resolve dabei vorgeht?
Weis ich nicht, BM hält sich da mit Auskünften noch mehr zurück wie wir :) Fakt ist aber dass es funktioniert.
Im Grunde hätte man da zwei Möglichkeiten - Sync der extern aufgenommenen Spur, oder schlichtes Ersetzen des Kameratons durch den externen Ton.
Genau diese beiden Möglichkeiten bietet Tentacle Sync an. Bei Resolve wird der original Ton ersetzt.
Kann die Tentacle Software denn sinnvoll mit dem Material aus den BM Cams umgehen?
Ja, nur Cinema DNG geht bis jetzt noch nicht, Unterstützung ist aber geplant.
Hier gibts ein Tool, das basierend auf BWF-Timestamps Timecode-Files generiert. Die Idee ist wohl, dass man die zusammen mit den Audioaufnahmen importiert. Der Sinn erschließt sich mir aber nicht so ganz, eine Zeitreferenz aus den BWF Timestamps kann oder wird das Schnittprogramm doch ohnehin durchführen?
http://www.one-n.com/bwftimecoder.html
Der Sinn diese Tool erschließt sich mir auch nicht. Im Normalfall möchte man doch das Umgekehrte haben. Man hat Audio-TC auf einer Spur aufgezeichnet und will das in eine Time-Stamp oder Metadaten-TC des BWF umgewandelt haben. Genau das macht Tentacle Sync.
Was liefert ein TC-fähiger Sounddevices denn? Einen integrierten logischen Timecode innerhalb der Audiofiles, oder auch digitale LTC-Audiofiles?
Edit: http://www.sounddevices.com/notes/recor ... -and-avid/
Der Sounddevices liefert BWF (Broadcast Wave File) Dateien mit in den Metadaten eingebetteten Timecode. Mit diesen Audio-Files kann Resolve super arbeiten. Das Problem ist, dass Resolve bei reinen Audio-Files den Timecode nicht aus einer Audio-TC Spur lesen kann (oder will), bei Video-Files geht das aber einwandfrei. Das heißt wenn man mit Resolve und Tentacle syncen will, kann man den Timecode auf einer Audiospur der BM aufzeichnen, beim Ton geht das aber nicht. Hier verlangt Resolve den Timecode als Metadaten in der Datei. Das machen nur professionelle Rekorder wie Sounddevices und andere. Es gibt jedoch einen kleinen Trick um andere Rekorder wie z.B. einen Zoom H4 trotzdem benutzen zu können: Die Tentacle Software kann dazu benutzt werden den aufgezeichneten Audio-TC in einen Embedded TC der Datei umzuwandeln. Geht in wenigen Sekunden. Danach kann auch Resolve damit etwas anfangen.
Erzeugt die Tentacles Konvertierungssoftware solche Timecode-Metadaten aus LTC-Audiofiles? Können das separate Monofiles sein, die man irgendwie einander zuordnet, oder geht das nur mit Mehrkanal-Files, die Audio und LTC enthalten?
Genau das macht die Software. Mono, Mehrkanal oder Stereogruppen werden automatisch erkannt und unterstützt.
Antwort von carstenkurz:
Merci - das sind so die Informationen, die man braucht, um die Workflows überblicken zu können.
Der zusätzliche Ausgang bzw. das Mikro für Referenzton an eurer Hardware ist wohl dafür gedacht, im Wesentlichen auf den Stereoeingang der Kamera auf einem Kanal den LTC, auf dem anderen einen kameranahen Referenzton aufzuzeichnen, für Orientierungszwecke, oder ggfs. auch die Option auf PluralEyes oder FCP-X zu haben? Normalerweise muss man ja für die LTC Nutzung beide Audiokanäle bzw. -spuren der Kamera auf den externen Eingang legen und dann entfiele die Möglichkeit, Referenzton aufzuzeichnen?
Habt Ihr irgendwo Screenshots der Konfigurationssoftware?
- Carsten
Antwort von floit:
Merci - das sind so die Informationen, die man braucht, um die Workflows überblicken zu können.
Der zusätzliche Ausgang bzw. das Mikro für Referenzton an eurer Hardware ist wohl dafür gedacht, im Wesentlichen auf den Stereoeingang der Kamera auf einem Kanal den LTC, auf dem anderen einen kameranahen Referenzton aufzuzeichnen, für Orientierungszwecke, oder ggfs. auch die Option auf PluralEyes oder FCP-X zu haben?
Genau so ist es. Links Timecode, rechts Referenzton. Das geht natürlich nur bei Kameras mit Stereoeingang. Bei Kameras mit eigenem TC-In entfällt diese Option, hier kann man aber meistens den Japaner der Kamera zur Referenztonaufnahme nutzen.
Normalerweise muss man ja für die LTC Nutzung beide Audiokanäle bzw. -spuren der Kamera auf den externen Eingang legen und dann entfiele die Möglichkeit, Referenzton aufzuzeichnen?
Warum? Ein Kanal reicht völlig. Das einzige Problem hierbei ist, dass es unter Umständen zu einem Übersprechen des aggressiven Timecodesignals auf die Referenztonspur kommen kann... Gerade bei sehr günstigen Kameras kann die Kanaltrennung machmal nicht so gut sein...
Habt Ihr irgendwo Screenshots der Konfigurationssoftware?
Siehe unten.
Antwort von carstenkurz:
Normalerweise muss man ja für die LTC Nutzung beide Audiokanäle bzw. -spuren der Kamera auf den externen Eingang legen und dann entfiele die Möglichkeit, Referenzton aufzuzeichnen?
Warum? Ein Kanal reicht völlig. Das einzige Problem hierbei ist, dass es unter Umständen zu einem Übersprechen des aggressiven Timecodesignals auf die Referenztonspur kommen kann... Gerade bei sehr günstigen Kameras kann die Kanaltrennung machmal nicht so gut sein...
Das war nur zur Ergänzung der Passage davor gedacht, also die Begründung für den externen Mic-Eingang am Tentacle. Viele Kameras, speziell DSLRs erlauben es ja nicht, auf einen Kanal das interne Mic aufzuzeichnen für Referenzton und auf den anderen ein externes Signal.
- Carsten
Antwort von floit:
Das war nur zur Ergänzung der Passage davor gedacht, also die Begründung für den externen Mic-Eingang am Tentacle. Viele Kameras, speziell DSLRs erlauben es ja nicht, auf einen Kanal das interne Mic aufzuzeichnen für Referenzton und auf den anderen ein externes Signal.
Ok, verstehe. Mit internem Mikrofon habe ich das in Tentacle Sync eingebaute Mikrofon gemeint. Das löst dann genau dein Problem mit den fehlenden Audio-Routingmöglichkeiten von DSLRs.
Antwort von Frank Glencairn:
Habe eben erfahren, daß Tentacle auch ein Windows Programm mit ausliefern wird, um das externe Audio (Audio-TC), nach BWF umzuwandeln.
Damit kann man dann also auch Audio aus Consumer-Recordern wie Zoom oder Tascam, in Resolve nutzen.
Wer auf Mac arbeitet, bei dem geht das ja mit der aktuellen Tentacle Software bereits.
Antwort von Frank Glencairn:
Hier ist ein Tutorial für den Resolve Workflow
Antwort von slashCAM:
Meist wird der Ton bei Filmdrehs mit Video-DSLRs oder anderen Kameras, die keine Schnittstelle für die Ausgabe von Timecode besitzen, auf externe Audiorekorder aufgezeichnet, sodaß Ton und Bild nachträglich synchronisiert werden müssen, etwa mit Software wie Plural Eyes

Hier geht es zur Newsmeldung mit Link und Bildern auf den slashCAM Magazin-Seiten:
Tentacle Sync: Timecode Generator und Synchronisations-Tool
Antwort von CameraRick:
Aber ich verstehe das schon richtig, dass sofern ich keinen Mac oder "besseren" Audiorekorder (wie Frank im Test erwähnt) besitze ich mit dem Synchen auch gekniffen bin, weil Software wie Premiere es wenn überhaupt nur Clip-by-Clip macht?
DaVinci synched es ja auch nicht, und Avid nutzt sicher nicht jeder.
Antwort von Frank Glencairn:
Aber ich verstehe das schon richtig, dass sofern ich keinen Mac oder "besseren" Audiorekorder (wie Frank im Test erwähnt) besitze ich mit dem Synchen auch gekniffen bin, weil Software wie Premiere es wenn überhaupt nur Clip-by-Clip macht?
DaVinci synched es ja auch nicht, und Avid nutzt sicher nicht jeder.
Nein es gibt ein Update auf meinem Blog.
Habe eben erfahren, daß Tentacle auch ein Windows Programm mit ausliefern wird, um das externe Audio (Audio-TC), nach BWF umzuwandeln.
Damit kann man dann also auch Audio aus Consumer-Recordern wie Zoom oder Tascam, in Resolve nutzen.
Wer auf Mac arbeitet, bei dem geht das ja mit der aktuellen Tentacle Software bereits.
Hier ist ein Tutorial für den Resolve Workflow. Das ist zwar mit der Mac Software, funktioniert aber bei Ausliferung mit der Win Software genauso.
Antwort von Abercrombie:
@floit:
Zur Software finde ich noch relativ wenig. Erkennt die Software automatisch verschiedene Kameras bzw. kann ich das der Software irgendwie erklären? Multicam ist bei mir ein gängiger Workflow und da wäre eine Vereinfachung super. Könntest du noch etwas zum XML-Export sagen? Sind normale XMLs oder fcpxml? Kann ein Multicam-Track exportiert werden, oder muss ich im NLE diesen erzeugen?
Beste Grüße,
Cromb
Antwort von CameraRick:
Aber ich verstehe das schon richtig, dass sofern ich keinen Mac oder "besseren" Audiorekorder (wie Frank im Test erwähnt) besitze ich mit dem Synchen auch gekniffen bin, weil Software wie Premiere es wenn überhaupt nur Clip-by-Clip macht?
DaVinci synched es ja auch nicht, und Avid nutzt sicher nicht jeder.
Nein es gibt ein Update auf meinem Blog.
Habe eben erfahren, daß Tentacle auch ein Windows Programm mit ausliefern wird, um das externe Audio (Audio-TC), nach BWF umzuwandeln.
Damit kann man dann also auch Audio aus Consumer-Recordern wie Zoom oder Tascam, in Resolve nutzen.
Wer auf Mac arbeitet, bei dem geht das ja mit der aktuellen Tentacle Software bereits.
Hier ist ein Tutorial für den Resolve Workflow. Das ist zwar mit der Mac Software, funktioniert aber bei Ausliferung mit der Win Software genauso.
danke für die Klarstellung, damit wird das Gerät etwas 200% attraktiver :)
Antwort von CameraRick:
mhh da kommt mir gerade eine Idee.
wie wäre es mit einer app? die macht man auf zwei Telefone. Eins an die Kamera und eins an den Ton. Die könnte man ja über wifi / BT oder ähnliches Syncen. Dann könnte man beliebig viele hinzufügen. Oder das Signal noch an eine Clapper-App auf dem Tablet schicken, der den TC anzeigt.
Für Bluetooth gibts ja auch so etwas: http://www.sony-asia.com/product/ecm-aw4
Synchen über Kabel, wie der Tentacle das macht, müsste aber bei einem Handy ja auch funktionieren?
Antwort von jakob123:
Ich finds großartig!
Nur leider sind die early bird Bestellung zu günstigen Preisen alle schon weg.
Tip an die Entwickler, wenn ihr könnt setzt den Preis doch eher auf 350 statt 380€, dann werden glaube ich auch die Verkaufszahlen wieder hoch gehen. Ich zumindest habe da meine Schmerzgrenze.
Viel Erfolg auf jedenfall!
Antwort von carstenkurz:
Vor allem, weil jetzt doch in überschaubarer Zeit noch ein ganz schöner Batzen an Geld aufzutreiben ist. Ich hätte das Ziel nicht so hoch gehängt...
- Carsten
Antwort von floit:
Ich finds großartig!
Nur leider sind die early bird Bestellung zu günstigen Preisen alle schon weg.
Tip an die Entwickler, wenn ihr könnt setzt den Preis doch eher auf 350 statt 380€, dann werden glaube ich auch die Verkaufszahlen wieder hoch gehen. Ich zumindest habe da meine Schmerzgrenze.
Viel Erfolg auf jedenfall!
Ok, haben wir gemacht. 350 Euro Setpreis, incl. Software und Versand. Und der Preis ist Brutto! Nur noch 63 Stunden!
Jetzt gibt es eigentlich keinen Grund mehr nicht zu kaufen ;-) Jeder, der sich überlegt eins zuzulegen sollte jetzt zuschlagen. Günstiger wird's nicht! Entweder es klappt, dann gibts das Produkt. Oder es klappt nicht, dann bekommt Ihr euere Kohle wieder. So viel ist klar: es wird spannend :)
https://www.indiegogo.com/projects/tent ... -different
Antwort von buildyo:
Also bei mir hat es gewirkt. Ich war lange unentschlossen aber jetzt habe ich zugeschlagen. Ich hoffe das unmöglich scheinende gelingt noch!
Wie es genau funktioniert war mir allerdings zuerst nicht vollkommen klar. Ich hatte mit Timecode auch noch nie zu tun. Ihr habt eine supertoll gestaltete Webseite tentaclesync.com aber ich finde die Funktionsweise müsste noch viel viel nachdrücklicher erklärt werden. Das z.B.: bei nicht mit Timecode ausgestatteten Kameras und Audiorecordern einfach je ein Tonkanal das Timecodesignal aufnimmt das dann so klingt:
The sound of time code:
Leute die schon mit Timecode arbeiten kennen sich natürlich aus aber die andere Zielgruppe ...
Antwort von floit:
Also bei mir hat es gewirkt. Ich war lange unentschlossen aber jetzt habe ich zugeschlagen. Ich hoffe das unmöglich scheinende gelingt noch!... ... aber ich finde die Funktionsweise müsste noch viel viel nachdrücklicher erklärt werden....
Hey buildyo, Danke für dein Vertrauen! Wir zittern hier auch schon :) Du hast natürlich recht, das ganze muss noch viel ausführlicher erklärt werden! Da arbeiten wir dran, das Crowdfunding bindet jedoch gerade alle Kräfte. Indiegogo hat uns noch 2 Tage mehr gewährt, aber danach ist wirklich Schluss!
Antwort von carstenkurz:
Ooops - wie habt Ihr denn das noch auf den letzten Drücker geschafft, ist da noch ein Großinvestor eingestiegen? ;-)
https://www.indiegogo.com/projects/tent ... -different
Glückwunsch, ich hatte schon arge Zweifel, ob Ihr die fehlenden 30.000 in den letzten Tagen noch hinkriegt.
- Carsten
Antwort von floit:
Ooops - wie habt Ihr denn das noch auf den letzten Drücker geschafft, ist da noch ein Großinvestor eingestiegen? ;-)
https://www.indiegogo.com/projects/tent ... -different
Glückwunsch, ich hatte schon arge Zweifel, ob Ihr die fehlenden 30.000 in den letzten Tagen noch hinkriegt.
- Carsten
Hey Carsten, Danke! Wir sind auch total überrascht! Vor zwei Wochen dachten wir noch ernsthaft ans Aufgeben :) Um so mehr freuen wir uns jetzt auf die Dinge die da kommen...
Einige Bestellungen kamen auch über das slashcam Forum. Deshalb Danke auch noch mal an alle hier, die an uns geglaubt haben!
Doch erst mal frohes Fest!!! Im Januar gehts dann richtig los :)
Best,
Uli