Frage von Felix_Wittich:Hallo Slashcam-Mitglieder,
ich bin ein aktiver Filmemacher und habe mir im Sommer die Sony NEX 3 zugelegt. Da die 16mm Optik nicht taugt habe ich mir einen Minolta Adapter bestellt mit dem ich nun meine 50mm 1.7 Optik nutzen kann.
Ich bin schon länger auf der Suche nach einem Hack für die Kamera, der manuelle Videokontrolle usw. bringt.
Weiss jemand etwas von einem Hack, wie für die GH1 ?
Ich wäre euch sehr dankbar !
Felix
Antwort von tommyb:
Der Hack ist meines Wissens nach eine NEX 5 oder 7.
Es gibt derzeit keinen Softwarehack für die NEX 3.
Antwort von Harald_123:
Weiss jemand etwas von einem Hack,
Bei der NEX-5 mit aktueller Sony FW und noch ausgeprägter bei der NEX-5N sind manuelle Videoeinstellungen möglich. Die NEX-3 mag hier abfallen. Einen Bedarf für eine gehackte FW wird es kaum geben, da der Preisunterschied zur "5" zu klein ist.
Das 2.8/16 mm funktioniert an der NEX-5N durch die sehr überzeugende Objektivkorrektur (auch bei Video) übrigens überraschend gut.
Mit Lightroom oder DxO Optics Pro 6 kann man das Objektiv (nur für den Bereich Foto) ebenfalls gut korrigieren, wenn man denn in RAW aufgenommen hat.
Antwort von Hardware_Expert:
i,
ich plane, den Bildsensor der Nex direkt am LVDS Ausgang "anzuzapfen"
und per USB 3.0 das Video-Signal mit dem PC im RAW-Format aufzuzeichnen.
Ich halte eine solche Lösung für wesentlich ausichtsreicher als ein
Software-Hack, außerdem wäre eine höhere Farbauflösung (10/12 bit je
nach Modell) und eine höhere horizontale Auflösung drin, da der Sensor
zunächst
horizontal jedes (2.) Pixel überträgt, der Beschnitt erfolgt später
was deutlich auch daran zu sehen ist, dass der Bildwinkel am gleichen
Objektiv bei Stills größer ist.
Gibt es seitens der Community Interesse an einem solchen Projekt
hinsichtlich der Beteiligung an einem solchen Projekt (sei es
finanziell, sei es als Hard- oder Softwareentwickler), wer würde eine
solche Lösung einsetzen
wollen ?
Siehe auch
http://www.nex-hack.com/topic/1121-i...a-possibility/
Antwort von deti:
ich plane, den Bildsensor der Nex direkt am LVDS Ausgang "anzuzapfen"
und per USB 3.0 das Video-Signal mit dem PC im RAW-Format aufzuzeichnen.
So ein Gefrickel, nur um an Daten zu gelangen, die in keinem standardisiertem Format vorliegen... da ist man doch besser mit einer BMCC bedient.
Deti
Antwort von WoWu:
Und warum sollte vom Sensor nur jedes 2. Pixel abgefragt werden ?
Unterabtastung geschieht woanders.
Und mit einwenig Glück ist das auch gar kein LVDS Interface mehr, sondern ein HiSPi oder MIPI.
Aber viel Spass damit.
Antwort von Hardware_Expert:
Ohne allzuviel in's Detail gehen zu wollen, mir stehen die entsprechenden technischen Unterlagen, u.A. Datenblätter zur Verfügung, ich will hier auch keine technische Diskussion anzetteln (das dann direkt per Mail falls jemand dem Projekt als Entwickler zur Verfügung stehen will), aber generell haben fast alle Nex-Kameras einen 12 bit breiten parallelen Output, bei den 2 Modellen bei denen es nicht der Fall ist handelt es sich um ein serielles LVDS-Signal über mehrere Lanes (hierzu gibt es übrigens bei Lattice 'fertigen' VHDL code der sich entsprechend anpassen lässt so dass wir wieder bei einem parallelen Interface sind.
Im Gegensatz zu Sensoren die ein Binning mehrerer gleichfarbiger Pixel benutzen übertragen Sony Sensoren horizontal ganze Zeilen und lassen vertikal Zeilen aus, Ausnahme der 24 MPixel Vollformat Sensor, hier ist im Video-Mode tatsächlich Binning im Spiel. Daraus resultiert auch, dass bei den APS-Sensoren rechts und links ein Teil des Bildes abgeschnitten wird, was sich leicht durch Vergleich eines Fotos mit dem Ausschnitt einer Videoaufnahme bei gleicher Brennweite verifizieren lässt.
Der USB 3.0 Baustein bietet 32 bit parallel bis 100 MHz und enthält neben den USB endpoints noch eine (relativ) frei programmierbare State Machine, selbstverständlich DMA sowie einen ARM core, Sensor-seitig steht auch SPI zur Verfügung (wird für die Einstellungen des Sensors bzw. der entsprechenden Register benötigt). Ein BNreakout-Board mit dem USB Contro9ller ist von einer Firma in Deuitschland (Neu-Anspach) für € 70.- erhältlich.
Daneben gibt es Boards, die noch einen FPGA (anderes Timimg, z.B. 24 fps sowie ggf. verlustlose Datenkompression - siehe Open EXR Formate) sowie DDR2/3 RAM (FIFO und Zeilen-/Blockspreicher für Datenkompression) an Board hat.
Prinzipiell geht e mir mit dem Forenbeitrag darum heraus zu finden, wie Endbenutzer zu solch einer Lösung stehen und ggf. bereit sind das Projekt zu unterstützen sei es durch Crowdfunding, Mitarbeit oder vielleicht hat jemand auch eine defekte Kamera bei dem der Sensor vielleicht noch gehen könnte (Sturz- oder Wasserschaden).
Die technischen Details habe ich jetzt doch mal mit notiert für weitere Leser, die eher technischen Focus haben. Last not Least noch kurtz zu meinem Background, ich habe ich 'hauptberuflich' mit Hard- und Softwareentwicklung im embedded Bereich zu tun und ca. 5 Jahre Erfahrung im Bereich Imaging, daher liegt mein Schwerpunkt auch eher auf den allgemeinen fragen, nicht so bei der Bitte un technischen Support. Daneben habe ich schon diverse Produktionen gemacht, ein Schwerpunkt liegt dabei auf Veranstaltungen wie Theateraufführungen und Konzerte.
Antwort von WoWu:
übertragen Sony Sensoren horizontal ganze Zeilen und lassen vertikal Zeilen aus,
Bei welchem (nicht interline) Sensor soll das der Fall sein?
Ich verstehe allerdings auch nicht ganz, wie vertikale Rows ausgelassen werden können, wenn die horizontalen lines komplett übertragen werden.
Antwort von Angry_C:
Im Gegensatz zu Sensoren die ein Binning mehrerer gleichfarbiger Pixel benutzen übertragen Sony Sensoren horizontal ganze Zeilen und lassen vertikal Zeilen aus, Ausnahme der 24 MPixel Vollformat Sensor, hier ist im Video-Mode tatsächlich Binning im Spiel. Daraus resultiert auch, dass bei den APS-Sensoren rechts und links ein Teil des Bildes abgeschnitten wird, was sich leicht durch Vergleich eines Fotos mit dem Ausschnitt einer Videoaufnahme bei gleicher Brennweite verifizieren lässt.
Der Bildausschnitt wird bei den Sony Kameras im Videomodus doch durch den digitalen Stabilisator verändert.
Antwort von Hardware_Expert:
übertragen Sony Sensoren horizontal ganze Zeilen und lassen vertikal Zeilen aus,
Bei welchem (nicht interline) Sensor soll das der Fall sein?
Ich verstehe allerdings auch nicht ganz, wie vertikale Rows ausgelassen werden können, wenn die horizontalen lines komplett übertragen werden.
Die Rede ist von Sony CMOS image Sensoren, also keine CCDs, diese werden mit einem Rolling Shutter belichtet (Global Shutter i.d.R. nur bei Stills) und 'progressive' übertragen. Allerdings lassen sich bei z.B. 16 MPixel keine 30 fps übertragen (zumindest bei den betrachteten Kameramodellen und Sensoren, es gibt wohl Sensoren wie der CMOSIS CMV 20000 oder der eingestellte Panavision DMAX35 ultra die das können aber da kostet allein der Sensor mehrere 1000 Euro). Aus diesem Grund wendet Sony (gilt auch für andere Sensor Hersteller wie OnSemi, Aptina oder Omnivision) Techniken an um die Pixelrate zu reduzieren denn für Full HD Video werden ja eigentlich nur 2 Megapixel (besser 2 Millionen Farbcluster denn die Pixel sind in einem Bayermuster angeordnet) an. Zu den varianten gehören das Addieren mehrerer Pixel (Binning), Auslassen von Zeilen und/oder Spalten sowie bei den SoC Sensoren das De-Bayering und 'echte' Skalierung. Im Netzt finden sich einige Datenblätter von Bildsensoren mit detaillierten Beschreibungen. Im Falle der Nex3(C) und Nex5(N) werden horizontal im Video Mode horizontal alle Pixel ausgelesen (also bis zu knapp 5000 Pixel), diese werden nicht auf dem Sensor zusammengefasst sondern im Image Prozessor bzw Sensor Frontend (es arbeiten 2 Chips für diese Aufgaben zusammen, diese sind bei den aktuellen Kameras nun integriert), daher stehen Sie am Folienkabel mit dem das Sensorboard an's Mainboard angeschlossen ist noch zur Verfügung, vertikal wird nur jede dritte Zeile gelesen so dass 1080 Zeilen erreicht werden. Damit reduziert sich die Datenmenge die vom Sensor kommt auf ein Drittel und die Linienauflösung, die meist nur horizontal ermittelt wird kann besonders hoch ausfallen.
Für technisch 'Vorbelastete'; bei den EVIL-Kameras sowie Video-Modellen der NEX Reihe werden verschiedene Sensoren der Reihe IMXnnn eingesetzt, mit etwas Suchen lässt sich eine Beschreibung des IMX035LQZ-C finden, dies ist zwar ein wesentlich kleinerer Sensor aber funktioniert prinzipiell ebenso wie die 'großen' Sensoren. Über die Kamera-Interna, insbesondere die Schaltpläne geben Service Manuals (Level 3 !) Auskunft, auch diese lassen sich im Web finden.
Antwort von Hardware_Expert:
Im Gegensatz zu Sensoren die ein Binning mehrerer gleichfarbiger Pixel benutzen übertragen Sony Sensoren horizontal ganze Zeilen und lassen vertikal Zeilen aus, Ausnahme der 24 MPixel Vollformat Sensor, hier ist im Video-Mode tatsächlich Binning im Spiel. Daraus resultiert auch, dass bei den APS-Sensoren rechts und links ein Teil des Bildes abgeschnitten wird, was sich leicht durch Vergleich eines Fotos mit dem Ausschnitt einer Videoaufnahme bei gleicher Brennweite verifizieren lässt.
Der Bildausschnitt wird bei den Sony Kameras im Videomodus doch durch den digitalen Stabilisator verändert.
Sicher ist, dass horizontal alle Pixel ausgelesen werden, vertikal aber nicht alle Zeilen. Direkt am Sensor stehen alle Pixel zur Verfügung, zur Aufzeichnung in der Kamera aber nur ein Full-HD Ausschnitt. Die verwendeten Sensoren erlauben es zwar, prinzipiell auch nicht alle Zeilen auszulesen (so dass die Stabilisierung theoretisch in vertikaler Richtung am Sensor erfolgen könnte), horizontal aber nicht. Ob eine Stabilisierung stattfindet oder lediglich die Bildmitte beschnitten wird ist also in diesem Zusammenhang prinzipiell egal, zumindest für die Nex3/5 und deren Nachfolger sowie die VG10/20 und FS100 Camcorder ist mir keine Stabilisierung bekannt (ich bitte um Korrektur falls ich mich bei den Videomodellen irre), zu den ganz neu auf dem Markt befindlichen Modellen fehlt mir diese Information noch. Das sollte aber in den Kamera-Spezifikationen ggf. zu finden sein, für den Ansatz RAW Daten direkt am Sensor 'abzuzweigen' und diese auf SSD zu speichern spielt es wie gesagt keine Rolle.
Antwort von Hardware_Expert:
ich plane, den Bildsensor der Nex direkt am LVDS Ausgang "anzuzapfen"
und per USB 3.0 das Video-Signal mit dem PC im RAW-Format aufzuzeichnen.
So ein Gefrickel, nur um an Daten zu gelangen, die in keinem standardisiertem Format vorliegen... da ist man doch besser mit einer BMCC bedient.
Deti
Die Blackmagic kenne ich sehr wohl, leider ist der Sensor 'etwas' kleiner. Und klar, es ist 'Gefrickel', das ist mir auch klar, deshalb bin ich ja neugierig, obe es Interessenten für eine solche Lösung gibt. Btw., für die Nex5 habe ich (nur Gehäuse) ca. €250 bezahlt, bei einer Kleinserie ist noch einmal mit Kosten von €150 - 200 für die USB 3.0 Anbindung zu rechnen (gegenüber USD 3000 für die Blackmagic), für RAW recording und Erweiterung der horizontalen Auflösung auf 2k oder gar 2,5k bei den 16MPixel Modellen im APS Format in meinen Augen eine interessante Möglichkeit, insbesondere wenn man für live-Aufnahmen mit 6-8 Kameras hantiert. Für die Cineasten ist vielleicht eine andere Überlegung interessanter, das Interface nebst Software und FPGA code ist in leicht modifizierter Form ja auch für andere Sensoren verwendbar, ein CMV 20000 im Vollformat steht mir voraussichtlich Anfang 2013 zur Verfügung, eventuell auch ein DMAX0178 in APS Größe, dann reden wir über Farbauflösungenbis 14bit, APS- oder Vollformat und 8-12 Megapixel bei entsprechenden Bildraten wie 24, 48 oder 60 fps (je nach Sensor).
Antwort von Hardware_Expert:
Hätte ich fast vergessen, sehr gut allgemeinverständliche Artikel über Sensoren und die Bildverarbeitung in den Kameras gibt es im Leica Magazin - http://www.lfi-online.de/
Antwort von deti:
Die Blackmagic kenne ich sehr wohl, leider ist der Sensor 'etwas' kleiner.
Dafür wird er aber vollständig ausgelesen und das macht doch einen erheblichen Unterschied zu allem, was jemals mit deiner Lösung möglich sein wird. Als "Proof of Concept" finde ich deine Idee echt klasse, nur in der Praxis dürfte sich kaum ein Filmer dafür begeistern: Das wäre eine Kamera, aus der ein Flachbandkabel herausgeführt wird, das aufgrund der hohen Datenraten eher kurz ausfallen wird. Dann kommt da ein Stück Hardware, das mit USB 3.0 Controller und FPGA auf einer eigens dafür gelayouteten Platine etwa so groß wie eine Zigarettenschachtel sein wird. Die Box benötigt dann eine eigene Stromversorgung, da die 2,5Watt via USB nicht ausreichen werden. Zur Aufzeichnung benötigt man einen ganzen PC mit richtig schnellen SSDs (>250MBytes/s). Die meisten Notebooks fallen für diesen Zweck aus oder sind richtig teuer.
Eine Vorschaumöglichkeit direkt an der Kamera wird wohl nicht mehr möglich sein, da das Sensor-Interface bei den hohen Datenraten nicht einfach angezapft werden kann, sondern nur als Punkt-Zu-Punkt Verbindung genutzt werden kann. Eine Vorschau am PC wäre dann bei Weitem nicht mehr in Echtzeit möglich. Eine parallele Aufzeichnung in der Kamera fällt damit auch flach.
Kurz um: Bau dein Interface so, dass es eigenständig ein Display und eine SATA-Platte ansteuern kann. Das USB 3.0-Gefrickel kannst knicken - ich hab da ein bissl Erfahrung (der USB-Stack unter Linux ist in großen Teilen von mir).
Wenn du dann am Ende feststellst, dass es doch günstiger gewesen wäre eine BMCC als fertiges Gerät zu kaufen, dann bist du zumindest schlauer.
Deti
Antwort von Hardware_Expert:
Die Blackmagic kenne ich sehr wohl, leider ist der Sensor 'etwas' kleiner.
Dafür wird er aber vollständig ausgelesen und das macht doch einen erheblichen Unterschied zu allem, was jemals mit deiner Lösung möglich sein wird. Als "Proof of Concept" finde ich deine Idee echt klasse, nur in der Praxis dürfte sich kaum ein Filmer dafür begeistern: Das wäre eine Kamera, aus der ein Flachbandkabel herausgeführt wird, das aufgrund der hohen Datenraten eher kurz ausfallen wird. Dann kommt da ein Stück Hardware, das mit USB 3.0 Controller und FPGA auf einer eigens dafür gelayouteten Platine etwa so groß wie eine Zigarettenschachtel sein wird. Die Box benötigt dann eine eigene Stromversorgung, da die 2,5Watt via USB nicht ausreichen werden. Zur Aufzeichnung benötigt man einen ganzen PC mit richtig schnellen SSDs (>250MBytes/s). Die meisten Notebooks fallen für diesen Zweck aus oder sind richtig teuer.
Eine Vorschaumöglichkeit direkt an der Kamera wird wohl nicht mehr möglich sein, da das Sensor-Interface bei den hohen Datenraten nicht einfach angezapft werden kann, sondern nur als Punkt-Zu-Punkt Verbindung genutzt werden kann. Eine Vorschau am PC wäre dann bei Weitem nicht mehr in Echtzeit möglich. Eine parallele Aufzeichnung in der Kamera fällt damit auch flach.
Kurz um: Bau dein Interface so, dass es eigenständig ein Display und eine SATA-Platte ansteuern kann. Das USB 3.0-Gefrickel kannst knicken - ich hab da ein bissl Erfahrung (der USB-Stack unter Linux ist in großen Teilen von mir).
Wenn du dann am Ende feststellst, dass es doch günstiger gewesen wäre eine BMCC als fertiges Gerät zu kaufen, dann bist du zumindest schlauer.
Deti
Kurz ein paar Kommentare für den Augenblick, über einen detaillierten Ideenaustauch zu einem späteren Zeitpunkt würde ich mich freuen!
Zunächst mal grundsätzlich, es würde mich über - sagen wir mal - konstruktivere Kommentare freuen, 'Bedenkenträger' bin ich selbst glaube ich genug ;-)
Die konstruktiven Probleme sind mir durchaus bewußt, im Detail muss ich in einigen technischen Punkten aber widersprechen:
- USB 3.0 liefert genug Strom, es sind ja auch mehr als die 2,5 Watt von USB 2.0
- Kabellänge ist kritisch, reicht aber für ein unter der Kamera befestigtes Device, diese dürfte etwas kleiner ausfallen als eine Zigrettenschachtel, derzeit arbeite ich mit einem Board von linera.com.tr
- Parallele Nutzung der kamera wäre möglich so man entsprechende Treiberbausteine auf dem Flachbandkabel vorsieht, die signale kommen an der Kamerarückwand auf einem ultra-small-pitch (z.B. von JAE oder HRS) connector an und gehen dann per Kabel an USB
- Eine abgesetze Kamera (über opt. USB 3.0 Kabel) uist denkbar, dann kann ggf. ein 'normaler' PC mit Netzstrom eingesetzt werden.
- Für mobilen Einsatzhabe ich einen entsprechenden Industrie-PC, passiv gekühlt im robusten Alu-Gehäuse identifiziert, CPU ist core i5 oder core i7, Kosten inkl. SSD ab € 1000
- Ich bevorzuge den Einsatz von Standard Produkten soweit möglich, insbesondere PC-Komponenten. Spart Zeit und Kosten
- Eine embedded Lösung für die Aufzeichnung würde ich bevorzugen, bisher habe ich aber noch keine embedded Lösung gefunden, die 200 MB/s über SATA auf ein SSD schieben kann und preislich mit einem PC basierten Ansatz mithalten kann, insbesondere wenn man mehr als diese datenrate einsetzen will oder SSDs im Raid betreiben will (Siehe Performance Test auf der TI Seite hinsichtlich z.B. OMAP L138). Vorschläge diesbezüglich sehe ich gerne.
- Wenn die BMCC einen größeren Sensor hätte gerne. Und möglichst auch 12 bit Auflösung. Und falls jemand einen Vorschlag hat den Sensor der BMCC zu modden, gerne auch dieser Ansatz, obgleich mir dieser fraglicher scheint. Leider gibt's noch keine Doku über den internen Aufbau der Kamera - oder auch des HDMI-Recorders, hier bin ich ebenso für Links dankbar.
Nun aber noch zum wichtigsten Punkt, eigentliches Projekt (wird demnächst auch bei Startnext eingestellt) ist nach wie vor eine komplette Kamera basierend auf eine Vollformat Sensor mit 4k Auflösung und RAW-Aufzeichnung unter 4k €, in soweit ist die Anbindung einer Nex eher als Vorprojekt, Proof-of-concept oder Spinoff zu sehen. Aber mal schauen, auf welches Interesse diese Idee noch stößt.
Und Feedback, der mich weiter bringt, ist jederzeit willkommen, vor allem in konstruktiver Form
Antwort von deti:
... eine komplette Kamera basierend auf eine Vollformat Sensor mit 4k Auflösung und RAW-Aufzeichnung unter 4k €, in soweit ist die Anbindung einer Nex eher als Vorprojekt, Proof-of-concept oder Spinoff zu sehen. Aber mal schauen, auf welches Interesse diese Idee noch stößt.
Und Feedback, der mich weiter bringt, ist jederzeit willkommen, vor allem in konstruktiver Form
Mit nem 35mm 4k Sensor wird bei den zu erwartenden (geringen) Stückzahlen allein schon die Nähe der 4k€ erreicht. Da wirds schon sehr knapp dann noch eine ganze Kamera zu bauen. Dann lass bitte die konstruktive Kritik zu, den kostenintensiven und fehleranfälligen PC aus deinem Konzept zu streichen. Nimm lieber ein Xilinx Virtex FPGA und mach direkt darüber das SATA - so machts BMD auch und das funktioniert mit der maximal möglichen Datenrate. Wir sprechen hier nicht über ein embedded System, sondern über ein größtenteils im FPGA realisiertes System, das die Steuerungsfunktionen über die embedded CPUs ausführt, jedoch alle bandbreitenintensiven Aufgaben direkt in Hardware abwickelt.
Deti
Antwort von WoWu:
Mir fehlt im Augenblick noch noch einwenig die Fantasie, was das bringen soll.
RAW Daten gibt es, vielleicht nicht von diesem Kameramodell, ansonsten aber in ausrechendem Maß und in jeglicher Couleur am Markt, noch dazu begleitet von den dazu gehörigen Bearbeitungsalgorithmen und angepasst an die Harware-performance.
Warum also so ein Aufwand, mal ganz abgesehen von den ganzen Unzulänglichkeiten die das in sich birgt, der dazu noch auf eine Verarbeitung trifft, in der der Faktor Zeit die eigentlichen Hardwarvorzüge der Originalhardware in den Kameras, kompensieren muss, was nicht wirklich gelingen wird.
(Auch abgesehen davon, das auch die meisten Softwareteile mittlerweile geschützt sind und in einer Anwendung, die über den eigenen Bedarf hinausgeht, ohnehin nicht nutzbar wären).
Hier scheint mir doch eher der Weg das Ziel zu sein und der praktische Nutzen gegen NULL zu tendieren.
Antwort von deti:
Hier scheint mir doch eher der Weg das Ziel zu sein und der praktische Nutzen gegen NULL zu tendieren.
Das scheint ihn ja nicht zu interessieren und er will konstruktive Kritik. Wir haben ja schon einiges in der Richtung implementiert und ich habe starke Zweifel daran, dass bei dem oben genannten Vorhaben etwas Brauchbares herauskommt.
Gerade die RED Scarlet wäre ja schon fertig und könnte das alles für gute 6k€ - da stellt sich die Frage nach dem praktischen Nutzen erst recht - also soll er halt mal basteln... ;-)
Deti
Antwort von Hardware_Expert:
... eine komplette Kamera basierend auf eine Vollformat Sensor mit 4k Auflösung und RAW-Aufzeichnung unter 4k €, in soweit ist die Anbindung einer Nex eher als Vorprojekt, Proof-of-concept oder Spinoff zu sehen. Aber mal schauen, auf welches Interesse diese Idee noch stößt.
Und Feedback, der mich weiter bringt, ist jederzeit willkommen, vor allem in konstruktiver Form
Mit nem 35mm 4k Sensor wird bei den zu erwartenden (geringen) Stückzahlen allein schon die Nähe der 4k€ erreicht. Da wirds schon sehr knapp dann noch eine ganze Kamera zu bauen. Dann lass bitte die konstruktive Kritik zu, den kostenintensiven und fehleranfälligen PC aus deinem Konzept zu streichen. Nimm lieber ein Xilinx Virtex FPGA und mach direkt darüber das SATA - so machts BMD auch und das funktioniert mit der maximal möglichen Datenrate. Wir sprechen hier nicht über ein embedded System, sondern über ein größtenteils im FPGA realisiertes System, das die Steuerungsfunktionen über die embedded CPUs ausführt, jedoch alle bandbreitenintensiven Aufgaben direkt in Hardware abwickelt.
Deti
Durchaus auch schon in Erwägung gezogen und auch entsprechende Arbeiten (SATA core in FPGA) identifiziert, sieht aber nicht eniger komplex aus. Lasse mich aber gerne eines Besseren belehren, die Apertus Leute zu denen ich einen guten Draht habe sind auch genau an dieser Fragestellung dran. Jedenfalls Danke für den Tip, im Moment erscheint mir die PC-Lösung aber der schnellere Weg zum Erfolg und ein FPGA ist sowieso erforderlich so dass sich, ggf. unter Nutzung eines größeren Typs der auch die Serializer in Hardware mitbringt, diese Lösung auch machen ließe. Was die Nex angeht war der Ansatz möglichst nur mit dem USB Baustein auszukommen, mal schauen wie weit man mit dem EVK von Cypress so kommt ...
Antwort von Hardware_Expert:
Hier scheint mir doch eher der Weg das Ziel zu sein und der praktische Nutzen gegen NULL zu tendieren.
Das scheint ihn ja nicht zu interessieren und er will konstruktive Kritik. Wir haben ja schon einiges in der Richtung implementiert und ich habe starke Zweifel daran, dass bei dem oben genannten Vorhaben etwas Brauchbares herauskommt.
Gerade die RED Scarlet wäre ja schon fertig und könnte das alles für gute 6k€ - da stellt sich die Frage nach dem praktischen Nutzen erst recht - also soll er halt mal basteln... ;-)
Deti
Scarlet Brain USD 8k, brauchbares Setup USD 12k ! Bitte unterscheiden, 4K camera ist eine Sache, wenns für eine Drittel des Preises machbar ist warum nicht, Nex Modding die andere, hier sprechen wir von ein paar 100 Euro und das lohnt sich sicher bei Setups mit mehreren Kameras. Und BITTE lasst doch mal diesen Pessimismus und diese subtilen Kommentare, das ist hier kein Forum um andere zu mobben - ggf. mal die Nettikette dieses Forums lesen - OK ?
Antwort von deti:
...das ist hier kein Forum um andere zu mobben - ggf. mal die Nettikette dieses Forums lesen - OK ?
Wenn du mit sachlicher Kritik nicht zurecht kommst, dann lass dich von Leuten für deine Ideen loben, die keine Ahnung haben. Ich antworte dir als jemand, der sich selbst mit solchen Themen hauptberuflich befasst. Keiner von uns ist pessimistisch, wir schätzen dein Vorhaben lediglich sachlich korrekt ein.
Mein Vorschlag: Mach erst mal einen Prototyp und dann weißt du, was Sache ist.
Deti
Antwort von Hardware_Expert:
...das ist hier kein Forum um andere zu mobben - ggf. mal die Nettikette dieses Forums lesen - OK ?
Wenn du mit sachlicher Kritik nicht zurecht kommst, dann lass dich von Leuten für deine Ideen loben, die keine Ahnung haben. Ich antworte dir als jemand, der sich selbst mit solchen Themen hauptberuflich befasst. Keiner von uns ist pessimistisch, wir schätzen dein Vorhaben lediglich sachlich korrekt ein.
Mein Vorschlag: Mach erst mal einen Prototyp und dann weißt du, was Sache ist.
Deti
Da haben wir wohl gleiche Voraussetzungen was das berufliche Umfeld betrifft, umso mehr würde ich Kommentare erwarten die die Dinge voran bringen ! Würde die Menschheit alle Ideen in derart in Frage stellen wäre haute wahrscheinlich das Rad immer noch nicht erfunden. Na ja, als die Eisenbahn erfunden wurde haben Mediziner auch behauptet, das fahren sei gesundheitsschädlich ...
Antwort von WoWu:
Also auch von meiner Seite .... lobenswertes Vorhaben und auch, wie ich schon sagte: ein Weg kann ein Ziel sein. Nichts dagegen einzuwenden. Aber ich bin nicht einmal davon überzeugt, dass man bei einem Multikameraeinsatz etwas sparen kann.
Aber ich lerne auch gern dazu und lasse mich überzeugen.
Also, insofern bin ich auch mal gespannt. Sorry, wenn das Hinterfragen falsch angekommen ist. War nicht so gemeint.