Newsmeldung von slashCAM:Hier geht es zur Newsmeldung mit Link und Bildern auf den slashCAM Magazin-Seiten
Antwort von nicecam:
Das unkorrigierte und korrigierte Material hätte man im YouTube-Spot allerdings besser neben- statt nacheinander laufen lassen sollen.
denn:
1. Der Vergleich wäre einfacher gewesen.
2. Liest man den Text dort nicht, könnte man auch den Eindruck gewinnen, in der Post hätte man nachbearbeitet.
Antwort von PeterM:
Vorab wie meine Signatur zeigt lebe und arbeite ich in Shanghai.
Habe leider auf meinem Netbook keinen Proxi um aus China You Tube öffen zu können. Werde das morgen aber im office nachholen.
Ganz allegmein was in daran besonders.
Ganze fisheye generatioen wurden seinerzeits ( vor etwa 10 Jahren ) nur deshalb gemacht um360 grad Panoramen aus 2 Fisheyeaufnahmen zu dewarpen.
Geokorrektur ( warping) ist übrigens in der Veranstaltungstechnik seit vielen Jahren einfach Stand der Technik und das in Echtzeit. Und immer wird die GPU der Grafikkarte entweder in Form eines Direct-X mappings oder über OpenGL bis zu full HD gemacht.
Stichworte
Watchout, coolux, mirrordome.
Das grundsätliche Problem ist, das man immer ein wesendlich höheres Ausgangsignal vom Sensor oder vom Video braucht um ein scharfes full HD Nutzbild zu bekommen.
BTW es passiert schon heute.
Linsenfehler spezi. CA werden doch auch schon seit Jahren digital rausgerechnet.
Hat sich einer mal gefragt warum die relativ billigen Linsen einer EX1/3 oder aber auch einer GH2 AF101 kaum CA haben??
Aber vielleicht ergeben sich mir ja morgen nach Betrachtung des Youtube Videos noch AHA Effekte.