Noch was unklar? Dann in unserem Forum nachfragen
Zum Original-Thread / Zum Videoschnitt Allgemein-Forum

Infoseite // Wieviel DPI hat ein Video Bild



Frage von B.DeKid:


Hi Leute

Mir kamm da mal eine Frage

Wieviel DPI hat eigentlich ein Video Bild?

Gibt es DPI bei Video Bildern?
Kann man das errechnen - wenn ja wie?
Wo kann man dies bzgl. Sachen nach lesen?

Kann mir da jemand zu eine Aussage geben?

Würd mich mal intressieren.

MfG
B.DeKid

Space


Antwort von Chezus:

Soweit ich weiß hat das eine mit dem anderen nichts zu tun.

Schau dir den Artikel mal an
http://generalspecialist.com/2007/08/dp ... seless.asp

Space


Antwort von Lutz Dieckmann:

Hi,

ein Videobild hat generell 72 dpi. Das heißt nicht, daß Du nicht Bilder mit mehr dpi verarbeiten kannst.

Die Ausgabe ist aber immer 72 dpi.

Gruß

Lutz

Space


Antwort von WoWu:

Fernsehbilder haben diesen Bezug nicht.
Fernsehbilder haben lediglich eine Auflösung.
Auf die Länge von einem Inch (25,4 mm) wirst Du auf einem großen Fernseher weniger Bildanteile darstellen können, als auf einem kleinen Monitor.
So gesehen kann nicht das Fernsehbild, sondern bestenfalls der Monitor in PPI (nicht dpi) gemessen werden.

Space


Antwort von MarcBallhaus:

Fernsehbilder haben diesen Bezug nicht.
Fernsehbilder haben lediglich eine Auflösung.
Auf die Länge von einem Inch (25,4 mm) wirst Du auf einem großen Fernseher weniger Bildanteile darstellen können, als auf einem kleinen Monitor.
So gesehen kann nicht das Fernsehbild, sondern bestenfalls der Monitor in PPI (nicht dpi) gemessen werden. Bla bla bla ... wie immer nur Gelaber und keine Antwort ... die Leute wollen Antworten und keine wunderlichen Erklärungen wie es nicht geht, wirst du das irgendwann verstehen?

Die Antwort lautet: 72 dpi.

MB

Space


Antwort von darg:

Fernsehbilder haben diesen Bezug nicht.
Fernsehbilder haben lediglich eine Auflösung.
Auf die Länge von einem Inch (25,4 mm) wirst Du auf einem großen Fernseher weniger Bildanteile darstellen können, als auf einem kleinen Monitor.
So gesehen kann nicht das Fernsehbild, sondern bestenfalls der Monitor in PPI (nicht dpi) gemessen werden. Bla bla bla ... wie immer nur Gelaber und keine Antwort ... die Leute wollen Antworten und keine wunderlichen Erklärungen wie es nicht geht, wirst du das irgendwann verstehen?

Die Antwort lautet: 72 dpi.

MB Nein, die Antwort war doch 42. Wohl nicht aufgepasst beim Hitch Hiker....
Nee aber im ernst, WoWu hat da schon recht, weil die Anzahl and Dots oder Pixel im gesamten Bild fix ist, die Groesse des Monitors aber ein Rolle spielt, also kann es nicht eine Nummer sein. Um das zu beantowrten muss die Bildschirmgroesse mit bekannt sein.
Wenn Du die 72 nur auf den "Eindruck" des Bildes meinst muss man den Abstand UND die Groesse des Monitors kennen. Also ist die Antwort doch 42, aber wie war die Frage nochmal?!

Space


Antwort von Meggs:

Bla bla bla ... wie immer nur Gelaber und keine Antwort ... die Leute wollen Antworten und keine wunderlichen Erklärungen wie es nicht geht, wirst du das irgendwann verstehen?

Die Antwort lautet: 72 dpi.

MB Die Leute wollen richtige Antworten, deine Antwort ist falsch und zeigt, dass auch du nicht weißt was dpi bedeutet.
DPI sind dots per inch, also Pixel pro Zoll. Folglich hängt der dpi Wert eines Videos von 2 Faktoren ab: Der Auflösung und der Größe des Anzeigegerätes.
Auf einem 22 Zoll Monitor mit HD Auflösung hat ein und das selbe Video also mehr dpi als auf einem 30 Zoll Monitor mit HD Auflösung.

Space


Antwort von TiMovie:

ein standbild ausdrucken - das ist deine 1:1 original grösse!
Hat immer 72dpi - egal ob auf einem 30 zoller oder auf einem 13,3 zoller!

Space


Antwort von MarcBallhaus:

Die Leute wollen richtige Antworten, deine Antwort ist falsch und zeigt, dass auch du nicht weißt was dpi bedeutet.
DPI sind dots per inch, also Pixel pro Zoll. Folglich hängt der dpi Wert eines Videos von 2 Faktoren ab: Der Auflösung und der Größe des Anzeigegerätes.
Auf einem 22 Zoll Monitor mit HD Auflösung hat ein und das selbe Video also mehr dpi als auf einem 30 Zoll Monitor mit HD Auflösung. LOL ... das war wohl das Wort zum Sonntag, dabei brauchst eigentlich nur mal bei Wiki nachzulesen. Die Rede ist von DPI nicht PPI, weiterhin ändert sicht die Pixel- oder Punktdichte eben nicht mit der Größe des Anzeigegeräts oder Druckmediums.

Bevor man anderen sagt, sie wüssten etwas nicht, sollte man schon seeeehr genau nachgucken, mein Lieber ;)

MB

Space



Space


Antwort von Axel:

ein standbild ausdrucken - das ist deine 1:1 original grösse!
Hat immer 72dpi - egal ob auf einem 30 zoller oder auf einem 13,3 zoller! ... und hat dann, wie du mit der Photoshop-Voreinstellung leicht selbst überprüfen kannst, im Falle von Pal ziemlich genau die Bildgröße von DIN A4. Die Voreinstellung für DIN A4 hingegen "hat" 300dpi. Dies ist die für den Druck relevante Bezugsgröße, bei der auch Fotos noch scharf reproduziert werden. Eine Broschüre hat eine feste Größe, eben deren Papierformat, und auch einen festen Betrachtungsabstand von ~50 cm. Eine Plakatwand kommt mit deutlich weniger dpi aus, genau wie eine Kinoleinwand, bei beiden erkennt man Raster/Fotokorn/Pixel, wenn man nahe genug ist. Die Auflösungsdichte bei der Ausgabe ist also von der Größe abhängig. Im Falle von Druckmedien sind dpi ein absoluter Wert, der für das gesamte Endprodukt gilt. Grundregel ist, dass die Auflösung einer dafür verwendeten Grafik höher oder gleich sein soll.
Bei Video sind die Pixel der absolute, unveränderliche Wert. Die Voreinstellung 576 x 756 bei 72dpi liefert eine Bezugsgröße, man sieht am besten, in welcher Qualität höher oder niedriger aufgelöste Elemente im Video dargestellt würden. Wählt man hingegen 300dpi, sollte sämtliches Rohmaterial in dieser oder höherer Qualität vorliegen. Frames aus Videofootage sehen grausam aus in 300dpi. Wie gesagt, es sind Bezugsgrößen.

Space


Antwort von Meggs:

Bevor man anderen sagt, sie wüssten etwas nicht, sollte man schon seeeehr genau nachgucken, mein Lieber ;) Die Zusammenhänge kenne ich seit mind. 30 Jahren, damals gabs noch kein Wikipedia.
Ich hab jetzt trotzdem mal reingeschaut, was die dazu schreiben:

Die Auflösung von Monitoren kann mit der absoluten und der relativen Auflösung angegeben werden.

Die Angabe der absolute Auflösung wird in Pixelzahl der Breite mal Pixelzahl der Länge angegeben. Beispielsweise 1280 x 800 Pixel.
Die Angabe der relativen Auflösung wird durch die Anzahl der Bildpunkte in Relation zur Kantenlänge ermittelt (wieviel Pixel gibt es pro Zoll).

Somit können Monitore mit unterschiedlicher Größe bei gleicher „Auflösung“ (eigentlich: Pixelanzahl) unterschiedliche dpi-Werte haben.
Bis heute hält sich hartnäckig das Gerücht, Monitore arbeiten grundsätzlich mit einer Auflösung von 72 dpi. Diese Falschaussage wird auch heute noch an Schulen und Universitäten unterrichtet und hat ihren Ursprung in den Achtziger Jahren, wo zum Desktop Publishing tatsächlich genormte Monitore eingesetzt wurden, die mit einer Auflösung von 72 ppi betrieben wurden. Diese ermöglichten die Darstellung eines Print-Entwurfes in Originalgröße, wobei ein Pixel exakt einem typografischen Punkt (Maßeinheit in der Typografie (Drucktechnik)) entsprach.


Space


Antwort von WoWu:

Soweit ich weiß hat das eine mit dem anderen nichts zu tun.

Schau dir den Artikel mal an
http://generalspecialist.com/2007/08/dp ... seless.asp @ Meggs

Es bringt doch nichts, Ballermann mit Fakten zu kommen .... wenn er seine Videobilder immer ausdruckt, hat er natürlich Recht ... wie immer.
Übrigens hat auch Chezus (oben) einen ganz interessanten Artikel dazu gepostet.
Mal sehn, was denn daran nun wieder nicht stimmt.
Aber mit Lesen scheint es B. ja nicht so zu haben.

Space


Antwort von Jake the rake:

Nehmen wir mal an 72dpi stimmt. Wozu? Warum sollte bei einem Videobild diese Bezugsgröße mit angegeben werden?

Dpi ist doch nur für den Druck relevant. Oder irre ich?

Space


Antwort von B.DeKid:

Vielen Dank erstmal für eure Antworten.

Idee und Grund meiner Frage war folgende Überlegung.

"Würde ein VideoClip in EinzelBilder ausgegeben, diese dann wiederrum als Stapel Verarbeitet , wobei man die DPI Zahl hochsetzt ( nur DPI nicht das Pixel Verhältniss) - würde es dann zu einem besseren Ergebniss auf zB Leinwand oder grossen TV Geräten kommen.

Deshalb die Frage.

Auslöser der Frage war die Idee / Frage eines Freundes gewesen der mich fragte ob man DV AVI Material für das Kino aufwerten/ bearbeiten könne.
Da Ich zwar wusste das es bereits Filme im Kino zu sehen gab die auf SD gedreht wurden , aber den ArbeitsSchritt bzw die DPI Auflösung nicht kannte , stellte Ich diese Frage.

Es ging mir also um die Qualitative Aufwertung von DV AVI Material- durch EinzelBild manipulation und späteres wieder zusammen fügen der StillFrames.

MfG
B.DeKid

Space


Antwort von WoWu:

Egal, wie hoch Du hinterher, sei es über die einen Scan in der Ausbelichtung oder über eine Projektion vergrößerst, Du wirst niemals mehr Bilddetails erzeugen können, als in Deinem Ausgangsmateral durch das Objektiv und den Prozessweg erzeugt sind. .....
Es sind einfach nicht mehr spatiale Details vorhanden.
Sonst könnten wir uns jegliche Auflösungsdiskussion, sei es um HD oder um UHD oder Cinema, schenken, dann würden wir aus einem aufgenommenen Bildpunkt ein perfektes Bild zaubern können, indem wir ihn einfach höher auflösen .....

Space


Antwort von B.DeKid:

@ WoWu

Danke - sprich eine Nachbearbeitung ist nicht sinnvoll.
Und zB SD oder HD Material für Leihnwand wird nur "grösser" gezogen?

Somit wie Axel es sagte macht nur der Abstand zur Leihnwand den Unterschied?

?Mit dem Scannen , meinst Du da Material , welches zB von Film also Negativ Material später digitalisiert wurde / wird?

Danke

MfG
B.DeKid

Weiss jemand ob wenn man SD oder HD auf "KinoFormat" anlegen möchte , nur das Material neu (Pixelmässig) angelegt wird? Oder bleibt es in seinem Ursprungsformat und wird vom Projektor gestreckt?

Space


Antwort von TheBubble:

Idee und Grund meiner Frage war folgende Überlegung.

"Würde ein VideoClip in EinzelBilder ausgegeben, diese dann wiederrum als Stapel Verarbeitet , wobei man die DPI Zahl hochsetzt ( nur DPI nicht das Pixel Verhältniss) - würde es dann zu einem besseren Ergebniss auf zB Leinwand oder grossen TV Geräten kommen. Nein. Ausschlaggebend ist die Anzahl der vorhandenen Pixel.

Space


Antwort von darg:

Wie arbeiten aber DVD Player, die ein upscaling machen, um es auf einem HDTV anzusehen. OK, die Details werden nicht mehr, weil nicht mehr da sein kann, das Bild sieht aber besser aus, als wenn man es auf einem Computermonitor ansieht, wo das Bild aufgeblasen wird und wo das Bild dann eher Kloetchen erzeugt.

Space



Space


Antwort von robbie:

Wie arbeiten aber DVD Player, die ein upscaling machen, um es auf einem HDTV anzusehen. OK, die Details werden nicht mehr, weil nicht mehr da sein kann, das Bild sieht aber besser aus, als wenn man es auf einem Computermonitor ansieht, wo das Bild aufgeblasen wird und wo das Bild dann eher Kloetchen erzeugt. das kannst du nur mit dem gleichen material testen.

upscaler in dvd-playern arbeiten meist besser als ein nicht eingestelltes pc-programm, da sie dafür optimiert sind.

Space


Antwort von TheBubble:

Was die besseren Ergebnisse liefert, muss man ausprobieren. Es gibt viele Verfahren eine Bitmap zu vergrößern, relativ einfache bis sehr aufwendige. Das zu vergrößernde Ausgangsmaterial hat auch einen Einfluss, sowie die zum Teil auch subjektive Beurteilung des Ergebnisses.

Space


Antwort von Axel:

Weiss jemand ob wenn man SD oder HD auf "KinoFormat" anlegen möchte , nur das Material neu (Pixelmässig) angelegt wird? Oder bleibt es in seinem Ursprungsformat und wird vom Projektor gestreckt? Die meisten Kinos beschränken sich auf zwei Formate: 1:1,85 und 1:2,39 (entspricht CS 1:2,35 mit leichtem Crop durch Bildmaske). 16:9 entspricht mit 1:1,77 am ehesten dem ersteren ("Breitwand"). Das Bild wird in diesem Falle ohne Verzerrung gefazt, den kleinen Crop übernimmt die Bildmaske im Projektor (auch das ebenfalls verbreitete europäische Breitwandformat 1:1,66 wird schließlich einfach mit 1,85er Maske vorgeführt). Ein Scope-Bild dagegen ist von Video nur durch argen Beschnitt und somit unter großem Qualitätsverlust zu erreichen. Es bedeutet dieselbe anamorphotische Verzerrung. Selbstzitat aus altem Thread:
Das Videoformat 16:9 (~1:1,77) ist das Quadrat aus 4:3 (~1:1,33)
(16:9) =( 4zum Quadrat : 3zum Quadrat), oder anders:
1,33 x 1,33 = 1,77.
Der Clou kommt jetzt: Mit demselben Faktor multipliziert, ergibt 16:9 Cinemascope!
1,77 x 1,33 = 2,35.
Wer also ein anamorphes 16:9 Bild (16:9 Funktion der Kamera, HDV, das man als DV capturet) durch einen optischen 16:9 Anamorphoten (Century o.ä.) nochmals staucht, erhält entzerrt ein Cinemascope-Format.

Ob sich dieses allerdings qualitativ günstig von einem gecroppten Widescreen-Bild unterscheidet? Müßte man testen.


Space


Antwort von ulfilas:

...dann würden wir aus einem aufgenommenen Bildpunkt ein perfektes Bild zaubern können, indem wir ihn einfach höher auflösen .....

Ja klar, das ist doch genau das, was man immer bei CSI und Konsorten sieht: Man nehme einen einzelnen Bildpunkt einer Aufnahme von einer billigen Überwachungskamera in einem schlecht beleuchteten U-Bahn-Schacht, lasse mehrfach einen ausgekochten Spezialfilter zur Bildverbesserung drüberlaufen - und schwuppdiwupp hat man auf dem Bildschirm nicht nur das gestochen scharfe Konterfei einer Person, sondern man kann sogar noch die Farbe seines Popels im linken Nasenloch erkennen.

Und das Fernsehen würde doch bestimmt nicht lügen, oder ...?

Space


Antwort von frm:

Habt ihr es echt geschafft den Ballhaus sprachlos zu machen. Ich glaub es nicht.

Space


Antwort von MarcBallhaus:

Habt ihr es echt geschafft den Ballhaus sprachlos zu machen. Ich glaub es nicht. Nein, aber der Ballhaus hat ja auch noch einen Job ;)
Die Zusammenhänge kenne ich seit mind. 30 Jahren, damals gabs noch kein Wikipedia. 1979 gab es mit Sicherheit keine digitale Druckverarbeitung und entsprechend auch keine Dots, und was es vor 30 Jahren ebensowenig gab ist digitales Video. Das ist doch sinnloses Geklapper.

------------------

Die Vereinheitlichung von 72 dpi ist Zirka, ein etablierter Durschnittswert aus dem Digital Publishing. Dazu braucht man kein Wiki, sondern ein paar Jahre Erfahrung um zu wissen wovon man redet. Will heissen, während man für 4c/Euroskala Druck 300 DPI braucht um eine vernünftige, gängige Druckdichte zu erhalten - ebenfalls Zirka - entspricht (entsprach) dies bei 1:1 Abbildung etwa 72 dpi am Computermonitor. Die Zahl 72 ist (war) keineswegs fix, aber ein Wert mit dem ein DTPler etwas anfangen kann (konnte). DTP funktioniert in metrischen Größen oder in Zoll, während Video in Pixeln tickt. Für DTP ist die Pixel-Auflösung nicht relevant, für Video jedoch nur, das findet sich entsprechend auch in den Photoshop-Einstellungen wieder. Ich brauche 300 DPI um Euroskala drucken zu können, und 72 DPI um das gleiche Bild am Computermonitor in ähnlicher Größe darstellen zu können, das ist alles worum es hier geht.

Selbstverständlich spielt es in Photoshop keine Rolle, wenn man die Pixelgröße eines Bildes angibt, was bei DPI angegeben ist. Pixel bleibt Pixel, es ist nur relevant wenn man das Bild druckt, weil Photoshop die DPI Angabe nutzt, um die gedruckte Bildgröße zu bestimmen. Und wenn man in PS mit Pixelgrößen arbeitet kann man sicher sein, dass bei der Angabe von 72 DPI das gedruckte Bild in der Größe etwa der Anzeige am Monitor entspricht. That"s it.

Deswegen ist die Angabe von 72 DPI vom Prinzip her immer dann richtig, wenn damit ein Bezug zur abgebildeten Größe am Bildschirm hergestellt werden soll, denn es heisst einfach nur, dass mit dem zugrundeliegenden Bild 72 Punkte/Pixel/Dots/Whatever pro Zoll abgebildet werden müssen, um es in der richtigen Größe darzustellen. Dass ein 22" Monitor mit darstellbaren 90 PPI (Pixel pro Zoll) (bei 1680x1050) das dann unkorrigiert vielleicht zu klein darstellt, ist nicht relevant: Es bleiben 72 DPI (DOTS pro Zoll).

MB

Space


Antwort von WoWu:

Sicher für alle wichtig zu wissen, die ihre Videoaufnahmen ausdrucken wollen.
Für die Druckversionen der Videos gibt es dann wahrscheinlich in den NLEs auch statt einer Videoauflösung, einen entsprechende Einstellmöglichkeit in dpi.

Space


Antwort von Meggs:

Die Vereinheitlichung von 72 dpi ist Zirka, ein etablierter Durschnittswert aus dem Digital Publishing.
...
Deswegen ist die Angabe von 72 DPI vom Prinzip her immer dann richtig, wenn damit ein Bezug zur abgebildeten Größe am Bildschirm hergestellt werden soll... Man sieht, Wolfgang hat mit seiner Einschätzung recht.

Space


Antwort von B.DeKid:

Also wenn Ich euch richtig verstehe bedeutet dies , das DPI nur auf Druckmedien auswirkung hat.

Somit würde die Ausgabe zu EinzelBilder, welche dann als zB 720x576 zu 72DPI vorliegen, welche man dann zuerst auf zB auf 300DPI bringt um Sie dann eventuell auch auf ein neues PixelVerhältniss zu strecken - BRINGT NICHTS.

Ok- war halt nur eine Idee.
Ob man so vor gehen könnte um bessere Ausgabe Quali zu erreichen wenn Material aufgebläht wird.

Ich finde persl. diese Idee bzw generell das kompremieren und aufwerten von Footage immer intressant und spannend und verfolge zB schon seit BinkCodec und den ersten Std. von DIVX alle Entwicklungen auf dem Sector "Kompremierung und da stellte sich halt die Frage ob man nicht auch mal in die andere Richtung denken könne - sprich aufwertung von Material.

Aus dem Bereich Foto / Druck bin Ich mir bewusst wieviel verschiedene Möglichkeiten es gibt Fotos Druck fertig zu gestallten bzw worauf man alles achten muss und kann.

Desshalb die doch relativ "kindliche Frage " meinerseits bzgl. DPI und PixelVerhältniss eines Video Frames.

Ich dank euch aber herzlichst für eure Mühen und die teils wirklich guten Links die Ihr zusammen getragen habt.
Danke!

MfG
B.DeKid

Space



Space


Antwort von Meggs:

Somit würde die Ausgabe zu EinzelBilder, welche dann als zB 720x576 zu 72DPI vorliegen, welche man dann zuerst auf zB auf 300DPI bringt um Sie dann eventuell auch auf ein neues PixelVerhältniss zu strecken - BRINGT NICHTS. 720 x 576 in 72 dpi bedeutet: Das Video hat 720 x 576 pixel, auf dem gewählten Monitor werden 72 Pixel pro Zoll angezeigt.

720 x 576 in 300 dpi bedeutet: Das Video hat immer noch 720 x 576 Pixel. Du hast aber jetzt einen anderen Monitor, der 300 Pixel pro Zoll anzeigt. An dem Video selbst und dessen Auflösung (Pixelanzahl) hat sich nichts verändert, es wird jetzt aber viel kleiner angezeigt.

Beim Drucken ist es ebenso. Der DPI Wert sagt nichts über die Anzahl der Pixel eines Fotos aus. Man kann ein Foto, das nur 150 x 100 Pixel hat, ohne Weiteres mit einer Auflösung von 3000 dpi ausdrucken. Es wird dann halt sehr klein.

Bei SD-Videos müsste eigentlich immer ein horizontaler und ein vertikaler dpi-Wert angegeben werden, da die horizonale Auflösung hier kleiner ist als die vertikale.

Mit einem einfachen 3-Satz kann jeder nachrechnen, dass ein SD-Video mit 720 x 576 Pixeln bei 72 dpi am Monitor 10 Zoll breit und 8 Zoll hoch wäre, also ein Seitenverhältnis von 5:4 hätte.

Space


Antwort von MarcBallhaus:

Man sieht, Wolfgang hat mit seiner Einschätzung recht. Natürlich hat er das. Hätte ich geschrieben: Die meisten Mädels haben eine ***von admin gelöscht***, hätte ich mit dieser Einschätzung auch richtig gelegen. Und weiter?

Ebensowenig wie es dem TS darum ging zu erfahren, wer Muschis hat und wer nicht, will man als TS auch nicht wissen warum man etwas angeblich nicht beantworten kann. Nein, als TS ist man auf der Suche nach einer Antwort, und die habe ich im ersten Post gegeben, im zweiten begründet.

Das nennt man ergebnisorientieres Agieren. Das ist doch nicht wirklich schwer zu verstehen.
720 x 576 in 300 dpi bedeutet: Das Video hat immer noch 720 x 576 Pixel. Du hast aber jetzt einen anderen Monitor, der 300 Pixel pro Zoll anzeigt. An dem Video selbst und dessen Auflösung (Pixelanzahl) hat sich nichts verändert, es wird jetzt aber viel kleiner angezeigt. Das ist vollkommener Unsinn. Ein Monitor hat keine DPI, sonder PPI. Ein 720x576 Pixel grosses Bild wird am Monitor immer gleich groß dargestellt, nur unterschiedlich groß gedruckt.

Mit einem einfachen 3-Satz kann jeder nachrechnen, dass ein SD-Video mit 720 x 576 Pixeln bei 72 dpi am Monitor 10 Zoll breit und 8 Zoll hoch wäre, also ein Seitenverhältnis von 5:4 hätte. So ein unglaublicher Quatsch, nicht zu fassen. Ein 720x576 Bild ist am Monitor immer 720x576 Pixel groß. Nochmal zur Nachhilfe: DPI = Dots per Inch - DOTS, nicht PIXEL!!!

MB

Space


Antwort von WoWu:

@ Meggs

Gib es auf ... gegen das Geschnatter kommst Du nicht an.
Er kann nicht mal richtig und vollständig lesen, was Du geschrieben hast.

Space


Antwort von rudi:

Ganz kurz mal auch aus der Redaktion, weil es hier jetzt schon wieder unter die Gürtellinie geht. (was ich gerade geschwärzt habe).

DPI (und auch PPI) ist einfach nur eine Verhältniszahl, die beschreibt, in welcher Dichte (!!) die vorhandenen Pixel dargestellt werden.
Bei 72 DPI werden 72 Pixel auf einem Zoll (2,54 cm) dargestellt.

Betrachten wir das ganze mal vereinfacht nur horizontal:
DV würde also mit 720 Pixel bei 72 DPI auf einem Monitor mit 10 Zoll Breite dargestellt werden. Wenn es sich um einen Monitor handelt, der 20 Zoll breit ist, hätte die Darstellung nur noch 36 DPI.
Wohlgemerkt wenn der Monitor mit der Auflösung 720 x 576 fahren würde.

DPI beschreibt immer nur die Darstellung, und hat nichts mit der Videodatei selbst zu tun. Einzig mit der Größe des Ausgabemediums bezogen auf dessen Auflösung.

Drum ist es wirklich totaler Quatsch zu sagen, Video hat 72 DPI. (nur weil Photoshop das mal als Default annimmt)

LG

Rudi

Space


Antwort von LarsProgressiv:

Hallo Marc,

Du veröffentlichst hier Dein in diesem Zusammenhang falsches Halbwissen dermaßen unbeirrt und unbelehrbar, dass ich auch mal etwas schreiben muss. Das ist vollkommener Unsinn. Ein Monitor hat keine DPI, sonder PPI. Ein 720x576 Pixel grosses Bild wird am Monitor immer gleich groß dargestellt, nur unterschiedlich groß gedruckt. Ein Monitor hat sehrwohl auch DPI, nur dass diese Dots (meist) aus drei Pixel bestehen. Also gilt bei herkömmlichen Monitoren (Flachbild oder nicht) DPI=3*PPI in horizontaler Auflösung in vertikaler Ausflösung ist diese DPI-Zahl schon schwieriger zu definieren.
So ein unglaublicher Quatsch, nicht zu fassen. Ein 720x576 Bild ist am Monitor immer 720x576 Pixel groß. Nochmal zur Nachhilfe: DPI = Dots per Inch - DOTS, nicht PIXEL!!!

MB Du hast wohl Recht, wenn Du sagst, dass ein 720x576 großes Bild immer als 720x576 Pixel großes Bild dargestellt wird. Aber nun beziehe das mal auf eine Längeneinheit, wenn es sich um einen Projektor handelt, der in unterschiedlichem Abstand zur Projektionsfläche steht! Dann kommen da ganz schnel sehr unterschiedliche DPI oder auch PPI Zahlen heraus.

Einem Video kann, aufgrund seiner Eigenschaft nicht mit einem fest definierten Ausgabemedium verknüpft zu sein, keine DPI oder PPI Zahl zugeordnet werden. Diese Zahl macht nur Sinn im Zusammenhang mit einem Ausgabemedium (Drucker, Monitor, Projektor, ...) und dessen Darstellungsmaße.

Diese DPI Zahl wird von vielen Bildbearbeitungsprogrammen dermaßen vergewaltigt, dass solche Fragen dabei herauskommen.

Der Link von Chezus war schon ganz gut.

Grüße
Lars

Space


Antwort von MarcBallhaus:

Ganz kurz mal auch aus der Redaktion, weil es hier jetzt schon wieder unter die Gürtellinie geht. (was ich gerade geschwärzt habe).

DPI (und auch PPI) ist einfach nur eine Verhältniszahl, die beschreibt, in welcher Dichte (!!) die vorhandenen Pixel dargestellt werden.
Bei 72 DPI werden 72 Pixel auf einem Zoll (2,54 cm) dargestellt.

Betrachten wir das ganze mal vereinfacht nur horizontal:
DV würde also mit 720 Pixel bei 72 DPI auf einem Monitor mit 10 Zoll Breite dargestellt werden. Wenn es sich um einen Monitor handelt, der 20 Zoll breit ist, hätte die Darstellung nur noch 36 DPI.
Wohlgemerkt wenn der Monitor mit der Auflösung 720 x 576 fahren würde.

DPI beschreibt immer nur die Darstellung, und hat nichts mit der Videodatei selbst zu tun. Einzig mit der Größe des Ausgabemediums bezogen auf dessen Auflösung.

Drum ist es wirklich totaler Quatsch zu sagen, Video hat 72 DPI. (nur weil Photoshop das mal als Default annimmt)

LG

Rudi Komisch. Seit 19 Jahren kenne ich dieses Thema und habe schon Anfang der 90er in der Redaktion des damals größten Computerfachzeitschriftenverlags gelernt, dass die Monitordarstellung mit 72 DPI anzugeben ist. Und nun kommst du daher und weisst es besser.

Sorry, aber ich lach mich schlapp über dein "Betrachten wir mal ....", spiel hier als taufrischer Moderator doch bitte nicht den Oberlehrer, das geht echt garnicht!!! Ich würde an deiner Stelle vor allem mal hinterfragen warum PS das per Default hinschreibt. Wenn es eine Firma gibt in DTP Kompetenz besitzt, dann ja wohl Adobe. Und, nicht nur Video hat 72 DPI, sondern die Monitordarstellung als solche ist auf diesen Wert "genormt".

Weiterhin: 720 Pixel sind nicht relevant für deiner merkwürdige Rechnung, sondern entweder 768, 1024, 1280 oder 1920.

Und übrigens, zu schreiben, dass Mädels meistens eine Muschi haben ist ein simpler Syllogismus der zwar anatomisch betrachtet ein paar Zentimeter unter der Gürtellinie stattfindet, mit Sicherheit aber nicht moralisch anstößig sein dürfte und damit auch moralisch betrachtet nicht unter besagter Linie einzuordnen ist. Das Wort "Muschi" zu schwärzen ist wirklich sehr peinlich.
Ein Monitor hat sehrwohl auch DPI, nur dass diese Dots (meist) aus drei Pixel bestehen. Also gilt bei herkömmlichen Monitoren (Flachbild oder nicht) DPI=3*PPI in horizontaler Auflösung in vertikaler Ausflösung ist diese DPI-Zahl schon schwieriger zu definieren.
Ein Dot besteht aus drei Pixeln? LOL ... Karneval machts möglich.
@ Meggs

Gib es auf ... gegen das Geschnatter kommst Du nicht an.
Er kann nicht mal richtig und vollständig lesen, was Du geschrieben hast. Sei doch froh, endlich hast du jemand der dir dein feuchtkaltes Händchen hält wenn der böse Ballhaus kommt ...

MB

Space


Antwort von rudi:

Komisch. Seit 19 Jahren kenne ich dieses Thema und habe schon Anfang der 90er in der Redaktion des damals größten Computerfachzeitschriftenverlags gelernt, dass die Monitordarstellung mit 72 DPI anzugeben ist. Und nun kommst du daher und weisst es besser. Mein lieber Marc,

als Design am Computer aufkam, war es tatsächlich üblich bei einer Monitordarstellung 72 DPI anzunehmen. Aber das ist -wie du selber angibst- schon einige Jahre her und hat noch dazu nichts mit Video zu tun. Auch im Print oder Webdesign wirst du heute keinen seriösen Gestalter mehr finden, der einfach davon ausgeht, dass ein Monitor 72 dpi hat, weil das einfach nicht mehr stimmt.

Nicht für ungut, ich bin raus.

Rudi

P.S. Ich habe auch schon vor 12 Jahren u.a. für die c"t geschrieben und bin schon eine ganze Weile mit der Materie vertraut.

Space


Antwort von MarcBallhaus:

Du hast wohl Recht, wenn Du sagst, dass ein 720x576 großes Bild immer als 720x576 Pixel großes Bild dargestellt wird. Aber nun beziehe das mal auf eine Längeneinheit, wenn es sich um einen Projektor handelt, der in unterschiedlichem Abstand zur Projektionsfläche steht! Dann kommen da ganz schnel sehr unterschiedliche DPI oder auch PPI Zahlen heraus. Ich kann das Lineal auch 10 cm vor den Monitor halten und selbst aus der Entfernung von 1m lesen. Und was ändert das deiner Meinung nach an der Auflösung? Richtig: Nichts. Das ist doch auch garnicht das Thema!

Ich habe diesbezüglich auch einen interessanten Artikel gefunden:

http://praegnanz.de/essays/72dpi

Dort findet sich genau das wieder, was ich geschrieben habe, nämlich die Herkunft der Angabe von 72 DPI aus der DTP Welt und dass es lediglich ein Vergleichsparameter ist, der unter DTPlern seit Ewigkeiten eingebürgert ist.

MB

Space


Antwort von B.DeKid:

Gude

Also Ich hab jetzt hier mal eine nette Seite gefunden die einigen hier eventuell weiter helfen kann bzw. gewisse hier im Thread gefallene FachWörter oder auch Formeln zur berechnung von Faktoren bereit stellt.

http://www.elmar-baumann.de/fotografie/ ... index.html

Darin habe Ich nach folgenden Sachen mal geschaut.

http://www.elmar-baumann.de/fotografie/ ... en-03.html

http://www.elmar-baumann.de/cgi-bin/skr ... tag=Formel

http://www.elmar-baumann.de/cgi-bin/sea ... =all&q=ppi

http://www.elmar-baumann.de/cgi-bin/skr ... igitalbild


Also meiner Ansicht nach eine ganz gute kleine Seite bzgl. vieler Fragen also nicht nur auf das jetzige Thema bezogen.

MfG
B.DeKid

PS: Mich intressiert also eigentlich immer noch in wie fern man zB. SD Material aufwerten kann - so das es auf grösseren AusgabeGeräten als dem "Röhren" TV gut aus schaut. ( Also die rechneriche Seite intressiert mich, nicht so sehr welches Progi man dazu verwenden kann - und ob dies durch die bearbeitung der StillFrames geht)

Space



Space


Antwort von Meggs:

Ich will lieber mit Weisen irren, als mit Unwissenden recht zu behalten. (Cicero) Ich glaube, du hast Cicero falsch verstanden. Der meinte damit nicht, um jeden Preis recht behalten wollen und dabei vollkommen unbelehrbar sein.

Space


Antwort von MK:

Wenn es eine Firma gibt in DTP Kompetenz besitzt, dann ja wohl Adobe. Und, nicht nur Video hat 72 DPI, sondern die Monitordarstellung als solche ist auf diesen Wert "genormt". Naja, in Premiere stimmt das angegebene Pixelseitenverhältnis für 720x576 Formate auch nicht (da wird das Verhältnis auf 704 bezogen).

Space


Antwort von MarcBallhaus:


Ich glaube, du hast Cicero falsch verstanden. Der meinte damit nicht, um jeden Preis recht behalten wollen und dabei vollkommen unbelehrbar sein. Ah ja, jetzt wo du es sagst. Danke für die Erklärung. Aber, btw, was genau stimmt an meinen Ausführungen denn nicht? Welcher Satz genau?

MB

Space


Antwort von LarsProgressiv:

Hallo Marc,
Ein Monitor hat sehrwohl auch DPI, nur dass diese Dots (meist) aus drei Pixel bestehen. Also gilt bei herkömmlichen Monitoren (Flachbild oder nicht) DPI=3*PPI in horizontaler Auflösung in vertikaler Ausflösung ist diese DPI-Zahl schon schwieriger zu definieren. Ein Dot besteht aus drei Pixeln? LOL ... Karneval machts möglich.
MB die Arithmetik dahinter versteht sich so:
DPI-Zahl = 3 mal die PPI-Zahl
also:
2160 Dots = 3 Dots/Pixel * 720 Pixel

Ist doch nicht schwer, oder?

Grüße
Lars

Space


Antwort von Meggs:


Ich habe diesbezüglich auch einen interessanten Artikel gefunden:

http://praegnanz.de/essays/72dpi Liest du eigentlich die Artikel, welche du hier linkst?

Am größten gedruckt steht in diesem Artikel der Satz:
Was bringt uns die 72dpi-Regelung also in der Praxis? Einen extrem groben Richtwert, der zudem veraltet ist und auf 90–100dpi erhöht werden müsste, wenn er nicht generell begraben werden sollte.

Space


Antwort von MarcBallhaus:

Am größten gedruckt steht in diesem Artikel der Satz: Und? Habe ich doch auch geschrieben, nämlich:
Dass ein 22" Monitor mit darstellbaren 90 PPI (Pixel pro Zoll) (bei 1680x1050) das dann unkorrigiert vielleicht zu klein darstellt, ist nicht relevant: Es bleiben 72 DPI (DOTS pro Zoll).
MB Wissen wir doch alles. Du verstehst es nicht, oder? Man ging früher einfach davon aus, dass ein Pixel eine feste Größe hat, und die hat man dann an irgendeinem Referenzmonitor (was weiss ich welcher es war) mit 72 DPI gemessen, der hatte dann auch exakt 72 PPI - logisch!!!!!

Ein Videobild hat entsprechend heute immer noch 72 DPI, aber eben 90 PPI, da sich die Angabe von DPI noch immer auf den (meinetwegen veralteten) Referenzmonitor bezieht. Immer noch logisch, denn ein Monitor hat auch heute noch keine Dots sondern Pixel.

Und ich habe auch bestätigt, dass WoWu durchaus nicht unrecht hat, lies doch einfach mal weiter oben. Es ist nur nicht relevant, weil die Frage lautete: Wieviel DPI hat Video, nicht wieviel PPI. Und habe sie von Anfang an mit 72 beantwortet und auch nichts anderes geschrieben als im Artikel auch steht.

Ist es so schwer zu akzeptieren dass ich im Recht bin?
die Arithmetik dahinter versteht sich so:
DPI-Zahl = 3 mal die PPI-Zahl
also:
2160 Dots = 3 Dots/Pixel * 720 Pixel Du solltest dich langsam Mal entscheiden ob du meinst, dass ein Pixel aus 3 Dots besteht (wie hier jetzt von dir geschrieben) oder ein Dot aus 3 Pixel (wie zuvor behauptet). Verkauf mich doch bitte nicht für dumm, es hat vor allem nicht das geringste mit der Threadfrage zu tun.

MB

Space


Antwort von MHK:

Iss ja trollig was hier abgeht ;) da sag ich lieber nix dazu, und schmunzle vor mich hin
PS: Mich intressiert also eigentlich immer noch in wie fern man zB. SD Material aufwerten kann - so das es auf grösseren AusgabeGeräten als dem "Röhren" TV gut aus schaut. ( Also die rechneriche Seite intressiert mich, nicht so sehr welches Progi man dazu verwenden kann - und ob dies durch die bearbeitung der StillFrames geht) Da hab ich Ende letzten Jahres etwas rumprobiert. Wollte die Handy-Bilder meiner Bekannten vom USA Urlaub etwas aufwerten. Dabei bin ich über einen anderen Verfahrensansatz gestoßen.
Und zwar wurden bei dem Programm z.b. die 30 fortlaufenden Frames analysiert und die neuen Bilder daraus errechnet. Also z.B. Hast du Frame Nr. 240, da hat man dann die Frames 225 bis 255 mit in die neuberechnung des neuen Frames 240 einfließen lassen.
Das Ergebnis war duchaus überzeugend, es gab einen gewissen schärfegewinn und auch das *ruckeln* der Kamera wurde etwas Ausgeglichen. Alles in allem war ich vom Ergebnis doch recht angetan.
Aber das war eher so ein kleines Experiment ;)

MfG MHK

Space


Antwort von Plenz:

Iss ja trollig was hier abgeht ;) da sag ich lieber nix dazu, und schmunzle vor mich hin .. was natürlich auch niemanden weiter bringt.

Ein Bild hat generell keine DPI von Natur aus, es hat nur eine Höhe und eine Breite in Pixeln. Wer's nicht glaubt, sollte einfach mal ein Bild mit IrfanView öffenen, da kann man eine beliebige DPI-Zahl zuordnen.

Der DPI-Wert bekommt erst dann Sinn, wenn ein Bild auf Papier gedruckt werden soll.

Da wollte neulich eine Redaktion ein Foto abdrucken, das ich in die Wikipedia geladen hatte. Man fragte mich, wieviel DPI das Foto denn hätte und ob ich es auch mit einer feineren Auflösung zur Verfügung stellen könne. Und so was wollen Fachleute sein...! Ich antwortete, ich wüsste ja nicht, wie groß das Foto gedruckt werden solle, es hat so und so viele Pixel, und wenn sie es mit 300 dpi drucken, wird es so und so groß, reicht das? Ich hatte schon eine nervige Diskussion befürchtet, aber nein: sie waren mit dieser Auskunft zufrieden. Na bitte.

Space


Antwort von MHK:

.. was natürlich auch niemanden weiter bringt. genau deswegen, mittlerweile wurde jeder Standpunkt X-mal vertreten. Es gibt keine neuen Meinungen mehr ;) Auch wurde mittlerweile jeder Standpunkt durch mehr oder weniger gute Links untermauert. Es sollte reichen um sich ein eigenes Bild zu machen.

= = = = = =

Aber mal zurück zu der *Bildverbesserungsgeschichte*. Da gab es bis mindestens 05.12.2008 eine Webseite, die sich www.fixmymovie.com nannte. Ich dachte Sie wäre noch online, aber der Anbieter hat den Dienst dahingehend eingestellt, daß man dort nix mehr uploaden kann. Man findet entsprechend einen Hinweis auf ein neues Produkt vReveal (bis Anfang Dezember noch unter dem Namen *Carmel*).
Hersteler & Produktinfos: http://www.motiondsp.com/products/vReveal

Sicher schreit der Anbieter ziemlich laut herum mit z.B. "high-end software tool for "CSI-style" video forensics" aber ich finde am Ende zählt das was hinten heraus kommt. Und das fand ich dann doch schon gut.
Es bleibt natürlich abzuwarten was das Programm dann wirklich leistet wenn es mal frei auf dem Markt verfügbar ist, weil aktuell habe ich auf die schnelle keinen Download mehr gefunden (aber auch nicht wirklich gesucht).

MfG MHK

Space



Space


Antwort von PowerMac:

Es gibt bei Video keine DPI, das ist nämlich sinnlos. Alle, die gegenteiliges behaupten, gehen bitte morgen früh zum Professor für Medientechnik von einst oder zu einem MAZ- oder Bildingenieur.

Space


Antwort von B.DeKid:

OT - der 5 Jahreszeit willen

@ Mark

Nach 8 Litern Alt ist wohl klar was da horizontal liegt;-)
Aber macht ja nichts ,denn Ich erzähl Dir dann später ob Sie auch PlüschHandschellen dabei hatte und was Sie so alles mit dem Knüppel anstellen konnte;-)
LoL

?Sach - gabs in D"dorf dieses Jahr wieder mehr Kamelle als bei euch;-) ?

Hellau aus Mainz von nem wasch echten Neusser !!!
...........................................................................................................

@Powermac

Gude

Also Ich stellte die Frage ja und war mir dessen nicht bewusst das es "eigentlich " kein DPI in Video oder Film gibt.
Bin derweil aber eines besseren belehrt worden, oder vielleicht nicht?

Auf jeden Fall scheint es etwas schwieriger zu sein , Bild Material aufzuwerten bzgl. der Quali als nur die DPI hoch zu setzen und neue Pixelverhältnisse an zu legen.

Spannend find Ich die Thematik aber trotzdem.

-----------------------------------------------------------

@ MHK

Also im IRC waren nen paar Sachen / Diskussionen zu dem *Carmel* bzw. der Technik bzgl. Video Enhancement, werd Ich morgen mal weiter suchen , vielleicht findet sich ja da irgendwo ne SourceCode Quelle oder ähnliches, denn der Algorithmus würd mich ja mal intressieren. Bzw. wie man so was automatisiert / schreibt.


MfG
B.DeKid

Space


Antwort von LarsProgressiv:

Hallo Marc,
Man ging früher einfach davon aus, dass ein Pixel eine feste Größe hat, und die hat man dann an irgendeinem Referenzmonitor (was weiss ich welcher es war) mit 72 DPI gemessen, der hatte dann auch exakt 72 PPI - logisch!!!!! Wo ist Deine Quelle? Ich meine außer Deinem Gedächtnis!
Wieso macht man dann aus Dots auf einmal Pixel oder umgekehrt?
Ist es so schwer zu akzeptieren dass ich im Recht bin? Ja, denn es wäre unlogisch und falsch. Ich brauche eine unparteiische, anerkannte dritte Quelle, die die DPI-Zahl eines Videos definiert, um Dir zu glauben. Ich bin durchaus lernwillig.
die Arithmetik dahinter versteht sich so:
DPI-Zahl = 3 mal die PPI-Zahl
also:
2160 Dots = 3 Dots/Pixel * 720 Pixel Du solltest dich langsam Mal entscheiden ob du meinst, dass ein Pixel aus 3 Dots besteht (wie hier jetzt von dir geschrieben) oder ein Dot aus 3 Pixel (wie zuvor behauptet). Ich habe nie behauptet, dass ein Dot aus 3 Pixeln besteht! Denn ich schrieb die Einheit DotsPerInch (DPI) und nicht Dot = 3 Pixel oder ähnlich!
Verkauf mich doch bitte nicht für dumm, es hat vor allem nicht das geringste mit der Threadfrage zu tun.

MB Das war die Formulierung, die mich dazu brachte doch noch etwas zu schreiben.
Was hat Deine Behauptung: Das ist vollkommener Unsinn. Ein Monitor hat keine DPI, sonder PPI. mit der Threadfrage zu tun? Meine Antwort war nur eine auf diese Behauptung! Warum soll ich nicht darauf antworten dürfen?

Grüße
Lars

Space


Antwort von Meggs:

Ein Videobild hat entsprechend heute immer noch 72 DPI, aber eben 90 PPI, da sich die Angabe von DPI noch immer auf den (meinetwegen veralteten) Referenzmonitor bezieht. Immer noch logisch, denn ein Monitor hat auch heute noch keine Dots sondern Pixel. Logisch ist daran gar nichts, die 90 ppi sind genauso falsch wie die 72 dpi. Den falschen Bezug auf den Referenzmonitor von damals machen vielleicht außer dir noch ein paar, die das irgend wann mal gelernt, aber schon damals nicht verstanden haben, wie diese auswendig gelernte Zahl zustande kommt. Richtiger wird es dadurch nicht.

Ein Bild hat generell keine DPI von Natur aus, es hat nur eine Höhe und eine Breite in Pixeln.
...
Der DPI-Wert bekommt erst dann Sinn, wenn ein Bild auf Papier gedruckt werden soll. Genau so ist es.

Es gibt bei Video keine DPI, das ist nämlich sinnlos. So kann man es auch ausdrücken.

Space


Antwort von Meggs:

Da wollte neulich eine Redaktion ein Foto abdrucken, das ich in die Wikipedia geladen hatte. Man fragte mich, wieviel DPI das Foto denn hätte und ob ich es auch mit einer feineren Auflösung zur Verfügung stellen könne. Und so was wollen Fachleute sein...! Das scheint bei den Werbegrafikern verbreitet zu sein. Ich musste mal mit ner Werbeagentur zusammenarbeiten, die mir Grafiken zur Einbindung in ein Programm liefern sollten. Ich machte die Vorgabe 640 x 480 als Bildgröße. Die riefen an und fragten mit wieviel dpi. Ich sagte das ist mir egal, solange die Grafik 640 x 480 Pixel hat - Ratlosigkeit und Unverständnis bei der Gegenseite.

Space


Antwort von WideScreen:

Ich drucke eine Grafi auf einen Luftbalon mit sagen wir 100 dpi. Dann blase ich noch ein wenig weiter auf. Hats dann immer noch 100dpi? Nein. Wieso sollte dann ein TV das haben, wenns von 8 zoll bis 70 Zoll alles bei gleicher Pixelzahl gibt.

Verstehe gar ned wie die Leute sich so aufregen können? *lach* Eine einfache Frage, und einige gehen hier ab, wie ein Zäpfchen.... *lol*


*helau*

Space


Antwort von MarcBallhaus:

Ich drucke eine Grafi auf einen Luftbalon mit sagen wir 100 dpi. Dann blase ich noch ein wenig weiter auf. Hats dann immer noch 100dpi? Nein. Wieso sollte dann ein TV das haben, wenns von 8 zoll bis 70 Zoll alles bei gleicher Pixelzahl gibt. Hat es, weil mit der Angabe von 72 DPI nicht dein Luftballon und nicht dein HomeTV gemeint ist, sondern der Referenzmonitor von einst. Es geht doch nur darum festzulegen, dass bei 72 DPI das Bild auf dem Monitor in etwa (einst exakt) so groß ist wie das gedruckte bei 300 DPI.

Weiterhin würde es wesentlich mehr über die Schärfe aussagen, wenn man TV Geräte mit PPI bewerben würde als mit "Full HD" und "HD Ready" gepaart mit der Bilddiagonale. Überleg mal, eigentlich ist das der größe Beschiss und PPI wären wesentlich transparenter. Hohe PPI-Zahl = hohe Schärfe, Kleine PPI-Zahl = niedrige Schärfe. Stattdessen muss man erstmal den Taschenrechner samt höherer Algebra bemühen um zu erahnen ob das Bild was taugen könnte. Und das soll clever sein?

Der Sinn liegt einfach darin, dass wenn dich ein Werbefuzzi fragt, wie groß das Bild ist, er mit der Angabe 72 DPI weiss, dass es nur für Bildschirmdarstellung reicht. Das Problem ist hier glaub ich in erster Linie, das die meisten mitredenden zu junge PC User und noch dazu Macianer sind. Und die Verwendung von DPI als sinnlos zu bezeichnen ist leider anmaßend und kann nur von Ahnungslosen kommen, meine Herren. Anmaßend ist auch dieser Blödsinn:

(...)Den falschen Bezug auf den Referenzmonitor von damals machen vielleicht außer dir noch ein paar, die das irgend wann mal gelernt, aber schon damals nicht verstanden haben, wie diese auswendig gelernte Zahl zustande kommt. Richtiger wird es dadurch nicht.

(...) Der Mac war mit großem Abstand der erste Computer, mit dem man Grafiken bearbeiten und DTP betreiben konnte, bevor es Windows gab, bevor es beim PC überhaupt VGA gab. Der Mac hat von Anfang an mit metrischen Größen und dergleichen funktioniert, und sich um Pixel und Natives nie gekümmert. Wenn man einen Macianer gefragt hat, welche Auflösung sein Monitor hat, kam meist Achselzucken oder die Ansage 72 DPI. Die Pixel haben ihn nicht interessiert. Wieso auch? Ebensowenig hat ihn interessiert, wieviele Dots der Drucker in einer Reihe abbilden konnte, was genauso sinnlos zu wissen war. Wichtig war nur: Wie scharf kann das Ding! 72 DPI ist Monitorschärfe, 300 DPI ist Druckschärfe, 600 DPI ist Rattenschärfe!

Jeder der sich mit dem Kern von Windows ein wenig auskennt, weiss auch dass man das bei Windows versucht hat (Stichwort: TPP = Twips per Pixel), es aber nicht zu etablieren geschafft hat. Die ganze Windows API kam in den ersten Fassungen mit Twips als Größenangabe daher, wohingegen bereits die SDKs der folgenden IDEs auch aus dem Hause Microsoft schnell wieder auf Pixel umstiegen, weil es unter DOSianern nicht akzeptiert wurde.

Das ist mit ein Grund, warum ihr davon ausgeht, die Angabe von Pixel sei besonders clever, weil ihr es nicht anders kennt. Klug ist es aber ganz und garnicht, es ist vielmehr eine unterschiedliche Herangehensweise, einmal Mac/PC und einmal Print/Video. Und beim Mac fallen zufällig zwei dieser Parameter zusammen.

Vielleicht hat der Drucker durch den Erfolg von Digitalkameras ein wenig an Bedeutung verloren, aber ich habe noch keinen gesehen, auch von euch nicht, der mir sagt mit wievieln Pixeln er ein Bild druckt. Jeder der druckt, will ein metrische Größe wissen, keine Pixel, natürlich nicht, denn die Drucker lösen unterschiedlich auf, plus Siebdruck und Co wird es zur kompletten Sinnlosigkeit weil die Angabe von Pixeln absolut nichts über die Bildgröße aussagt. So würde ein DTPler jetzt mit gleicher Berechtigung sagen: "Die Angabe von Pixeln ist sinnlos, ich will wissen ob es scharf ist."

Es stimmt beides nicht, wobei für die Zukunft zu erwarten ist, dass die Angabe von Pixeln wieder sinnlos wird. Warum? Ganz einfach, Video wird immer höher auflösen, Monitore auch, Digitalbilder tun es jetzt schon. Es ist jetzt schon sinnlos zu wissen, aus wievielen Pixeln BxH ein 12 Megapixel Bild besteht, weil es ohnehin größer als der Monitor ist. Also was soll ich mit dieser Größenangabe, ich kann sie doch garnicht darstellen!!! Wenn ich aber beispielsweise weiss, dass mein Monitor z. B. 100 PPI kann und 50cm breit ist, weiss ich auch, dass ein Bild mit 50cm breite und 400 DPI hoch genug auflöst um 400% hineinzuzoomen. Klingt das nicht cleverer? So denkt ein Grafiker, und ich finde es offen gesagt weitaus praktikabler als die Angabe von Pixeln, denn diese sagt deutlich weniger über die darstellbare Bildgröße aus.

Im Moment trifft das nur auf Still Images zu, aber es ist doch klar zu erwarten, dass Video sich weiter entwickeln und höher Auflösen wird. In 10 Jahren werden dann hier auch einige Videojunkies behaupten, dass die Angabe von Pixeln sinnlos sei, denn PPI oder DPI sagt mehr über die Bildschärfe am jeweiligen Anzeigegerät aus, das bis dahin auch nicht mehr nur der Monitor sein wird. Jetzt übrigens auch schon nicht.

MB

Space


Antwort von Meggs:

Der Sinn liegt einfach darin, dass wenn dich ein Werbefuzzi fragt, wie groß das Bild ist, er mit der Angabe 72 DPI weiss, dass es nur für Bildschirmdarstellung reicht. Das Problem ist hier glaub ich in erster Linie, das die meisten mitredenden zu junge PC User und noch dazu Macianer sind. Und die Verwendung von DPI als sinnlos zu bezeichnen ist leider anmaßend und kann nur von Ahnungslosen kommen, meine Herren. Anmaßend ist auch dieser Blödsinn: Wenn ein Werbegrafiker die Info hat, dass er ein Bild mit der Auflösung von 640 x 480 Pixeln schicken soll, macht die Frage nach den dpi keinen Sinn. Wer wie du was anderes sagt, bringt damit zum Ausdruck, dass er diese simplen Zusammenhänge nicht versteht.
Der Hochmut (altgr."ὕβρις", Hybris; lat.: arrogantia, superbia; Anmaßung, Überheblichkeit, Arroganz; veraltet: Dünkel - vgl. Standesdünkel - oder Hoffart) ist eine Haltung der Welt gegenüber, in der Wert, Rang und Fähigkeit der eigenen Person vorab aller Erfahrung und Bewährung hoch geschätzt werden. Anmaßend nach dieser Definition bist in diesem Thread vor allem du.

Space


Antwort von Meggs:

Der Film zeigt sogleich bonbonfarbene Haut und Doppelschatten. Weiter habe ich nicht geschaut. Das lasse ich unkommentiert, spricht es doch Bände über dein Schaffensniveau und deine Kompetenz in deinem Job. Vermutlich verwendest du noch den Referenzmonitor aus den 80zigern mit 72 dpi und 256 Farben.

Videos sind übrigens mein Hobby. Hauptberuflich bin ich Software-Entwickler.

Lassen wir's. Die Diskussion driftet schon ne Weile ins dümmlich absurde.

Space



Space


Antwort von domain:

Ich verwende zwei Monitore, deren horizontale Bildbreite ich mal ausgemessen habe. Das Bild des 40" Monitors ist 88,5 cm und das des 24" Monitors 52,5 cm breit und beide lösen technisch 1920 Pixel auf, also eigentlich 1920*3 Linien in den drei additiven Grundfarben. Stellt man eine senkrechte weiße Linie, ein Pixel breit dar, so erkennt man mit der Lupe sehr gut, dass diese bei der Grafikkarteneinstellung 1920*1080 tatsächlich nur aus drei farbigen Linien zusammengesetzt ist, die in ihrer Gesamtheit zu einer weißen Linie verschmelzen.
Die darstellbare Gesamtpixelanzahl ist also beiden Monitoren gleich.
Aber und jetzt kommt der wesentliche Unterschied: der 40"-er stellt nur 55 DPI dar (1920/(88,5/2,54)), der 24"-er dagegen 93 DPI, wobei in diesem Fall die DPI auch den PPI entsprechen.
Der Bildeindruck ist bei beiden Monitoren natürlich ident, wenn der Betrachtungsabstand richtig gewählt wird.

Space


Antwort von MarcBallhaus:

Ich verwende zwei Monitore, deren horizontale Bildbreite ich mal ausgemessen habe. Das Bild des 40" Monitors ist 88,5 cm und das des 24" Monitors 52,5 cm breit und beide lösen technisch 1920 Pixel auf, also eigentlich 1920*3 Linien in den drei additiven Grundfarben. Stellt man eine senkrechte weiße Linie, ein Pixel breit dar, so erkennt man mit der Lupe sehr gut, dass diese bei der Grafikkarteneinstellung 1920*1080 tatsächlich nur aus drei farbigen Linien zusammengesetzt ist, die in ihrer Gesamtheit zu einer weißen Linie verschmelzen.
Die darstellbare Gesamtpixelanzahl ist also beiden Monitoren gleich.
Aber und jetzt kommt der wesentliche Unterschied: der 40"-er stellt nur 55 DPI dar (1920/(88,5/2,54)), der 24"-er dagegen 93 DPI, wobei in diesem Fall die DPI auch den PPI entsprechen.
Der Bildeindruck ist bei beiden Monitoren natürlich ident, wenn der Betrachtungsabstand richtig gewählt wird. Eben. Das ist das was ich meine. Die Angabe von DPI oder PPI ist ein Messwert für die Schärfe des Bildes auf dem jeweiligen Ausgabemedium, egal ob Drucker oder Schirm. Somit - und vor allem mit der Skalierung von Bild- oder Videomaterial - bekommt die Angabe der Pixeldichte durchaus einen Sinn.

Endlich wieder ein konstruktiver Beitrag.

@Admin: Danke.

MB

Space


Antwort von LarsProgressiv:

Hallo Marco,
Eben. Das ist das was ich meine. Die Angabe von DPI oder PPI ist ein Messwert für die Schärfe des Bildes auf dem jeweiligen Ausgabemedium, egal ob Drucker oder Schirm. genau. Da hast Du recht. Aber wie Du schreibst, geht es hier um ein Ausgabemedium und nicht um den Inhalt, der auf dem Medium ausgegeben wird.
Somit - und vor allem mit der Skalierung von Bild- oder Videomaterial - bekommt die Angabe der Pixeldichte durchaus einen Sinn.

MB Das wiederum ist bezogen auf eine DPI Angabe für den Inhalt (Video) eine unzulässige Schlussfolgerung.

Grüße
Lars

Space


Antwort von blip:

@Admin: Danke. Ich nehme an, das Danke bezieht sich darauf, daß ich hier diverse Beiträge ins OT sortiert habe, in denen unsachlich argumentiert wurde -- nicht zuletzt auch von Dir. Schön, daß wir uns einig sind, daß beim Diskutieren ein gewisses Maß an Respekt und Zurückhaltung im Ton geboten ist.
@alle: Also bitte (auch wenn es manchmal schwerfällt) nicht persönlich werden...

Space


Antwort von MarcBallhaus:


Das wiederum ist bezogen auf eine DPI Angabe für den Inhalt (Video) eine unzulässige Schlussfolgerung.

Grüße
Lars Verstehe ich nicht. Wieso?

Würden Händler ihre Plasmas und LCDs mit einer PPI Angabe versehen statt mit der Bilddiagonale + Full HD oder nichtssagenden "HD-Ready" Angabe, wäre auf den ersten Blick klar ob das Ding scharf ist oder nicht. Ein einziger Wert würde genügen. Ebenso mein Handy, es ist mir doch egal ob das Teil 160x80 oder 500x300 oder 600x800 Pixel hat, Hauptsache das, was es anzeigt sieht gut aus. Auch hier würde eine solche PPI Angabe mehr aussagen als das Pixelgefasel.

MB

Space


Antwort von Commanderjanke:

PPI ist ein Relationswert der alleine so ziemlich keine Aussagekraft hat.

Nur in Relation mit dem Ausgabemedium hat dieser Wert einen Bedeutung! (Genau wie die Full HD Aussage, was bringt mir Full HD bei 6 Metern Biddiagonale?? Nichts ist trotzdem Unscharf!!)

Der Horizont vieler Menschen ist ein Kreis mit Radius Null - und das nennen sie ihren Standpunkt

Space


Antwort von WideScreen:

Ebenso mein Handy, es ist mir doch egal ob das Teil 160x80 oder 500x300 oder 600x800 Pixel hat, Hauptsache das, was es anzeigt sieht gut aus. Auch hier würde eine solche PPI Angabe mehr aussagen als das Pixelgefasel.

MB Ja und da liegt das Problem. Weil es eben eine Frage der Größe der Anzeige ist, ob es gut aussieht oder nicht. Und da nicht jeder zu Hause einen genormten Fernseher hat, ist halt die "quasi" DPI Angabe bei jedem anders.
Man könnte also schon für sagen, das jeder Monitor mit 42 Zoll und 1920x080 Auflösung einge feste DPI Zahl hat. Aber darum hat Video an für sich doch keine. Ist das denn so schwer zu verstehen?
Deiner Meinung nach, könnte man dann ja auch sagen, das Fotokameras nicht mehr mit 10 Mpixel angegeben werden sollen sondern mit DPI, und das ist Quatsch.
Wenn man eine Aussage haben will, ob ein Bild beim TV gut aussieht, dann müß man auch den Betrachtungsabstand mit einbeziehen, denn der sollte bei zunehmender Bildgrösse steigen, und damit das subjektive Schärfeempfinden ausgleichen. So das dein Handydisplay die gleiche schärfe hat, wie ein 50 Zoll Flat.....!subjektiv!

Glaube 5 solcher Threads auf einmal und Slashcam bricht zusammen. *lach*

Dein Nick hat aber nix mit DEM Ballhaus zu tun, oda?

Space


Antwort von PowerMac:

Es ist eine philosophische Diskussion. Ballhaus argumentiert empirisch und phänomenologisch, weil er die Auflösung an den Geräten meint. Er meint, dass was in der Welt ist. Die andere argumentieren eher transzendental, sie argumentieren "an sich" bzw., dass "Video an sich" keine DPI haben könne.

Space


Antwort von robbie:

Dein Nick hat aber nix mit DEM Ballhaus zu tun, oda? Ich denke, dann würde es die Diskussion nicht geben.





Mal ehrlich... WTF hat dpi mit Video zu tun?


Und für den Herrn Ballhaus, der in anderen Threads von mir sehr geschätzte Kommentare abgegeben hat:

Sag mir bitte mal, welcher Unterschied bei diesen beiden Bildern beim Betrachten auf einem PC-Monitor oder einem TV-Gerät in 1:1 entstehen würde?
Bild 1 hat 72dpi, Bild 2 hat 300 dpi.

Space



Space


Antwort von DWUA:

Es ist eine philosophische Diskussion... LOL
Sub specie opportunistische Infektion.

;))

Space


Antwort von Meggs:

Bild 1 hat 72dpi, Bild 2 hat 300 dpi. Bei einer Grafik-Datei steht der dpi Wert im Dateiheader und beansprucht ein paar Bits. Das wars. Die Daten sind ansonsten identisch. Man kann jeder Bilddatei jeden beliebigen dpi Wert zuordnen ohne irgend was an den eigentlichen Bilddaten zu ändern.
Jeder Bildbetrachter ignoriert die dpi Angaben. Relevant sind sie nur für den Druckertreiber.
Bei einer Video-Datei sind nirgendwo Informationen zu einem dpi Wert gespeichert, weil das keinen Sinn machen würde.

Space


Antwort von Commanderjanke:

Bild 1 hat 72dpi, Bild 2 hat 300 dpi. Bei einer Grafik-Datei steht der dpi Wert im Dateiheader und beansprucht ein paar Bits. Das wars. Die Daten sind ansonsten identisch. Man kann jeder Bilddatei jeden beliebigen dpi Wert zuordnen ohne irgend was an den eigentlichen Bilddaten zu ändern.
Jeder Bildbetrachter ignoriert die dpi Angaben. Relevant sind sie nur für den Druckertreiber.
Bei einer Video-Datei sind nirgendwo Informationen zu einem dpi Wert gespeichert, weil das keinen Sinn machen würde. Leider wird dieser Wert nur allzu oft als Qualitätsmasstab missverstanden. So mancher Graphiker wirft nur kurz einen Blick auf den "dpi"-Wert eines Bildes um dann selbstbewusst zu verkünden: "dieses Bild hat nur 72 dpi. Das kann man nie drucken". Dabei hat das fragliche Bild vielleicht 7.000 x 10.000 Pixel.

Space


Antwort von MarcBallhaus:

PPI ist ein Relationswert der alleine so ziemlich keine Aussagekraft hat. Mitnichten! Die Pixelanzahl eines Bildes hat keine Aussagekraft, sie sagt nichts darüber aus wie groß ein Bild dargestellt werden kann, weil man das Ausgabemedium nicht kennt. PPI aber gibt deutlich an, wie scharf ein Ausgabemedium abbildet und steht in Relation zu sich selbst: Pixel Pro Inch.
Man könnte also schon für sagen, das jeder Monitor mit 42 Zoll und 1920x080 Auflösung einge feste DPI Zahl hat. Aber darum hat Video an für sich doch keine. Ist das denn so schwer zu verstehen? Natürlich nicht. Aber, was ist bitte "Video an sich"? Video braucht eine Abbildungsfläche um gesehen zu werden, "Video an sich" ist etwas das es so doch garnicht gibt!

Ich interpretiere es so, dass (digitales!) Video nativ auf einem Monitor gesehen wird, erst im zweiten Schritt auf dem Handy, der Leinwand etc. So gesehen, weil es auf der Mattscheibe des Computers stattfindet, Spitzfindigkeiten bitte mal aussen vor gelassen, entspricht es nativ auch der Auflösung des darstellenden Monitors, und damit dem Richtwert von 72 DPI ... auch wenn es neuere LCDs auf über 100 bringen.

Aber PowerMac hat ganz nicht unrecht wenn er sagt, dass diese Diskussion philosophisch ist, das muss ich zugeben.

MB

Space


Antwort von Axel:

Leider wird dieser Wert nur allzu oft als Qualitätsmasstab missverstanden. So mancher Graphiker wirft nur kurz einen Blick auf den "dpi"-Wert eines Bildes um dann selbstbewusst zu verkünden: "dieses Bild hat nur 72 dpi. Das kann man nie drucken". Dabei hat das fragliche Bild vielleicht 7.000 x 10.000 Pixel. Das Letzte ist doch total unwahrscheinlich. Warum ist es so schwer, einen Richtwert zu akzeptieren? Wenn es heißt, in einen Pfannkuchen gehören drei Eier auf 50 g Mehl, soll man dann über der Frage verzweifeln, welcher Gewichtsklasse die Eier genau entsprechen? Ich zanke ja auch ganz gern, aber in diesem Thread wurden ein paar so kleine Korinthen gekackt, dass es nicht mehr lustig ist. Geht zwischendurch auch mal an die frische Luft!

Space


Antwort von Commanderjanke:

Warum ist es so schwer, einen Richtwert zu akzeptieren? Das ist gar nicht schwierig, aber das problem ist das es bei dieser Diskusion keinen Richtwert gibt, sei es 72, 90 oder 100dpi\ppi. Das ist immer abhangig vom Ausgabemedium.

72dpi (also gut 72 Dots - hm, wohl eher Pixel ). Ist zwar ein ganz guter Mittelwert, aber das das nicht immer genau richtig sein kann ist offensichtlich, schliesslich schrumpft ein Monitor nicht automatisch mit, sobald jemand eine geringere Auflösung einstellt.


dpi (Dots per Inch) bezeichnet die Anzahl der Druckpunkte (Dots) pro englischem Zoll. Es ist damit ein Maßstab für die Auflösung von Druckern. Je größer der Wert, desto besser der Drucker (natürlich ist das wie immer nicht der einzige Qualitätsmasstab), weil mehr (d.h. feinere) Druckpunkte pro bedrucktem Zoll Papier untergebracht werden können.

ppi (Pixels per Inch) bezeichnet die Anzahl der Pixel pro Zoll, und eignet sich dafür die Auflösung z.B. eines Scanners anzugeben.

Der entscheidende Unterschied hierbei ist, daß Druckpunkte nur entweder schwarz, cyan, magenta oder gelb sein können, während ein einzelner Pixel beliebige Farbschattierungen enthalten kann. Pixel sind sozuagen "mehr wert" als Druckpunkte, weshalb auch Bildschirme mit ihren verhältnismässig niedrigen Auflösungen von 50-100 ppi* brauchbare Bilder produzieren, während Druckmaschinen mit mehreren hundert oder tausend dpi arbeiten (müssen).

Das dpi und ppi gerne verwechselt und als "Synonyme" verwendet werden, ist aber das geringste Problem - jeder weiss ja (ungefähr), was gemeint ist. Das eigentliche Problem ist, das dpi/ppi bei Druckern/Scannern ein Qualitätsmasstab ist (je mehr, desto besser das Gerät), bei digital gespeicherten Bildern aber nicht. Da das Ausgabe medium ein Monitor ist, hierfür ist die Auflösung interressant.

ok, neues Beispiel:

Ein Bild hat nur 320x240 Pixel Auflösung. Aber da es grossartigerweise "300 dpi" hat und ein Monitor ja nur 72 oder von mir aus 90 dpi benötigt, kann man es ohne Verluste auf etwas das Vierfache vergrössern, wenn man es auf dem Monitor darstellen will.

Diesem Beispiel aus der Praxis liegt der Denkfehler zugrunde, dass ein Pixel sozusagen mehrere Pixel enthalten könnte bzw. das es "300 dpi - Pixel" gibt, die mehr wert seien als "72 dpi - Pixel". Alles nicht wahr. 320x240 Pixel sind einfach wenig, und damit ist das Bild grob aufgelöst.


Für alle digitalen Medien hat DPI keine Relevants!
die anhand des "dpi"-Wertes berechnete Grösse ist ein Vorschlag, weiter nichts.
Dieser Wert wird nur "der Vollständigkeit halber" mitgespeichert und dient (wenn überhaupt) nur zu einem Zweck: Anhand von "dpi"-Wert und der Pixelanzahl des Bildes die Grösse des eingescannten Originalbildes zu rekonstruieren.

Erst wenn der Transfer zu einem Druckmedium kommt DANN hat DPI eine Berechtigung!!!!

Space


Antwort von B.DeKid:

Bzgl.
WerbeGrafiker - Anfrage DPI Zahl

Wenn er nicht nach der DPI Zahl des 640 x480 Bildes fragen würde , gehöre er gefeuert.

Würde der Jung nun WEBGrafiker heissen , dann würde es Ihm eigentlich egal sein, denn er wolle zB 72DPI *.jpg files zum einbinden in WebSeiten.

Dementsprechend ist die Frage nach DPI , vom WERBEGrafiker berechtigt. Erst wenn er weiss für welches "Medium" die Grafik verwendet wird kann er auch richtig arbeiten.

Durck Medien sind zwischen 72 150 300 DPI angesiedelt. Alles was über 300 Dpi geht ist entweder für zB ThermoDruck Verfahren oder ist "interpolierter" Druck - siehe Plotter Siebdruck und ThermoDrauck Verfahren.
Mein Plotter kann zB auch automatisch Fotos auf "Interpolieren" dies ist aber nicht zu vergleichen mit extra Progis / PlugIns oder dem aufbereiten von Hand aus - man nennt das dann Druck Aufwertung.
Dies geschieht in dem man gewisse Bild Ausschnitte aufwertet.

.........................

Da Ich bei Video ja kein "BILD" habe (also Film Korn) sondern "Digitale Daten" stellte sich mir halt die Frage (bzw uns) ob Video Bild DPI hätte.

Weil die "nennen wir es mal DruckDichte" eines Bildes find Ich schon wichtig.

Als Beispiel mal meine Gedanke

3x 1/3 Zoll 800.000 Pixel CCD - Canon XL2

3x 1/3-Zoll CCDs mit je 1,67 Megapixeln - Canon XL H1

als erstes geh Ich nun mal davon aus das Ich das ca "doppelte" an "Auflösung/ Quali" bekomme.

Nun stellte sich mir halt die Frage - könne man nicht wenn man die Quali aufwertet in dem man "DPI" hoch stellt , das Bild verbessern.

Das der PC aus einem roten Pixel nur einen zweiten roten Pixel machen kann war mir klar. Auch das ein Pixel anders auf dem PC ausschaut als nach dem Druck - war mir auch bewusst.

Mir geht es einzig und allein darum ob Ich durch bearbeitung eines "Digitalen" Bildes die Quali heute durch den PC steigern kann.

Weil für mich ist ein Bild ein Mikroskopisches Mosaik - und wenn Die Steine erst mehr werden und Ich sie dann strecke erhalte Ich eine Bessere Vergrösserung.

Sprich hätte "Raw" Video SD Footage wirklich nur 72 DPI - Ich könnte aber aus den 72DPI 300 DPI machen , würde aber das Material in den Pixel Werten aber nur doppeln, so müsste doch das Bild insgesamt eine bessere Schärfe aufweisen?!?

So kammen wir hier auf die Diskussion , worauf hin Ich euch meine Frage stellte.

Ich weiss das es Druck Firmen gibt die dies täglich mit DSLR Material machen um es "GrossFormatig" zu drucken. (PS: Eine EOS 400D hat zb im RAW Modus nur 240 DPI - im jpeg Modus sogar nur 72 - der DRUCK Unterschied ist mit blossem Auge zu sehen - besonders bei FarbAbstufungen - geschweige denn wenn man die Bilder grösser als DinA5 druckt.)

Wir kennen das wie am Anfang schon angesprochen von "Upscalern" in TVs - wo ja meist nur das Bild sprich Pixel hochgesetzt werden. (zB DVD am Plasma HD Ready Monitor)
Jeder weiss das die DVD im Format eine DVD bleibt , doch sagen Betrachter ( Gerät abhängig) "Ja das Bild wurde besser"

Sprich - scheint es schon hier in der "Live" upscaling Funktion von TV oder DVD Playern Unterschiede zu geben. Bzw andere Verfahren / RechnungsWege.

Ich finde es also doch als relevant zu fragen, ob wenn ich das Pixel Verhältnis einer Datei beibehalte, aber die DPI erhöhe Ich nicht vielleicht besseres Material erhalte.

So schwer kann man diese Überlegung doch nicht verstehen, oder?

So nun dürft Ihr sagen "keine Ahnung und voll der Schei**", aber manchmal kommen uns hier beim rumsitzen halt so Fragen, und nur hier wo Ich eine Ansammlung von "GleichGesinnten" habe , kann Ich wohl am ehesten eine Antwort finden.

MfG
B.DeKid

Space


Antwort von TheBubble:

Die dpi Angabe ist ein Maßstab, der eine Anzahl an Abtastpunkten (samples) auf eine Längeneinheit bezieht.
Bzgl.
WerbeGrafiker - Anfrage DPI Zahl

Wenn er nicht nach der DPI Zahl des 640 x480 Bildes fragen würde , gehöre er gefeuert. Die Frage nach einer dpi oder ppi Angabe für eine Bitmap ist überflüssig, solange keine 1:1 Reproduktion einer bestehenden und in Inch ausmessbaren Vorlage angefertigt werden soll, dessen digitale Repräsentation die vorhandene Bitmap ist. In diesem Fall wäre die dpi Zahl auch eine Angabe über die maximal erzielbare Qualität der Reproduktion.
Wenn kein Maßstab einzuhalten ist, dann ist es egal, ob man auf die Frage mit 10dpi oder 1000dpi antwortet: Die Bitmap bleibt gleich, die Möglichkeiten der Verwendung bleiben gleich.

Die dpi Angabe ist eine Zusatzinformation, aus der ermittelt werden kann, wie groß die Darstellung der Bitmap z.B. auf Papier sein soll oder dort einmal war, beispielsweise dann, wenn man eine 1:1 Reproduktion herstellen möchte. Sie ist also der Maßstab der Bitmap.
Ist kein solcher Maßstab vorhanden, muss gelegentlich einfach ein beliebiger angenommen werden, um weitere Bearbeitungsschritte zu ermöglichen. Dies ist z.B. erforderlich, wenn man das Layout einer Zeitschrift in cm oder Inch auslegt: Man beabsichtigt, dass die Bitmap auf dem zu bedruckenden Papier eine gewisse Fläche einnimmt. Man verwendet beim Layout ein Koordinatensystem, z.B. mit Zentimetern als Längeneinheit der Achsen. Nun muss die Bitmap entsprechend eingepasst werden und dazu muss man wissen, welche Abmessungen ein Pixel der Bitmap besitzt. Haben die Pixel keinen, muss man behelfsweise einen annehmen.
Alles was über 300 Dpi geht ist entweder für zB ThermoDruck Verfahren oder ist "interpolierter" Druck - siehe Plotter Siebdruck und ThermoDrauck Verfahren. Es gibt z.B. Laserdrucker, die eine Auflösung von 1200dpi besitzen.
Da Ich bei Video ja kein "BILD" habe (also Film Korn) sondern "Digitale Daten" stellte sich mir halt die Frage (bzw uns) ob Video Bild DPI hätte. Die Antwort gab es ja nun schon oft: Normalerweise nein. Wenn Du die Kontrolle über die Anzeigefläche des Ausgabegerätes hast, kannst Du Dir natürlich einen dpi Wert für dieses Gerät ausrechnen, die Auflösung des Videos darauf beziehen und dann z.B. Zeichnungen einblenden, die dann auf dem Ausgabegerät maßstabsgetreu erscheinen. Ist das Ausgabegerät aber nur minimal kleiner oder größer und stellt es trotzdem innerhalb seiner Bildfläche alle Pixel des Videos dar, dann ist der Maßstab der eingeblendeten Zeichnung dahin.
Das einige Programme 72dpi angeben ist für die Darstellung am Bildschirm momentan ohne Bedeutung. Für die Darstellung am Bildschirm haben diese Angaben erst dann eine Relevanz, wenn die Ausgabe maßstabsgetreu erfolgen soll.
Eine dpi Angabe ist dann erforderlich, wenn eine Umrechnung der Bildabmessungen in eine Längeneinheit erfolgen soll und weitere Verarbeitungsschritte (z.B. Skalierungen) sich auf diese Längeneinheit beziehen. Liegt der Bitmap kein Maßstab zugrunde oder ist einem dieser egal, dann kann man hierfür der Bitmap aber auch genauso gut einfach andere dpi Werte zuweisen.
Nun stellte sich mir halt die Frage - könne man nicht wenn man die Quali aufwertet in dem man "DPI" hoch stellt , das Bild verbessern. Nein. Die dpi Angabe ist nur der Maßstab, in Form einer Auflösungsangabe pro Längeneinheit.

Space


Antwort von tommyb:

Nun stellte sich mir halt die Frage - könne man nicht wenn man die Quali aufwertet in dem man "DPI" hoch stellt , das Bild verbessern. Immernoch NEIN!

Wenn beide Kameras ihre Clips in identischer Auflösung abspeichern (z.B. 720x576), dann kann man durch das bloße hochsetzen von DPI Werten keine Aufwertung erreichen.

Das würde gehen, wenn wir z.B. einen 35mm Film haben. Diesen Tasten wir höher ab (als würden wir ihn Scannen). Dann kann man entweder mit höheren Werten abtasten oder mit niedrigeren. Nur wird in diesem Fall nicht mit DPI gerechnet sondern mit reiner Auflösung (4K, 2K, etc.). Warum? Weils an sich nicht üblich ist. Jedoch könnte man immernoch sowas zu DPI und Bla umrechnen (braucht aber kein Mensch).



Dein Bild kann man nicht aufbereiten nur in dem man die Pixel verdoppelt. Dann hast Du halt verdoppelte Pixel und fertig. Dann sieht es einfach aus wie im Mario Super Land, denn es werden ja keine feinen Abstufungen interpoliert. Auch Linien die quer durchs Bild gehen werden einfach verdoppelt.

Es ist also nicht möglich anhand von irgendwelchen DPI Werten ein Bild in eine bessere Qualität zu bringen weil es in seiner rein digitalen Form GANZ ANDERE Qualitätsmerkmale aufweisen muss. Die Auflösung nämlich.

Space



Space


Antwort von Meggs:

Leider wird dieser Wert nur allzu oft als Qualitätsmasstab missverstanden. So mancher Graphiker wirft nur kurz einen Blick auf den "dpi"-Wert eines Bildes um dann selbstbewusst zu verkünden: "dieses Bild hat nur 72 dpi. Das kann man nie drucken". Dabei hat das fragliche Bild vielleicht 7.000 x 10.000 Pixel. Das Letzte ist doch total unwahrscheinlich. Warum ist es so schwer, einen Richtwert zu akzeptieren? Das ist überhaupt nicht unwahrscheinlich. Manche Grafik Editoren nehmen beim Speichern als Default 72 dpi.
Warum soll man mit einem Richtwert arbeiten, der nichts aussagt, wenn man den einzig relevanten Wert, die Anzahl der Pixel, weiß?
Jede Bilddatei von 1 Pixel bis zu "Festplatte voll" kann 300 dpi eingetragen haben. Was sagt der Wert über die Druckqualität in einer bestimmten Größe aus? Bichts!

Space


Antwort von Meggs:

Mitnichten! Die Pixelanzahl eines Bildes hat keine Aussagekraft, sie sagt nichts darüber aus wie groß ein Bild dargestellt werden kann, weil man das Ausgabemedium nicht kennt. Jemand der Drucken will kennt das Ausgabegerät: Sein Drucker. Der dpi Wert in einem Foto bezieht sich auch immer nur auf ein Ausgabegerät: den Drucker.
Wenn man nur den einen Wert kennt: die Pixelanzahl, kann man mit einem 3-Satz jederzeit die maximale Ausgabegröße bei einem bestimmten dpi Wert errechnen.
Wenn man nur den dpi Wert kennt kann man nichts verbindliches sagen über die Ausgabegröße.
Wenn man ein 12 Megapixel Foto hat, bei dem versehentlich 72 dpi eingetragen sind, kann man es ohne Umwandlung oder Qualitätsverlust auf in A4 Größe ausgeben.
Wenn das Foto nur 100 x 150 Pixel hat und es sind 300 dpi eingetragen, kann man es vergessen.

Space


Antwort von Meggs:

Wenn er nicht nach der DPI Zahl des 640 x480 Bildes fragen würde , gehöre er gefeuert. Nein. Bildgrösse 640 x 480 Pixel sagt alles. Wenn ich eine metrische Größe angegeben hätte, z.B. 4 x 6 cm, dann müsste ich zusätzlich noch den dpi Wert angeben.

Space


Antwort von ArnAuge:

Wenn ich es nicht übersehen habe, fehlt mir hier ein wichtiger Aspekt - also wenn wir das Thema schon in voller Bandbreite unter Einbeziehung der Drucktechnik ausdikutieren wollen.

Wie hier schon mehrmals richtig gesagt wurde, kann man durch die Erhöhung der Pixelmenge keine bessere Qualität erreichen. Es gibt aber Fälle, wo eine Hochrechnung trotzdem sinvoll ist und da ist die Art der Hochrechnung entscheidend.

Beispiel: Ich habe eine Digitalbild in Postkartengröße mit 300dpi-Druckauflösung. Wenn ich dieses Bild nun einfach auf 100x150 cm ausdrucken würde, könnte ich die Pixel als einzelne Kacheln sehen. Also lässt man das Bild hochrechnen.

Photoshop bietet hierzu verschiedene Möglichkeiten an. Richtig wäre hier der Algorithmus "Bikubisch" (wovon es in PS mittlerweile für die verschiedenen Anwendungsfälle 3 Versionen gibt). Hierbei wird die Pixelmenge erhöht, indem die Pixel mit ihren Nachbarpixeln verschwurbelt werden. Dadurch wird natürlich der Schärfeeindruck des vergrößerten Bildes geschmälert, was sich aber dadurch ausgleicht, dass man dieses vergrößerte Bild naturgemäß auch aus einem größeren Betrachtungsabstand betrachtet. (Richtwert: Abstand, bei dem es "scharf" aussehen muss = Bilddiagonale).

Ein anderes Beispiel: Ich habe einen Screenshot, in nativer Bildschirmauflösung, den ich z.B. in Größe DinA5 ausdrucken möchte. Hier würde die bikubische Hochrechnung ein zu unscharf verwaschenes Ergebnis liefern. Da das Monitorbild ja aus lauter kleinen scharfkantigen Kacheln (Pixeln) und geometrischen Elementen besteht, kommt man hier zu einem wesentlich besseren Ergebnis, wenn man für die Hochrechnung den Algorithmus "Pixelwiederholung" wählt.

Fazit: Pixelhochrechnung kann durchaus Sinn machen. Entscheidend ist, mit welchem Algorithmus dies geschieht.

Space


Antwort von MarcBallhaus:

Können wir vielleicht zusammengefasst festhalten:

1. Die Angabe von PPI oder DPI sagt ohne weitere Informationen nur etwas über die Abbildungsqualität des Geräts aus, also Schärfe von Drucker, Bildschirm etc. (Beispiel: Drucker hat 300 DPI, Bildschirm hat 92 PPI)

2. Die Angabe von PPI oder DPI bei einem Bild ist nur aussagekräftig, wenn auch die abzubildende Größe angegeben ist (Beispiel: Bild hat 300 DPI bei 4x6 cm)

3. Video hat 72 DPI als Richtwert, weil das native abbildende Medium ein Monitor ist ;)

So, ich bin raus.

MB

Space


Antwort von tommyb:

Punkt 1+2: Ja
Punkt 3: Nein

Space


Antwort von Commanderjanke:

Punkt 1+2: Ja
Punkt 3: Nein Jep so sieht es aus!

Aber gut ich würde sagen so langsam ist das Thema dann auch durchgekaut!

Space


Antwort von domain:

Beispiel: Ich habe eine Digitalbild in Postkartengröße mit 300dpi-Druckauflösung. Wenn ich dieses Bild nun einfach auf 100x150 cm ausdrucken würde, könnte ich die Pixel als einzelne Kacheln sehen. Also lässt man das Bild hochrechnen. Das ist ein wichtiger Hinweis, den ich mir aber bisher verkniffen habe, weil eigentlich selbstverständlich.
Es gibt neben der eigentlichen Bildinformation, welche sich durch Interpolation auf eine höhere Pixelzahl nicht verändern lässt, auch eine sehr unerwünschte, nämlich die Erkennbarkeit von Pixeln selbst.
Und es stimmt, in solchen Fällen kann ein Skalieren auf höhere Pixelmengen einen völlig anderen Bildeindruck abliefern, insbesondere wenn eine anschließende Bildschärfung nicht vor, sondern nach dem Skalieren durchgeführt wird.

MB: "Ich will lieber mit Weisen irren, als mit Unwissenden recht zu behalten"

Wo sind die Weisen? :-))
Deine 72 DPI als Richtwert sind historisch gesehen schon richtig, aber heute mit den 1920-er Monitoren sind sie schon überholt, wie du selbst erkannt hast und also eher im 92 PPI-Bereich bei 24" anzusiedeln.

Außerdem wäre eine PPI-Angabe für Fernseher, Monitore etc. marketingmäßig wahrscheinlich kontraproduktiv, weil eigentlich eine reziprok verkehrte Qualitätsvorstellung suggerierend. Jeder greift dann lieber zum 92 PPI-Monitor, obwohl eigentlich der 55 PPI-Monitor viel größer und schöner abbildet.
Und wenn dann mal 4K -Monitore und Fernseher kommen, dann stimmen sämtliche derartige "Qualitätsangaben" schlagartig als Bezugs- und Vergleichsgröße überhaupt nicht mehr.

Space


Antwort von B.DeKid:

Gude

Also bei mir steht unteranderm ein
HP DesignJet130NR im Büro.

Sofern bleibe Ich dabei, ein Werbe Grafiker wird / muss immer nach DPI fragen besonders im Druck Bereich kann man nicht mit "nur" Pixel Angaben arbeiten.

Ist jetzt aber auch egal , da man DPI ja ohne weiteres hochsetzen kann - was nicht bedeuten muss das man die Pixel Auflösung dazu hoch setzt.
Ist quasi die kleinere Sorge.

.............................................
Fazit: Pixelhochrechnung kann durchaus Sinn machen. Entscheidend ist, mit welchem Algorithmus dies geschieht. Und genau das mein Ich halt auch! Das ist auch in der pro. Druckverarbeitung ein alltägliches gehabe. Warum solle es nicht auch bei Video / Film funktionieren?

Aber wie gesagt , Ich danke allen Beteiligten und werd einfach ein wenig selber testen und scripten und dann sehen wir weiter.

MfG
B.DeKid

PS: Man darf sich nicht wie hier und in andern Threads die letzten Tage geschehen, so gehen lassen, Jungs(und Mädels) - landet dann so wieso im OT - Peace.

Space



Space


Antwort von KrischanDO:

...
Fazit: Pixelhochrechnung kann durchaus Sinn machen. Entscheidend ist, mit welchem Algorithmus dies geschieht. Yepp. Mein Großformate druckender Kollege schwört auf "Qimage".
Da werden die Pixel nicht nur bikubisch interpoliert, sondern auch mit Fraktal-Algorithmen analysiert und hochgerechnet.

Grüße
Christian

PS: Es wäre echt klasse, wenn nicht jeder zweite Thread zu einem virtuellen "Wer hat den Größten (was auch immer)"-Geplärre ausarten würde.

Space


Antwort von WoWu:

Da werden die Pixel nicht nur bikubisch interpoliert, sondern auch mit Fraktal-Algorithmen analysiert und hochgerechnet. Das kannst Du Dir bei Einzelbildern auch erlauben, aber die Asymmetrie hinsichtlich des Rechenaufwandes für die Bildkompression und Bildrekonstruktion ist bei 50 Bildern /sec kaum mehr vertretbar.
Ausserdem hast Du dann wieder das Problem der DWT in Deinem (meist DCT) Material ....

Space


Antwort von WideScreen:

Wow. Also die Frage nach der DPI beim Video muß ich mir merken. Das schafft Arbeitsplätze. *loool*

Space


Antwort von KrischanDO:

...
Ausserdem hast Du dann wieder das Problem der DWT in Deinem (meist DCT) Material .... Watt is datt denn? DWT - DCT ?
Lass mich nicht dumm sterben! ;-)

Christian

Space


Antwort von deti:

Watt is datt denn? DWT - DCT ? Discrete Wavelet Transform (DWT): http://de.wikipedia.org/wiki/Wavelet-Tr ... sformation

Discrete Cosine Transform (DCT): http://de.wikipedia.org/wiki/Diskrete_K ... sformation

Deti

Space


Antwort von KrischanDO:

Hi!

Danke! Habe mir das angeschaut, bin aber von echtem Verständnis genauso weit entfernt wie von anderen mit "DWT" abgekürzten Phänomenen. ;-)

Grüße
Christian

Space


Antwort von deti:

Kurz gesagt: Es handelt sich um zwei verschiedene Methoden um Hell-Dunkel-Übergänge, die mathematisch als Überlagerung von Schwingungen ausgedrückt werden können, effizient zu kodieren. Während die DCT schon seit Anfang der digitalen Bildkompression eingesetzt wird, sind DWT basierte Algorithmen erst in den letzten Jahren in Mode gekommen. Letztere erfordern deutlich mehr Rechenleistung, liefern jedoch die besseren Ergebnisse, was zu geringeren Artefakten bzw. kleineren Datenmengen in der Kodierung führt.

Bleibt noch zu erwähnen, dass in MPEG4 sowohl DCT als auch DWT eingesetzt werden kann, während in MPEG2 lediglich die DCT verwendet wird.

Deti

Space


Antwort von Meggs:

Sofern bleibe Ich dabei, ein Werbe Grafiker wird / muss immer nach DPI fragen besonders im Druck Bereich kann man nicht mit "nur" Pixel Angaben arbeiten. Vielleicht sollte er nicht immer nach dpi fragen, sondern dann, wenn's ums drucken geht. In meinem Fall wusste er, dass er eine Grafik für den Bildschirm macht.
Fazit: Pixelhochrechnung kann durchaus Sinn machen. Entscheidend ist, mit welchem Algorithmus dies geschieht. Und genau das mein Ich halt auch! Das ist auch in der pro. Druckverarbeitung ein alltägliches gehabe. Warum solle es nicht auch bei Video / Film funktionieren?
Bestimmt kann man ein SD Video für HD optimieren, wenn man das Hochskalieren nicht dem TV überlässt, der das in Echtzeit machen muss, sondern das gezielt vorher per Software mit dem optimalen Algorithmus macht.

Space


Antwort von DWUA:


...von echtem Verständnis genauso weit entfernt wie... Hallo Christian!
Bis Wolfgang (WOWU) seinen Frühstücks-Kaffee getrunken hat:

http://jendryschik.de/michael/inf/dct/#top

Was es aber tatsächlich zu bedenken gäbe, wäre der Titel
"Wieviel DPI hat ein Videobild?"

Würde man titeln
"Was hat meine Fahrradkette mit einem Sack Kartoffeln zu tun?"
gäbe es keine 2200 Aufrufe.

@ B.DeKid
Du bist ja Angler; aber mit dieser Überschrift hast du mit Netz
gefischt - und damit den größten Fang deines Lebens gemacht.

:)))

Space


Antwort von KrischanDO:

Hi,

herzlichen für die Aufklärung über DWT und DCT.
Bei mir war in der Schule schon bei den "Binomischen Formeln" Feierabend, von daher ist der tiefere Zugang schwierig. Aber ich habe verstanden, wozu es gut ist und wie es ungefähr geht.
Ich bin nicht ohne Grund Fotograf geworden. ;-)

Herzlichen Dank!
Christian

Space


Antwort von Meggs:

Was es aber tatsächlich zu bedenken gäbe, wäre der Titel
"Wieviel DPI hat ein Videobild?" Er könnte ja mal beim Spiegel und div. Tageszeitungen anrufen und denen den Titel als umsatzträchtige Schlagzeile verscherbeln.

Space


Antwort von DWUA:

Viele sind doch an dem "Titel" hängengeblieben.
Ca. 20.
Wie die Fliegen an einem Klebstreifen, der von der Decke hängt.

Womöglich ging es dem TS lediglich um folgende Infos:

www.fh-jena.de/contrib/fb/et/personal/a ... sld005.htm

;)

Space


Antwort von WoWu:

Hi,

herzlichen für die Aufklärung über DWT und DCT.
Bei mir war in der Schule schon bei den "Binomischen Formeln" Feierabend, von daher ist der tiefere Zugang schwierig. Aber ich habe verstanden, wozu es gut ist und wie es ungefähr geht.
Ich bin nicht ohne Grund Fotograf geworden. ;-)

Herzlichen Dank!
Christian Hallo Christian ...
Problem ist eben nur, dass DWT bei Standbildern ausgezeichnete Ergebnisse erbringt, bei Bewegtbild aber aufgrund der zeitlichen Filterung zu Unschärfe neigt. Das allein wäre noch nicht so schlimm, weil viele Anwender den etwas "weichen" Look mögen.
Führt man das ganze aber anschliessend wieder einer DCT zu, führen die Unschärfen zu einer hohen Belastung in der Bewegungsschätzung und damit zu einem Codierabbruch, der sich primär natürlich in den flächigen Teilen des Bildes durch Blockbildung auswirkt. Blockbildung, die man im Originalmatierial nicht hatte und die in den unterschiedlichen Transpormationen ihre Ursache haben.
Jede Methode allein erzeugt vertretbare Ergebnisse. In Kaskade leider nicht mehr.
Wobei man allerdings auch erwähnen muss, dass sich die in MPEG4 verwendete IDCT in diversen Punkten von der DCT, die in MPEG2 Anwendung findet, unterscheidet.

@DWUA ... stimmt.. Es gibt nichts wichtigeres, als den morgendlichen Kaffee.

Space


Noch was unklar? Dann in unserem Forum nachfragen
Zum Original-Thread / Zum Videoschnitt Allgemein-Forum

Antworten zu ähnlichen Fragen //


Wieviel Kompression kann man Kunden zumuten?
Wieviel Rechner für Topgun Schnitt
Wieviel Aufträge durch SocialMedia?
Sony AX 2000 kaufen. Wieviel noch Wert
Wieviel zahlen für Nachwuchsschauspieler?
Kontroverse in Hollywood um "The Brutalist": Wieviel KI ist zu viel?
Kann man beim Bild-in-Bild-Effekt die Ecken abrunden?
Neue Funktion für Bild-KI Midjourney: Bild rein - Prompts raus
Hat ein 50fps Clip mit den selben Einstellungen exakt die doppelte Datengröße als derselbe Clip in 25fps?
Hat Canon ein Sensor-Ass im Ärmel? Global Shutter Sensor mit 120 dB Dynamik.
"Surf on, Europe" - im Wasser zu filmen hat ein analoges Feeling
Video-Editing per Textkommando: Nach Text-zu-Bild kommt Text-zu-Video
Adapterkabel S-Video auf Cinch Video - Schwarz-Weiß-Bild
YouTube Editorr - ein png. Bild nachträglich einfügen
Google optimiert Stable Diffusion für Smartphones: Ein Bild in nur 12 Sekunden
KI - Text zu Bild (um ein Drehbuch zu bebildern)
Wer hat die beste Video-Stabilisierung? Sony A7S III vs Canon EOS R5 vs Panasonic S1H
Hat jemand noch dieses Video?




slashCAM nutzt Cookies zur Optimierung des Angebots, auch Cookies Dritter. Die Speicherung von Cookies kann in den Browsereinstellungen unterbunden werden. Mehr Informationen erhalten Sie in unserer Datenschutzerklärung. Mehr Infos Verstanden!
RSS Suche YouTube Facebook Twitter slashCAM-Slash