Zum Inhalt springen

Branchenentwicklung Verbrauchszahlen


bdv

Empfohlene Beiträge

Ich würd da den Mangel eher bei Scanschärfe, Auflösung, zu hoher Kompression und fehlender Gamma/Gradations-Korrektur (hier rudimentär nachgeholt) sehen. Das Clipping direkt vom Transfer ist (MOS-)technikbedingt praktisch immer gleich. Da sollte man sich keine Illusionen machen.

 

Wo hat der denn was gesiegt?

post-82469-0-64506900-1358421200_thumb.png

Link zu diesem Kommentar
Auf anderen Seiten teilen

Ich sagte "NAH" am Clipping. Ich sagte nicht: da clipt was. Ich mag Bilder, in denen (wenn überhaupt) nur kleine Bereiche von Wolken Maximalweiß haben und der Rest sich um die Mitte herum abspielt (vor allem farbige Muster sollten alle im Histogramm um die MItte herum plaziert sein). Und auf der Mütze ist ein farbliches Muster drauf. Das Muster ist aber aufgrund der Helligkeit kaum erkennbar, eher nur erahnbar. Das ist mir zu hell (zu wenig Unterschied zwischen dem Gelbton des Musters und dem Weiß). Da aber andere Bereiche (Bäume) bereits nah an Schwarz sind, hilft es jetzt nicht, das ganze Bild einfach nur dunkler zu machen. Es sind mir einfach zu viele Farbtöne zu weit außerhalb der Mitte. Aber in dieser Beziehung (ich gebe es zu) hab ich auch noch keine einzige hundertprozentig überzeugende S8-Überspielung gesehen.

Bearbeitet von Regular8 (Änderungen anzeigen)
Link zu diesem Kommentar
Auf anderen Seiten teilen

Was mir noch aufgefallen ist:

 

Ich halte ein Video-Signal für hochqualitative Schmalfilmdigitalisierung generell für ungeeignet.Ich bin übrigens davon ausgegangen, dass Du einzelne Frames scannst.

 

Ich fürchte, damit fällst du wohl leider aus allen vier meiner Zielgruppen raus, selbst aus der Zielgruppe TV- und Kinoproduktion und der Zielgruppe Werbung und Musikvideo, die aufgrund insgesamt geringerem Auftragsvolumenpotentials (z. B. wenige Sender vs. viele Privatkunden) bzw. höherer Ansprechbarkeitshürden sowieso mindestens im ersten Jahr nicht in meiner Planung auftauchen. Wenn von denen jemand an mich herantritt, halte ich mich für die Zusammenarbeit zwar für ausreichend kompetent, aber aufgrund der genannten Probleme dieser zwei Zielgruppen spreche ich sie mit meinem Marketing erstmal nicht gezielt an.

 

Denn die Kompressionsthematiken, die du ansprichst, hast du jederzeit, auch bei der handels- und marktüblichen Verarbeitung von 35 und 16mm, spätestens bei der Ausspielung auf Beta, DV, DVD oder BluRay, wo nämlich spätestens die Reduktion auf 4:2:2 bzw. 4:2:0 stattfindet, meistens aber eben schon bei der Abtastung an sich, auch bei den größeren Bewegtformaten 35 und 16mm. Jeder Kinofilm, den du im Fernsehen siehst, arbeitet auch heute noch mit 4:2:2 bzw. 4:2:0. Damit unterbietet auch jede handelsübliche Kauf-DVD bzw. -BluRay deine hochqualitativen Ansprüche bei weitem; auch wenn ein BluRay-Player RGB-Anschlüsse hat, befindet sich auf der Scheibe nachwievor nur 4:2:2.

 

Was für Digital Intermediate bei 35mm genutzt wird, weiß ich nicht genau, aber auch bei 35mm wirst du dich mit dem handelsüblichen Chroma Subsampling auseinandersetzen müssen, das bei Bewegtbildern nunmal Standard ist, spätestens dann, wenn keiner der nächsten Schritte noch eine Ausbelichtung zurück auf 35mm erfordert.

 

Was du dir vorstellst, sind offenbar hochauflösende Einzelbildscans auf einem Flachbettscanner oder dergleichen, wo auch später alles in gegenüber gängigen Videoformaten relativ unkomprimierten Einzelbilddateien (BMPs, TIFFs, TGAs...) verbleibt. Sowas gibt's durchaus auch als gewerbliches Angebot für Schmalfilm, nämlich z. B. als eine Art optionale Zusatzausstattung bei dezidierten 35mm-Diascannern in Zigarrenschachtelgröße, wo man als optionales Zusatzzubehör Halterungen für 15m-Super8-Kamerarollen dazukaufen kann, und wo ca. ein Einzelbild pro Minute hochauflösend gescannt und danach der Streifen (mehr oder weniger) automatisch weitertransportiert wird.

 

Die Kosten kommen, wenn man sowas bei dezidierten Diascananbietern in Auftrag gibt, auf ca. 100-200 Euro pro 15m-Rolle (mehr als eine 15m-Rolle paßt auf die Halter meistens auch nicht drauf) allein schon für die Ausspielung auf eine Festplatte, den eigentlichen Scan noch garnicht eingerechnet. Mit solchen gigantischen Datenmengen, die so zu erwarten sind, kenne ich mich auch nicht aus, aber die 15m als solche hochauflösenden BMPs oder TIFFs werden wohl kaum auf eine handelsübliche 5-GB-DVD passen, die nämlich auch schon bei 20 Minuten schlappmacht, wenn ich dir eine Daten-DVD mit DV drauf brenne.

 

Für gewöhnlich ist diese Methode, die von dedizierten Diascanbetrieben angeboten wird, nicht für den Fernseher oder die Kinoleinwand gedacht (geschweigedenn damit praktikabel oder auch nur kompatibel), sondern für großformatige Werbeanzeigen ab einer Kantenlänge von ca. 100 Metern, bzw. hin und wieder nochmal für die Forensik und wissenschaftliche Forschung (Zapruderfilm vom Kennedyattentat, etc.). Das scheint für mich auch eher der Bereich zu sein, in dem sich deine Qualitätsanforderungen bewegen.

 

Insgesamt finde ich es damit aber interessant, was für eine Vielfalt hier in diesem Forum herrscht: Auf der einen Seite Rudolf, der offenbar meint, Super8 reiche kaum an die Auflösung von 300 Zeilen bei VHS heran, und auf der anderen Seite du, Friedemann, für den selbst Daten-DVD in SD und BluRay in HD für Schmalfilm aufgrund der handelsüblichen 4:2:2- bzw. 4:2:0-Farbabtastung nicht ausreicht.

 

@bdv: Ich sitze hier wie zu Hause an täglich kalibrierten Eizo SX2762W mit nahezu vollem AdobeRGB Farbraum. Da ist nichts auf den Schirm zu schieben.

 

AdobeRGB ist eine Kalibrierung für RGB-Signale von digitalen Graphikkarten nach Standards von Adobe zur Anpassung an den CMYK-Farbraum, der bei Druckgraphiken benötigt wird, wobei allerdings beide (RGB und CMYK) nicht für die Darstellung des YUV-Farbraums des Fernsehsignals geeignet sind.

 

Daher reißt bei dir soviel aus, weil dein Monitor quasi von John Warnock und Hans Neugebauer kalibriert wurde, die Röhre, für die ich arbeite, hingegen von Walter Bruch und Manfred v. Ardenne, denen gerechtzuwerden die heutigen Flachfernseher (nicht: flache Computermonitore) zwar versuchen, das aber zumeist kaum schaffen. Wie gesagt, ich setze auf das nochnicht am Markt befindliche OLED, um wieder Schwarzwerte und eine Reaktionszeit pro Pixel näher an der bislang unerreichten Röhre zu kriegen.

 

Außerdem hatte ich von einer Bearbeitung in einem Programm wie Photoshop allein zur schnellen Prüfung deinerseits gesprochen, damit du siehst, daß sich auch da was zeigt, wo du aufgrund deines RGB-Monitors meinst, es mit Reinweiß aufgrund von Überbelichtung zu tun zu haben.

 

Bei den anderen A/B-Vergleichsbildern...Du scannst also mit Flashscan? Die Bilder sehen genau so aus, wie die von Screenshot und zeigen genau das, was mir an deren Abtastung nicht gefiel. Buntes Moire (an den Hell/Dunkel-Kontrasten des Bootes zB...und das zieht sich auch weniger offensichtlich durch alle Bildbereiche und trübt das Gesamtbild. Und da lobe ich mir doch eher FlyingSpot-Abtastungen, bei denen ich spontan behaupten würde, dass dessen Prinzip noch besser mit Übersteuerungen umgehen kann (bzw. es besser aussieht) als Clipping bei LED-Arrays.

 

Clipping ist, wie oben mehrfach ausgeführt, eher ein Problem der RGB-Computermonitore, die das normale Fernsehsignal YUV nicht korrekt darstellen können, als meiner eigenen Beispielbilder.

 

Was das Übersprechen vom Helligkeits- in den Farbkanal angeht, habe ich erstens selber gesagt, daß das einem absoluten Profi beim genauen Hinkucken aufs Einzelbild auffällt, das aber eben noch der allererste Flashscan der Baureihe ist, und zweitens tritt dieses Übersprechen beim Flashscan8 auch deutlich geringer auf als bei allen SD-Signalen und -Verbindungen für den privaten Konsumenten bis zum Aufkommen von HD. Die Qualität, die aus dem Flashscan8 rauskommt, liegt mit dem DV-Codec im YUV-Farbraum immernoch weit über den Qualitätserwartungen der Zielgruppe Altbestand, die 80-90% des Marktes für Schmalfilmabtastung umfaßt und zumeist eine im Vergleich zu DV noch qualititativ deutlich minderwertigere Ausspielung auf Video-DVD mit MPEG erwartet.

 

Selbst die Zielgruppe aktive Filmer und die Zielgruppe TV- und Kinoproduktion, die nur fürs Abtasten drehen, um selber digital schneiden und nachbearbeiten zu können, erwarten bei SD nichts höherwertigeres als DV, und selbst die wenigen aktiven Filmer und TV-Produzenten, die HD wollen, bekommen auch dann nur eine 4:2:2-Farbabtastung geboten, weil sie eben für gewöhnlich eine HD-Videodatei und keine gigantische Datenmenge an Einzelbildern bekommen.

 

"Uncompressed" bedeutet bei Filmabtastungen, die nicht definitiv als RGB-Einzelbilder ausgespielt werden, zumindest unterhalb von 35mm zumeist nur keine Inter- bzw. Intraframekompression mit MPEG-2, -4 oder MJPEG, aber genau wie DV eben nicht 4:4:4, ist also eigentlich das, was man bei der generellen Bildverarbeitung für gewöhnlich mit lossless (im Vergeich zu dem Signal, das der Sensor produziert, in den das Chroma subsampling schon eingebaut ist) bezeichnet, aber nicht uncompressed.

 

Es nützen die tollsten Dienstleistungen und Angebote kaum, wenn der Auftragsvorgang eine Katastrophe ist. Das bedeutet auf Dich bezogen, dass Du ein weiteres Fragment in einer völlig zersplitterten und zerklüfteten Angebotslandschaft im Internet bist, wo der potentielle Kunde erst mal durchsteigen muss.

 

Daß der Markt im Moment vollkommen unübersichtlich und intransparent ist, da stimme ich dir 100% zu.

 

Ideal wäre es, ALLES aus einer Hand! Du bietest Rohfilme zu guten Preisen und es lassen sich bei der Bestellung simpelst Entwicklung mit (mit obligatorischen Rücksendebeutel...vielleicht schon bereits ausreichend frankiert) Abtastoptionen mit kurzen einleuchtenden Erklärungen für Laien hinzubuchen...selbstverständlich in einem 1Click™-Bestellvorgang...nicht Bestellnummern händisch in Eingabedialoge eintragen und Stunden- bis Tagelang auf Email-Bestellbestätigungen und Überweisungsdaten warten.

 

Ich spiele auf eine Kollaboration mit einem Labor an. Wenn Du schnell, gut und günstig bist, und die Webseite des Anbieters den Bestellvorgang zum reinen Vergnügen macht und nicht tausend Spaßbremsen eingebaut sind, die einem alles noch einmal überdenken lassen ("...ach, dies und jenes brauche ich vielleicht ja doch noch nicht..."), sehe ich da schon eher Potential.

 

Danke, das sind gute Ideen, wenn auch mit einigem mehr an Vorarbeit verbunden. Behalte ich im Kopf! Sowas wie ein Glossar und FAQ plane ich sowieso, da besonders die Zielgruppe Altbestand kaum weiß, was das eigentlich für komische schwarze runde Scheiben sind, die man auf dem Dachboden gefunden hat, als Opa nichtmehr da war. Auch die oben erwähnten dezidierten Diascananbieter haben ähnliche FAQs und Glossare auf ihren Seiten.

Link zu diesem Kommentar
Auf anderen Seiten teilen

Da ich nichtmehr bearbeiten kann:

 

Selbst die Zielgruppe aktive Filmer und die Zielgruppe TV- und Kinoproduktion, die nur fürs Abtasten drehen, um selber digital schneiden und nachbearbeiten zu können, erwarten bei SD nichts höherwertigeres als DV, und selbst die wenigen aktiven Filmer und TV-Produzenten, die HD wollen, bekommen auch dann nur eine 4:2:2-Farbabtastung geboten, weil sie eben für gewöhnlich eine HD-Videodatei und keine gigantische Datenmenge an Einzelbildern bekommen.

 

Auch das für HD beliebte Apple ProRes HQ ist übrigens nur 4:2:2.

Link zu diesem Kommentar
Auf anderen Seiten teilen

Hui, viele Worte... ziemlich an dem vorbei, was ich meine. Aber Danke.

 

Nein, ich meine keine Flachbettscanner und auch keine 35mm-Diascanner mit irgendwelchem Zubehör. Ich meine Framescanner wie den HM73 oder Freddys Lösung mit einer guten Industriekamera oder besser noch mit einer Zeilenkamera, bei der immer ganze Einzelbilder ohne Pulldown erfasst werden.

 

Der Flashscan8 verwendet eine Hitachi HV-D30, die produziert ein analoges 8-Bit Standard-RGB-Videosignal in PAL mit mässigem Farbraum. Sein SDI-Ausgang ist eine Illusion, denn der kommt aus einem Como Mediaconverter (ich glaube MC-2E), den MWA einfach seines Gehäuses beraubt und ihn eingebaut hat. Die Datenrate der Hitachi selbst liegt nur bei knapp 4 Mbps, da hilft es auch nicht, wenn der fs8 das am SDI-Bus künstlich versechzigfacht. Das ist einfach Augenwischerei, die eine mässig geeignete Videokamera aufhübschen soll.

 

Übrigens habe ich noch nie von einem Diascanner mit S8-Halterung gehört -- ich glaub auch nicht dass man da sonderlich weit kommt (Auflösungstechnisch). Hast Du da irgendwelche Details..?

Link zu diesem Kommentar
Auf anderen Seiten teilen

AdobeRGB ist eine Kalibrierung für RGB-Signale von digitalen Graphikkarten nach Standards von Adobe zur Anpassung an den CMYK-Farbraum, der bei Druckgraphiken benötigt wird, wobei allerdings beide (RGB und CMYK) nicht für die Darstellung des YUV-Farbraums des Fernsehsignals geeignet sind.

Hier muss ich jetzt doch noch mal einhaken, denn das ist einfach zu viel Quatsch in einem Satz. :)

 

- AdobeRGB ist keine "Kalibrierung", sondern ein Farbraum. Wie auch zum Beispiel sRGB.

- YUV hingegen ist kein Farbraum, sondern ein Farbmodell. Wie zum Beispiel auch RGB oder CMYK.

- Jede Farbe aus dem YUV-Farbmodell kann verlustlos im RGB Farbmodell beschrieben werden

 

Was Du bisher zu Röhren, Flachbildschirmen und den Auswirkungen derer Eigenschaften auf das zu sehende Ergebnis geschrieben hast, war leider durchweg ein heilloses Durcheinander voller falscher Aussagen.

 

Mal auf die Schnelle:

sRGB ist als Farbraum geschaffen worden um festzulegen, welche Farben ein Fernseher darstellen können soll. Deine Röhre kann also bestimmt sRGB abbilden. Natürlich zeigt sie nur dann die richtigen Farbwerte an, wenn sie vernünftig kalibriert ist.

AdobeRGB ist ein gegenüber sRGB erheblich erweiterter Farbraum, der sRGB aber vollständig beinhaltet (aber eben noch deutlich mehr Farbwerte darstellen kann, die man eben zum Beispiel in der Druckvorstufe braucht). Ein AdobeRGB-fähiges Display kann also jede Farbe exakt so darstellen wie Deine Röhre -- und es ist vollkommen egal, ob es ein TFT, LCD, LED oder OLED-Display oder von mir aus auch ein Beamer ist, solange sein Gamut sRGB umfasst (Gamut: Die Menge aller Farben, die ein Gerät tatsächlich darstellen kann). Deine Aussagen zu Flachbildschirmen entbehren also jeglicher Grundlage.

 

RGB ist hingegen ein Farbmodell. Ebenso ist YUV ein Farbmodell, und zwar ein direkt aus RGB abgeleitetes. Sie verhalten sich linear, lassen sich also einfach und verlustfrei ineinander überführen. (YUV wurde nur geschaffen, damit SW-Fernseher auch Farbsignale in korrekten Grauwerten darstellen können.) Es ist also vollkommen egal, ob ein Signal in RGB oder YUV vorliegt. Es ist ebenso egal, welcherlei Ausgabegerät man nutzt, solange dieses ein Gamut größergleich dem Signal hat und (wie alle anderen Elemente der Kette) korrekt kalibriert ist.

 

Farbmanagement ist zugegebenermaßen kein einfaches Thema (und gehört hier auch eigentlich nicht hin), aber so ein bisschen richtigstellen wollte ich das jetzt doch mal, schliesslich bleibt es hier stehen und wird u.U. gelesen. Falls es jemanden interessiert, können wir dazu ja einen neuen Thread aufmachen, schliesslich basieren Schmalfilme auf dem CMY-Farbmodell, das hier noch gar nicht erwähnt wurde. :)

  • Like 1
Link zu diesem Kommentar
Auf anderen Seiten teilen

Nein, ich meine keine Flachbettscanner und auch keine 35mm-Diascanner mit irgendwelchem Zubehör. Ich meine Framescanner wie den HM73 oder Freddys Lösung mit einer guten Industriekamera oder besser noch mit einer Zeilenkamera, bei der immer ganze Einzelbilder ohne Pulldown erfasst werden.

 

Pulldown? Welcher Pulldown? Im Abtaster passiert kein Pulldown, zumindest solange ich mit 25 B/s abtaste. Wie gesagt, 1 Filmbild = 1 Videobild. Oder meinst du das combing?

 

Trotzdem brauchst du irgendeine Möglichkeit, um die typische Schmalfilmgeschwindigkeit von 16-18 B/s in einem PAL-Videosignal darstellen zu können, was zumeist nachträglich in einem Videoschnittprogramm passiert. Bei meinem letzten Praktikum sollten wir das immer interlaced machen, was also tatsächlich ein Pulldown war, das führte aber immer zu unschönem Bewegungsflimmern (im NTSC-Land kennt man das unter dem Begriff "telecine jitter"), weshalb ich inzwischen nurnoch in Vollbildprojekten die Geschwindigkeit auf 64-72% verlangsame, was zumindest in PremierePro und FinalCut eine wesentlich sauberere Bewegungswiedergabe ohne Fehlbilder ergibt.

 

Außer der Geschwindigkeitsänderung mit Apple Motion kenne ich weltweit keine einzige Methode, die mit dem nachträglichen digitalen Pulldown/Verlangsamen auch nur ansatzweise konkurrieren könnte, zumindest wenn man die 16-18 B/s in einem standardgerechten PAL-Signal speichern und wiedergeben will. Aber wie ich dich verstanden habe, willst du mit PAL ja garnichts zu tun haben.

 

Der Flashscan8 verwendet eine Hitachi HV-D30, die produziert ein analoges 8-Bit Standard-RGB-Videosignal in PAL mit mässigem Farbraum. Sein SDI-Ausgang ist eine Illusion, denn der kommt aus einem Como Mediaconverter (ich glaube MC-2E), den MWA einfach seines Gehäuses beraubt und ihn eingebaut hat. Die Datenrate der Hitachi selbst liegt nur bei knapp 4 Mbps, da hilft es auch nicht, wenn der fs8 das am SDI-Bus künstlich versechzigfacht. Das ist einfach Augenwischerei, die eine mässig geeignete Videokamera aufhübschen soll.

 

Den SDI-Ausgang habe ich bisher auch nie verwendet, immer nur den Firewireausgang mit DV. Trotzdem ist der Korrekturspielraum beim Abtasten, wie gesagt, gigantisch im Vergleich zu allem, womit ich in den letzten rund 15 Jahren Farbkorrektur im digitalen Video- und Photobereich gemacht habe, mit Ausnahme vielleicht noch von RAW.

 

Übrigens habe ich noch nie von einem Diascanner mit S8-Halterung gehört -- ich glaub auch nicht dass man da sonderlich weit kommt (Auflösungstechnisch). Hast Du da irgendwelche Details..?

 

Habe meine diesbezügliche Quelle nochmal angefragt, die mir erzählen wollte, daß man für die Digitalisierung von Schmalfilmen keinen Abtaster bräuchte, sondern mir weismachen wollte, er würde da eine Firma kennen, die für 1,30 EUR/Minute meterhohe Scans von Super8-Bildern mit einem digitalen Trommelscanner erzeugen würde. Es stellte sich nun raus, daß die Firma ScanDig, die er meinte, für den Diascan durchaus Trommelscans benutzt, er daneben aber die Bilder zu diesen zwei Testberichten auf derselben Seite mißverstanden hatte:

 

http://www.filmscanner.info/NikonSuperCoolscan5000ED.html

http://www.filmscanner.info/NikonSuperCoolscan4000ED.html

http://www.filmscanner.info/ReflectaRPS3600.html

 

Dabei geht's da offenbar um den Scan von ungeschnittenen KB-Negativrollen. Dazu hatte er noch anderswo auf der Seite gelesen, daß ScanDig für 1,30 EUR/Minute Super8 auf DVD bringt, und schon hatte er sich zusammengereimt, daß die Firma Super8 auf automatisierten Trommelscannern digitalisiert.

Link zu diesem Kommentar
Auf anderen Seiten teilen

- AdobeRGB ist keine "Kalibrierung", sondern ein Farbraum. Wie auch zum Beispiel sRGB.

 

*facepalm* Sorry, das war ein echt bescheuerter Tippfehler, nachdem wir beide so intensiv über Kalibrierung geredet haben! >.<

 

- YUV hingegen ist kein Farbraum, sondern ein Farbmodell. Wie zum Beispiel auch RGB oder CMYK.

- Jede Farbe aus dem YUV-Farbmodell kann verlustlos im RGB Farbmodell beschrieben werden

 

Ich habe nie bestritten, daß du etwas auf dem Computermonitor siehst. Nur ist für die korrekte Wiedergabe eine wesentlich exaktere Konvertierung nötig als meine wirklich schnell gemachte Behelfslösung, die bisher für alle Vergleiche ausgereicht hat, da der Markt, auf dem ich mich bewege, wesentlich geringere Qualitätsansprüche hat.

 

Da reichte es auch beim Zielpublikum Videofilmer und -cutter bisher immer, etwas an Gamma, Kontrast und Helligkeit rumzuspielen, um denen eine Ahnung davon zu vermitteln, 1.) wie das jeweilige Bild auf dem jeweils anderen Gerät aussieht, sowie 2.) daß unbehandeltes YUV auf dem Computerbildschirm *IMMER* beschissen aussieht und man daher bei Video auch *NIEMALS* mit einem Computermonitor korrigieren sollte. Ich muß daher gestehen, daß ich noch nie eine genuine YUV-zu-RGB-Konversion durchgeführt habe.

 

Mal auf die Schnelle:

sRGB ist als Farbraum geschaffen worden um festzulegen, welche Farben ein Fernseher darstellen können soll. Deine Röhre kann also bestimmt sRGB abbilden. Natürlich zeigt sie nur dann die richtigen Farbwerte an, wenn sie vernünftig kalibriert ist.

 

sRGB war nie für Fernseher bestimmt, immer nur für Computerbildschirme. Natürlich gab's da auch mal Röhren, aber eben RGB-Röhren. Es stimmt auch, daß RGB YUV beinhaltet, nur eben besitzt, wie ich selber oben schon geschrieben habe, YUV sogar im gegenüber U und V höchstauflösenden Y-Kanal eine geringere Abstufung als RGB in jedem einzelnen Kanal. Von daher muß *IMMER* konvertiert werden, um auf dem jeweils anderen Gerät eine annähernd korrekte Wiedergabe zu haben.

 

(YUV wurde nur geschaffen, damit SW-Fernseher auch Farbsignale in korrekten Grauwerten darstellen können.)

 

YUV ist weit mehr als nur ein terrestrisches Helligkeitsbild, auf das zwei Farbträger draufmoduliert wurden, die für SW-Fernseher unsichtbar sind. Der für uns wichtigste Unterschied besteht im Chroma subsampling, das dir neben der Bildgeschwindigkeit ja gerade solche Bauchschmerzen bereitet, und das auch durch eine Konversion zu RGB nicht wieder rückgängig gemacht werden kann. Was durch den Sensor bzw. die Kameraröhre weg ist, ist weg. Aber Chroma subsampling hat schon seinen Sinn, der darin besteht, daß das menschliche Auge eine geringere Farb- als Helligkeitsauflösung besitzt.

 

schliesslich basieren Schmalfilme auf dem CMY-Farbmodell, das hier noch gar nicht erwähnt wurde. :)

 

Jaja, der gute alte Gegensatz zwischen Licht (RGB) und Materie (CMYK)...

Link zu diesem Kommentar
Auf anderen Seiten teilen

So, hier die unkorrigierten Bilder, wie sie direkt für die Röhre abgetastet wurden. Die korrigierten Bilder aus meinem vorigen Post kommen aus genau derselben Datei.

 

Friedemann, wenn auf deinem RGB-Monitor schon vorher was ausgerissen ist, wirst du diesen Effekt jetzt noch wesentlich stärker haben, sprich, du wirst noch öfter den Eindruck haben, daß Informationen in den hellen Bildbereichen verlorengegangen wären, wo du schwören könntest, da wäre aufgrund von Überbelichtung des Sensors einfach nichts.

 

Und trotzdem dürftest du bei genauem Hinsehen einen Unterschied zu den zuerst eingestellten korrigierten Bildern sehen, indem du dort etwas mehr Strukturen als hier nun siehst. Wenn nicht, müßte der Unterschied zwischen unseren Flachbildschirmen noch größer sein, als ich eigentlich angenommen hatte.

 

gallery_82721_233_142360.jpg

 

gallery_82721_233_52377.jpg

 

gallery_82721_233_895.jpg

 

gallery_82721_233_167708.jpg

 

gallery_82721_233_59379.jpg

 

gallery_82721_233_140892.jpg

 

gallery_82721_233_116413.jpg

 

Bei den nächsten drei Bildern treten übergroße schwarze Ränder auf, die nichts mit dem Abtaster zu tun haben, sondern aus meinem Vergleichsdemoreel mit dem Konkurrenzergebnis stammen, wo ich beide Versionen (meine und die vom Konkurrenzanbieter) stark in der Links-Rechts-Achse verschieben mußte, um halbwegs eine gemeinsame Mitte beider Versionen zu haben.

 

gallery_82721_233_78261.jpg

 

gallery_82721_233_9385.jpg

 

gallery_82721_233_117843.jpg

Link zu diesem Kommentar
Auf anderen Seiten teilen

Das SW-Material von 1942/'43 habe ich nochmal größtenteils ohne den Vergleichstext und in der Originalpositionierung im Videobild hervorgekramt. Auch hier die Originalabtastung für die Röhre, ohne meine schnelle Behelfslösung für Computermonitore.

 

gallery_82721_234_79528.jpg

 

gallery_82721_234_68431.jpg

 

gallery_82721_234_40013.jpg

 

gallery_82721_234_63737.jpg

 

gallery_82721_234_21268.jpg

 

gallery_82721_234_56588.jpg

 

gallery_82721_234_96497.jpg

 

gallery_82721_234_52976.jpg

Link zu diesem Kommentar
Auf anderen Seiten teilen

Und zum Schluß noch die versprochenen Beispielstills von Negativ, deren vergleichsweise natürlichen Rottöne nach der Abtastung bei gewöhnlich einfarbig knallgrün auf dem Film wiedergegebene Leuchtröhrenbeleuchtung im Kaufhaus beim Dreh mich beim ersten Ankucken der Abtastung auf der Röhre beeindruckt hat. Die Abtastung stammt nicht von mir, aber von einem Flashscan. Alles, was bisher kam, war Normal8, die Negative, die jetzt kommen, sind Super8, aber, weil Negativ, eben deutlich grobkörniger als Umkehrmaterial.

 

Erstmal eine Rolle Fuji Eterna 160T von Pro8 über Wittner (wie ich sehe, scheint der seit Herbst 2012, als ich den hier bestellt hatte, schon aus dem Programm von Wittner verschwunden zu sein), der als Fujifilm grundsätzlich mehr Stärken in den Grüntönen zeigt:

 

gallery_82721_235_26305.jpg

 

gallery_82721_235_167149.jpg

 

gallery_82721_235_4553.jpg

 

Der Rest meiner Stills vom Fuji sind bis jetzt noch BMPs ohne Korrektur des nichtquadratischen Seitenverhältnisses, alles also etwas schmal, weil ich mich momentan mit einem behelfsmäßigen Laptop im Wendland befinde. Leider habe ich offenbar keine Berechtigung, solche Dateien hochzuladen.

 

Was dann noch fehlt, sind Stills von zwei Rollen Kodak Vision3 200T mit mehr Rot statt Grün, die sich z. Zt. in Hamburg befinden. Alle drei Negativfilme (1 x Fuji Eterna 160T und 2 x Kodak Vision3 200T) dokumentieren übrigens den Berliner Termin der Deutschlandtournee des US-Comiczeichners Don Rosa.

Link zu diesem Kommentar
Auf anderen Seiten teilen

...

Der Flashscan8 verwendet eine Hitachi HV-D30, die produziert ein analoges 8-Bit Standard-RGB-Videosignal in PAL mit mässigem Farbraum. Sein SDI-Ausgang ist eine Illusion, denn der kommt aus einem Como Mediaconverter (ich glaube MC-2E), den MWA einfach seines Gehäuses beraubt und ihn eingebaut hat. Die Datenrate der Hitachi selbst liegt nur bei knapp 4 Mbps, da hilft es auch nicht, wenn der fs8 das am SDI-Bus künstlich versechzigfacht. Das ist einfach Augenwischerei, die eine mässig geeignete Videokamera aufhübschen soll.

...

 

Friedemann, das ist aber auch nicht richtig so. Wenn die Kamera ein analoges SD-Komponentensignal abliefert, das anschließend auf SDI gewandelt wird, resultiert daraus auch ein "echter" SDI-Datenstrom. Da ist nichts versechzigfacht und ich erkenne auch keine Augenwischerei. Woher nimmst Du die 4Mbps?

 

Was mich ebenfalls immer wieder stört ist der Begriff "Frame by Frame" Abtastung. Das ist absolut missverständlich, denn jede professionelle Abtastung, ob in Echtzeit oder nicht, ist selbstverständlich immer "Frame by Frame". Maßgeblich für das Ergebnis ist die erzielte Auflösung und die Art der Codierung der Einzelbilder.

 

Unbestritten ist eine Abtastung in SD und 8 bit nicht unbedingt für umfangreiche Nachbearbeitung geeignet, und sicher gibt es bessere Kameras als die des Flashscan. Eine hoch aufgelöst "abfotografierte" Folge von Einzelbildern im RAW Format ist da natürlich besser geeignet. Aber das bringt uns dann wieder auf die Kostenfrage.

Link zu diesem Kommentar
Auf anderen Seiten teilen

Trotzdem brauchst du irgendeine Möglichkeit, um die typische Schmalfilmgeschwindigkeit von 16-18 B/s in einem PAL-Videosignal darstellen zu können,

 

Da liegt für mich der Hauptfehler. PAL und Qualität schließen sich im HD-Zeitalter schonmal gegenseitig aus. Dabei denke ich noch nichtmal an die Katastrophe, die das Umbiegen von 18 auf 25 fps mit den Filmen anrichtet. So kann das nichts werden.

Link zu diesem Kommentar
Auf anderen Seiten teilen

Hallo Freunde,

 

Ich stelle mir im Geiste gerade vor, wie mein Grossvater den Projektor im Wohnzimmer aufbaut und alles für einen gemütlichen Filmabend vorbereitet.

Hätte da jemand von YUV, 4:4:4, sRGB oder gar CMY geredet, er wäre vermutlich vom Hocker gefallen. Sein Farbraum fand auf einer Leinwand (Perlwand...) statt, alles andere hat ihn sicherlich nicht interessiert.

Was hat meinen Grossvater damals die Superresolution gelkümmert. Er hat an der Kamera und später auch am Projektor nach bestem Wissen scharfgestellt, und gut war. Okay, damals gab es ja auch noch keine Computer, mit denen man einen Filmabend dann endgültig kaputtmachen konnte... gottseidank...

 

Was ich sagen will: Beschäftigen wir uns nicht viel zu viel mit (Entschuldigung...) etwas überzogener Technik...? Ich bin sleber zwar auch ein Bastler und Tüftler, der manchmal einen an der Klatsche hat, aber übertriben möchte ich dann doch nicht. So behaupte ich einfach mal, dass eine sauber gemachte DVD eine wesentlich bessere Bildqualität als die allermeisten Super-8 Filme hat. Das bezieht sich nicht bloss auf die Schärfe, nein, ich meine damit auch den Bildstand, die Farben und weitere solche Sachen.

Solkange die meisten Amateure mangels Stativ noch nicht mal verwacklungsfreie Aufnahmen hinkriegen, solange kümmert es mich echt überhaupt nicht, ob da 4:4:4 oder bloss 4:2:0 (mini-DV) aufgenommen wurde. Wichtig ist mir einizg, dass meine Aufnahmen das zeigen, was ich zeigen will...

 

Ich habe im Freundeskreis reichlich Schmalfilme von Amateuren "digitalisiert", sprich, von der Lwinwand abgefilmt, weil diese Leute keine Videokamera hatten.Dass ich für meine primitive Methode oftmals sogar noch grosses Lob bezüglich der sauberen und scharfen Bilder bekommen habe, das erstaunte mich mehr als einmal. Es zeigt mir aber, dass der Durchschnittsamateur keinerlei Ahnung von höchster Qualität hat...

 

Erkläre mal einem Kleinwagenfahrer, wie es sich anfühlt, wenn man mit einem Lamborghini voll beschleunigt, er wird dich auch nicht verstehen... (ich hatte dieses Vergnügen vor Jahren oft, einer meiner Freunde fuhr so ein Geschoss...)

 

Ich hoffe bloss, dass man mich nach meinen Worten nicht lyncht, ich meine es nicht böse und schon gar nicht beleidigend, nein, ich vertrete einzig meine kleine Meinung...

 

Rudolf

  • Like 1
Link zu diesem Kommentar
Auf anderen Seiten teilen

Da liegt für mich der Hauptfehler. PAL und Qualität schließen sich im HD-Zeitalter schonmal gegenseitig aus. Dabei denke ich noch nichtmal an die Katastrophe, die das Umbiegen von 18 auf 25 fps mit den Filmen anrichtet. So kann das nichts werden.

 

Auch das ist so eine Begriffsverwirrung. PAL ist das analoge Farbübertragungsverfahren. Davon redet hier niemand. Es wird aber mittlerweile gerne als Synonym für "SD Auflösung" verwendet.

Link zu diesem Kommentar
Auf anderen Seiten teilen

@Jörg Niggemann: Du hast recht, da habe ich Äpfel mit Birnen verglichen. Was ich sagen wollte: Der fs suggeriert mit seinem SDI viel mehr, als seine Kamera kann. Ein bisschen so, als packe man einen Noname-Discman in ein dickes Woodcase von Marantz mit gebürsteter Alu-Frontplatte und Soffitten-beleuchteten Skalenscheiben... oder besser noch, als blase man eine DVD lieblos zur BD auf und vermarkte sie dann "mit BD-Qualität".

Mit "Frame by Frame" meine ich Abtastungen, die volle Einzelbilder ausgeben, also keinen Videostrom mit Deltakompression.

 

@Rudolf: Ja, Du hast Recht. Simple is good. Trtzdem ist dieses Thema (für mich) interessant... vielelicht bruachen wir ein "Schalfilm digital" Unterforum? :)

 

@bdv:

Pulldown? Welcher Pulldown? Im Abtaster passiert kein Pulldown, zumindest solange ich mit 25 B/s abtaste

Du sagst es -- und wie sind die Filme der breiten Masse aufgenommen? Mit ca. 18 fps. Und genau da macht der fs dann Pulldown. Seine ständig blinkende LEDs suggerieren einem ja erst, dass da jedes Filmbild einzeln "geblitzt" wird. Er blitzt aber ja einfach immer so, egal, wie die Geschwindigkeit ist. Und genau so macht er dann bei 18fps Film ein Pulldown. Wie Du sagst: Ich finde, daß eine PAL- (bzw. SD-)Abtastung niemals gut sein kann, allein schon wegen der Bildratenkompromisse. Und ich persönlich ziehe Frame-Blending dem Pulldown vor.

 

Du hast natürlich recht, sRGB ist für Kathodentrahlröhren (an Computern) entwickelt worden, nicht für Fernseher. Richtiger: Das übliche Gamut einer CRT führte zu dem Dimensionen des sRGB Farbraums und war somit in der Regel weitgehend vollständig auf Röhrenfernsehern wie Computerbildschirmen abbildbar. Es bleibt aber dabei, dass es völlig egal ist ob ein Anzeigegerät CRT-basiert oder "flach" ist: Solange es sRGB oder mehr als Farbraum darstellen kann, kann es jede Farbe korrekt anzeigen.

 

RGB "beinhaltet" auch nicht YUV, denn RGB ist kein Farbraum, sondern ein Farbmodell. YUV ist lediglich eine andere Art der Darstellung von RGB Informationen. Ob eine Farbe in YUV oder in RGB definiert ist, ist völlig egal. Es gibt auch keine Farben, die man nur in YUV und nicht in RGB beschreiben kann. Übrigens ist jedes JPEG Bild intern in YUV repräsentiert (genauer: YCbCr) und wird in RGB dargestellt. Auch hier ist ja bekanntermaßen völlig egal, ob man das JPEG auf einem (jeweils kalibrierten) CRT oder TFT oder auch OLED anguckt.

 

Kurz: Wenn Du ein Einzelbild aus Deiner Abtastung erfasst und hier als JPG hochlädst, dann ist es völlig egal, ob das Bild auf einem CRT oder einem TFT oder auf einem OLED-Display betrachtet wird. Dein Jpeg enthält ein ICC-Profil (es sei denn, Du schneidest das mutwillig raus) und es ist Sache der darstellenden Software, das dem Bedarf entsprechend zu korrigieren. Als Testbild eignet sich zum Beispiel dieses -- wenn die Beschriftung zum Farbkreis passt, interpretiert die verwendete Software ICC-Profile korrekt.

 

Chroma subsampling hat schon seinen Sinn, der darin besteht, daß das menschliche Auge eine geringere Farb- als Helligkeitsauflösung besitzt

Den Satz verstehe ich nicht. Der Sinn von Subsampling ist nur, Bandbreite zu sparen. Dabei macht man sich Eigenheiten des menschlichen Augen zu nutze. Man macht aber definitiv kein Subsampling, weil das Auge solche Eigenheiten hat. Das ist wie bei MP3: Man komprimiert, weil "man es kaum hört" und damit Bandbreite sparen kann. Man komprimiert nicht, weil man das kaum hört und es "deshalb für das Ohr besser ist".

 

wenn auf deinem RGB-Monitor schon vorher was ausgerissen ist, wirst du diesen Effekt jetzt noch wesentlich stärker haben, sprich, du wirst noch öfter den Eindruck haben, daß Informationen in den hellen Bildbereichen verlorengegangen wären

Siehe oben. Das ist alles (verzeih bitte) Unfug. Wenn Dein Monitor kalibriert ist (meiner ist es) dann sieht ein JPEG mit ICC-Profil bei Dir auf der Röhre und bei mir auf dem Eizo absolut identisch aus. Es gibt keine geheimen Headrooms, die magischerweise nur von Röhrenmonitoren dargestellt werden können. Punkt.

 

In den neu hochgeladenen Farb-Beispielbildern sind die Lichter leider durchgängig knartsch-rosa (nur beim Vorfahrtsschild seltsamerweise plötzlich cyan). Gleichzeitig saufen die Schatten ab (auch, wenn der Schwarzpunkt noch Footroom hatte). Für mich alles sehr typische Flashscan-Schwächen. Mag sein, dass es Leute gibt denen das genügt, für mich ist das so unerträglich, dass ich mich als Dienstleister schämen würde. Das ist etwa so, als würde man die CD-Sammlung auf Anrufbeantworter-Kassetten sichern und dann behaupten, mehr gäbe die CD nicht her.

Link zu diesem Kommentar
Auf anderen Seiten teilen

Da liegt für mich der Hauptfehler. PAL und Qualität schließen sich im HD-Zeitalter schonmal gegenseitig aus. Dabei denke ich noch nichtmal an die Katastrophe, die das Umbiegen von 18 auf 25 fps mit den Filmen anrichtet. So kann das nichts werden.

 

Ich warte seit rund 10 Jahren auf auch nur eine einzige Demonstration, wo HD unterhalb einer Kantenlänger der kürzeren Seite von 5 Metern irgendwie positiv von SD unterscheidbar oder sonstwie brauchbar ist, ohne daß sich der Konsument die Nase am Bildschirm plattdrücken muß.

 

Was hier auch wichtig ist, ist der generell empfohlene Mindestabstand von mind. ca. 1,5-1,7 mal die Bildschirmdiagonale, um innerhalb des normalen menschlichen Sehwinkels das gesamte Bild erfassen zu können, ohne ständig den Kopf drehen zu müssen. Und auf den Abstand besitzt das menschliche Auge schon rein physikalisch bei weitem nicht das notwendige Auflösungsvermögen, um SD und HD zu unterscheiden, solange wir uns noch nicht im Kinosessel befinden und die Leinwand 10 Meter hoch ist.

 

Wie der Ausbilder in meiner letzten Ausbildung richtig gesagt hat: "Der Mensch hat einfach keine HD-Augen."

 

Aber wie schon beim Schritt von Super8 zu Video gibt es auch heutige wieder findige Marketingexperten, die versuchen, ihre minderwertige neue Technik als das tollste seit geschnitten Brot zu verkaufen. Da die neue Technik, die sie an den Mann bringen müssen, an sich zu minderwertig ist, weil mal wieder um 10-15 Jahre vor der eigentlichen Marktreife auf den Markt geschmissen, bleibt ihnen nur, die ausgereifte Vorgängertechnik technisch so zu manipulieren, daß sie noch schlechter aussieht als ihr Murks, der total verfrüht auf den Markt geworfen wurde.

 

Bei Super8 wurde das gemacht, indem die Filme einfach mit einer schlechten Videokamera von der Leinwand abgefilmt wurden, und behauptet, das wäre halt die normale Qualität von Film. Bei SD und Röhrenfernsehern ist es so, daß ich ab einem bestimmten Zeitpunkt in keinen Elektrogroßmarkt mehr gehen konnte, ohne daß den SD-Röhren nurnoch brüchige Kabel spendiert worden waren, was zu extremem Schneegestöber auf der Mattscheibe führte, damit die Verkäufer behaupten konnten, das sei halt die normale Qualität von SD, und daneben haben sie ihre supertollen neuen Flachgeräte mit heilen Kabeln gehalten.

 

Und beim Vergleich von digitalem SD zu digitalem HD wurde und wird der Kunde manipuliert, indem beim digitalen Fernsehen von Anfang an eine konsequent viel zu niedrige Datenrate für SD verwendet wurde, aber eine ausreichende Datenrate für das HD-Bild gleich daneben. Da sieht der Kunde Blockartefakte und Farbbänder und es wird ihm weißgemacht, so sähe SD halt von Natur aus aus. Inzwischen sind diese niedrigen Datenraten, die allein von den Marketingexperten ausgeheckt wurden, sogar in die offiziellen Standards fürs digitale Fernsehen (DVB-T, DVB-S, DVB-C, IP-TV...) übernommen worden.

 

Immer, wenn mir ein neuer HD-Jünger erzählen will, er würde bei HD ja soviel mehr sehen als SD, schalte ich das minderwertige Fernsehsignal auf seinem Fernseher ab, und zeige ihm dann den: "Unterschied" zwischen einer DVD (die anders als das digitale Fernsehen nämlich eine ausreichende Datenrate besitzt) und einer BluRay. Dann sieht er zum erstenmal, auf welchen Marketingschwindel er jahrelang reingefallen ist. Und danach ist Ruhe.

Link zu diesem Kommentar
Auf anderen Seiten teilen

Ich habe im Freundeskreis reichlich Schmalfilme von Amateuren "digitalisiert", sprich, von der Lwinwand abgefilmt, weil diese Leute keine Videokamera hatten.Dass ich für meine primitive Methode oftmals sogar noch grosses Lob bezüglich der sauberen und scharfen Bilder bekommen habe, das erstaunte mich mehr als einmal. Es zeigt mir aber, dass der Durchschnittsamateur keinerlei Ahnung von höchster Qualität hat...

 

Keine Sorge, Rudolf, dafür wirst du nicht gelyncht. Aber den Unterschied zwischen Abtastung und Abfilmen kannst du z. B. in meinen oben verlinkten Vergleichsbildern "abgefilmt/abgetastet" sehen. Die meisten Amateure bzw. die Zielgruppe Altbestand nimmt sowas hin, weil ihnen über Jahrzehnte von Videomarketingheinis erzählt wurde, daß: "Schmalfilm halt so aussieht". Ich habe noch niemanden erlebt, der nach der Demonstration des Unterschieds auch nurnoch einmal was abgefilmtes haben wollte.

 

Da ist keine Begriffsverwirrung. Von Übertragungsverfahren ist hier nicht die Rede, sondern von Abbildungsqualität. Diese wird bei PAL nun mal auf eine bestimmte Auflösung und Bildrate beschränkt.

 

Welche Bildraten hast du denn beim standardgerechten HD-Fernsehen noch so, die es nicht auch schon bei PAL gab? Mit 50i fing in den 20ern und 30ern das europäische Fernsehen an, 25p hast du per Combing/progressive segmented frame (psf) auch bei PAL, und ich warte noch heute auf die Demonstration eines sichtbaren Unterschieds zwischen 50i und 50p.

 

Die tolle zeitliche Auflösung in der zeitlichen 1:1-Wiedergabe, von der bestimmte Marketingopfer immer schwärmen, beruht bloß auf der Verschlußgeschwindigkeit, die mit derjenigen bei 50i identisch ist und zum ekligen shutter effect führt, wo im Vergleich zu 25p die Bewegungen in einzeln sichtbare Einzelbilder zerhackt werden, was zum seit Jahrzehnten bekannten typischen Unterschied in der Bewegungsdarstellung zwischen Film und Video führt.

 

Gut, wenn du Zeitlupe machen willst, brauchst du natürlich eine höhere Bildgeschwindigkeit, was mit PAL nur bis zu 50 B/s mittels einer etwas komplizierten Methode von Hand möglich ist (Deinterlacing der jeweils geraden und ungeraden Halbbilder per Interpolation in zwei verschiedene Bitmapreihen, automatisierte Umbenennung der Einzelbilder, um die interpolierten Bilder in die richtige Reihenfolge zu bekommen, und dann in ein Videoschnittprogramm als Bildsequenz reinladen und als Videodatei ausgeben). Auch hier hat eben Film nachwievor die Nase vorn, auch gegenüber dne HD-Zeitlupenkameras.

Link zu diesem Kommentar
Auf anderen Seiten teilen

Du sagst es -- und wie sind die Filme der breiten Masse aufgenommen? Mit ca. 18 fps. Und genau da macht der fs dann Pulldown. Seine ständig blinkende LEDs suggerieren einem ja erst, dass da jedes Filmbild einzeln "geblitzt" wird. Er blitzt aber ja einfach immer so, egal, wie die Geschwindigkeit ist. Und genau so macht er dann bei 18fps Film ein Pulldown. Wie Du sagst: Ich finde, daß eine PAL- (bzw. SD-)Abtastung niemals gut sein kann, allein schon wegen der Bildratenkompromisse. Und ich persönlich ziehe Frame-Blending dem Pulldown vor.

 

Und nachwievor macht der Flashscan einfach keinen Pulldown, wenn ich mit 25 B/s abtaste. Du gehst die ganze Zeit davon aus, daß am Abtaster 18 B/s eingestellt wäre.

 

Du hast natürlich recht, sRGB ist für Kathodentrahlröhren (an Computern) entwickelt worden, nicht für Fernseher. Richtiger: Das übliche Gamut einer CRT führte zu dem Dimensionen des sRGB Farbraums und war somit in der Regel weitgehend vollständig auf Röhrenfernsehern wie Computerbildschirmen abbildbar. Es bleibt aber dabei, dass es völlig egal ist ob ein Anzeigegerät CRT-basiert oder "flach" ist: Solange es sRGB oder mehr als Farbraum darstellen kann, kann es jede Farbe korrekt anzeigen.

 

Richtiger: Es gibt YUV und RGB, und daneben gibt es CRT und Flach. Es gibt YUV-Röhren (alte Fernseher), RGB-Röhren (alter Computer), YUV-Flachbildschirme (neue Fernseher) und RGB-Flachbildschirme (neue Computer). Zu den Unterschiedenen zwischen YUV und RGB, sowohl als Farbraum, Signal oder Monitortyp, s. unten.

 

RGB "beinhaltet" auch nicht YUV

 

Dann wundere ich mich, warum du das mehrfach so dezidiert wiederholt hast.

 

YUV ist lediglich eine andere Art der Darstellung von RGB Informationen.

 

YUV besitzt nachwievor wesentlich geringere Abstufungen zwischen Reinweiß und Reinschwarz als RGB, selbst im Y-Kanal, der noch mehr Abstufungen als die Kanäle U und V besitzt. Der Farbwert in einem YUV- oder RGB-Kanal ist erstmal eine reine Zahl, die dort eingetragen ist. Bei RGB geht die Skala von 0-255, bei YUV dagegen nur ca. von 0-220.

 

Daher entspricht der Farbwert 0 (Reinschwarz) in einem digitalen YUV-Kanal (dessen Digitalname mir zu merken oder auszuschreiben immer zu kompliziert ist) ca. dem Farbwert 35 in einem RGB-Kanal, weil es eben nur rund 220 Farbwerte pro Y-Kanal gibt, aber 255 Farbwerte pro RGB-Kanal.

 

Nehmen wir dagegen beim digitalen YUV mal bspw. den Farbwert 35 im Y-Kanal. Auch wenn mir die Umrechnung jetzt zu kompliziert ist, ist dieser Farbwert 35 nämlich auch nicht identisch mit dem RGB-Wert 35.

 

Will man die gleiche Farbe und Helligkeit darstellen, braucht man daher im YUV- und RGB-Farbraum jeweils unterschiedliche Farbwerte, d. h. andere Zahlenwerte. Benutzt man ohne Konvertierung dieselben Zahlenwerte, erhält man bloß ein in den Farbwerten deutlich verzerrtes Bild.

 

S. des weiteren zu dieser Problematik http://de.wikipedia..../Gammakorrektur und http://en.wikipedia....amma_correction Die Gammakorrektur in dieser Form wurde exakt dafür erfunden, daß YUV und RGB einfach nicht ohne Umrechnung auf dem jeweils anderen Gerät fehlerfrei darstellbar sind. Unter den Abschnitten Beispiel digitale Videotechnik, Gammakorrektur zur Linearisierung, Details bzw. Windows, Mac, sRGB and TV/Video standard gammas, Power law for video display, und Terminology steht genau das: Daß man nämlich nicht einfach ein YUV-Signal nehmen und ohne Korrektur problemlos auf einem RGB-Monitor darstellen kann, weil das jeweils andere Gerät das Bild nur extrem verzerrt darstellt.

 

Übrigens ist jedes JPEG Bild intern in YUV repräsentiert (genauer: YCbCr) und wird in RGB dargestellt. Auch hier ist ja bekanntermaßen völlig egal, ob man das JPEG auf einem (jeweils kalibrierten) CRT oder TFT oder auch OLED anguckt. [...] Wenn Dein Monitor kalibriert ist (meiner ist es) dann sieht ein JPEG mit ICC-Profil bei Dir auf der Röhre und bei mir auf dem Eizo absolut identisch aus.

 

Das liegt daran, daß im ICC-Profil von JPEG eine korrekte Gammakorrektur vorgegeben ist. Bei Video hat das, wie wir seit über 15 Jahren immer wieder schmerzlich erfahren müssen, offensichtlich keine Kommission gekümmert.

 

Den Satz verstehe ich nicht. Der Sinn von Subsampling ist nur, Bandbreite zu sparen. Dabei macht man sich Eigenheiten des menschlichen Augen zu nutze. Man macht aber definitiv kein Subsampling, weil das Auge solche Eigenheiten hat. Das ist wie bei MP3: Man komprimiert, weil "man es kaum hört" und damit Bandbreite sparen kann. Man komprimiert nicht, weil man das kaum hört und es "deshalb für das Ohr besser ist".

 

Sind die Berge hoch, weil der Mensch draufsteigen will, oder will der Mensch auf die Berge steigen, weil sie hoch sind? Umgangssprachlich gibt's kaum'nen Unterschied, wenn man von der (oft manipulativen) Beziehung zwischen Mensch und Natur/unbelebter Materie spricht, auch weil der Mensch zu Anthropozentrik und Kausaldenken bei zeitlichem/räumlichen Zusammentreffen neigt, wissenschaftlich bzw.: "objektiv" gesehen macht aber natürlich nur eins von beidem Sinn.

 

Dieser Sinn ist aber recht leicht erschließbar, auch weil die meisten Menschen Probleme haben, umgangssprachlich überhaupt zwischen beiden Varianten zu unterscheiden.

 

Es gibt keine geheimen Headrooms, die magischerweise nur von Röhrenmonitoren dargestellt werden können. Punkt.

 

Das sind keine: "geheimen Headrooms", sondern einfach nur die Defizite, die daraus entstehen, daß z. B. der YUV-Wert 35 nicht identisch mit dem RGB-Wert 35 ist, und daher eben immer eine Gammakorrektur notwendig ist, wenn man YUV auf einem RGB-Monitor darstellen will.

 

In den neu hochgeladenen Farb-Beispielbildern sind die Lichter leider durchgängig knartsch-rosa (nur beim Vorfahrtsschild seltsamerweise plötzlich cyan).

 

Unterschiedliche Farbwahrnehmung gegenüber den alten Bildern hat damit zu tun, daß wir es hier eben nicht wie bei RGB mit der gleichen Abtufungsanzahl zwischen allen drei YUV-Kanälen zu tun haben: U und V besitzen weniger an Abstufungen und räumlicher Pixelauflösung, U besitzt dabei ca. 80% und V ca. 49% der Auflösung und Anzahl der Abstufungen von Y.

 

Aufällig wird das auf einem RGB-Monitor, wenn eben die notwendige Gammakorrektur nicht erfolgt, die notwendig ist, weil nichtmal Y und G dieselbe Abstufungsanzahl zwischen Reinweiß und Reinschwarz besitzen.

 

Gleichzeitig saufen die Schatten ab (auch, wenn der Schwarzpunkt noch Footroom hatte).

 

Das wundert mich wirklich, daß du das erst bei den neuen, unkorrigierten Bildern so siehst. Das habe ich eher bei den behelfsmäßig korrigierten Bildern gesehen, wenn ich dann zur Abschätzung des Ergebnisses nochmal kurz eine Vorschau mit +30 Helligkeit gemacht habe.

 

Ach ja, zum Farbnegativ: So sehr ich Don Rosa verehre, aber das geht gar nicht.

Es reicht, einen Bildausschnitt mal 4x zu vergrößern -- ich denke, da muss man nichts mehr sagen.

 

S. oben. Der Farbkanal V bei YUV (enstpricht der Farbe Rot) besitzt nur ca. 49% der Pixelauflösung und Farbabstufungen des Kanals Y (enspricht Helligkeit bzw. Grün), und zwar schon, seitdem Walter Bruch 1962 erstmals einer EG-Kommission sein PAL-System vorgestellt hat. Daher die eckigen Kanten bei roten Bildelementen, weil Rot nur 49% der Pixel von Grün besitzt.

 

Walter Bruch war aber natürlich nicht blöd, und hat daher in seine PAL-Bildröhre die Eigenschaft eingebaut, daß der Farbkanal V von der Röhre nachträglich weichgezeichnet wird, so daß die eckigen Kanten verschwinden, die im eigentlichen Signal vorhanden sind. Dasselbe hast du bei JPEG. Nur bei der Darstellung von digitalem YUV auf RGB-Monitoren hat sich mal wieder kein Schwein drum gekümmert.

 

Das Ergebnis sehe ich täglich im Videoschnitt. In PremierePro sehe ich riesige eklige Kanten bei roten Bildteilen, rechts daneben auf meiner YUV-Fernsehröhre, an die genau das Signal geht, sehen die roten Bildteile genauso fein aufgelöst wie Y und U aus.

Link zu diesem Kommentar
Auf anderen Seiten teilen

S. des weiteren zu dieser Problematik http://de.wikipedia..../Gammakorrektur und http://en.wikipedia....amma_correction Die Gammakorrektur in dieser Form wurde exakt dafür erfunden, daß YUV und RGB einfach nicht ohne Umrechnung auf dem jeweils anderen Gerät fehlerfrei darstellbar sind. Unter den Abschnitten Beispiel digitale Videotechnik, Gammakorrektur zur Linearisierung, Details bzw. Windows, Mac, sRGB and TV/Video standard gammas, Power law for video display, und Terminology steht genau das: Daß man nämlich nicht einfach ein YUV-Signal nehmen und ohne Korrektur problemlos auf einem RGB-Monitor darstellen kann, weil das jeweils andere Gerät das Bild nur extrem verzerrt darstellt.

 

Jedes abbildende System muss sich mit dem Problem der Helligkeitsempfindung auseinandersetzen. Dadurch ist eine Fülle von Gammakorrekturen entstanden. Die Farbfernsehsysteme PAL und NTSC, die Betriebssysteme Microsoft Windows und Mac OS sowie unixoide Systeme, aber auch Druckerhersteller kennen das Problem (siehe auch Tonwertzuwachs). [...]

 

RGB-Monitore und TV-Geräte haben verschiedene Helligkeitsprofile und erfordern häufig eine Korrektur, um das Bild optimal darzustellen. [...] Der Zusammenhang zwischen den digitalen und den radiometrischen Daten wird in der Literatur als die Kathodenstrahlröhren-Übertragungsfunktion 334de1ea38b615839e4ee6b65ee1b103.png(Gamma) bezeichnet. [...]

 

A gamma characteristic is a power-law relationship that approximates the relationship between the encoded luma in a television system and the actual desired image luminance [on a computer monitor].

 

With this nonlinear relationship, equal steps in encoded luminance correspond roughly to subjectively equal steps in brightness. [...] To compensate for this effect, the inverse transfer function (gamma correction) is sometimes applied to the video signal so that the end-to-end response is linear. In other words, the transmitted signal is deliberately distorted so that, after it has been distorted again by the [RGB] display device, the viewer sees the correct brightness.

 

A color CRT receives three video signals (red, green and blue [oder besser V, Y und U]) and in general each color has its own value of gamma, denoted γR, γG or γB [weil, anders als bei RGB, jeder YUV-Kanal eine andere Anzahl an Abstufungen hat, s. o.].

 

Ein Grund dafür, daß die grundsätzlich notwendige Gammakorrektur so selten thematisiert wird, mag darin bestehen, daß bei Video das Endmedium zumeist auf einem Gerät mit demselben Farbraum/-modell abgespielt wird, in dem es auch aufgenommen wurde.

Link zu diesem Kommentar
Auf anderen Seiten teilen

Meine ersten S8-Scans waren auch in SD. Wäre ja praktischer gewesen, da man damit noch die alten DVD-Player hätte verwursten können, die seit einiger Zeit im Keller gammeln.

 

Aber dann muß mich wohl - wie du sagst - irgendeine unbekannte Macht manipuliert bzw. irgendein Marketing mich zum Opfer gemacht haben, so daß ich am nächsten Tag den SD-Matsch in die Tonne trat und von da an nur noch in HD scannte. Daß ein "Mensch keine HD-Augen" hat, wurde meinen Augen wohl vergessen mitzuteilen. ;-)

 

Zweifel an der Hypothese kamen mir allerdings erst kürzlich wieder, als ich mich mal wieder überreden ließ, ein paar von den 1080p@18fps-Scans auf DVD Video, also aufs PAL-Format für Oppas DVD-Player runterzuschrumpfen. Ob nun mit Pulldown-Geruckel oder mit Blend-Geschmiere - es sieht einfach Kagge aus, wenn man den Film schon mal in voller Auflösung gesehen hat.

 

Ehrlich, wenn du tatsächlich glaubst, man bräuchte mindestens ein 5 Meter Display, um HD von SD qualitativ zu unterscheiden, aber irgendwelche Farbraum-Geschichtchen wären eher ein Kriterium, dann guck dir erstmal die heutige TV- und Video-Technik im Kaufhaus an, mit der es der qualitätsbewußte Kunde zu tun hat. Vermutlich fällt es dir da schon wie Schuppen von den Augen, was ich meine. Und wenn nicht, kann ich dir auch nicht mehr helfen, wünsche aber trotzdem viel Erfolg bei deinem Unternehmen. :smile:

  • Like 1
Link zu diesem Kommentar
Auf anderen Seiten teilen

Erstelle ein Benutzerkonto oder melde Dich an, um zu kommentieren

Du musst ein Benutzerkonto haben, um einen Kommentar verfassen zu können

Benutzerkonto erstellen

Neues Benutzerkonto für unsere Community erstellen. Es ist einfach!

Neues Benutzerkonto erstellen

Anmelden

Du hast bereits ein Benutzerkonto? Melde Dich hier an.

Jetzt anmelden
×
×
  • Neu erstellen...

Filmvorführer.de mit Werbung, externen Inhalten und Cookies nutzen

  I accept

Filmvorfuehrer.de, die Forenmitglieder und Partner nutzen eingebettete Skripte und Cookies, um die Seite optimal zu gestalten und fortlaufend zu verbessern, sowie zur Ausspielung von externen Inhalten (z.B. youtube, Vimeo, Twitter,..) und Anzeigen.

Die Verarbeitungszwecke im Einzelnen sind:

  • Informationen auf einem Gerät speichern und/oder abrufen
  • Datenübermittlung an Partner, auch n Länder ausserhalb der EU (Drittstaatentransfer)
  • Personalisierte Anzeigen und Inhalte, Anzeigen- und Inhaltsmessungen, Erkenntnisse über Zielgruppen und Produktentwicklungen
Durch das Klicken des „Zustimmen“-Buttons stimmen Sie der Verarbeitung der auf Ihrem Gerät bzw. Ihrer Endeinrichtung gespeicherten Daten wie z.B. persönlichen Identifikatoren oder IP-Adressen für diese Verarbeitungszwecke gem. § 25 Abs. 1 TTDSG sowie Art. 6 Abs. 1 lit. a DSGVO zu. Darüber hinaus willigen Sie gem. Art. 49 Abs. 1 DSGVO ein, dass auch Anbieter in den USA Ihre Daten verarbeiten. In diesem Fall ist es möglich, dass die übermittelten Daten durch lokale Behörden verarbeitet werden. Weiterführende Details finden Sie in unserer  Datenschutzerklärung, die am Ende jeder Seite verlinkt sind. Die Zustimmung kann jederzeit durch Löschen des entsprechenden Cookies widerrufen werden.