Zum Inhalt springen

bdv

Mitglieder
  • Gesamte Inhalte

    574
  • Benutzer seit

  • Letzter Besuch

  • Tagessiege

    1

Alle erstellten Inhalte von bdv

  1. Und wieso sollte das gerade mit 25 B/s zu tun haben? Geht nämlich auch nicht besser auf als 16 B/s. Darüberhinaus meine ich, sogar Normal8-Kameras aus den 50ern und 60ern gesehen zu haben, wo mit einem kleinen Hebel die Bildgeschwindigkeit umgestellt werden konnte, und da stand auf dem Gehäuse 24 bzw. 16 2/3 statt exakt 16 draufgedruckt. Und irgendwo im Hinterkopf schwirrt bei mir auch noch die entsprechende technische Erklärung dazu, so in die Richtung, daß das ein entsprechender Teiler irgendeiner mechanisch-physikalischen Größe/Kraft oder Kinofilmgeschwindigkeit war. Vielleicht die 50 Hz Netzspannung, die bei der Zweibandvertonung wichtig war?
  2. Der versucht, die Bandbreite des Lumasignals mit der Zeit zu verrechnen, wie lange der Kathodenstrahl von links nach rechts braucht. Wie er auf die Idee kommt, allein damit eine Pixelzahl zu bekommen, ist mir schleierhaft. Dazu nimmt er die Zahl 1,3 MHz, die aber nur die Farbübertragung im unteren Seitenband des Signals betreffen. Dazu kommen dann noch das obere Seitenband und die eigentliche Trägerfrequenz, was zusammenaddiert die offiziell definierten 4,43 MHz für den Chromakanal ergibt. Das sind 86% des Y-Kanals, was ziemlich nahe an den ca. 88% des V-Kanals (Blau) liegt. Die 49% für U (Rot) dürften demnach einer Bandbreite von ca. 2,45 MHz entsprechen. Danke, danke! Endlich werden mal die Defizite des YUV/PAL-Signals auch im selben Post mit den Erwartungen der Hauptzielgruppe genannt! Und 4K hab' ich auch mal auf der Berliner Sony Roadshow 2009 gesehen, unter der Bezeichnung: "Digital Cinematography". Sah für mich größtenteils wie normales Video aus (flaue Farben, kein richtiges Schwarz), nur halt mit Vollbildern. Auf derselben Roadshow gab's auch den Vergleich desselben Bildes in SD, 720p und 1080i, wobei angeblich 1080i das Originalbild sein sollte. Den Unterschied zwischen SD und 720p konnte ich genausowenig wie irgendjemand anders aus der MGBT-Klasse auch aus 10cm Entfernung zum Bildschirm erkennen, und 1080i sah wie ein ekelhaft schlecht vergrößertes SD-Bild mit furchtbaren Schärfungsartefakten Marke Unscharfmaskierung aus. Aber wenigstens gab's auch eine Kamera mit einem lustigen digitalen Vergrößerungsknopf. Erinnerte mich witzigerweise etwas an die alten Revolverobjektive in verschiedenen Brennweiten.
  3. Zur Thematik Agfa und Wolfen nochmal: Das mit der Abwerbung der Fachleute stimmt zwar, aber der genaue Zeitpunkt des Wechsels war meines Wissens schon früh (Ende der 40er? frühe 50er?) durch die Laufzeit der Wolfener Lizenz bis Anfang der 60er bestimmt worden. Was mich am historischen Roh-ORWO am meisten stört, ist der extrem helle Schwarzwert, der dem Bild einen matschigen, unscharfen Gesamteindruck gibt (mangelnde Kontrastschärfe). Setzt man den Schwarzwert in der Abtastung runter, sieht auch der ORWO den Westmaterialien in der Qualität wesentlich ähnlicher, teilweise über die Jahrzehnte sogar farbstabiler als Agfa (viele Agfas vor den 80ern, die ich abgetastet habe, gehen gegenüber Kodak- oder ORWO-Materialien inzwischen mehr oder weniger stark ins Rötliche; ab den (mittleren?) 80ern tritt höchstens noch ein vergleichsweise leichter Blaustich auf). Allerdings nur solange, wie die Belichtung stimmt. Muß man dann unterbelichtete Einstellungen raufziehen, taucht beim ORWO eine ganze Menge unschöner Falschfarben auf, die händisch korrigiert werden müssen. Die große Vielfalt unter verschiedenen ORWO-Chargen ist mir auch schon aufgefallen. Da ich aber mitbekommen habe, daß auch ORWOs, die zur selben Zeit belichtet wurden, recht unterschiedlich sein können, hab' ich mich bisher immer gefragt, ob das vielleicht an Fertigungsungenauigkeiten gelegen hat, bspw. wegen vorübergehenden Versogrungsengpässen in der DDR oder so. Meines Wissens ist der VNF ursprünglich in den 70ern als: "Video News Film" (= VNF) für die Fernsehberichterstattung auf 16mm auf den Markt gekommen. War damals direkt (nach dem Positivschnitt?) für die Abtastung von Fernsehsendern gedacht, wie heute die Negativfilme. Ob da später noch dran rumgedoktert wurde, weiß ich nicht. Der VNF ist bei mir nie was geworden. Das war noch um 2000, ganz zu Anfang meiner Super8-Karriere, mit der Leicina Special vom Onkel, die keine automatische Belichtung bzw. Empfindlichkeitserkennung hatte. Kurz vor dem ersten VNF muß ich versehenlich an die Drehscheibe für die Empfindlichkeit gekommen sein, so daß konstant 500 ASA oder sowas eingestellt sein müssen. Und ich war noch so jung und dumm, daß ich auch nach zwei oder drei VNF nicht kapierte, wo der Fehler war. Obwohl, jetzt, wo ich nachdenke, rund 6 Jahre später habe ich mit einem ehemaligen Kommilitonen für ein Zeitlupenprojekt nochmal den VNF verwendet. Die Farben gingen so ins Grün-Gelbliche. Ein Ami hat mir mal erzählt, daß drüben der VNF immer blau geworden wäre. Ich dachte, der VNF kam erst 1997 für Super8 auf den Markt? :shock1: Oder meinst du jetzt 16mm? Ich habe mal 2004 (20 Jahre nach MHD) ein paar Porstfilme (aha, jetzt weiß ich, daß das also Sakura/Konica war) in Super8 verkurbelt und von Frank Bruinsma entwickeln lassen. Das Ergebnis war in der Projektion äußerst knallbunt von der Farbsättigung her, dabei stabiler Kontrast, satter Schwarzwert und für das Alter wirklich phänomenale Farbneutralität. Kein bißchen Farbstich, als wenn die Filme gestern bei Kodak vom Band gelaufen wären. Auch altersspezifisches Korn ist für mich kaum zu erkennen. Was aber negativ auffiel, war, daß Porst die einzigen je von mir verwendetetn Filme waren, die an den Rändern (ich glaube, vor allem links) so aussahen, als wenn jemand Dreck und schwarzes Öl draufgekippt hätte. Subtraktives RG scheint zumindest für natürliche Hauttöne recht brauchbar zu sein: http://en.wikipedia.org/wiki/RG_color_space Bis Anfang der 30er hat man tatsächlich so Farbaufnahmen gemacht, wenn man nicht ein Vermögen für Autochromeplatten ausgeben wollte. Kodachrome im Bewegtfilm war ab der Verbesserung von 1939 der nach der Entwicklung farbstabilste Film aller Zeiten. Zumindest bei guter Lagerung im Dunkeln und trocken.
  4. Die Probleme hast du größtenteils genauso bei HD. Und Interframekompression würde Probleme beim Schneiden geben. Oder meinst du Intraframekompression? Das Chroma subsampling entspricht als Verhältnis Farbe zu Helligkeit bloß dem farbspezifischen Auflösungsvermögen des menschlichen Auges. Gammakorrektur wurde erst seit den 90ern ein Problem, als mit der Digitalisierung erstmals YUV-Material auf Computermonitoren dargestellt werden mußte, die bis heute auf RGB geeicht sind. Der Overscan hat nichts mit unsauberen Rändern zu tun, sondern damit, daß bei Röhrenfernsehern den Herstellern nie exakte Vorgaben über die Bildgröße gemacht wurden, sondern bloß eine Mitte exakt definiert wurde. Daß jemand mit dem Nick Regular8 fordert, daß nurnoch 24 B/s gelten sollen, entbehrt nicht einer gewissen Ironie. Ich stimme dir aber eindeutig zu, daß Halbbilder und unsaubere Bildgeschwindigkeiten auf den Müllhaufen der Geschichte gehören. Mit Ausnahme vielleicht der 16 2/3 B/s, die viele Normal8-Kameras hatten.
  5. Nein, soweit ich das überblicke, übernimmt FBAS einfach nur die halbe Chromaauflösung von der Anfangscodierung in YUV, ohne die nochmal zu halbieren. Der Unterschied liegt primär im Muxing alias zeitversetzten Senden/packaging auf demselbem FBAS-Kanal, wie nämlich auch schon das: "Zusammenfalten" von YUV zu Y/C funktioniert. Aber daß auch der K40 ein Auflösungsvermögen besitzt, daß auch für HD reicht, ist natürlich unbestritten.
  6. Dieselbe Frage kannst du bezüglich der nichtquadratischen Pixel bei YUV-Video seit den 80ern stellen, wo sie nicht für eine anamorphe Anzeige des Bildseitenverhältnisses da sind, die von 4:3 abweicht. Deswegen habe ich YUV-Video weiter oben auch als: "das ungeliebte Stiefkind aller Kommissionen zur Aufstellung digitaler Standards" genannt. Es gibt Leute, die reden sich mit der Tatsache raus, daß man sowohl Pixelzahlen teilbar durch 16 und eine identische Bitrate für NTSC und PAL haben wollte. Es stimmt zwar, daß man für PAL und NTSC die identische Bitrate als Ergebnis aus Pixelauflösung (teilbar durch 16) mal Farbtiefe mal Farbunterabtastung (= Chroma subsampling) mal Bildfrequenz mal Audiobitrate mal Audiosamplerate bei der Aufstellung digitaler Standards erreichen wollte, aber dafür braucht man keine nichtquadratischen Pixel, wie man auch an den schwarzen Rändern sieht, die bei den Digitalvarianten von PAL und NTSC bedenkenlos eingefügt wurden. Und auch die Reduzierung der Dateigröße ist beim Unterschied zwischen 4:3 und 5:4 minimal. Ein Grund für die mangelhaft verbreitete Gammakorrektur und ihrem noch selteneren Stand in der Kommunikation und Ausbildung (es wird noch weniger über die Gammakorrektur geredet und geschrieben, als sie von Haus aus eingebaut wird) mag darin liegen, daß auch heute noch die meisten Fernseher von Haus aus auf YUV geeicht sind, egal ob Röhre oder Flach. Nahezu 100% der ausgebildeten Mediengestalter Billd/Ton werden dir sagen können, daß man für professionelle Ergebnisse nicht auf dem Computerbildschirm korrigieren sollte, sondern auf einem dedizierten Kontrollmonitor daneben. Aber warum das so ist, kann dir von denen kaum einer erklären, auch wenn sie aus der Ausbildung zumindest wissen, daß Chroma generell nur die halbe Pixelauflösung von Luma besitzt. D. h. während der Produktion erfolgt die Bearbeitung im Rechner u. U. im RGB-Farbraum, der Echtzeitkontrollmonitor, der danebensteht, ist YUV (so daß der Cutter oder Operator YUV-Material bekommt, wo er dann ohne Gammakorrektur RGB-Werte verstellt, auf dem Kontrollmonitor aber sieht, wie das ganze als YUV aussieht), und das Zielgerät beim Endkunden ist ebenfalls YUV. Wenn der Cutter oder Operator im Rechner RGB-Werte verstellt, dann funktioniert das nur deshalb, weil der Kontrollmonitor des Cutters bzw. Operators eben genau wie das Zielgerät beim Endkunden auch YUV ist. Wenn allein für Web gearbeitet wird, reicht dagegen der reine Computermonitor aus, der nur auf RGB geeicht ist.
  7. Mein Ziel ist der Endverbraucher mit YUV-Monitor. Das ist keine Frage, ob Röhre oder Flach, wie wir schon weiter oben geklärt haben. Was sie letztendlich zur YUV-Monitoren in dem Sinne macht, daß sie anders als reine RGB-Monitore YUV korrekt darstellen. Und wofür stehen Y, U und V? Für Helligkeit/Grün, Rot und Blau. Der Unterschied besteht im kanalspezifischen Gammaprofil bei YUV aufgrund der unterschiedlichen Abstufungsanzahl pro Kanal im Vergleich zu RGB. Das heißt, wenn keine Gammakorrektur für den reinen RGB-Monitor stattfindet, sieht man auf dem Bildschirm zwar etwas, das aber in Helligkeit(s- bzw. Kontrastumfang) wie Farben deutlich verzerrt ist. Hier ein guter Link zu den Unterschieden zwischen YUV und RGB: http://www.fourcc.org/fccyvrgb.php Und hier: http://www.martinreddy.net/gfx/faqs/colorconv.faq kann man wirklich gut sehen, wieviel Arbeit die Konvertierung zwischen YUV und RGB eigentlich macht und was da technisch alles zu beachten ist. Achtung 1: Kanalbezeichnungen mit ' (lies: "Strich", d. h. Y' = "Y mit Strich" bzw. "Luma mit Strich") bezeichnen die bereits für RGB-Monitore gammakorrigierte Variante. Achtung 2: Besonders Leute, die kaum noch mit dem analogen, sondern nurnoch mit dem digitalen Signal zu tun haben, erwähnen im Prosateil nur die verringerte Pixelauflösung der zwei Chromakanäle, nicht aber die geringere Abtufungsanzahl zwischen Reinweiß und Reinschwarz. Man muß dann immer auf die Formeln für die kanalspezifische Gammakorrektur achten.
  8. Man sagt auch Fernseher dazu. Alle Referenzmonitore für die professionelle Fernseh- und Videoproduktion arbeiten mit YUV. Die einzige Ausnahme sind evtl. Geräte für Digital Intermediate bei 35mm und höher, wo ich mich nicht so auskenne. Entweder sind da die Referenzgeräte RGB, oder die Operator nehmen die Gammakorrektur bei der Ausbelichtung vor.
  9. Genauer: Da steht eine *YUV*-Röhre, keine RGB-Röhre. EDIT: S. oben im selben Post. Oh Mann... :mrgreen: Aber ja: Als Kontrollmonitor würd' ich nichtmal'ne Computerröhre nehmen, sondern immer nur'ne YUV-Röhre, weil das Zielgerät beim Endverbraucher in meiner Branche nachwievor in den allermeisten Fällen YUV ist.
  10. Es geht nicht um den Unterschied zwischen Röhre und Flach, sondern zwischen RGB-Monitor und YUV-Monitor. Sobald das Signal im Betriebssystem ankommt, wird es vom System als RGB interpretiert, obwohl es eigentlich YUV ist, und wird daher innerhalb der RGB-Verarbeitungskette immer verzerrt dargestellt. Umgekehrt ist zum Glück kein Problem: Wenn man ein RGB-Bild z. B. in PremierePro reinlädt, wird's korrekt von RGB zu YUV gewandelt. 1.) Mein flacher RGB-Monitor am Computer ist nicht zu 100% kalibriert, jedenfalls nicht gemäß deiner hohen Qualitätsstandards. Ich verlasse mich, wenn es um Profiqualität geht, immer auf die Röhre, die rechts danebensteht (weil YUV nunmal mein zentraler Hauptarbeitsbereich ist), und beim RGB-Monitor, wenn das das Ziel sein soll (RGB heißt für mich im Grunde Web), nur auf den Augenschein. Aber unsere Diskussion hat mich schonmal belehrt, daß ich bei meiner im Aufbau befindlichen Webseite wirklich Gammakorrektur machen sollte, und nicht wie hier im Thread einfach nur Helligkeit & Kontrast. :) Bisher hatte das immer ausgereicht, weil erstens Schmalfilmabtastungen der Zielgruppe Altbestand meistens auch auf YUV-Geräten angekuckt wird, und weil den meisten Videoarbeitern, mit denen ich bisher zu tun hatte, entweder nichtmal der Unterschied zwischen der Anzeige auf YUV- und RGB-Monitoren auffällt (bzw. weil die selber immer nur auf YUV-Geräten kontrollieren), oder sie die Thematik selber kennen und wissen, was ihr Zielgerät sein wird, und damit auch, welche Korrekturen sie beim Wechsel des Farbraums als Zielmedium selber von Hand vornehmen müssen. 2.) Verschiedene RGB-Monitore haben verschiedene Gammaprofile (auch, wenn die sich untereinander ähnlicher sind als alle RGB-Gammaprofile zu YUV). Ein Kriterium, von denen ich selber nichtmal alle auf Anhieb kenne, sind hierbei auch verschiedene Betriebssysteme. Nagel' mich nicht drauf fest, aber das könnte u. a. sogar hardwarespezifisch sein, sprich, anderer Monitorhersteller (bzw. anderer Monitortyp, z. B. LCD, Plasma, etc.) gleich leicht anderes Gammaprofil, was dann noch mit dem Gammaprofil des jeweiligen Betriebssystems in Einklang gebracht werden muß.
  11. Der Unterschied besteht darin, daß bei YUV-Video die für RGB nötige Gammakorrektur, anders als bei JPG, von der Software nie automatisch durchgeführt wird. Die weltweit einzige Ausnahme, die ich kenne, waren einige Versionen vom Windows Media Player, wenn man da vorher von Hand ein Häkchen richtig gesetzt hatte. Nein. Dazu müßte das Bildbearbeitungsprogramm erkennen, daß es sich bei dem Screenshot um den Fabraum YUV handelt. Das tut es aber nicht, weil das gesamte System die Daten von Haus aus erstmal als RGB interpretiert. Wie gesagt, YUV-Videos sind, was die Definitionen angeht, sowas wie das ungeliebte Stiefkind aller Kommissionen zur Erstellung digitaler Standards. So ähnlich kam's in den 80ern auch zu den nichtquadratischen Pixeln, lange bevor jemand an anamorphes Video dachte. Erstmal muß ich nochmal wiederholen, daß ich bisher nicht mit dem RGB-Ausgang vom Flashscan gearbeitet habe, obwohl er einen solchen hat. Zweitens ist wohl wieder an die Qualitätsansprüche der Masse an Privatkunden gedacht worden, die bei der Super8- und Normal8-Abtastung bei weitem den Löwenanteil stellen, denen auch DVDs und BluRays genug sind. Nur in etwa 10-20% der Fälle reicht der Korrekturrahmen des Flashscans nicht aus, so daß man nachträglich im Computer noch eine sekundäre Farbkorrektur vornehmen muß. Und da merkt man bei extremer Korrektur auch an den typischen YUV-Artefakten sofort, daß sich der Spielraum extrem verringert hat im Vergleich zum Korrekturrahmen in der primären Korrektur am Flashscan. Wie gesagt, die treten erst bei der sekundären Farbkorrektur im Rechner auf, wenn die Daten schon YUV sind. Und was nicht paßt, weil's nach oben oder unten ausreißt, wird schon in der primären Farbkorrektur am Flashscan passend gemacht, indem nur der entsprechende Signalbereich separat eingepegelt wird, im Rahmen des natürlichen Helligkeitseindrucks im Vergleich zum Rest des Bildes. Ohne häßliche, am Waveformmeter sichtbare flache Begrenzungen, die auftreten würden, wenn die primäre Korrektur in einem YUV-begrenzten Signal erfolgen würde.
  12. Das liegt daran, daß es anders als bei JPEG kein ICC/CCIR/IEC/ITU-Profil für in YUV kodiertes Video gibt, in dem die korrekte Gammakorrektur für RGB-Monitore (die auch noch untereinander verschiedene Gammaprofile besitzen, was u. a. nach Betriebssystem geht) definiert oder vorgegeben ist. Selbst der höchstauflösende Kanal Y besitzt weniger Abstufungen zwischen Reinweiß und Reinschwarz als RGB, was eine grundsätzliche Gammakorrektur schon für Y notwendig macht, bevor das Bild auf einem RGB-Monitor korrekt dargestellt werden kann. Einfach nur die Helligkeit zu manipulieren bringt nichts, weil sich der Effekt über den Bereich zwischen Reinweiß und Reinschwarz hinweg verschieden auswirkt. Helligkeit & Kontrast zugleich bringt einen schon einen Schritt weiter, das exakt passende Werkzeug ist aber Gamma. Das ist die Korrektur, die ich behelfsmäßig nachzuempfinden versucht habe, auf einem RGB-Monitor mit WindowsXP. Hinzukommt, daß U und V noch weniger Abstufungen (und Pixel pro gleicher Fläche, also größere Pixel) haben als Y. V (enspricht Blau) besitzt ca. 88% der Abstufungen (und Pixel) von Y, und U sogar nur etwa 49% im Vergleich zu Y. Alles also enstprechend der Eigenschaften des menschlichen Auges (bzw. entsprechend der optischen Auflösung qua Wellenlänge), das am besten Helligkeit und die Farbe Grün sieht, Blau weniger gut, und Rot am schlechtesten. Deshalb haben bei YUV alle drei Kanäle verschiedene Gammaprofile, die für eine 100%ig korrekte Gammakorrektur beachtet werden müssen. Ohne kanalspezifische Gammakorrektur interpretiert der RGB-Monitor schon den Kanal Y falsch in der Helligkeit bzw. im Helligkeitsumfang, und die beiden anderen Kanäle als nochmal um den Faktor verzerrter, der ihrem Prozentverhältnis zu Y entspricht. Und was sehen wir, wenn wir die Helligkeitswerte eines Bildes nicht nur leicht in Grün, sondern mehr noch in Blau und am allermeisten in Rot manipulieren? Rosa! Wenn U und V genau dasselbe Gammaprofil hätten, wär's lila, aber da U (= Rot) sich nochmal exorbitant von V (= Blau) unterscheidet, ist es eben rosa, besonders in den hellen Bildbereichen (Merke: Das Gammaprofil wirkt sich zwischen Reinweiß und Reinschwarz verschieden aus, daher Gammakurve). Bei meinem VLC beispielsweise habe ich schon von Haus aus das Gamma nach Gefühl runtergesetzt. Daß dir das vor allem bei Schmalfilmen besonders auffällt, liegt erstmal daran, daß die allermeisten Filme, die von der Zielgruppe Altbestand zur Abtastung gebracht werden, der extrem kräftig gesättigte Kodachrome ist, der an sich wärmere Farben hat, die unbehandelt leicht in Richtung eines warmen, etwas nostalgischen Gelb (= Rot + Grün) gehen. Wenn man das etwas moderner aussehen lassen will, ohne die schöne, legendäre Sättigung des Kodachrome anzugreifen, fügt man etwas blau hinzu, um neutralere Lichter und z. T. Mitten zu haben. Und dann kommt dein RGB-Monitor und fügt aufgrund der mangelnden Gammakorrektur für YUV-Video noch mehr blau und rot besonders in den Lichtern hinzu. Es mag an der marktbeherrschenden Stellung des Kodachrome liegen, aber nahezu alle Kunden der Zielgruppe Altbestand wollen generell warme, kräftige Farben von ihren farbigen Schmalfilmen haben und verlangen das auch oft bei der Übergabe des Materials. Verdenken kann ich ihnen das jedenfalls nicht, zumal der Kodachrome auch der qualitativ hochwertigste Umkehrfilm auf dem Schmalfilmmarkt war; die meisten anderen Marken besitzen oft extremere Farbstiche und sind generell im Vergleich blaß, milchig oder in der Sättigung flau (wenn auch natürlich bei weitem nicht so schlimm wie beim einfachen Abfilmen). Vielleicht liegt's auch daran, daß viele Abtaster schon vom Hersteller auf den Marktführer Kodachrome geeicht sind. Die meisten Operator, die ich kenne, haben bei allem anderen als Kodachrome immer gestöhnt, was Altbestand angeht, weil das immer wesentlich mehr Korrektur bedeutete. Ich find's eher spannend und freue mich über das schönere Ergebnis, das man mit der Korrektur erzielen kann; oft habe ich als Operator das Gefühl, die Filme so aussehen zu lassen, wie sie bei optimalen Material- und Drehbedingungen ausgesehen hätten. Zum Glück besitzen die einzelnen Filmsorten allerdings genug Eigencharakteristik, daß sie auch bei einer Korrektur zum Optimum hin in puncto Farbneutralität (zumindest kein häßlicher Farbstich) und Schwarzwert noch unterscheidbar sind. Was dagegen Kauffilme z. B. auf DVD angeht, besitzen 1.) wenige Filme eine so starke Sättigung und z. T. Kontrast wie der Kodachrome, und 2.) sind besonders moderne Filme darum bemüht, unbedingt und mit aller Gewalt so auszusehen wie Video, sprich wesentlich blasser, flauer und matschiger als jeder Film, und sind auch oft sehr düster. Da hast du weniger Lichter, deren Helligkeitswert oft schon runtergesetzt ist, und auch nur mit einer im Vergleich zu Film, und insbesondere zum Kodachrome, niedrigen Sättigung.
  13. Puh... danke für deine positive Rückmeldung, obwohl ich selber in meinem letzten Post erstmal Dampf abgelassen und ziemlich vom Leder gezogen habe. Das entkrampft erstmal einiges, und hilft dabei, wieder unbefangen aufeinander zuzugehen. Du gehörst nicht zu meiner Zielgruppe, was die Qualität der Abtastung angeht, und dabei sollten wir's wohl in Zukunft belassen. Auf jedenfall möchte ich im Gegenzug auch sagen, daß mich deine Experimente mit dem VisionT als Umkehrfilm echt beeindrucken. Für sowas fehlen mir wirklich die chemischen Grundlagen, die du zuhauf draufhast. Besonders die scheinbare Naturtreue (soweit ich das auf einem RGB-Monitor beurteilen kann :mrgreen: ) der Farben beim Color-Input-Target-Testbild haut mich um, wenn du da keine Farbkorrektur gemacht hast. Die Außenaufnahmen sind dagegen wirklich eher sowas wie eine künstlerische Nische und erinnern mich an die eher poetischen als realistischen Streifen von Dagie.
  14. Richtig, das nennt man PsF, qualitativ nicht unterscheidbar von genuinem Progressivmaterial. Und? Bislang weiß keiner von uns, wie der Flashscan nun die Farbkorrektur erledigt. Ich kann mit meiner rund 15jährigen Erfahrung nur wiederholen, daß das nicht im YUV-Farbraum sein kann. Das war kein Geld für Hardware, sondern für die Ausbildung, die ich für den entscheidenden Vorsprung an Sach- und Fachkenntnis auf dem etablierten und akzeptierten Markt der PAL-Abtastung brauche, mit dem Friedemann ohnehin nichts zu tun haben will. Daß der Markt für PAL-Abtastungen von Schmalfilmen definitiv durch mehr Ahnung auf dem Gebiet der Videotechnik noch verbesserungsfähig ist, bestreite ich nicht; die meisten etablierten Anbieter, die ich kenne, haben viel Ahnung von Film, sind aber im Bereich Sach- und Fachkenntnis des Zielmediums aus meiner Sicht noch ausbaufähig. Sicherlich nicht, solange noch garkeine Geräte vorhanden sind. Was soll ich denn machen, wenn Friedemann tausendmal mit der Beschwerde ankommt, daß das YUV-Signal auf seinem laut allen Lehrbüchern zur Beurteilung grundsätzlich ungeeigneten RGB-Monitor nicht so aussieht, wie er das haben will? Wenn er jede vorgeschriebene Korrekturmaßnahme, oder deren annähernde Simulierung, zur annähernd vergleichbaren Darstellung auf seinem RGB-Monitor strikt ablehnt, weil ihm das Verständnis aller Lehrbücher zum Thema abgeht? Wenn er aus denselben Gründen offenbar auch nichts mit den Geräten zu tun haben will, für die ich als Zielmedium überhaupt arbeite, bzw. sich mit den Unterschieden in den technischen Eigenschaften zu seinen RGB-Gerät überhaupt ernsthaft befassen will und diese entgegen den Lehrbüchern immer wieder strikt verleugnet? Wenn er trotz Aufklärung über die physikalisch-technischen Grundlagen deshalb immer wieder auf den in der Fachliteratur beschriebenen Defiziten seines RGB-Monitors beharrt, um immer wieder zu verkünden, wie schlecht meine angebotene Dienstleistung doch sei? Wenn er schließlich verkündet, daß er mit keinem einzigen der bei Markt und Kunden etablierten Fernseh- und Videostandards was zu tun haben will, sondern nur das für gut befindet, was ihm auf seinem ungeeigneten RGB-Monitor gefällt, und mir sagt, meine Diensleistung wäre deshalb generell unbrauchbar? Ich habe ja nichts dagegen, wenn jemand seine eigenen Qualitätsstandards hat. Ich habe auch nichts dagegegen, wenn er zur Beurteilung seiner Standards Technik benutzt, die laut allen Lehrbüchern völlig ungeeignet dafür ist, und aufgrund von (vorsichtig formuliert) Hörensagen selbst jede offiziell empfohlene bzw. vorgeschriebene Korrektur strikt ablehnt, um seine ungeeignete Technik wenigstens halbwegs brauchbar für wenigstens irgendeine subjektive Beurteilung zu machen. Aber ich habe dann ein Problem, wenn jemand aufgrund dieser ganzen subjektiven Vorgeschichte wiederholt vor Zeugen und in der Gruppe verkündet, meine Technik, im YUV-Farbraum bzw. mit Chroma subsampling zu arbeiten, wäre aufgrund der und jener technischer Vermutungen, die er anstellt und die auch nicht jeder Laie nachvollziehen kann, unbrauchbar für jegliche annehmbaren Qualitätsstandards, sogar obwohl diese Technik bei nahezu 100% des professionellen Fernseh- und Videomarktes etabliert ist. Mir bei Heranziehung der maßgeblichen Literatur vorhält, was ich doch für eine Lachnummer wäre, weil ich mir so drollige Sachen vermeintlich selber ausgedacht hätte. Und bei wörtlichen Zitaten aus bzw. expliziter Nennung der Fachliteratur, von bisherigen Ausbildern und aus praktischer Erfahrungen in 3 Praktika, mehrjähriger Selbständigkeit und insgesamt rund 15 Jahren praktischer Arbeit, die ihn allesamt eindeutig widerlegen, meint er bloß, ich müsse: "da wohl irgendwas falsch verstanden haben". Während ich mich gleichzeitig über 6 Threadseiten hinweg solcher pauschalisierender Aussagen über Charakter und Sach- und Fachkenntnis seinerseits enthalte. Man kann mir möglicherweise vorhalten, daß ich mich solange mit der Überzeugung von Friedemann aufhalte, der laut meiner eigenen oben vorgetragenen Einschätzung aus sämtlicher meiner Zielgruppen rausfällt. Aber ich habe nunmal ein Problem, wenn er sich dann immer wieder hinstellt und meint, meine Dienstleistung wäre generell oder überwiegend unbrauchbar, aufgrund von Argumenten, die sämtlichen Lehrbüchern widersprechen. Und was hat die obige Zahl mit meinen Preisen zu tun? Die vorläufige Hausnummer, die ich Friedemann genannt hatte, lautete 66 Cent pro *METER* bei 25 B/s. Das kommt bei nachträglicher Umrechnung auf 18 B/s auf etwa 4 EUR/Minute bei Super8 raus, was auch den Realpeisen einiger Konkurrenzanbieter bei Hinzurechnung aller Nebenkosten entspricht. Und auch da hat Friedemann noch gemeint, bei einem solchen Preis könne er nichts professionelles erwarten.
  15. Und noch was zur Professionalität von YUV: Nachdem ColorNTSC die ersten Jahre mit YIQ arbeitete, hat es im Laufe der 70er und 80er auch den YUV-Farbraum von PAL übernommen, weil YUV ganz einfach auch YIQ überlegen ist, so daß YUV seit seiner Erfindung und bis zur breiteren Übernahme von HD, MPEG und h264 auch auf Produktions- und Distributionsseite das Signal der Wahl in professionellen Fernsehstudios und von professionellen Fernsehsendern generell war.
  16. Nein, Höhe. Zumindest bei ausreichender Datenrate fürs bis dahin verwendete SD-Signal. Für den weiten Korrekturraum bleibt sonst nur ein RGB-8:8:8-Sensor. In YUV ist definitiv kein so großer Spielraum möglich. Deine: "geheimen Farben" sind die extrem verzerrte Darstellung, die daraus entsteht, wenn du dasselbe Material auf RGB- und YUV-Monitoren darstellen willst, dabei aber die nötige Gammakorrektur unterläßt. Mit entsprechender Gammakorrektur (die ich grob simuliert habe), wird dann auch das auf dem jeweils anderen Gerät sichtbar, was dieses bis dahin als nahezu Reinweiß bzw. Reinschwarz interpretiert hat. Wenn du's nicht glauben willst, dann schreib' u. a. Wikipedia um. Oder so ziemlich alle relevanten Lehrbücher zum Thema Gammakorrektur, die weltweit im letzten Vierteljahrhundert geschrieben wurden. Mit CRT und Flach hat das erstmal nichts zu tun. Die hier relevanten Defizite der meisten Flachbildschirme gegenüber der Röhre bestehen nachwievor vor allem in einem sehr schlechten Schwarzwert und einer mangelhaften Reaktionszeit per Pixel. Nein, das liegt am unterschiedlichen Gammaprofil für die Kanäle Y, U und V, das für die korrekte Gammakorrektur bei der Darstellung auf RGB-Monitoren notwendig ist. Zumindest über ein Vierteljahrhundert lang galt das als professionell, ja. Nämlich u. a. für U-Matic, (Digi-)Beta, VHS und DVD. Und wenn's dir nur ums Chroma subsampling geht, das hast du exakt genauso auf BluRays. Das habe ich nicht gesagt. Ich frage mich nur, welcher Praktikant die ca. 5 Sätze auf der Seite 22 im oben verlinkten PDF verbrochen hat. Technisch wie wissenschaftlich ist das unter aller Sau, marketingtechnisch aber schon so etwa eine 2-. Erstens hast du die ganze Zeit davon geredet, daß der Flashscan ja *NIEMALS NICHT* ohne Pulldown arbeiten könnte, und zweitens bezeichnet Pulldown die Verteilung desselben Vollbilds auf nicht zusammengehörige Halbbilder, so daß Halbbildzeilen sichtbar werden. Das war bei meinem letzten Praktikum Vorgabe. Wenn man das ganze aber in einer Vollbilddatei ohne Halbbildüberblendung (so heißt die Option in PremierePro, mit der man bei Geschwindigkeitsänderung u. a. Halbbilder erzeugt, wo vorher keine waren) macht, ist das kein Pulldown, weil keine Halbbildzeilen sichtbar werden. Das ist eine Geschwindigkeitsverlangsamung, die, ohne daß Fehlbilder entstehen würden, viel näher an den originalen Projektionseindruck mit 18 B/s herankommt. Wenn man dagegen Bildüberblendung nicht von Halb- sondern von Vollbildern dafür einstellt, ist der Effekt exakt derselbe wie der telecine jitter, der bei Pulldown auf jedem deinterlacenden Monitor auftritt. Ich kann nur wiederholen, daß die Dunkelphasen beim Projektor per Umlaufblende und bei der Anzeige auf Röhre per 100 Hz nur deshalb verkürzt wurden, um eine fürs menschliche Auge erträglichere Hell-Dunkel-Verschmelzungsfrequenz zu erzeugen. Der Flashscan hingegen macht quasi nur ein kurzes Photo pro eingestellter Bildfrequenz pro Sekunde, das dann in Echtzeit an einen Monitor weitergegeben wird, dessen Dunkelphasen, wenn überhaupt noch vorhanden, nichts damit zu tun haben, wie schnell die LEDs flackern oder wie oft ein Photo gemacht wird. Framebuffer im Anzeigegerät machen's möglich. Ich würde eher auf sowas ähnliches wie eine optimale Kombination aus Lichtmenge zu Belichtungszeit tippen, die über die Hell-Dunkel-Phasen der LEDs gesteuert wird, analog zur Zeit-Blenden-Kombination bei einer Kamera, wo außer dem Sensor/Filmmaterial auch noch eine Blende vorhanden ist.
  17. Nein. Im von ARRI versauten Test ging es um 4K vs. 2K. Wenn ich sage, daß der Unterschied zwischen SD und HD marginal ist, dann meine ich den zwischen Kauf-DVD (mit mindestens 9,8 Mbit/s) und BluRay auf einem Bildschirm beim empfohlenen Mindestabstand im Wohnzimmer. Daß besonders visuelle SFX im Kino bei einer höheren Auflösung als 2K als Postpro-Produktionsgröße gemacht werden sollten, ist klar, auch wenn das Material später in der Größe eingedampft wird, wie z. B. bei DVD und BluRay. Ein abgeschlossenes Diplom vom SAE Institute: http://de.wikipedia....i/SAE_Institute , und dazu, weil die SAE außer dem NDR, wo sie wie im angelsächischen Bereich hoch angesehen ist, keinem deutschen Arbeitgeber bekannt war, noch eine staatlich anerkannte, aber auch kostenpflichtige Ausbildung Mediengestalter Bild/Ton auf einer privaten Hochschule, wo knapp drei Monate vor Ausbildungsende der Ausbildungsleiter nach fast 10 Jahren aufgrund eines Streits mit der Schulleitung abgehauen ist.
  18. Die Bilder, die da gegen den Flashscan verwendet werden, sind offensichtlich über den einfachen analogen FBAS-Ausgang ausgegeben worden, der minderwertigste Ausgang, den der Flashscan überhaupt hat. Da muß sich der Mensch auch nicht wundern, wenn er color drooping bzw. color shifting (dt. Farbsäume bzw. Farbversatz) wie bei der xten VHS-Generation hat. Das ist auch keine chromatische Aberration, da der Begriff zumindest im Deutschen und Englischen auf Abbildungsfehler von Objektiven beschränkt ist. Die Artefakte sehen sich zwar auf Standbildern oberflächlich ähnlich, haben aber grundsätzlich verschiedene Ursachen. Im Textteil beschreibt er dazu im Grunde das typische Color subsampling (bzw. wie dieses von CCDs durchgeführt wird), wie es auch auf jeder DVD und BluRay vorhanden ist, macht dann dieses fälschlicherweise aber für das color shifting verantwortlich, die er über den FBAS-Ausgang sieht. Die MEthode von Rogers Moviestuff, die er gegen den Flashscan lobt, hat viel stärkere Farbsäume, allerdings tatsächlich aufgrund von chromatischer Aberration der verwendeten Optiken. Auch scheint der Tester zu behaupten, daß sogar der FlashscanHD mit CCD arbeiten würde, da steckt aber ein CMOS drin. Hier geht er erstens genauso wie Friedemann von einem Pulldown aus, wobei auch ihm entgangen zu sein scheint, daß die Standardeinstellung des Flashscans nicht 18, sondern 25 B/s ist. Der Film läuft also schneller durch den Flashscan, als durch den handeslüblichen Projektor, so daß keinerlei Pulldown stattfindet. Zweitens weiß er offenbar auch nicht, daß die Umlaufblende im Projektor und die 100-Hz-Technik von Röhren nur dazu da war, um exakt die Dunkelphasen zu verkürzen, die moderne Monitore garnicht mehr haben. Der Flashscan wiederum braucht nur in dem Moment Licht, wo er einen Scan vom einzelnen Filmbild macht; die Hell-Dunkel-Abfolge hat nichtsmehr mit den biochemischen Eigenschaften des menschlichen Auges zu tun, sondern bloß noch damit, wie lange der Sensor belichtet werden muß, um die ausreichende Lichtmenge pro Aufnahme zu erhalten. Zwei Möglichkeiten: Entweder, der Tester wußte nur nicht, wozu die Fernbedienung von dem Teil da war, oder er hat zusätzlich noch alles bloß auf einem Flachbild- bzw. RGB-Monitor kontrolliert. Und selbst, wenn ihm die Korrekturmöglichkeiten über die Fernbedienung noch nicht gereicht hätten, hätte er noch die Gesamtsättigung des Bildes mit einem Knopf am Gerät runterfahren können.
  19. Für diese: "abstrusen Behauptungen, Grenz-Verschwörungstheorien, haarsträubenden Vermischungen und Themenfremden Abschweifungen" mußte meine Familie aber immerhin rund 35.000 Euro an Ausbildungsgeld bezahlen. Der Vorteil ist, daß ich Wikipedia wie auch diverse Lehrbücher nicht umzuschreiben brauche, sondern dort in zwei Sprachen bestätigt werde. Wie denn noch bearbeitet? Der letzte Schwung war doch das Originalmaterial aus dem Abtaster. (Mit Ausnahme des Pixelseitenverhältnisses.) Oder meinst du die Farbkorrektur, die im Abtaster stattfindet, bevor das ganze als DV aus dem Abtaster an den Rechner geht? Bei der Abtastung von 35- und 16mm-Printmaterial, das von Profis gedreht und schon durchgängig farb- und lichtbestimmt ist, mußt du bei der Abtastung vielleicht nicht viel einstellen, aber bei seit Jahrzehnten gealtertem Amateurmaterial auf einem Kameraoriginal fallen bei 90% der Arbeitszeit eben erhebliche Korrekturarbeiten an. Der Operator am Abtaster muß dann nachträglich den Job erledigen, den bei den Großformaten der Color grader und der Lichtbestimmer in der Postpro übernehmen, und zwar wohlgemerkt bei Amateurmaterial. Die Kunden bei der Zielgruppe Altbestand sind dann, wenn sie das Material überhaupt projiziert kennen, immer überglücklich, wie man ihre Familienerinnerungen trotz schlechter Lichtverhältnisse am Drehort und Verlust eines großen Teils bestimmter Farbschichten gerettet hat. Und die Zielgruppe aktive Filmer ist immerhin in der Regel so sehr Prosumer, daß sie einem im vornherein sagt, ob sie die Standardkorrekturen wünscht oder nicht.
  20. Besagten Mindestabstand von 1,5-1,7 mal die Bilddiagonale habe ich mir auch nicht persönlich aus den Fingern gesogen. Hier einige Quellen dazu: Rushing, K. (2004): Home Theater Design, Rockport Publishers, S. 60ff http://www.electroni...e_vs_room_size/ http://www.soundandv...-out-resolution Es handelt sich dabei nämlich um den u. a. von SMPTE und Fujitsu empfohlenen Mindestbetrachtungsabstand. THX tanzt hierbei als einziges aus der Reihe, indem sie nur das 1,2fache der Bilddiagonale empfehlen. Erstmal inhaltlich eine ganze zeitlang dasselbe wie von mir, nur noch zusätzlich mit der Unterscheidung zwischen Massenmarkt und Home-Cinema-Erbsenzählern, etwas über die Tagesform des Testsubjekts, sowie etwas über den blinden Fleck. Dann: Exakt diese Aussage wurde ja von niemandem gemacht, auch nicht von mir. Ich habe geschrieben: "ab 5m Kantenlänge" lohnt sich frühestens HD. Und was lesen wir auf der besagten Seite 22, wo Experiment und Auswertung in gerademal 4 dürren Absätzen auf noch nichtmal einer halben Seite abgehandelt werden? Typisches Marketingsprech wie: "Assuming that the projection in this theater is digital, the observer could easily differentiate 12 000 mm / 3 mm = 4 000 pixels." Zu deutsch heißt das zweierlei: 1.) "Was nicht digital ist, ist Pampe, basta!" 2.) "Das Auflösungsvermögen des menschlichen Auges kann durch Digitaltechnik erhöht werden." Was beides schonmal Blödsinn von ARRI ist, die in der Broschüre eben ihr ach-so-tolles 4K-System irgendwie an den Mann zu bringen versuchen. Das Marketinggewäsch setzt sich fort, indem einfach eine von Grundauf falsche Versuchsanordnung aufgebaut wird: Genannt wird die Leinwandbreite von 12m, d. h. daß die Höhe ca. 7m betragen dürfte. Nehmen wir nun den Satz des Pythagoras, ergibt sich für die Bilddiagonale ca. 14m. Ausgegangen wird dann aber nicht von einem Betrachter, dessen Abstand zur Leinwand mindestens das 1,5-1,7fache der Bilddiagonale entspricht, was nämlich 21-28m wären, sondern mit 10m gerademal die Hälfte bis ein Drittel davon! Selbst beim von THX empfohlenen Mindestabstand vom 1.2fachen der Bilddiagonale wären wir hier noch bei 17m Mindestabstand. Wenn man den Betrachter wie hier nur in der Hälfte bis ein Drittel des empfohlenen Mindestabstands vor dem Bildschirm platziert, ist es nämlich auch kein Wunder, wenn er dann die marginalen Unterschiede zwischen SD und HD zu erahnen anfängt. Die von dir genannten Blockartefakte sind nämlich, wie schon weiter oben zum Digitalfernsehen gesagt, erstmal eine Frage der angemessenen Datenrate, und nicht der abstrakten Pixelanzahl. Daß sie ihren fiktiven Betrachter viel zu nahe an die Leinwand gesetzt haben, gibt ARRI nämlich indirekt auch selber nur ein paar Zeilen drunter zu, indem dort explizit gesagt wird, daß auch nach deren Erkenntnis schon ab einem Abstand von 14m (immernoch weit unter dem empfohlenen Mindestabstand, s. o.) die Auflösung auf der Leinwand höher ist, als das menschliche Auge wahrnehmen kann. Wieder ein paar Zeilen drunter aber berufen sie sich wieder auf ihren schon vom Ansatz her falschen Versuchsaufbau, wonach 50% der Leute in ihrem fiktiven Kino ja tatsächlich einen Unterschied sehen würden. Daß die meisten davon Nackenstarre kriegen, erwähnen sie natürlich nicht! Was sie dann noch mit: "modulation of the lower spatial frequencies" wollen, bleibt mir schleierhaft. Etwa häßliche Moiremuster aufgrund von Welleninterferenzen des projizierten Lichts? Oder ist das nur höheres Marketingsprech für: "Unsere Pixel sind schon so klein, daß sie ganz, gaaaanz bestimmt garkeinem Menschen überhaupt nicht, ja, niemals nicht auffallen?" Und weil der ganze Aufbau ein solcher Murks ist, daß das eigentlich jeder Profi sofort merkt, schreiben sie zur Sicherheit noch schnell ans Ende: "This article has addressed only the static image quality factors: sharpness and resolution. As was mentioned in the introduction, there are many more parameters to consider." Zu deutsch: "Wir wissen auch nichts genaues, also bitte, bitte nageln Sie uns bloß nicht auf den Blödsinn fest, den wir da gerade eben verzapft haben. Aber wir verpassen unseren (freiwilligen? unfreiwilligen? strafgefangenen?) Versuchsobjekten gerne Nackenstarre, wenn wir damit unter Umständen ein paar Millionen mehr verdienen können." Progressives Material oder progressive Datei? Zum Verkleinern nehme ich grundsätzlich bilinear. Und vor allem für jegliche Skalierungsarbeiten immer VirtualDub, da man da zusätzlich zu verschiedenen Sorten bicubic und bilinear auch eine Reihe von Schärfungs- und Weichzeichenparametern mit angeben kann. Und dabei hat man auch immer eine qualitative 1:1-Echtzeitvorschau.
  21. Höchstens Werbung für PAL.
  22. Mal wieder was vergessen, aber ich kann man wieder nicht bearbeiten: Und vor allem: Hast du Halbbild- oder Vollmbildmaterial skaliert.
  23. Wie und womit hast du denn skaliert? Und wie weit sitzt du vom Bildschirm weg?
  24. Ein Grund dafür, daß die grundsätzlich notwendige Gammakorrektur so selten thematisiert wird, mag darin bestehen, daß bei Video das Endmedium zumeist auf einem Gerät mit demselben Farbraum/-modell abgespielt wird, in dem es auch aufgenommen wurde.
  25. Und nachwievor macht der Flashscan einfach keinen Pulldown, wenn ich mit 25 B/s abtaste. Du gehst die ganze Zeit davon aus, daß am Abtaster 18 B/s eingestellt wäre. Richtiger: Es gibt YUV und RGB, und daneben gibt es CRT und Flach. Es gibt YUV-Röhren (alte Fernseher), RGB-Röhren (alter Computer), YUV-Flachbildschirme (neue Fernseher) und RGB-Flachbildschirme (neue Computer). Zu den Unterschiedenen zwischen YUV und RGB, sowohl als Farbraum, Signal oder Monitortyp, s. unten. Dann wundere ich mich, warum du das mehrfach so dezidiert wiederholt hast. YUV besitzt nachwievor wesentlich geringere Abstufungen zwischen Reinweiß und Reinschwarz als RGB, selbst im Y-Kanal, der noch mehr Abstufungen als die Kanäle U und V besitzt. Der Farbwert in einem YUV- oder RGB-Kanal ist erstmal eine reine Zahl, die dort eingetragen ist. Bei RGB geht die Skala von 0-255, bei YUV dagegen nur ca. von 0-220. Daher entspricht der Farbwert 0 (Reinschwarz) in einem digitalen YUV-Kanal (dessen Digitalname mir zu merken oder auszuschreiben immer zu kompliziert ist) ca. dem Farbwert 35 in einem RGB-Kanal, weil es eben nur rund 220 Farbwerte pro Y-Kanal gibt, aber 255 Farbwerte pro RGB-Kanal. Nehmen wir dagegen beim digitalen YUV mal bspw. den Farbwert 35 im Y-Kanal. Auch wenn mir die Umrechnung jetzt zu kompliziert ist, ist dieser Farbwert 35 nämlich auch nicht identisch mit dem RGB-Wert 35. Will man die gleiche Farbe und Helligkeit darstellen, braucht man daher im YUV- und RGB-Farbraum jeweils unterschiedliche Farbwerte, d. h. andere Zahlenwerte. Benutzt man ohne Konvertierung dieselben Zahlenwerte, erhält man bloß ein in den Farbwerten deutlich verzerrtes Bild. S. des weiteren zu dieser Problematik http://de.wikipedia..../Gammakorrektur und http://en.wikipedia....amma_correction Die Gammakorrektur in dieser Form wurde exakt dafür erfunden, daß YUV und RGB einfach nicht ohne Umrechnung auf dem jeweils anderen Gerät fehlerfrei darstellbar sind. Unter den Abschnitten Beispiel digitale Videotechnik, Gammakorrektur zur Linearisierung, Details bzw. Windows, Mac, sRGB and TV/Video standard gammas, Power law for video display, und Terminology steht genau das: Daß man nämlich nicht einfach ein YUV-Signal nehmen und ohne Korrektur problemlos auf einem RGB-Monitor darstellen kann, weil das jeweils andere Gerät das Bild nur extrem verzerrt darstellt. Das liegt daran, daß im ICC-Profil von JPEG eine korrekte Gammakorrektur vorgegeben ist. Bei Video hat das, wie wir seit über 15 Jahren immer wieder schmerzlich erfahren müssen, offensichtlich keine Kommission gekümmert. Sind die Berge hoch, weil der Mensch draufsteigen will, oder will der Mensch auf die Berge steigen, weil sie hoch sind? Umgangssprachlich gibt's kaum'nen Unterschied, wenn man von der (oft manipulativen) Beziehung zwischen Mensch und Natur/unbelebter Materie spricht, auch weil der Mensch zu Anthropozentrik und Kausaldenken bei zeitlichem/räumlichen Zusammentreffen neigt, wissenschaftlich bzw.: "objektiv" gesehen macht aber natürlich nur eins von beidem Sinn. Dieser Sinn ist aber recht leicht erschließbar, auch weil die meisten Menschen Probleme haben, umgangssprachlich überhaupt zwischen beiden Varianten zu unterscheiden. Das sind keine: "geheimen Headrooms", sondern einfach nur die Defizite, die daraus entstehen, daß z. B. der YUV-Wert 35 nicht identisch mit dem RGB-Wert 35 ist, und daher eben immer eine Gammakorrektur notwendig ist, wenn man YUV auf einem RGB-Monitor darstellen will. Unterschiedliche Farbwahrnehmung gegenüber den alten Bildern hat damit zu tun, daß wir es hier eben nicht wie bei RGB mit der gleichen Abtufungsanzahl zwischen allen drei YUV-Kanälen zu tun haben: U und V besitzen weniger an Abstufungen und räumlicher Pixelauflösung, U besitzt dabei ca. 80% und V ca. 49% der Auflösung und Anzahl der Abstufungen von Y. Aufällig wird das auf einem RGB-Monitor, wenn eben die notwendige Gammakorrektur nicht erfolgt, die notwendig ist, weil nichtmal Y und G dieselbe Abstufungsanzahl zwischen Reinweiß und Reinschwarz besitzen. Das wundert mich wirklich, daß du das erst bei den neuen, unkorrigierten Bildern so siehst. Das habe ich eher bei den behelfsmäßig korrigierten Bildern gesehen, wenn ich dann zur Abschätzung des Ergebnisses nochmal kurz eine Vorschau mit +30 Helligkeit gemacht habe. S. oben. Der Farbkanal V bei YUV (enstpricht der Farbe Rot) besitzt nur ca. 49% der Pixelauflösung und Farbabstufungen des Kanals Y (enspricht Helligkeit bzw. Grün), und zwar schon, seitdem Walter Bruch 1962 erstmals einer EG-Kommission sein PAL-System vorgestellt hat. Daher die eckigen Kanten bei roten Bildelementen, weil Rot nur 49% der Pixel von Grün besitzt. Walter Bruch war aber natürlich nicht blöd, und hat daher in seine PAL-Bildröhre die Eigenschaft eingebaut, daß der Farbkanal V von der Röhre nachträglich weichgezeichnet wird, so daß die eckigen Kanten verschwinden, die im eigentlichen Signal vorhanden sind. Dasselbe hast du bei JPEG. Nur bei der Darstellung von digitalem YUV auf RGB-Monitoren hat sich mal wieder kein Schwein drum gekümmert. Das Ergebnis sehe ich täglich im Videoschnitt. In PremierePro sehe ich riesige eklige Kanten bei roten Bildteilen, rechts daneben auf meiner YUV-Fernsehröhre, an die genau das Signal geht, sehen die roten Bildteile genauso fein aufgelöst wie Y und U aus.
×
×
  • Neu erstellen...

Filmvorführer.de mit Werbung, externen Inhalten und Cookies nutzen

  I accept

Filmvorfuehrer.de, die Forenmitglieder und Partner nutzen eingebettete Skripte und Cookies, um die Seite optimal zu gestalten und fortlaufend zu verbessern, sowie zur Ausspielung von externen Inhalten (z.B. youtube, Vimeo, Twitter,..) und Anzeigen.

Die Verarbeitungszwecke im Einzelnen sind:

  • Informationen auf einem Gerät speichern und/oder abrufen
  • Datenübermittlung an Partner, auch n Länder ausserhalb der EU (Drittstaatentransfer)
  • Personalisierte Anzeigen und Inhalte, Anzeigen- und Inhaltsmessungen, Erkenntnisse über Zielgruppen und Produktentwicklungen
Durch das Klicken des „Zustimmen“-Buttons stimmen Sie der Verarbeitung der auf Ihrem Gerät bzw. Ihrer Endeinrichtung gespeicherten Daten wie z.B. persönlichen Identifikatoren oder IP-Adressen für diese Verarbeitungszwecke gem. § 25 Abs. 1 TTDSG sowie Art. 6 Abs. 1 lit. a DSGVO zu. Darüber hinaus willigen Sie gem. Art. 49 Abs. 1 DSGVO ein, dass auch Anbieter in den USA Ihre Daten verarbeiten. In diesem Fall ist es möglich, dass die übermittelten Daten durch lokale Behörden verarbeitet werden. Weiterführende Details finden Sie in unserer  Datenschutzerklärung, die am Ende jeder Seite verlinkt sind. Die Zustimmung kann jederzeit durch Löschen des entsprechenden Cookies widerrufen werden.