Zum Inhalt springen

Branchenentwicklung Verbrauchszahlen


bdv

Empfohlene Beiträge

Zweifel an der Hypothese kamen mir allerdings erst kürzlich wieder, als ich mich mal wieder überreden ließ, ein paar von den 1080p@18fps-Scans auf DVD Video, also aufs PAL-Format für Oppas DVD-Player runterzuschrumpfen. Ob nun mit Pulldown-Geruckel oder mit Blend-Geschmiere - es sieht einfach Kagge aus, wenn man den Film schon mal in voller Auflösung gesehen hat.

 

Wie und womit hast du denn skaliert? Und wie weit sitzt du vom Bildschirm weg?

Link zu diesem Kommentar
Auf anderen Seiten teilen

Wie und womit hast du denn skaliert? Und wie weit sitzt du vom Bildschirm weg?

 

Mal wieder was vergessen, aber ich kann man wieder nicht bearbeiten:

 

Und vor allem: Hast du Halbbild- oder Vollmbildmaterial skaliert.

Link zu diesem Kommentar
Auf anderen Seiten teilen

bdv schrieb:

 

 

Ich warte seit rund 10 Jahren auf auch nur eine einzige Demonstration, wo HD unterhalb einer Kantenlänger der kürzeren Seite von 5 Metern irgendwie positiv von SD unterscheidbar oder sonstwie brauchbar ist, ohne daß sich der Konsument die Nase am Bildschirm plattdrücken muß.

 

Was hier auch wichtig ist, ist der generell empfohlene Mindestabstand von mind. ca. 1,5-1,7 mal die Bildschirmdiagonale, um innerhalb des normalen menschlichen Sehwinkels das gesamte Bild erfassen zu können, ohne ständig den Kopf drehen zu müssen. Und auf den Abstand besitzt das menschliche Auge schon rein physikalisch bei weitem nicht das notwendige Auflösungsvermögen, um SD und HD zu unterscheiden, solange wir uns noch nicht im Kinosessel befinden und die Leinwand 10 Meter hoch ist.

 

Wie der Ausbilder in meiner letzten Ausbildung richtig gesagt hat: "Der Mensch hat einfach keine HD-Augen."

 

Das ist in Theorie und Praxis komplett falsch. Das Auflösungsvermögen des menschlichen Auges ist bekannt, man kann für jeden Betrachtungsbildwinkel die notwendige Auflösung berechnen. Da unser Auge kein festes Abtastraster hat, sondern eine "schwirrende Abtastung" (Alexander Spoerl) betreibt, die erst im Hirn zu einem scheinbar stabilen, geschlossenen Bild verschmolzen wird (vgl. blinder Fleck), können wesentlich mehr Details wahrgenommen werden als mit Meßmethoden (Testtafeln) feststellbar.

 

Zugestanden sei, daß der "Normalsichtige" ein Optimalfall ist, während durch Tagesform, Blutdruck, Muskeltonus usw. die Fähigkeit zur Unterscheidung feinster Details sehr eingeschränkt sein mag. Auch richtig ist, daß durch das jahrzehntelange Bombardement mit degradiertem Bewegtbild bei vielen Konsumenten die Fähigkeit zur Unterscheidung völlig erschlafft ist: Solange ein Bild da ist und sich bewegt, sind sie zufrieden. Nicht einmal auf 16:9 gezerrte 4:3-Bilder werden noch wahrgenommen! Da scheiden sich Massenmarkt und Home-Cinema-Erbsenzähler, es gibt keine gemeinsamen Kriterien mehr.

 

Der Aussage, daß DVDs für Großprojektionen mit 5m Bildhöhe von HD nicht zu unterscheiden seien, muß widersprochen werden. DVD ist immer MPEG-2, und gerade Filmartefakte (Korn, Helligkeits- und Bildstandschwankungen usw.) verträgt der Codec sehr schlecht. Schmalfilme, besonders 8mm-Formate, haben in der Regel viel davon, so daß es noch leichter zu den bekannten digitalen Artefakten kommt.

 

Eine gute Erklärung der Berechnung von Auflösungsgrenzen und den Zusammenhang zwischen Betrachtungswinkel und Auflösung des Auges findet sich hier (auch wenn es um 4K Postproduktion geht), aber die Formeln sind universell anwendbar. Besonders auf S. 22ff wird es ganz gut erklärt.

 

Was hier auch wichtig ist, ist der generell empfohlene Mindestabstand von mind. ca. 1,5-1,7 mal die Bildschirmdiagonale, um innerhalb des normalen menschlichen Sehwinkels das gesamte Bild erfassen zu können, ohne ständig den Kopf drehen zu müssen. Und auf den Abstand besitzt das menschliche Auge schon rein physikalisch bei weitem nicht das notwendige Auflösungsvermögen, um SD und HD zu unterscheiden

 

Selbst beim genannten Abstand liegt Auflösungsfähigkeit des Auges immer noch deutlich über HD. Das mag für Schmalfilme irrelevant sein, wenn man sie so groß betrachtet, aber Du sprachst ja über den Sehvorgang allgemein.

Link zu diesem Kommentar
Auf anderen Seiten teilen

Mal wieder was vergessen, aber ich kann man wieder nicht bearbeiten:

 

Und vor allem: Hast du Halbbild- oder Vollmbildmaterial skaliert.

 

Vollbild (p=progressive), runterskaliert mit bikubischem Algorithmus - der bei nahezu exakter 2:1 Kantenreduktion aber praktisch irrelevant ist.

Link zu diesem Kommentar
Auf anderen Seiten teilen

Ich kapituliere jetzt ob dieser nicht mehr zu bewältigenden Menge an abstrusen Behauptungen, Grenz-Verschwörungstheorien, haarsträubenden Vermischungen und Themenfremden Abschweifungen. Tut mir Leid, aber das führt zu nichts.

 

Ich wünsche Dir viel Erfolg mit Deinem Unternehmen.

 

(Ach ja, wenn Du mal eine meiner Meinung nach gute Abtastung sehen willst (zugegebener Maßen allerdings stark bearbeitet, da Konzept-Test), dann guck Dir mal

an. Oder
-- das ist altes Material, aber unkorrigiert und nicht so massiv bearbeitet.)
Link zu diesem Kommentar
Auf anderen Seiten teilen

Besagten Mindestabstand von 1,5-1,7 mal die Bilddiagonale habe ich mir auch nicht persönlich aus den Fingern gesogen. Hier einige Quellen dazu:

 

Rushing, K. (2004): Home Theater Design, Rockport Publishers, S. 60ff

 

http://www.electroni...e_vs_room_size/

http://www.soundandv...-out-resolution

 

Es handelt sich dabei nämlich um den u. a. von SMPTE und Fujitsu empfohlenen Mindestbetrachtungsabstand. THX tanzt hierbei als einziges aus der Reihe, indem sie nur das 1,2fache der Bilddiagonale empfehlen.

 

Das ist in Theorie und Praxis komplett falsch. Das Auflösungsvermögen des menschlichen Auges ist bekannt, man kann für jeden Betrachtungsbildwinkel die notwendige Auflösung berechnen. Da unser Auge kein festes Abtastraster hat, sondern eine "schwirrende Abtastung" (Alexander Spoerl) betreibt, die erst im Hirn zu einem scheinbar stabilen, geschlossenen Bild verschmolzen wird (vgl. blinder Fleck), können wesentlich mehr Details wahrgenommen werden als mit Meßmethoden (Testtafeln) feststellbar.

 

Zugestanden sei, daß der "Normalsichtige" ein Optimalfall ist, während durch Tagesform, Blutdruck, Muskeltonus usw. die Fähigkeit zur Unterscheidung feinster Details sehr eingeschränkt sein mag. Auch richtig ist, daß durch das jahrzehntelange Bombardement mit degradiertem Bewegtbild bei vielen Konsumenten die Fähigkeit zur Unterscheidung völlig erschlafft ist: Solange ein Bild da ist und sich bewegt, sind sie zufrieden. Nicht einmal auf 16:9 gezerrte 4:3-Bilder werden noch wahrgenommen! Da scheiden sich Massenmarkt und Home-Cinema-Erbsenzähler, es gibt keine gemeinsamen Kriterien mehr.

 

Erstmal inhaltlich eine ganze zeitlang dasselbe wie von mir, nur noch zusätzlich mit der Unterscheidung zwischen Massenmarkt und Home-Cinema-Erbsenzählern, etwas über die Tagesform des Testsubjekts, sowie etwas über den blinden Fleck. Dann:

 

Der Aussage, daß DVDs für Großprojektionen mit 5m Bildhöhe von HD nicht zu unterscheiden seien, muß widersprochen werden.

 

Exakt diese Aussage wurde ja von niemandem gemacht, auch nicht von mir. Ich habe geschrieben: "ab 5m Kantenlänge" lohnt sich frühestens HD.

 

Eine gute Erklärung der Berechnung von Auflösungsgrenzen und den Zusammenhang zwischen Betrachtungswinkel und Auflösung des Auges findet sich hier(auch wenn es um 4K Postproduktion geht), aber die Formeln sind universell anwendbar. Besonders auf S. 22ff wird es ganz gut erklärt.

 

Und was lesen wir auf der besagten Seite 22, wo Experiment und Auswertung in gerademal 4 dürren Absätzen auf noch nichtmal einer halben Seite abgehandelt werden? Typisches Marketingsprech wie: "Assuming that the projection in this theater is digital, the observer could easily differentiate 12 000 mm / 3 mm = 4 000 pixels." Zu deutsch heißt das zweierlei:

 

1.) "Was nicht digital ist, ist Pampe, basta!"

 

2.) "Das Auflösungsvermögen des menschlichen Auges kann durch Digitaltechnik erhöht werden."

 

Was beides schonmal Blödsinn von ARRI ist, die in der Broschüre eben ihr ach-so-tolles 4K-System irgendwie an den Mann zu bringen versuchen.

 

Das Marketinggewäsch setzt sich fort, indem einfach eine von Grundauf falsche Versuchsanordnung aufgebaut wird: Genannt wird die Leinwandbreite von 12m, d. h. daß die Höhe ca. 7m betragen dürfte. Nehmen wir nun den Satz des Pythagoras, ergibt sich für die Bilddiagonale ca. 14m. Ausgegangen wird dann aber nicht von einem Betrachter, dessen Abstand zur Leinwand mindestens das 1,5-1,7fache der Bilddiagonale entspricht, was nämlich 21-28m wären, sondern mit 10m gerademal die Hälfte bis ein Drittel davon! Selbst beim von THX empfohlenen Mindestabstand vom 1.2fachen der Bilddiagonale wären wir hier noch bei 17m Mindestabstand.

 

Wenn man den Betrachter wie hier nur in der Hälfte bis ein Drittel des empfohlenen Mindestabstands vor dem Bildschirm platziert, ist es nämlich auch kein Wunder, wenn er dann die marginalen Unterschiede zwischen SD und HD zu erahnen anfängt. Die von dir genannten Blockartefakte sind nämlich, wie schon weiter oben zum Digitalfernsehen gesagt, erstmal eine Frage der angemessenen Datenrate, und nicht der abstrakten Pixelanzahl.

 

Daß sie ihren fiktiven Betrachter viel zu nahe an die Leinwand gesetzt haben, gibt ARRI nämlich indirekt auch selber nur ein paar Zeilen drunter zu, indem dort explizit gesagt wird, daß auch nach deren Erkenntnis schon ab einem Abstand von 14m (immernoch weit unter dem empfohlenen Mindestabstand, s. o.) die Auflösung auf der Leinwand höher ist, als das menschliche Auge wahrnehmen kann.

 

Wieder ein paar Zeilen drunter aber berufen sie sich wieder auf ihren schon vom Ansatz her falschen Versuchsaufbau, wonach 50% der Leute in ihrem fiktiven Kino ja tatsächlich einen Unterschied sehen würden. Daß die meisten davon Nackenstarre kriegen, erwähnen sie natürlich nicht!

 

Was sie dann noch mit: "modulation of the lower spatial frequencies" wollen, bleibt mir schleierhaft. Etwa häßliche Moiremuster aufgrund von Welleninterferenzen des projizierten Lichts? Oder ist das nur höheres Marketingsprech für: "Unsere Pixel sind schon so klein, daß sie ganz, gaaaanz bestimmt garkeinem Menschen überhaupt nicht, ja, niemals nicht auffallen?"

 

Und weil der ganze Aufbau ein solcher Murks ist, daß das eigentlich jeder Profi sofort merkt, schreiben sie zur Sicherheit noch schnell ans Ende: "This article has addressed only the static image quality factors: sharpness and resolution. As was mentioned in the introduction, there are many more parameters to consider." Zu deutsch: "Wir wissen auch nichts genaues, also bitte, bitte nageln Sie uns bloß nicht auf den Blödsinn fest, den wir da gerade eben verzapft haben. Aber wir verpassen unseren (freiwilligen? unfreiwilligen? strafgefangenen?) Versuchsobjekten gerne Nackenstarre, wenn wir damit unter Umständen ein paar Millionen mehr verdienen können."

 

Vollbild (p=progressive), runterskaliert mit bikubischem Algorithmus - der bei nahezu exakter 2:1 Kantenreduktion aber praktisch irrelevant ist.

 

Progressives Material oder progressive Datei? Zum Verkleinern nehme ich grundsätzlich bilinear. Und vor allem für jegliche Skalierungsarbeiten immer VirtualDub, da man da zusätzlich zu verschiedenen Sorten bicubic und bilinear auch eine Reihe von Schärfungs- und Weichzeichenparametern mit angeben kann. Und dabei hat man auch immer eine qualitative 1:1-Echtzeitvorschau.

Link zu diesem Kommentar
Auf anderen Seiten teilen

Ich kapituliere jetzt ob dieser nicht mehr zu bewältigenden Menge an abstrusen Behauptungen, Grenz-Verschwörungstheorien, haarsträubenden Vermischungen und Themenfremden Abschweifungen. Tut mir Leid, aber das führt zu nichts.

 

Für diese: "abstrusen Behauptungen, Grenz-Verschwörungstheorien, haarsträubenden Vermischungen und Themenfremden Abschweifungen" mußte meine Familie aber immerhin rund 35.000 Euro an Ausbildungsgeld bezahlen. Der Vorteil ist, daß ich Wikipedia wie auch diverse Lehrbücher nicht umzuschreiben brauche, sondern dort in zwei Sprachen bestätigt werde.

 

das ist altes Material, aber unkorrigiert und nicht so massiv bearbeitet.)

 

Wie denn noch bearbeitet? Der letzte Schwung war doch das Originalmaterial aus dem Abtaster. (Mit Ausnahme des Pixelseitenverhältnisses.)

 

Oder meinst du die Farbkorrektur, die im Abtaster stattfindet, bevor das ganze als DV aus dem Abtaster an den Rechner geht? Bei der Abtastung von 35- und 16mm-Printmaterial, das von Profis gedreht und schon durchgängig farb- und lichtbestimmt ist, mußt du bei der Abtastung vielleicht nicht viel einstellen, aber bei seit Jahrzehnten gealtertem Amateurmaterial auf einem Kameraoriginal fallen bei 90% der Arbeitszeit eben erhebliche Korrekturarbeiten an. Der Operator am Abtaster muß dann nachträglich den Job erledigen, den bei den Großformaten der Color grader und der Lichtbestimmer in der Postpro übernehmen, und zwar wohlgemerkt bei Amateurmaterial.

 

Die Kunden bei der Zielgruppe Altbestand sind dann, wenn sie das Material überhaupt projiziert kennen, immer überglücklich, wie man ihre Familienerinnerungen trotz schlechter Lichtverhältnisse am Drehort und Verlust eines großen Teils bestimmter Farbschichten gerettet hat. Und die Zielgruppe aktive Filmer ist immerhin in der Regel so sehr Prosumer, daß sie einem im vornherein sagt, ob sie die Standardkorrekturen wünscht oder nicht.

Link zu diesem Kommentar
Auf anderen Seiten teilen

das schaut alles nach sehr viel Werbung für den falschscan, Entschuldigung den flashscan aus.

Um nähere Infos über die Geräte zu erhalten, empfehle ich die Seite http://www.smalfilmtest.nl/.

Da wird schön alles beschrieben.

 

Die Bilder, die da gegen den Flashscan verwendet werden, sind offensichtlich über den einfachen analogen FBAS-Ausgang ausgegeben worden, der minderwertigste Ausgang, den der Flashscan überhaupt hat. Da muß sich der Mensch auch nicht wundern, wenn er color drooping bzw. color shifting (dt. Farbsäume bzw. Farbversatz) wie bei der xten VHS-Generation hat. Das ist auch keine chromatische Aberration, da der Begriff zumindest im Deutschen und Englischen auf Abbildungsfehler von Objektiven beschränkt ist. Die Artefakte sehen sich zwar auf Standbildern oberflächlich ähnlich, haben aber grundsätzlich verschiedene Ursachen.

 

Im Textteil beschreibt er dazu im Grunde das typische Color subsampling (bzw. wie dieses von CCDs durchgeführt wird), wie es auch auf jeder DVD und BluRay vorhanden ist, macht dann dieses fälschlicherweise aber für das color shifting verantwortlich, die er über den FBAS-Ausgang sieht. Die MEthode von Rogers Moviestuff, die er gegen den Flashscan lobt, hat viel stärkere Farbsäume, allerdings tatsächlich aufgrund von chromatischer Aberration der verwendeten Optiken. Auch scheint der Tester zu behaupten, daß sogar der FlashscanHD mit CCD arbeiten würde, da steckt aber ein CMOS drin.

 

De FlashScan8 heeft 3 kleuren LED's als lichtbron waarmee o.a. ook de kleuren worden geregeld. Deze LED's flitsen met een flitsduur van 18,5 ms wat overeenkomt met 1/54 sec, de frequentie van de vlinder van een projector. Zowel een vlinder als flitsende lampjes hebben hetzelfde doel n.l. het voor onze ogen laten lopen van een film en zorgen dat de beeldwisseling niet wordt waargenomen. De LED's van de FlashScan8 flitsen constant en onafhakelijk van de filmloop doch wel synchroon d.m.v. de filmperforatie. Als men de film stil zet blijven de lampjes flitsen. Hierdoor is het mogelijk de snelheid van de film te varieren zonder dat flikkering plaats vind. Vaak wordt verondersteld dat ieder beeldje wordt geflitst en waarmee ieder beeldje afzonderlijk zou worden opgenomen. Dit is niet zo! De flashscan8 maakt van uw films een videofilm waarbij gebruik wordt gemaakt van z.g. pull-down techniek waarbij de 18 beelden per seconde worden ondergebracht in 50 frames.

 

Hier geht er erstens genauso wie Friedemann von einem Pulldown aus, wobei auch ihm entgangen zu sein scheint, daß die Standardeinstellung des Flashscans nicht 18, sondern 25 B/s ist. Der Film läuft also schneller durch den Flashscan, als durch den handeslüblichen Projektor, so daß keinerlei Pulldown stattfindet.

 

Zweitens weiß er offenbar auch nicht, daß die Umlaufblende im Projektor und die 100-Hz-Technik von Röhren nur dazu da war, um exakt die Dunkelphasen zu verkürzen, die moderne Monitore garnicht mehr haben. Der Flashscan wiederum braucht nur in dem Moment Licht, wo er einen Scan vom einzelnen Filmbild macht; die Hell-Dunkel-Abfolge hat nichtsmehr mit den biochemischen Eigenschaften des menschlichen Auges zu tun, sondern bloß noch damit, wie lange der Sensor belichtet werden muß, um die ausreichende Lichtmenge pro Aufnahme zu erhalten.

 

De kleuren zijn dominant en komen niet overeen met de werkelijkheid, een z.g. lolly effect. Het wit wordt vaak kapot belicht.

 

Zwei Möglichkeiten: Entweder, der Tester wußte nur nicht, wozu die Fernbedienung von dem Teil da war, oder er hat zusätzlich noch alles bloß auf einem Flachbild- bzw. RGB-Monitor kontrolliert. Und selbst, wenn ihm die Korrekturmöglichkeiten über die Fernbedienung noch nicht gereicht hätten, hätte er noch die Gesamtsättigung des Bildes mit einem Knopf am Gerät runterfahren können.

Link zu diesem Kommentar
Auf anderen Seiten teilen

Verstehe ich das richtig, dass deiner Meinung nach also SD-Auflösung für Kino ausreichend wäre, weil man den Unterschied zu HD nicht sieht?

 

Nein. Im von ARRI versauten Test ging es um 4K vs. 2K. Wenn ich sage, daß der Unterschied zwischen SD und HD marginal ist, dann meine ich den zwischen Kauf-DVD (mit mindestens 9,8 Mbit/s) und BluRay auf einem Bildschirm beim empfohlenen Mindestabstand im Wohnzimmer. Daß besonders visuelle SFX im Kino bei einer höheren Auflösung als 2K als Postpro-Produktionsgröße gemacht werden sollten, ist klar, auch wenn das Material später in der Größe eingedampft wird, wie z. B. bei DVD und BluRay.

 

Und: Was für eine Ausbildung ist das, für die man 35.000 € bezahlen muss?

 

Ein abgeschlossenes Diplom vom SAE Institute: http://de.wikipedia....i/SAE_Institute , und dazu, weil die SAE außer dem NDR, wo sie wie im angelsächischen Bereich hoch angesehen ist, keinem deutschen Arbeitgeber bekannt war, noch eine staatlich anerkannte, aber auch kostenpflichtige Ausbildung Mediengestalter Bild/Ton auf einer privaten Hochschule, wo knapp drei Monate vor Ausbildungsende der Ausbildungsleiter nach fast 10 Jahren aufgrund eines Streits mit der Schulleitung abgehauen ist.

Link zu diesem Kommentar
Auf anderen Seiten teilen

Ich fasse mal ein paar Punkte zusammen:

 

- HD lohnt sich erst ab 5m Bildbreite

- Die LEDs des Flashscan können für jede Dichte im Bild in einer anderen Farbe leuchten (Magie!)

- Es gibt da geheime Farben, die nur ein CRT, aber nie-nicht ein böser Flachbildschirm darstellen kann

- Wenn Lichter hellrosa und gleichzeitig ausgefressen sind, liegt das auch am Flachbildschirm

- Das YUV-Signal einer Videokamera macht professionelle Abtastungen

- ARRI besteht nur aus Gehirnwäschen-Marketing, die haben keine Ahnung wovon sie schreiben und liegen immer völlig falsch mit allem

- Wenn man mit 25 fps scannt und den Film danach auf 18 fps runterrechnet, findet natürlich kein Pulldown statt

- Der Flashscan blinkt nur, um Energie zu sparen. Das Geblinke ist überhaupt nicht nötig, eine Dauerlichtquelle täte es auch

 

Entschuldige, aber ich habe irgendwie nicht das Gefühl, dass sich am Markt der Digitalisierungsdienste zeitnah jetzt etwas zum positiven wandeln wird. Ich hoffe aber ich irre mich.

  • Like 1
Link zu diesem Kommentar
Auf anderen Seiten teilen

Ich fasse mal ein paar Punkte zusammen:

 

- HD lohnt sich erst ab 5m Bildbreite

 

Nein, Höhe. Zumindest bei ausreichender Datenrate fürs bis dahin verwendete SD-Signal.

 

- Die LEDs des Flashscan können für jede Dichte im Bild in einer anderen Farbe leuchten (Magie!)

 

Für den weiten Korrekturraum bleibt sonst nur ein RGB-8:8:8-Sensor. In YUV ist definitiv kein so großer Spielraum möglich.

 

- Es gibt da geheime Farben, die nur ein CRT, aber nie-nicht ein böser Flachbildschirm darstellen kann

 

Deine: "geheimen Farben" sind die extrem verzerrte Darstellung, die daraus entsteht, wenn du dasselbe Material auf RGB- und YUV-Monitoren darstellen willst, dabei aber die nötige Gammakorrektur unterläßt. Mit entsprechender Gammakorrektur (die ich grob simuliert habe), wird dann auch das auf dem jeweils anderen Gerät sichtbar, was dieses bis dahin als nahezu Reinweiß bzw. Reinschwarz interpretiert hat.

 

Wenn du's nicht glauben willst, dann schreib' u. a. Wikipedia um. Oder so ziemlich alle relevanten Lehrbücher zum Thema Gammakorrektur, die weltweit im letzten Vierteljahrhundert geschrieben wurden.

 

Mit CRT und Flach hat das erstmal nichts zu tun. Die hier relevanten Defizite der meisten Flachbildschirme gegenüber der Röhre bestehen nachwievor vor allem in einem sehr schlechten Schwarzwert und einer mangelhaften Reaktionszeit per Pixel.

 

- Wenn Lichter hellrosa und gleichzeitig ausgefressen sind, liegt das auch am Flachbildschirm

 

Nein, das liegt am unterschiedlichen Gammaprofil für die Kanäle Y, U und V, das für die korrekte Gammakorrektur bei der Darstellung auf RGB-Monitoren notwendig ist.

 

- Das YUV-Signal einer Videokamera macht professionelle Abtastungen

 

Zumindest über ein Vierteljahrhundert lang galt das als professionell, ja. Nämlich u. a. für U-Matic, (Digi-)Beta, VHS und DVD. Und wenn's dir nur ums Chroma subsampling geht, das hast du exakt genauso auf BluRays.

 

- ARRI besteht nur aus Gehirnwäschen-Marketing, die haben keine Ahnung wovon sie schreiben und liegen immer völlig falsch mit allem

 

Das habe ich nicht gesagt. Ich frage mich nur, welcher Praktikant die ca. 5 Sätze auf der Seite 22 im oben verlinkten PDF verbrochen hat. Technisch wie wissenschaftlich ist das unter aller Sau, marketingtechnisch aber schon so etwa eine 2-.

 

- Wenn man mit 25 fps scannt und den Film danach auf 18 fps runterrechnet, findet natürlich kein Pulldown statt

 

Erstens hast du die ganze Zeit davon geredet, daß der Flashscan ja *NIEMALS NICHT* ohne Pulldown arbeiten könnte, und zweitens bezeichnet Pulldown die Verteilung desselben Vollbilds auf nicht zusammengehörige Halbbilder, so daß Halbbildzeilen sichtbar werden. Das war bei meinem letzten Praktikum Vorgabe.

 

Wenn man das ganze aber in einer Vollbilddatei ohne Halbbildüberblendung (so heißt die Option in PremierePro, mit der man bei Geschwindigkeitsänderung u. a. Halbbilder erzeugt, wo vorher keine waren) macht, ist das kein Pulldown, weil keine Halbbildzeilen sichtbar werden. Das ist eine Geschwindigkeitsverlangsamung, die, ohne daß Fehlbilder entstehen würden, viel näher an den originalen Projektionseindruck mit 18 B/s herankommt.

 

Wenn man dagegen Bildüberblendung nicht von Halb- sondern von Vollbildern dafür einstellt, ist der Effekt exakt derselbe wie der telecine jitter, der bei Pulldown auf jedem deinterlacenden Monitor auftritt.

 

- Der Flashscan blinkt nur, um Energie zu sparen. Das Geblinke ist überhaupt nicht nötig, eine Dauerlichtquelle täte es auch

 

Ich kann nur wiederholen, daß die Dunkelphasen beim Projektor per Umlaufblende und bei der Anzeige auf Röhre per 100 Hz nur deshalb verkürzt wurden, um eine fürs menschliche Auge erträglichere Hell-Dunkel-Verschmelzungsfrequenz zu erzeugen.

 

Der Flashscan hingegen macht quasi nur ein kurzes Photo pro eingestellter Bildfrequenz pro Sekunde, das dann in Echtzeit an einen Monitor weitergegeben wird, dessen Dunkelphasen, wenn überhaupt noch vorhanden, nichts damit zu tun haben, wie schnell die LEDs flackern oder wie oft ein Photo gemacht wird. Framebuffer im Anzeigegerät machen's möglich.

 

Ich würde eher auf sowas ähnliches wie eine optimale Kombination aus Lichtmenge zu Belichtungszeit tippen, die über die Hell-Dunkel-Phasen der LEDs gesteuert wird, analog zur Zeit-Blenden-Kombination bei einer Kamera, wo außer dem Sensor/Filmmaterial auch noch eine Blende vorhanden ist.

Link zu diesem Kommentar
Auf anderen Seiten teilen

Zumindest über ein Vierteljahrhundert lang galt [YUV] als professionell, ja. Nämlich u. a. für U-Matic, (Digi-)Beta, VHS und DVD. Und wenn's dir nur ums Chroma subsampling geht, das hast du exakt genauso auf BluRays.

 

Und noch was zur Professionalität von YUV: Nachdem ColorNTSC die ersten Jahre mit YIQ arbeitete, hat es im Laufe der 70er und 80er auch den YUV-Farbraum von PAL übernommen, weil YUV ganz einfach auch YIQ überlegen ist, so daß YUV seit seiner Erfindung und bis zur breiteren Übernahme von HD, MPEG und h264 auch auf Produktions- und Distributionsseite das Signal der Wahl in professionellen Fernsehstudios und von professionellen Fernsehsendern generell war.

Link zu diesem Kommentar
Auf anderen Seiten teilen

Ich muß nun doch noch mal schreiben.

Langsam wird das wirklich zur lachnummer, da muß ich Friedemann recht geben.

Dan Müller hat auf seiner Seite schön die Technik beschrieben. Die Hitachi Camera für 2200 Euro ist eine Pal Camera und kann zwar auf Progressiv gestellt werden, aber produziert doch keine Vollbilder ! Sie setzt ein Vollbild aus 2 Halbbildern zusammen.

Und der größe Irrtum ist die Farbe eines Schmalfilmes mit einer farbigen LED zu regeln.

Bosch und Rank arbeiten auch nur mit weißem Licht.

Was die technischen Beschreibungen in deinen vielen Äusserungen steht, kann ja alles irgendwie richtig sein, aber meine Testfilme die ich bei dem Testsieger "film und technik" habe machen lassen, sind Längen bsser und schärfer als alles was aus dem flashscan8 oder hd kommt.

Löhr verwendet einen Bauer, eine gute Optik und die gleiche Camera wie aus dem flashscan8.

Seine selbt gebaute Technik ist ähnlich der von dem flashscan ( blitzen und alle Geschwindigkeiten flimmerfrei )

Nur die Ergebnisse sind schärfer und besser. Und laut ihm kostet so ein umgebauter Projektor ohne Kamera gerademal 2500 €

Deine Verwandschaft hätte die 35.000 € in bessere Hardware und gute Werbung investieren sollen.

Dann würdest du nicht nachts um 3:00 im Internet surfen, sondern schlafen um fit für den nächsten tag zu sein, um die Aufträge zu erledigen, die bereit stehen.

 

Und für mich als Endkunden ist nur eines interessant : Qualität und ein angemessener Preis

 

Erklärungen um Farbräume, pulldown etc. ist da eher uniteressant.

 

Peter Kraft hat schon 2006 in seinem großen Bericht über Kopierdienste in der zeitung Computer& Video geschrieben.

Geiz ist nicht immer geil,

Überspielungen unter 1,50 € sind unseriös.

 

Das war aber zu einer Zeit, als HD noch kein Thema war

 

 

ich schließe mich den anderen an und wünsche Dir viel Erfolg bei deiner neuen Firma.

Nur erkläre deinen potentiellen Kunden nicht die technischen Details , so wie du es hier machst.

Da werden dann sicherlich 80% keinen Auftrag geben, da sie einfach überfordert sind.

  • Like 1
Link zu diesem Kommentar
Auf anderen Seiten teilen

@bdv:

 

 

Die Auflösung des Auges und die daraus resultierenden Anforderungen an das Medium sind nicht Ansichtssache, sondern einfach Physik, die sich um Verschwörungstheorien nicht kümmert. (Das kann übrigens jeder ausprobieren, zum Beispiel indem er die Testtafel (Abb. 26 des Arri-Dokuments) ausdruckt und sich aus der im Text beschriebenen Entfernung ansieht. Aus den 3mm, die der Normalsichtige auf 10m unterscheiden kann, läßt sich die nötige Auflösung für den Betrachtungswinkel errechnen.)

 

Daß man bei einem Projektionsbild bis 5m Bildhöhe, das man aus 7,5m Entfernung betrachtet, keinen Unterschied zwischen SD (576 Zeilen hoch) und HD (1080 Zeilen hoch) erkennt, muß ich unbedingt meinem Kollegen erzählen, der seit vielen Jahren an einer SAE unterrichtet. Aber vielleicht hat er ja auch keine "HD-Augen"...

 

Spaß beiseite: Es gibt ein Maß an Halbwissen, das die Illusion des Durchblicks erzeugt, in Wirklichkeit aber den Blick für die Zusammenhänge vernebelt. Wenn Dir das reicht, ist Diskussion zwecklos und es bleibt nur der harte Weg des Erfahrens. Daher klinke ich mich an dieser Stelle aus, wünsche aber natürlich viel Erfolg für Deinen Überspielservice.

  • Like 1
Link zu diesem Kommentar
Auf anderen Seiten teilen

Dan Müller hat auf seiner Seite schön die Technik beschrieben. Die Hitachi Camera für 2200 Euro ist eine Pal Camera und kann zwar auf Progressiv gestellt werden, aber produziert doch keine Vollbilder ! Sie setzt ein Vollbild aus 2 Halbbildern zusammen.

 

Richtig, das nennt man PsF, qualitativ nicht unterscheidbar von genuinem Progressivmaterial. Und?

 

Und der größe Irrtum ist die Farbe eines Schmalfilmes mit einer farbigen LED zu regeln.

Bosch und Rank arbeiten auch nur mit weißem Licht.

 

Bislang weiß keiner von uns, wie der Flashscan nun die Farbkorrektur erledigt. Ich kann mit meiner rund 15jährigen Erfahrung nur wiederholen, daß das nicht im YUV-Farbraum sein kann.

 

Deine Verwandschaft hätte die 35.000 € in bessere Hardware und gute Werbung investieren sollen.

 

Das war kein Geld für Hardware, sondern für die Ausbildung, die ich für den entscheidenden Vorsprung an Sach- und Fachkenntnis auf dem etablierten und akzeptierten Markt der PAL-Abtastung brauche, mit dem Friedemann ohnehin nichts zu tun haben will. Daß der Markt für PAL-Abtastungen von Schmalfilmen definitiv durch mehr Ahnung auf dem Gebiet der Videotechnik noch verbesserungsfähig ist, bestreite ich nicht; die meisten etablierten Anbieter, die ich kenne, haben viel Ahnung von Film, sind aber im Bereich Sach- und Fachkenntnis des Zielmediums aus meiner Sicht noch ausbaufähig.

 

Dann würdest du nicht nachts um 3:00 im Internet surfen, sondern schlafen um fit für den nächsten tag zu sein, um die Aufträge zu erledigen, die bereit stehen.

 

Sicherlich nicht, solange noch garkeine Geräte vorhanden sind.

 

Erklärungen um Farbräume, pulldown etc. ist da eher uniteressant. [...]

 

Nur erkläre deinen potentiellen Kunden nicht die technischen Details , so wie du es hier machst.

Da werden dann sicherlich 80% keinen Auftrag geben, da sie einfach überfordert sind.

 

Was soll ich denn machen, wenn Friedemann tausendmal mit der Beschwerde ankommt, daß das YUV-Signal auf seinem laut allen Lehrbüchern zur Beurteilung grundsätzlich ungeeigneten RGB-Monitor nicht so aussieht, wie er das haben will? Wenn er jede vorgeschriebene Korrekturmaßnahme, oder deren annähernde Simulierung, zur annähernd vergleichbaren Darstellung auf seinem RGB-Monitor strikt ablehnt, weil ihm das Verständnis aller Lehrbücher zum Thema abgeht? Wenn er aus denselben Gründen offenbar auch nichts mit den Geräten zu tun haben will, für die ich als Zielmedium überhaupt arbeite, bzw. sich mit den Unterschieden in den technischen Eigenschaften zu seinen RGB-Gerät überhaupt ernsthaft befassen will und diese entgegen den Lehrbüchern immer wieder strikt verleugnet? Wenn er trotz Aufklärung über die physikalisch-technischen Grundlagen deshalb immer wieder auf den in der Fachliteratur beschriebenen Defiziten seines RGB-Monitors beharrt, um immer wieder zu verkünden, wie schlecht meine angebotene Dienstleistung doch sei? Wenn er schließlich verkündet, daß er mit keinem einzigen der bei Markt und Kunden etablierten Fernseh- und Videostandards was zu tun haben will, sondern nur das für gut befindet, was ihm auf seinem ungeeigneten RGB-Monitor gefällt, und mir sagt, meine Diensleistung wäre deshalb generell unbrauchbar?

 

Ich habe ja nichts dagegen, wenn jemand seine eigenen Qualitätsstandards hat. Ich habe auch nichts dagegegen, wenn er zur Beurteilung seiner Standards Technik benutzt, die laut allen Lehrbüchern völlig ungeeignet dafür ist, und aufgrund von (vorsichtig formuliert) Hörensagen selbst jede offiziell empfohlene bzw. vorgeschriebene Korrektur strikt ablehnt, um seine ungeeignete Technik wenigstens halbwegs brauchbar für wenigstens irgendeine subjektive Beurteilung zu machen.

 

Aber ich habe dann ein Problem, wenn jemand aufgrund dieser ganzen subjektiven Vorgeschichte wiederholt vor Zeugen und in der Gruppe verkündet, meine Technik, im YUV-Farbraum bzw. mit Chroma subsampling zu arbeiten, wäre aufgrund der und jener technischer Vermutungen, die er anstellt und die auch nicht jeder Laie nachvollziehen kann, unbrauchbar für jegliche annehmbaren Qualitätsstandards, sogar obwohl diese Technik bei nahezu 100% des professionellen Fernseh- und Videomarktes etabliert ist. Mir bei Heranziehung der maßgeblichen Literatur vorhält, was ich doch für eine Lachnummer wäre, weil ich mir so drollige Sachen vermeintlich selber ausgedacht hätte. Und bei wörtlichen Zitaten aus bzw. expliziter Nennung der Fachliteratur, von bisherigen Ausbildern und aus praktischer Erfahrungen in 3 Praktika, mehrjähriger Selbständigkeit und insgesamt rund 15 Jahren praktischer Arbeit, die ihn allesamt eindeutig widerlegen, meint er bloß, ich müsse: "da wohl irgendwas falsch verstanden haben".

 

Während ich mich gleichzeitig über 6 Threadseiten hinweg solcher pauschalisierender Aussagen über Charakter und Sach- und Fachkenntnis seinerseits enthalte. Man kann mir möglicherweise vorhalten, daß ich mich solange mit der Überzeugung von Friedemann aufhalte, der laut meiner eigenen oben vorgetragenen Einschätzung aus sämtlicher meiner Zielgruppen rausfällt. Aber ich habe nunmal ein Problem, wenn er sich dann immer wieder hinstellt und meint, meine Dienstleistung wäre generell oder überwiegend unbrauchbar, aufgrund von Argumenten, die sämtlichen Lehrbüchern widersprechen.

 

Peter Kraft hat schon 2006 in seinem großen Bericht über Kopierdienste in der zeitung Computer& Video geschrieben.

Geiz ist nicht immer geil,

Überspielungen unter 1,50 € sind unseriös.

 

Und was hat die obige Zahl mit meinen Preisen zu tun? Die vorläufige Hausnummer, die ich Friedemann genannt hatte, lautete 66 Cent pro *METER* bei 25 B/s. Das kommt bei nachträglicher Umrechnung auf 18 B/s auf etwa 4 EUR/Minute bei Super8 raus, was auch den Realpeisen einiger Konkurrenzanbieter bei Hinzurechnung aller Nebenkosten entspricht. Und auch da hat Friedemann noch gemeint, bei einem solchen Preis könne er nichts professionelles erwarten.

Link zu diesem Kommentar
Auf anderen Seiten teilen

Ich hab nie gesagt, dass Deine Dienstleistungen unbrauchbar wären. Im Gegenteil, ich finde toll (und habe das auch gesagt) dass sich jemand um hohe Qualität bemüht. Ich hab auch durchaus was gelernt! Aber ich sehe keinen Sinn mehr weiter zu diskutieren, weil die Zahl der Punkte (vor allem die der m.E. absurden) zu groß und die Punkte selbst zu irrelevant geworden sind. Liegt wohl wirklich (auch) einfach daran, dass ich an "Abtastungen für PAL" kein Interesse habe. Umso besser aber für Dich, wenn der Markt es hat. :)

 

Über eine wirklich beachtliche 16mm Restauration von angeblich 1940 stolperte ich gestern übrigens:

 

https://vimeo.com/39034165 -- ob des Alters der Vorlage verzeihe ich da auch die zugelaufenen Schatten. :)

Link zu diesem Kommentar
Auf anderen Seiten teilen

Ich hab nie gesagt, dass Deine Dienstleistungen unbrauchbar wären. Im Gegenteil, ich finde toll (und habe das auch gesagt) dass sich jemand um hohe Qualität bemüht. Ich hab auch durchaus was gelernt! Aber ich sehe keinen Sinn mehr weiter zu diskutieren, weil die Zahl der Punkte (vor allem die der m.E. absurden) zu groß und die Punkte selbst zu irrelevant geworden sind. Liegt wohl wirklich (auch) einfach daran, dass ich an "Abtastungen für PAL" kein Interesse habe. Umso besser aber für Dich, wenn der Markt es hat. :)

 

Über eine wirklich beachtliche 16mm Restauration von angeblich 1940 stolperte ich gestern übrigens:

 

https://vimeo.com/39034165 -- ob des Alters der Vorlage verzeihe ich da auch die zugelaufenen Schatten. :)

 

Puh... danke für deine positive Rückmeldung, obwohl ich selber in meinem letzten Post erstmal Dampf abgelassen und ziemlich vom Leder gezogen habe. Das entkrampft erstmal einiges, und hilft dabei, wieder unbefangen aufeinander zuzugehen. Du gehörst nicht zu meiner Zielgruppe, was die Qualität der Abtastung angeht, und dabei sollten wir's wohl in Zukunft belassen.

 

Auf jedenfall möchte ich im Gegenzug auch sagen, daß mich deine Experimente mit dem VisionT als Umkehrfilm echt beeindrucken. Für sowas fehlen mir wirklich die chemischen Grundlagen, die du zuhauf draufhast. Besonders die scheinbare Naturtreue (soweit ich das auf einem RGB-Monitor beurteilen kann :mrgreen: ) der Farben beim Color-Input-Target-Testbild haut mich um, wenn du da keine Farbkorrektur gemacht hast. Die Außenaufnahmen sind dagegen wirklich eher sowas wie eine künstlerische Nische und erinnern mich an die eher poetischen als realistischen Streifen von Dagie.

Link zu diesem Kommentar
Auf anderen Seiten teilen

Die einzigen Korrekturen die ich gemacht habe, sind ein 45%iges abziehen der Abricot-farbenen Maske über das gesamte Bild -- weil das Auge, wenn projiziert, diese Korrektur per natürlichem "Weissabgleich" ebenso macht. Eben noch mal getestet: Projiziert (und daher ohne Reinweiss daneben) fällt dieser Grundfarbfehler viel weniger auf.

 

--

 

Auch wenn ich mit den Details jetzt wahrscheinlich die Hälfte der hier Mitlesenden in den Wahnsinn treibe, habe ich doch noch mal eine Frage zum "systembedingten" Rosaton der Lichter. Nehmen wir mal an, das sei ebenso, dass YUV-bedingt ein Spitzlicht z.B. rosa statt reinweiss erscheint. Wie kann es dann einen Unterscheid machen, ob ich einen Screenshot dieses Farbfehlers auf einem CRT- oder einem LCD-Monitor ansehe? Auch Dein CRT am Rechner erhält ja kein YUV von der Grafikkarte, sondern einfach ein RGB-Signal, genau so wie jeder andere Computermonitor seit etwa 1990. Und dafür gibt es ja Farbmanagement, dass ein hellrosa eben auf jedem (kalibrierten) Monitor gleich aussieht.

(Übrigens ist mir dieser starke Farbfehler in den Lichtern noch bei keiner DVD und keiner BD aufgefallen, und ich habe eigentlich (berufsbedingt) einen sehr guten Blick für Farben. Unabhängig, ob ich sie am Rechner oder auf dem (auch kalibrierten) HD-Beamer betrachtete. Ich kenne diesen Effekt ausschliesslich von Flashscan-Abtastungen. Wie kommt das?

Link zu diesem Kommentar
Auf anderen Seiten teilen

Auch wenn ich mit den Details jetzt wahrscheinlich die Hälfte der hier Mitlesenden in den Wahnsinn treibe, habe ich doch noch mal eine Frage zum "systembedingten" Rosaton der Lichter. Nehmen wir mal an, das sei ebenso, dass YUV-bedingt ein Spitzlicht z.B. rosa statt reinweiss erscheint. Wie kann es dann einen Unterscheid machen, ob ich einen Screenshot dieses Farbfehlers auf einem CRT- oder einem LCD-Monitor ansehe? Auch Dein CRT am Rechner erhält ja kein YUV von der Grafikkarte, sondern einfach ein RGB-Signal, genau so wie jeder andere Computermonitor seit etwa 1990. Und dafür gibt es ja Farbmanagement, dass ein hellrosa eben auf jedem (kalibrierten) Monitor gleich aussieht.

(Übrigens ist mir dieser starke Farbfehler in den Lichtern noch bei keiner DVD und keiner BD aufgefallen, und ich habe eigentlich (berufsbedingt) einen sehr guten Blick für Farben. Unabhängig, ob ich sie am Rechner oder auf dem (auch kalibrierten) HD-Beamer betrachtete. Ich kenne diesen Effekt ausschliesslich von Flashscan-Abtastungen. Wie kommt das?

 

Das liegt daran, daß es anders als bei JPEG kein ICC/CCIR/IEC/ITU-Profil für in YUV kodiertes Video gibt, in dem die korrekte Gammakorrektur für RGB-Monitore (die auch noch untereinander verschiedene Gammaprofile besitzen, was u. a. nach Betriebssystem geht) definiert oder vorgegeben ist.

 

Selbst der höchstauflösende Kanal Y besitzt weniger Abstufungen zwischen Reinweiß und Reinschwarz als RGB, was eine grundsätzliche Gammakorrektur schon für Y notwendig macht, bevor das Bild auf einem RGB-Monitor korrekt dargestellt werden kann. Einfach nur die Helligkeit zu manipulieren bringt nichts, weil sich der Effekt über den Bereich zwischen Reinweiß und Reinschwarz hinweg verschieden auswirkt. Helligkeit & Kontrast zugleich bringt einen schon einen Schritt weiter, das exakt passende Werkzeug ist aber Gamma. Das ist die Korrektur, die ich behelfsmäßig nachzuempfinden versucht habe, auf einem RGB-Monitor mit WindowsXP.

 

Hinzukommt, daß U und V noch weniger Abstufungen (und Pixel pro gleicher Fläche, also größere Pixel) haben als Y. V (enspricht Blau) besitzt ca. 88% der Abstufungen (und Pixel) von Y, und U sogar nur etwa 49% im Vergleich zu Y. Alles also enstprechend der Eigenschaften des menschlichen Auges (bzw. entsprechend der optischen Auflösung qua Wellenlänge), das am besten Helligkeit und die Farbe Grün sieht, Blau weniger gut, und Rot am schlechtesten. Deshalb haben bei YUV alle drei Kanäle verschiedene Gammaprofile, die für eine 100%ig korrekte Gammakorrektur beachtet werden müssen.

 

Ohne kanalspezifische Gammakorrektur interpretiert der RGB-Monitor schon den Kanal Y falsch in der Helligkeit bzw. im Helligkeitsumfang, und die beiden anderen Kanäle als nochmal um den Faktor verzerrter, der ihrem Prozentverhältnis zu Y entspricht.

 

Und was sehen wir, wenn wir die Helligkeitswerte eines Bildes nicht nur leicht in Grün, sondern mehr noch in Blau und am allermeisten in Rot manipulieren? Rosa! Wenn U und V genau dasselbe Gammaprofil hätten, wär's lila, aber da U (= Rot) sich nochmal exorbitant von V (= Blau) unterscheidet, ist es eben rosa, besonders in den hellen Bildbereichen (Merke: Das Gammaprofil wirkt sich zwischen Reinweiß und Reinschwarz verschieden aus, daher Gammakurve). Bei meinem VLC beispielsweise habe ich schon von Haus aus das Gamma nach Gefühl runtergesetzt.

 

Daß dir das vor allem bei Schmalfilmen besonders auffällt, liegt erstmal daran, daß die allermeisten Filme, die von der Zielgruppe Altbestand zur Abtastung gebracht werden, der extrem kräftig gesättigte Kodachrome ist, der an sich wärmere Farben hat, die unbehandelt leicht in Richtung eines warmen, etwas nostalgischen Gelb (= Rot + Grün) gehen. Wenn man das etwas moderner aussehen lassen will, ohne die schöne, legendäre Sättigung des Kodachrome anzugreifen, fügt man etwas blau hinzu, um neutralere Lichter und z. T. Mitten zu haben. Und dann kommt dein RGB-Monitor und fügt aufgrund der mangelnden Gammakorrektur für YUV-Video noch mehr blau und rot besonders in den Lichtern hinzu.

 

Es mag an der marktbeherrschenden Stellung des Kodachrome liegen, aber nahezu alle Kunden der Zielgruppe Altbestand wollen generell warme, kräftige Farben von ihren farbigen Schmalfilmen haben und verlangen das auch oft bei der Übergabe des Materials. Verdenken kann ich ihnen das jedenfalls nicht, zumal der Kodachrome auch der qualitativ hochwertigste Umkehrfilm auf dem Schmalfilmmarkt war; die meisten anderen Marken besitzen oft extremere Farbstiche und sind generell im Vergleich blaß, milchig oder in der Sättigung flau (wenn auch natürlich bei weitem nicht so schlimm wie beim einfachen Abfilmen). Vielleicht liegt's auch daran, daß viele Abtaster schon vom Hersteller auf den Marktführer Kodachrome geeicht sind.

 

Die meisten Operator, die ich kenne, haben bei allem anderen als Kodachrome immer gestöhnt, was Altbestand angeht, weil das immer wesentlich mehr Korrektur bedeutete. Ich find's eher spannend und freue mich über das schönere Ergebnis, das man mit der Korrektur erzielen kann; oft habe ich als Operator das Gefühl, die Filme so aussehen zu lassen, wie sie bei optimalen Material- und Drehbedingungen ausgesehen hätten. Zum Glück besitzen die einzelnen Filmsorten allerdings genug Eigencharakteristik, daß sie auch bei einer Korrektur zum Optimum hin in puncto Farbneutralität (zumindest kein häßlicher Farbstich) und Schwarzwert noch unterscheidbar sind.

 

Was dagegen Kauffilme z. B. auf DVD angeht, besitzen 1.) wenige Filme eine so starke Sättigung und z. T. Kontrast wie der Kodachrome, und 2.) sind besonders moderne Filme darum bemüht, unbedingt und mit aller Gewalt so auszusehen wie Video, sprich wesentlich blasser, flauer und matschiger als jeder Film, und sind auch oft sehr düster. Da hast du weniger Lichter, deren Helligkeitswert oft schon runtergesetzt ist, und auch nur mit einer im Vergleich zu Film, und insbesondere zum Kodachrome, niedrigen Sättigung.

Link zu diesem Kommentar
Auf anderen Seiten teilen

Hallo Freunde,

 

Wenn man im Freundeskreis alte, private Super-8 Aufnahen sieht, wimmelt es da an "Fehlern": Nicht perfekt belichtete Aufnahmen, völlig verwackelte Aufnahmen, völlig unscharfe Aufnahemn und eben auch völlig farbstichige Aufnahmen...

Da herrscht ein durcheinander von zusammengewürfelten Szenen, jede mit ihrem eigenen Charakter. Gerade daran erkennt man Amateuraufnahmen, dass diese kaum jemals so perfekt sind wie sie sein könnten.

 

Rudolf

Link zu diesem Kommentar
Auf anderen Seiten teilen

@bdv: Danke für die Erklärungen. Das meiste davon war mir bekannt, aber Du hast es sehr anschaulich erklärt. Gammakurven und RGB-Gradationskurven sowie Farbraum- und Modellkonvertierungen sind quasi mein Beruf. :) (Entwicklung von komplexem Video-Realtime-Processing u.a. auf GPU Basis)

 

Ich muss noch mal nachhaken, denn ich verstehe es (also meine Frage) immer noch nicht.

 

Ohne kanalspezifische Gammakorrektur interpretiert der RGB-Monitor schon den Kanal Y falsch in der Helligkeit bzw. im Helligkeitsumfang

 

Auf Deutsch: Unser Video liegt also profil-los in YUV vor und dessen Kanäle bedürfen einer gewissen Entzerrrung, um auf einem RGB-basierten System (wie ja jedem Computermonitor dieser Welt) farbrichtig wiedergegeben zu werden. Jede gängige Grafikkarte dieser Welt steuert ihr Display (egal ob CRT oder TFT oder OLED) per RGB-Signal an. Die Umwandlung von YUV nach RGB ist also Sache der Abspielsoftware, in Deinem Falle zum Beispiel VLC. Die Software überführt die Werte eines jeden YUV-Kanals also unter berücksichtigung der gewünschten bzw. benötigten Kanalgradationskurve in einen RGB-Wert, der von der Grafikkarte dann an den Monitor weitergegeben wird. Mit anderen Worten: An einem Computermonitor kommt niemals ein YUV-Signal an, sondern immer ein RGB-Signal. In einem farbgemanagten System wird per LUT und Farbmanagementsystem nun sichergestellt, das ein gewünschter RGB-Wert auf dem Farbmonitor korrekt wiedergegeben wird.

 

So, und da ist sie wieder, die Frage: Welche Rolle soll es spielen, ob ich ein CRT oder ein TFT verwende? Am DVI- oder auch VGA-Ausgang liegt ein RGB-Signal an, durch zB ein ColorSync-Profil aufbereitet für exakt meinen Monitor. Das YUV-Signal schafft es genau bis zur abspielenden Software und keinen Millimeter weiter! Genau deshalb ist es auch völlig egal, ob ich ein YUV-Video mit VLC auf einer Röhre oder einem Flachbildschirm betrachte. Es gibt keinen Unterschied.

 

Noch klarer wird der Denkfehler, wenn wir von Screenshots solcher Videos sprechen. Egal, ob die Bilder dank in VLC geladener Kurverdefinitionen oder durch Photoshop-Bearbeitung bei Dir farblich "geradegezogen" wurden: Sobald Du ein JPEG daraus gemacht hast, hat die Datei ja sogar ein eingebettetes Farbprofil! Dank dessen wird sie nun wirklich auf jedem (kalibrierten) Ausgabegerät annähernd identisch dargestellt.

 

So, soviel zum Thema CRT/TFT-Relevanz. Ich bin gespannt, ob ich da wirklich etwas übersehen haben sollte. :)

 

 

----

 

Spezifisch zum Flashscan: Die Hitachi ist eine RGB-Kamera mit einer Auflösung von 8 Bit pro Farbkanal. Warum gibt der Flashscan kein RGB-Signal aus, wo die Kamera es doch sogar liefert? Ist doch absurd, dass ins "noch gröbere" YUV zu quetschen und dann wieder (mit Entzerrung) RGB draus zu machen. Für eine Nachbearbeitung am Rechner braucht man so viele "Bits" wie irgend möglich. Die Hitachi bietet ja sogar ein RGB Signal am Multi-Port, benutzt wird aber nur die "Videoausgabe".

 

Und das ist Fehler Nummer zwei: 8 Bit pro Farbkanal ist einfach zu wenig -- selbst beim recht kleinen Gamut der Hitachi-Kamera. Das gesättigte Rot eines Ektachrome 100D liegt Kilometer ausserhalb des von dieser Kamera erfassbaren Farbraumes. Die enorme Dmax von Farbumkehrfilm (insbesondere Kodachrome) macht die 256 (bzw. 230) möglichen Abstufungen pro Farbkanal noch mal lächerlicher. Ein K40 kann 13 Blenden Dynamik zeigen, also ein Kontrastverhältnis von über (echten) 1:8000. Das in 256 Stufen zu erfassen (wenn die Kamera denn überhaupt damit zurechtkäme) ist keine adäquate Digitalisierung und wird bei jeder Nachbearbeitung böse Interpolationsartefakte erzeugen.

 

Auch (und gerade) für PAL resp. SD-Abtastungen lohnt es, eine gute, geeignete Signalquelle zu nutzen. Je weiter vorne wir in der Kette der Signalverarbeitung sind, desto höher sollte die Präzision der Berechnugen sein. Ein 8-Bit-Signal, in YUV gequetscht, ist nicht gerade ideal. Da helfen auch LEDs als Lichtquelle nichts.

Link zu diesem Kommentar
Auf anderen Seiten teilen

@bdv: Danke für die Erklärungen. Das meiste davon war mir bekannt, aber Du hast es sehr anschaulich erklärt. Gammakurven und RGB-Gradationskurven sowie Farbraum- und Modellkonvertierungen sind quasi mein Beruf. :) (Entwicklung von komplexem Video-Realtime-Processing u.a. auf GPU Basis)

 

Ich muss noch mal nachhaken, denn ich verstehe es (also meine Frage) immer noch nicht.

 

[/font][/color]

 

Auf Deutsch: Unser Video liegt also profil-los in YUV vor und dessen Kanäle bedürfen einer gewissen Entzerrrung, um auf einem RGB-basierten System (wie ja jedem Computermonitor dieser Welt) farbrichtig wiedergegeben zu werden. Jede gängige Grafikkarte dieser Welt steuert ihr Display (egal ob CRT oder TFT oder OLED) per RGB-Signal an. Die Umwandlung von YUV nach RGB ist also Sache der Abspielsoftware, in Deinem Falle zum Beispiel VLC. Die Software überführt die Werte eines jeden YUV-Kanals also unter berücksichtigung der gewünschten bzw. benötigten Kanalgradationskurve in einen RGB-Wert, der von der Grafikkarte dann an den Monitor weitergegeben wird. Mit anderen Worten: An einem Computermonitor kommt niemals ein YUV-Signal an, sondern immer ein RGB-Signal. In einem farbgemanagten System wird per LUT und Farbmanagementsystem nun sichergestellt, das ein gewünschter RGB-Wert auf dem Farbmonitor korrekt wiedergegeben wird.

 

So, und da ist sie wieder, die Frage: Welche Rolle soll es spielen, ob ich ein CRT oder ein TFT verwende? Am DVI- oder auch VGA-Ausgang liegt ein RGB-Signal an, durch zB ein ColorSync-Profil aufbereitet für exakt meinen Monitor. Das YUV-Signal schafft es genau bis zur abspielenden Software und keinen Millimeter weiter! Genau deshalb ist es auch völlig egal, ob ich ein YUV-Video mit VLC auf einer Röhre oder einem Flachbildschirm betrachte. Es gibt keinen Unterschied.

 

Der Unterschied besteht darin, daß bei YUV-Video die für RGB nötige Gammakorrektur, anders als bei JPG, von der Software nie automatisch durchgeführt wird. Die weltweit einzige Ausnahme, die ich kenne, waren einige Versionen vom Windows Media Player, wenn man da vorher von Hand ein Häkchen richtig gesetzt hatte.

 

Noch klarer wird der Denkfehler, wenn wir von Screenshots solcher Videos sprechen. Egal, ob die Bilder dank in VLC geladener Kurverdefinitionen oder durch Photoshop-Bearbeitung bei Dir farblich "geradegezogen" wurden: Sobald Du ein JPEG daraus gemacht hast, hat die Datei ja sogar ein eingebettetes Farbprofil! Dank dessen wird sie nun wirklich auf jedem (kalibrierten) Ausgabegerät annähernd identisch dargestellt.

 

Nein. Dazu müßte das Bildbearbeitungsprogramm erkennen, daß es sich bei dem Screenshot um den Fabraum YUV handelt. Das tut es aber nicht, weil das gesamte System die Daten von Haus aus erstmal als RGB interpretiert. Wie gesagt, YUV-Videos sind, was die Definitionen angeht, sowas wie das ungeliebte Stiefkind aller Kommissionen zur Erstellung digitaler Standards. So ähnlich kam's in den 80ern auch zu den nichtquadratischen Pixeln, lange bevor jemand an anamorphes Video dachte.

 

Spezifisch zum Flashscan: Die Hitachi ist eine RGB-Kamera mit einer Auflösung von 8 Bit pro Farbkanal. Warum gibt der Flashscan kein RGB-Signal aus, wo die Kamera es doch sogar liefert?

 

Erstmal muß ich nochmal wiederholen, daß ich bisher nicht mit dem RGB-Ausgang vom Flashscan gearbeitet habe, obwohl er einen solchen hat. Zweitens ist wohl wieder an die Qualitätsansprüche der Masse an Privatkunden gedacht worden, die bei der Super8- und Normal8-Abtastung bei weitem den Löwenanteil stellen, denen auch DVDs und BluRays genug sind.

 

Ist doch absurd, dass ins "noch gröbere" YUV zu quetschen und dann wieder (mit Entzerrung) RGB draus zu machen. Für eine Nachbearbeitung am Rechner braucht man so viele "Bits" wie irgend möglich. Die Hitachi bietet ja sogar ein RGB Signal am Multi-Port, benutzt wird aber nur die "Videoausgabe".

 

Nur in etwa 10-20% der Fälle reicht der Korrekturrahmen des Flashscans nicht aus, so daß man nachträglich im Computer noch eine sekundäre Farbkorrektur vornehmen muß. Und da merkt man bei extremer Korrektur auch an den typischen YUV-Artefakten sofort, daß sich der Spielraum extrem verringert hat im Vergleich zum Korrekturrahmen in der primären Korrektur am Flashscan.

 

Und das ist Fehler Nummer zwei: 8 Bit pro Farbkanal ist einfach zu wenig -- selbst beim recht kleinen Gamut der Hitachi-Kamera. Das gesättigte Rot eines Ektachrome 100D liegt Kilometer ausserhalb des von dieser Kamera erfassbaren Farbraumes. Die enorme Dmax von Farbumkehrfilm (insbesondere Kodachrome) macht die 256 (bzw. 230) möglichen Abstufungen pro Farbkanal noch mal lächerlicher. Ein K40 kann 13 Blenden Dynamik zeigen, also ein Kontrastverhältnis von über (echten) 1:8000. Das in 256 Stufen zu erfassen (wenn die Kamera denn überhaupt damit zurechtkäme) ist keine adäquate Digitalisierung und wird bei jeder Nachbearbeitung böse Interpolationsartefakte erzeugen.

 

Wie gesagt, die treten erst bei der sekundären Farbkorrektur im Rechner auf, wenn die Daten schon YUV sind. Und was nicht paßt, weil's nach oben oder unten ausreißt, wird schon in der primären Farbkorrektur am Flashscan passend gemacht, indem nur der entsprechende Signalbereich separat eingepegelt wird, im Rahmen des natürlichen Helligkeitseindrucks im Vergleich zum Rest des Bildes. Ohne häßliche, am Waveformmeter sichtbare flache Begrenzungen, die auftreten würden, wenn die primäre Korrektur in einem YUV-begrenzten Signal erfolgen würde.

Link zu diesem Kommentar
Auf anderen Seiten teilen

Erstelle ein Benutzerkonto oder melde Dich an, um zu kommentieren

Du musst ein Benutzerkonto haben, um einen Kommentar verfassen zu können

Benutzerkonto erstellen

Neues Benutzerkonto für unsere Community erstellen. Es ist einfach!

Neues Benutzerkonto erstellen

Anmelden

Du hast bereits ein Benutzerkonto? Melde Dich hier an.

Jetzt anmelden
×
×
  • Neu erstellen...

Filmvorführer.de mit Werbung, externen Inhalten und Cookies nutzen

  I accept

Filmvorfuehrer.de, die Forenmitglieder und Partner nutzen eingebettete Skripte und Cookies, um die Seite optimal zu gestalten und fortlaufend zu verbessern, sowie zur Ausspielung von externen Inhalten (z.B. youtube, Vimeo, Twitter,..) und Anzeigen.

Die Verarbeitungszwecke im Einzelnen sind:

  • Informationen auf einem Gerät speichern und/oder abrufen
  • Datenübermittlung an Partner, auch n Länder ausserhalb der EU (Drittstaatentransfer)
  • Personalisierte Anzeigen und Inhalte, Anzeigen- und Inhaltsmessungen, Erkenntnisse über Zielgruppen und Produktentwicklungen
Durch das Klicken des „Zustimmen“-Buttons stimmen Sie der Verarbeitung der auf Ihrem Gerät bzw. Ihrer Endeinrichtung gespeicherten Daten wie z.B. persönlichen Identifikatoren oder IP-Adressen für diese Verarbeitungszwecke gem. § 25 Abs. 1 TTDSG sowie Art. 6 Abs. 1 lit. a DSGVO zu. Darüber hinaus willigen Sie gem. Art. 49 Abs. 1 DSGVO ein, dass auch Anbieter in den USA Ihre Daten verarbeiten. In diesem Fall ist es möglich, dass die übermittelten Daten durch lokale Behörden verarbeitet werden. Weiterführende Details finden Sie in unserer  Datenschutzerklärung, die am Ende jeder Seite verlinkt sind. Die Zustimmung kann jederzeit durch Löschen des entsprechenden Cookies widerrufen werden.