Zum Inhalt springen

Branchenentwicklung Verbrauchszahlen


bdv

Empfohlene Beiträge

Der Unterschied besteht darin, daß bei YUV-Video die für RGB nötige Gammakorrektur, anders als bei JPG, von der Software nie automatisch durchgeführt wird. Die weltweit einzige Ausnahme, die ich kenne, waren einige Versionen vom Windows Media Player, wenn man da vorher von Hand ein Häkchen richtig gesetzt hatte.

Das erklärt aber null, wieso CRT/TFT einen Unterschied machen soll. An beiden kommt ein (ggf. nicht optimales) RGB Signal an. Der Monitor sieht niemals YUV!

 

Nein. Dazu müßte das Bildbearbeitungsprogramm erkennen, daß es sich bei dem Screenshot um den Fabraum YUV handelt.

Ein Screenshot ist ein Screenshot. Da gibt es auch kein YUV zu erkennen. Wenn Du mir einen Screenshot schickst wie es bei Dir (korrigiert) aussieht und dieser Screenshot ein icc profil enthält, dann sieht er bei mir absolut identisch aus.

Link zu diesem Kommentar
Auf anderen Seiten teilen

Das erklärt aber null, wieso CRT/TFT einen Unterschied machen soll. An beiden kommt ein (ggf. nicht optimales) RGB Signal an. Der Monitor sieht niemals YUV!

 

Es geht nicht um den Unterschied zwischen Röhre und Flach, sondern zwischen RGB-Monitor und YUV-Monitor. Sobald das Signal im Betriebssystem ankommt, wird es vom System als RGB interpretiert, obwohl es eigentlich YUV ist, und wird daher innerhalb der RGB-Verarbeitungskette immer verzerrt dargestellt.

 

Umgekehrt ist zum Glück kein Problem: Wenn man ein RGB-Bild z. B. in PremierePro reinlädt, wird's korrekt von RGB zu YUV gewandelt.

 

Ein Screenshot ist ein Screenshot. Da gibt es auch kein YUV zu erkennen. Wenn Du mir einen Screenshot schickst wie es bei Dir (korrigiert) aussieht und dieser Screenshot ein icc profil enthält, dann sieht er bei mir absolut identisch aus.

 

1.) Mein flacher RGB-Monitor am Computer ist nicht zu 100% kalibriert, jedenfalls nicht gemäß deiner hohen Qualitätsstandards. Ich verlasse mich, wenn es um Profiqualität geht, immer auf die Röhre, die rechts danebensteht (weil YUV nunmal mein zentraler Hauptarbeitsbereich ist), und beim RGB-Monitor, wenn das das Ziel sein soll (RGB heißt für mich im Grunde Web), nur auf den Augenschein.

 

Aber unsere Diskussion hat mich schonmal belehrt, daß ich bei meiner im Aufbau befindlichen Webseite wirklich Gammakorrektur machen sollte, und nicht wie hier im Thread einfach nur Helligkeit & Kontrast. :)

 

Bisher hatte das immer ausgereicht, weil erstens Schmalfilmabtastungen der Zielgruppe Altbestand meistens auch auf YUV-Geräten angekuckt wird, und weil den meisten Videoarbeitern, mit denen ich bisher zu tun hatte, entweder nichtmal der Unterschied zwischen der Anzeige auf YUV- und RGB-Monitoren auffällt (bzw. weil die selber immer nur auf YUV-Geräten kontrollieren), oder sie die Thematik selber kennen und wissen, was ihr Zielgerät sein wird, und damit auch, welche Korrekturen sie beim Wechsel des Farbraums als Zielmedium selber von Hand vornehmen müssen.

 

2.) Verschiedene RGB-Monitore haben verschiedene Gammaprofile (auch, wenn die sich untereinander ähnlicher sind als alle RGB-Gammaprofile zu YUV). Ein Kriterium, von denen ich selber nichtmal alle auf Anhieb kenne, sind hierbei auch verschiedene Betriebssysteme. Nagel' mich nicht drauf fest, aber das könnte u. a. sogar hardwarespezifisch sein, sprich, anderer Monitorhersteller (bzw. anderer Monitortyp, z. B. LCD, Plasma, etc.) gleich leicht anderes Gammaprofil, was dann noch mit dem Gammaprofil des jeweiligen Betriebssystems in Einklang gebracht werden muß.

Link zu diesem Kommentar
Auf anderen Seiten teilen

Das 2.2er Gamma ist schon lange auch beim Mac Standard -- die Unterscheide hier sind Geschichte.

 

Es geht nicht um den Unterschied zwischen Röhre und Flach, sondern zwischen RGB-Monitor und YUV-Monitor

 

Es gibt keine YUV-Monitore an Computern. Auch CRTs bekommen ein RGB Signal von der Grafikkarte. Immer.

Kann es sein, dass wenn Du von "Deinem Röhrenmonitor" sprichst, Du nicht den Monitor an Deinem Computer, sondern einen Kontrollmonitor für das erzeugte Videosignal meinst?

Wenn ja, dann haben wir jetzt sieben Seiten aneinander vorbeigeredet. :)

Link zu diesem Kommentar
Auf anderen Seiten teilen

Ich verlasse mich, wenn es um Profiqualität geht, immer auf die Röhre, die rechts danebensteht (weil YUV nunmal mein zentraler Hauptarbeitsbereich ist)

 

Genauer: Da steht eine *YUV*-Röhre, keine RGB-Röhre.

 

EDIT:

 

Das 2.2er Gamma ist schon lange auch beim Mac Standard -- die Unterscheide hier sind Geschichte.

 

[/font][/color]

 

Es gibt keine YUV-Monitore an Computern. Auch CRTs bekommen ein RGB Signal von der Grafikkarte. Immer.

Kann es sein, dass wenn Du von "Deinem Röhrenmonitor" sprichst, Du nicht den Monitor an Deinem Computer, sondern einen Kontrollmonitor für das erzeugte Videosignal meinst?

Wenn ja, dann haben wir jetzt sieben Seiten aneinander vorbeigeredet. :)

 

S. oben im selben Post. Oh Mann... :mrgreen:

 

Aber ja: Als Kontrollmonitor würd' ich nichtmal'ne Computerröhre nehmen, sondern immer nur'ne YUV-Röhre, weil das Zielgerät beim Endverbraucher in meiner Branche nachwievor in den allermeisten Fällen YUV ist.

Link zu diesem Kommentar
Auf anderen Seiten teilen

Was ist überhaupt eine YUV-Röhre, die angeblich so weit verbreitet ist? Ich kann sowas in keinem RFT(Radiofernsehtec)-Buch finden!? Gibts da noch einen anderen Fachbegriff?

 

Man sagt auch Fernseher dazu. Alle Referenzmonitore für die professionelle Fernseh- und Videoproduktion arbeiten mit YUV. Die einzige Ausnahme sind evtl. Geräte für Digital Intermediate bei 35mm und höher, wo ich mich nicht so auskenne. Entweder sind da die Referenzgeräte RGB, oder die Operator nehmen die Gammakorrektur bei der Ausbelichtung vor.

Link zu diesem Kommentar
Auf anderen Seiten teilen

In Fernsehern befinden sich allerdings auch keine YUV-Röhren, sondern es sind ebenso RGB-Anzeigegeräte mit RGB-Röhren, denen lediglich ein YUV/RGB-Decoder vorgeschaltet ist - so wie auch bei YUV-Monitoren. Es macht auch keinen Unterschied, ob das Display nun eine CRT oder ein LCD ist - in jedem Fall kommt dein YUV-Signal nur bis zum ersten größeren Eingangsmodul im Monitor, meist genannt RGB-Matrix-Decoder und von da ab arbeitet der Monitor mit einem RGB-Signal. Geht ja auch nicht anders, da alle Röhren RGB sind, wie man mit einer Lupe am Bildschirm gut erkennen kann.

 

Es gibt nunmal kein YUV-Bild. Alles was wir sehen, ist schon RGB gewandelt (das Auge ist übrigens auch RGB), also kann es auch keine Unterschiede zwischen einer YUV- und einer RGB-Anzeige geben.

  • Like 1
Link zu diesem Kommentar
Auf anderen Seiten teilen

Ist Deine Zielgruppe der Endverbraucher mit Röhre ?

 

Ich würde sagen - Endverbraucher mit Röhre gibt es nicht mehr.

 

Mein Ziel ist der Endverbraucher mit YUV-Monitor. Das ist keine Frage, ob Röhre oder Flach, wie wir schon weiter oben geklärt haben.

 

In Fernsehern befinden sich allerdings auch keine YUV-Röhren, sondern es sind ebenso RGB-Anzeigegeräte mit RGB-Röhren, denen lediglich ein YUV/RGB-Decoder vorgeschaltet ist - so wie auch bei YUV-Monitoren

 

Was sie letztendlich zur YUV-Monitoren in dem Sinne macht, daß sie anders als reine RGB-Monitore YUV korrekt darstellen.

 

Es gibt nunmal kein YUV-Bild. Alles was wir sehen, ist schon RGB gewandelt (das Auge ist übrigens auch RGB), also kann es auch keine Unterschiede zwischen einer YUV- und einer RGB-Anzeige geben.

 

Und wofür stehen Y, U und V? Für Helligkeit/Grün, Rot und Blau. Der Unterschied besteht im kanalspezifischen Gammaprofil bei YUV aufgrund der unterschiedlichen Abstufungsanzahl pro Kanal im Vergleich zu RGB. Das heißt, wenn keine Gammakorrektur für den reinen RGB-Monitor stattfindet, sieht man auf dem Bildschirm zwar etwas, das aber in Helligkeit(s- bzw. Kontrastumfang) wie Farben deutlich verzerrt ist.

 

Hier ein guter Link zu den Unterschieden zwischen YUV und RGB: http://www.fourcc.org/fccyvrgb.php

 

Und hier: http://www.martinreddy.net/gfx/faqs/colorconv.faq kann man wirklich gut sehen, wieviel Arbeit die Konvertierung zwischen YUV und RGB eigentlich macht und was da technisch alles zu beachten ist.

 

Achtung 1: Kanalbezeichnungen mit ' (lies: "Strich", d. h. Y' = "Y mit Strich" bzw. "Luma mit Strich") bezeichnen die bereits für RGB-Monitore gammakorrigierte Variante.

 

Achtung 2: Besonders Leute, die kaum noch mit dem analogen, sondern nurnoch mit dem digitalen Signal zu tun haben, erwähnen im Prosateil nur die verringerte Pixelauflösung der zwei Chromakanäle, nicht aber die geringere Abtufungsanzahl zwischen Reinweiß und Reinschwarz. Man muß dann immer auf die Formeln für die kanalspezifische Gammakorrektur achten.

Link zu diesem Kommentar
Auf anderen Seiten teilen

In Fernsehern befinden sich allerdings auch keine YUV-Röhren, sondern es sind ebenso RGB-Anzeigegeräte mit RGB-Röhren, denen lediglich ein YUV/RGB-Decoder vorgeschaltet ist - so wie auch bei YUV-Monitoren.

 

Was sie letztendlich zur YUV-Monitoren in dem Sinne macht, daß sie anders als reine RGB-Monitore YUV korrekt darstellen.

 

Aha, ein vorgeschalteter YUV-Decoderchip macht einen RGB-Monitor also zum "YUV-Monitor". So einfach ist das. Und dennoch sind Software-Module nicht in der Lage, dieselben Transformationen von YUV->RGB korrekt durchzuführen, wie es so ein analoger Decoder seit Jahrzehnten problemlos tut. Tja sind denn alle Programmierer dämlich oder woran liegt das.

Link zu diesem Kommentar
Auf anderen Seiten teilen

Aha, ein vorgeschalteter YUV-Decoderchip macht einen RGB-Monitor also zum "YUV-Monitor". So einfach ist das. Und dennoch sind Software-Module nicht in der Lage, dieselben Transformationen von YUV->RGB korrekt durchzuführen, wie es so ein analoger Decoder seit Jahrzehnten problemlos tut. Tja sind denn alle Programmierer dämlich oder woran liegt das.

 

Dieselbe Frage kannst du bezüglich der nichtquadratischen Pixel bei YUV-Video seit den 80ern stellen, wo sie nicht für eine anamorphe Anzeige des Bildseitenverhältnisses da sind, die von 4:3 abweicht. Deswegen habe ich YUV-Video weiter oben auch als: "das ungeliebte Stiefkind aller Kommissionen zur Aufstellung digitaler Standards" genannt.

 

Es gibt Leute, die reden sich mit der Tatsache raus, daß man sowohl Pixelzahlen teilbar durch 16 und eine identische Bitrate für NTSC und PAL haben wollte. Es stimmt zwar, daß man für PAL und NTSC die identische Bitrate als Ergebnis aus Pixelauflösung (teilbar durch 16) mal Farbtiefe mal Farbunterabtastung (= Chroma subsampling) mal Bildfrequenz mal Audiobitrate mal Audiosamplerate bei der Aufstellung digitaler Standards erreichen wollte, aber dafür braucht man keine nichtquadratischen Pixel, wie man auch an den schwarzen Rändern sieht, die bei den Digitalvarianten von PAL und NTSC bedenkenlos eingefügt wurden. Und auch die Reduzierung der Dateigröße ist beim Unterschied zwischen 4:3 und 5:4 minimal.

 

Ein Grund für die mangelhaft verbreitete Gammakorrektur und ihrem noch selteneren Stand in der Kommunikation und Ausbildung (es wird noch weniger über die Gammakorrektur geredet und geschrieben, als sie von Haus aus eingebaut wird) mag darin liegen, daß auch heute noch die meisten Fernseher von Haus aus auf YUV geeicht sind, egal ob Röhre oder Flach. Nahezu 100% der ausgebildeten Mediengestalter Billd/Ton werden dir sagen können, daß man für professionelle Ergebnisse nicht auf dem Computerbildschirm korrigieren sollte, sondern auf einem dedizierten Kontrollmonitor daneben. Aber warum das so ist, kann dir von denen kaum einer erklären, auch wenn sie aus der Ausbildung zumindest wissen, daß Chroma generell nur die halbe Pixelauflösung von Luma besitzt.

 

D. h. während der Produktion erfolgt die Bearbeitung im Rechner u. U. im RGB-Farbraum, der Echtzeitkontrollmonitor, der danebensteht, ist YUV (so daß der Cutter oder Operator YUV-Material bekommt, wo er dann ohne Gammakorrektur RGB-Werte verstellt, auf dem Kontrollmonitor aber sieht, wie das ganze als YUV aussieht), und das Zielgerät beim Endkunden ist ebenfalls YUV.

 

Wenn der Cutter oder Operator im Rechner RGB-Werte verstellt, dann funktioniert das nur deshalb, weil der Kontrollmonitor des Cutters bzw. Operators eben genau wie das Zielgerät beim Endkunden auch YUV ist. Wenn allein für Web gearbeitet wird, reicht dagegen der reine Computermonitor aus, der nur auf RGB geeicht ist.

Link zu diesem Kommentar
Auf anderen Seiten teilen

Aber warum das so ist, kann dir von denen kaum einer erklären, auch wenn sie aus der Ausbildung zumindest wissen, daß Chroma generell nur die halbe Pixelauflösung von Luma besitzt.

 

Was sich im Kabel zum Fernseher bzw. Monitor durch die PAL-FBAS-Modulation nochmal auf ein Viertel reduziert, so daß wir mit YUV auf dem Bildschirm bei einer maximalen Farbauflösung von 135 Punkten pro Bildzeile landen. Schade um einen gut gesättigten feinkörnigen K40 mit ca. 1,5k horizontaler Auflösung.

  • Like 1
Link zu diesem Kommentar
Auf anderen Seiten teilen

Was sich im Kabel zum Fernseher bzw. Monitor durch die PAL-FBAS-Modulation nochmal auf ein Viertel reduziert, so daß wir mit YUV auf dem Bildschirm bei einer maximalen Farbauflösung von 135 Punkten pro Bildzeile landen. Schade um einen gut gesättigten feinkörnigen K40 mit ca. 1,5k horizontaler Auflösung.

 

Nein, soweit ich das überblicke, übernimmt FBAS einfach nur die halbe Chromaauflösung von der Anfangscodierung in YUV, ohne die nochmal zu halbieren. Der Unterschied liegt primär im Muxing alias zeitversetzten Senden/packaging auf demselbem FBAS-Kanal, wie nämlich auch schon das: "Zusammenfalten" von YUV zu Y/C funktioniert.

 

Aber daß auch der K40 ein Auflösungsvermögen besitzt, daß auch für HD reicht, ist natürlich unbestritten.

Link zu diesem Kommentar
Auf anderen Seiten teilen

Diese Erklärungen führen mir wieder mal eindrucksvoll vor Augen wie veraltet und ungenügend die technischen Lösungen der ganzen Fernseh/Videosparte sind. RGB mit 8 Bit/Color (256 Abstufungen) wird reduziert auf ca. 230. Farbunterabtastung (DVD: 4:2:0) führt zu einer Chromaauflösung von gerade mal noch 288x360. Am Gamma muss auch noch rumgeschraubt werden, damit das ganze einigermaßen erträglich ist. Und dann wird das Vollbild auch noch in zwei Halbbilder zerlegt, die (bei richtiger Angabe von erstem und zweitem Halbbild) wieder zu einem Vollbild zusammengeführt werden (müssen) und erfährt auch noch 5% Overscan um unsaubere Ränder unsichtbar zu machen. Und dann noch die dämliche NTSC Technik, die im Zeitalter von HD ihr saudämliches Dropframe System mit der von 24,000 auf 23,976 fps reduzierten Bildrate vererbt. Möge der ganze Videotechnikscheiß so wie er ist den Bach runtergehen! Ein System muss her mit echtem RGB, 12 Bit/Color, 4:4:4, höchstens interframe-Kompression, echter Ausnutzung aller 4096 Abstufungen, progressive Darstellung und echten 24,000 fps und echten 2 und 4k. Alles andere ist Murks. Also ehrlich: Fernsehen/Videotechnik ist Steinzeit.

  • Like 1
Link zu diesem Kommentar
Auf anderen Seiten teilen

Diese Erklärungen führen mir wieder mal eindrucksvoll vor Augen wie veraltet und ungenügend die technischen Lösungen der ganzen Fernseh/Videosparte sind. RGB mit 8 Bit/Color (256 Abstufungen) wird reduziert auf ca. 230. Farbunterabtastung (DVD: 4:2:0) führt zu einer Chromaauflösung von gerade mal noch 288x360. Am Gamma muss auch noch rumgeschraubt werden, damit das ganze einigermaßen erträglich ist. Und dann wird das Vollbild auch noch in zwei Halbbilder zerlegt, die (bei richtiger Angabe von erstem und zweitem Halbbild) wieder zu einem Vollbild zusammengeführt werden (müssen) und erfährt auch noch 5% Overscan um unsaubere Ränder unsichtbar zu machen. Und dann noch die dämliche NTSC Technik, die im Zeitalter von HD ihr saudämliches Dropframe System mit der von 24,000 auf 23,976 fps reduzierten Bildrate vererbt. Möge der ganze Videotechnikscheiß so wie er ist den Bach runtergehen! Ein System muss her mit echtem RGB, 12 Bit/Color, 4:4:4, höchstens interframe-Kompression, echter Ausnutzung aller 4096 Abstufungen, progressive Darstellung und echten 24,000 fps und echten 2 und 4k. Alles andere ist Murks. Also ehrlich: Fernsehen/Videotechnik ist Steinzeit.

 

Die Probleme hast du größtenteils genauso bei HD. Und Interframekompression würde Probleme beim Schneiden geben. Oder meinst du Intraframekompression?

 

Das Chroma subsampling entspricht als Verhältnis Farbe zu Helligkeit bloß dem farbspezifischen Auflösungsvermögen des menschlichen Auges. Gammakorrektur wurde erst seit den 90ern ein Problem, als mit der Digitalisierung erstmals YUV-Material auf Computermonitoren dargestellt werden mußte, die bis heute auf RGB geeicht sind. Der Overscan hat nichts mit unsauberen Rändern zu tun, sondern damit, daß bei Röhrenfernsehern den Herstellern nie exakte Vorgaben über die Bildgröße gemacht wurden, sondern bloß eine Mitte exakt definiert wurde.

 

Daß jemand mit dem Nick Regular8 fordert, daß nurnoch 24 B/s gelten sollen, entbehrt nicht einer gewissen Ironie.

 

Ich stimme dir aber eindeutig zu, daß Halbbilder und unsaubere Bildgeschwindigkeiten auf den Müllhaufen der Geschichte gehören. Mit Ausnahme vielleicht der 16 2/3 B/s, die viele Normal8-Kameras hatten.

Link zu diesem Kommentar
Auf anderen Seiten teilen

Jepp, was allerdings die korrekte Farbauflösung von PAL betrifft, sollte man sich darüber schon im Klaren sein, auch wenns wehtut: Das Farbartsignal wird bei PAL-FBAS mit einer Bandbreite von exakt 1,3 MHz auf den Träger moduliert zum Monitor übertragen, wie mehrere Quellen besagen. Das Luma-Signal hat 5 MHz, also das 3,9-fache.

 

Der erste Google-Treffer dazu rechnet dann noch die maximale Farbauflösung bei PAL vor. Da finde ich (leider) keinen Fehler: http://videobasics.d...gen/palntsc.php

 

Aber was solls. Nichtsdestotrotz wollen die Altbeständler sicher zum Großteil ihre Filme auf DVD-Video (PAL), also sollen sie es eben bekommen. Und wenns gut gemacht ist, ist doch alles tutti.

 

Nebenbei war ich heute beim Abholen meiner Filme bei Media-Markt, wo sie einen 4k-Monitor mit 2,13m Diagonale laufen hatten, woooooow......

 

vergeßt HD! :)

  • Like 1
Link zu diesem Kommentar
Auf anderen Seiten teilen

Hallo Rudolf,

 

16 Bilder ja, 16 und zweidrittel, nein. Nachzulesen im Standardwerk "Die kinematographische Kamera" von H. Weise und im Ariel Cinematografica Register. Von 16zwodrittel hat vor Überspielung von Schmalfilmen auf 25-Bilder PAL keiner gehört. Wenn Du eine neue Information dazu hast, bitte mit Quellenangabe posten.

 

Gruss Jeff

Link zu diesem Kommentar
Auf anderen Seiten teilen

Jepp, was allerdings die korrekte Farbauflösung von PAL betrifft, sollte man sich darüber schon im Klaren sein, auch wenns wehtut: Das Farbartsignal wird bei PAL-FBAS mit einer Bandbreite von exakt 1,3 MHz auf den Träger moduliert zum Monitor übertragen, wie mehrere Quellen besagen. Das Luma-Signal hat 5 MHz, also das 3,9-fache.

 

Der erste Google-Treffer dazu rechnet dann noch die maximale Farbauflösung bei PAL vor. Da finde ich (leider) keinen Fehler: http://videobasics.d...gen/palntsc.php

 

Der versucht, die Bandbreite des Lumasignals mit der Zeit zu verrechnen, wie lange der Kathodenstrahl von links nach rechts braucht. Wie er auf die Idee kommt, allein damit eine Pixelzahl zu bekommen, ist mir schleierhaft.

 

Dazu nimmt er die Zahl 1,3 MHz, die aber nur die Farbübertragung im unteren Seitenband des Signals betreffen. Dazu kommen dann noch das obere Seitenband und die eigentliche Trägerfrequenz, was zusammenaddiert die offiziell definierten 4,43 MHz für den Chromakanal ergibt. Das sind 86% des Y-Kanals, was ziemlich nahe an den ca. 88% des V-Kanals (Blau) liegt. Die 49% für U (Rot) dürften demnach einer Bandbreite von ca. 2,45 MHz entsprechen.

 

Aber was solls. Nichtsdestotrotz wollen die Altbeständler sicher zum Großteil ihre Filme auf DVD-Video (PAL), also sollen sie es eben bekommen. Und wenns gut gemacht ist, ist doch alles tutti.

 

Danke, danke! Endlich werden mal die Defizite des YUV/PAL-Signals auch im selben Post mit den Erwartungen der Hauptzielgruppe genannt!

 

Und 4K hab' ich auch mal auf der Berliner Sony Roadshow 2009 gesehen, unter der Bezeichnung: "Digital Cinematography". Sah für mich größtenteils wie normales Video aus (flaue Farben, kein richtiges Schwarz), nur halt mit Vollbildern. Auf derselben Roadshow gab's auch den Vergleich desselben Bildes in SD, 720p und 1080i, wobei angeblich 1080i das Originalbild sein sollte. Den Unterschied zwischen SD und 720p konnte ich genausowenig wie irgendjemand anders aus der MGBT-Klasse auch aus 10cm Entfernung zum Bildschirm erkennen, und 1080i sah wie ein ekelhaft schlecht vergrößertes SD-Bild mit furchtbaren Schärfungsartefakten Marke Unscharfmaskierung aus.

 

Aber wenigstens gab's auch eine Kamera mit einem lustigen digitalen Vergrößerungsknopf. Erinnerte mich witzigerweise etwas an die alten Revolverobjektive in verschiedenen Brennweiten.

Link zu diesem Kommentar
Auf anderen Seiten teilen

Hallo Jeff,

 

Ich bin mir nicht ganz so sicher, dass 16 Bilder die Norm waren...

 

Die Stummfilmzeit verlangte nach einer halbwegs logischen Norm... also 1000 Bilder Minute. Ist zudem ja auch ein ganz logischer Bruchteil von 50, was schon damals die Netzfrequenz war... in Europa (Lumiere)

 

Aber letztendlich egal, wegen der 2/3 Bilder werden wir sicherlich keinen erhöhten Blutdruck bekommen... mich aufregen hat mir mein Doktor verboten... *lach

 

Am Rande: Die schweizerische Bundesbahn hat in ihrem Stromnetz noch heute 16 2/3 Hertz... warum auch immer...

 

Rudolf

Link zu diesem Kommentar
Auf anderen Seiten teilen

Hallo Rudolf,

 

16 Bilder ja, 16 und zweidrittel, nein. Nachzulesen im Standardwerk "Die kinematographische Kamera" von H. Weise und im Ariel Cinematografica Register. Von 16zwodrittel hat vor Überspielung von Schmalfilmen auf 25-Bilder PAL keiner gehört. Wenn Du eine neue Information dazu hast, bitte mit Quellenangabe posten.

 

Gruss Jeff

 

Und wieso sollte das gerade mit 25 B/s zu tun haben? Geht nämlich auch nicht besser auf als 16 B/s. Darüberhinaus meine ich, sogar Normal8-Kameras aus den 50ern und 60ern gesehen zu haben, wo mit einem kleinen Hebel die Bildgeschwindigkeit umgestellt werden konnte, und da stand auf dem Gehäuse 24 bzw. 16 2/3 statt exakt 16 draufgedruckt. Und irgendwo im Hinterkopf schwirrt bei mir auch noch die entsprechende technische Erklärung dazu, so in die Richtung, daß das ein entsprechender Teiler irgendeiner mechanisch-physikalischen Größe/Kraft oder Kinofilmgeschwindigkeit war. Vielleicht die 50 Hz Netzspannung, die bei der Zweibandvertonung wichtig war?

Link zu diesem Kommentar
Auf anderen Seiten teilen

Hallo,

 

Als man damals die 16 Bilder oder eben einen Drittel von 50 oder auch 1000 Bilder pro Minute als Basis genommen hat, war von digital noch nirgends etwas zu sehen...

 

Was ich sagen will: Analog und digital passen zumindest in dieser Hinsicht zusammen wie eine Faust aufs Auge. Inzwsichen sind sich die Videoten ja nicht mal mehr in Sachen Bildfrquenz einig... zwischen 24 über 25 bis hin zu 30 wird alles miteinander verwurstet.

 

Dann gibt es noch die ganz oberschlauen, die von 23,976 anstatt von 24 reden oder 29,xxx... wie deppert... oder, wem hilfts...?

 

Das nenne ich dann eben Haarspalterei, genau wie die 2/3 Bilder, die mit einer Federwerkskamera mit primitivem Fliehkraftregler eingestellt werden...

 

Rudolf

Link zu diesem Kommentar
Auf anderen Seiten teilen

Erstelle ein Benutzerkonto oder melde Dich an, um zu kommentieren

Du musst ein Benutzerkonto haben, um einen Kommentar verfassen zu können

Benutzerkonto erstellen

Neues Benutzerkonto für unsere Community erstellen. Es ist einfach!

Neues Benutzerkonto erstellen

Anmelden

Du hast bereits ein Benutzerkonto? Melde Dich hier an.

Jetzt anmelden
×
×
  • Neu erstellen...

Filmvorführer.de mit Werbung, externen Inhalten und Cookies nutzen

  I accept

Filmvorfuehrer.de, die Forenmitglieder und Partner nutzen eingebettete Skripte und Cookies, um die Seite optimal zu gestalten und fortlaufend zu verbessern, sowie zur Ausspielung von externen Inhalten (z.B. youtube, Vimeo, Twitter,..) und Anzeigen.

Die Verarbeitungszwecke im Einzelnen sind:

  • Informationen auf einem Gerät speichern und/oder abrufen
  • Datenübermittlung an Partner, auch n Länder ausserhalb der EU (Drittstaatentransfer)
  • Personalisierte Anzeigen und Inhalte, Anzeigen- und Inhaltsmessungen, Erkenntnisse über Zielgruppen und Produktentwicklungen
Durch das Klicken des „Zustimmen“-Buttons stimmen Sie der Verarbeitung der auf Ihrem Gerät bzw. Ihrer Endeinrichtung gespeicherten Daten wie z.B. persönlichen Identifikatoren oder IP-Adressen für diese Verarbeitungszwecke gem. § 25 Abs. 1 TTDSG sowie Art. 6 Abs. 1 lit. a DSGVO zu. Darüber hinaus willigen Sie gem. Art. 49 Abs. 1 DSGVO ein, dass auch Anbieter in den USA Ihre Daten verarbeiten. In diesem Fall ist es möglich, dass die übermittelten Daten durch lokale Behörden verarbeitet werden. Weiterführende Details finden Sie in unserer  Datenschutzerklärung, die am Ende jeder Seite verlinkt sind. Die Zustimmung kann jederzeit durch Löschen des entsprechenden Cookies widerrufen werden.