Zum Inhalt springen

Branchenentwicklung Verbrauchszahlen


bdv

Empfohlene Beiträge

Oben wurde behauptet, 16 2/3 sei eine Standardfrequenz für Normal 8 Kameras gewesen. Vom Konstrukteur/Hersteller so vorgesehen. Das ist und bleibt falsch, und mehr habe ich nicht geschrieben. Dass einfache Federwerke nicht so genau laufen, versteht sich. Sonst können wir auch diskutieren, ob 24 wirklich die Frequenz für Kinotonfilme ist, weil fast alle (älteren) Projektoren in der Praxis (und im ungeheizten BWR) davon abweichen...

Link zu diesem Kommentar
Auf anderen Seiten teilen

Hallo,

 

Als reinen Wiedergabecodec für DVD und Bluray lasse ich Interframe gelten, aber als Aufnahmecodec finde ich sowas abolute Scheisse...

 

Heute, wo Speicher kaum noch Geld kostet, spielt es doch keine Rolle, wieviele Gigas ich in der Kamera verheize... wird ja eh nach dem Schnitt wieder glöscht...

 

Wenn ich sehe, wieviele Minuten zu welchem Preis wir analogen Filmer ausgeben, ist Digital ja echt gratis...

 

Was nichts kostet, kann auch nichts Wert sein... sagte schon mein Grossvater... *smile

 

Rudolf

Link zu diesem Kommentar
Auf anderen Seiten teilen

Die Probleme hast du größtenteils genauso bei HD.

Daß jemand mit dem Nick Regular8 fordert, daß nurnoch 24 B/s gelten sollen, entbehrt nicht einer gewissen Ironie.

 

:) Das macht nichts. Für mich ist der Nickname nur ein Platzhalter. Und den Nick hatte halt niemand anders im Forum, also war er optimal unterscheidbar von allen anderen. Hätte mich auch Super8Kauffilm oder 16mm oder 4-perf nennen können. Dann wäre die Forderung nach 24,000 fps vielleicht passender gewesen. Wobei ich grundsätzlich nicht gegen andere Frequenzen bin, wenn sie sich deutlich genug voneinander unterscheiden und somit unterschiedliche Aspekte berücksichtigen. Nur ein Anhäufen verschiedener Bildfrequenzen, die alle "um den selben Dreh" herum angesiedelt sind, das ist überflüssig. Man stelle sich vergleichsweise nur mal vor, man hätte neben dem 8 mm Film noch einen 8,1 mm, einen 7,9 mm und einen 7,86 mm Film erfunden (und würde alle diese Formate auch noch pflegen - alle selbstverständlich inkompatibel zueinander). Was für ein Unsinn!

 

Und im Endeffekt sind alle diese Dinge, die Du vorhin aufgezählt hast und die ich noch mal wiederholt habe, alles Erfindungen, die einzig und allein deshalb existieren, damit nicht zu viel Bandbreite verbraucht wird.

 

Ob wir da von 4:2:0 oder von interlaced reden (OK die Reduktion von 256 auf 230 oder 220 Abstufungen hat andere Gründe) - beinahe immer ist es die Tatsache, dass für tatsächlich komplett unreduzierte Übertragung einfach technisch zu viel Information anfallen würde.

Und ich bin nicht der Meinung, dass 4:2:0 eingeführt wurde, weil es für das Auge besser ist und es nicht "zu viel" Information bekommen soll.

 

Und der Maskierungseffekt, den man sich beim Komprimieren von Audiodaten zunutze macht, wurde auch nicht erfunden, weil das unreduzierte PCM Signal das Ohr überfordert oder minderwertig klingt, sondern weil man nach Wegen gesucht hat, Speicherplatz zu sparen und mehr Inhalt auf weniger Speicherfläche/-volumen unterzubringen ohne dafür Audioqualität opfern zu müssen.

Die Nachteile von MP3 Kompression (eigentlich ja "Reduktion") von Audiosignalen, oder Farbsubsampling beim Bild sind z.B. bei Chromakeyings und anderen Bildveränderungen so eklatant, dass die Frage erlaubt sein muss, warum man sich nicht schon längst von all diesen "Krücken" verabschiedet hat.

Und dann stößt man immer wieder auf die selbe Antwort: weil es ohne diese trickreichen Hilfsmittel (Interlaced, Farbsubsampling, YUV statt RGB, 8 statt 12 Bit / Color) zu viel Speicher verbraucht. Rund drei Sekunden Laufbild würden bei einem unkomprimiertem Bilddatenstrom mit 1080 x 2048 @ 4:4:4 @ 3x 12 Bit @ 24 fps auf einen CD-Rohling passen. Eine halbe Minute auf einen zweilagigen DVD Rohling. Und selbst auf eine zweilagige Bluray immer noch bloß knapp vier Minuten. Und würde digital terrestrisch 1080x2048 @ 4:4:4 @ 3x 12 Bit @ 50 fps PROGRESSIV und unkomprimierte TIFF-Bildfolgen ausgestrahlt, müssten alle terrestrisch verfügbaren TV-Kanäle dafür zu einem einzigen großen gebündelt werden und es gäbe nur einen einzigen Fernsehsender, der dann auch unheimlich viel Strom für die Ausstrahlung verbrauchen würde. Und nur weil das irgendwie blöd ist, lediglich einen Sender zu haben und so ein breites Band so ineffektiv zu nutzen, hat man diese ganzen Sparmaßnahmen gefunden.

(Und weil es irgendwie bedienungsunfreundlich wäre, wenn man beim Betrachten eines einzigen 90 Minuten Spielfilms auf DVD ca. 180 mal die Scheibe wechseln muss).

  • Like 1
Link zu diesem Kommentar
Auf anderen Seiten teilen

Und wieso sollte das gerade mit 25 B/s zu tun haben? Geht nämlich auch nicht besser auf als 16 B/s.

 

16 2/3 geht prima in 25 B/s zu konvertieren (und hat man auch lange Zeit genau so gemacht). Du nimmst je ein Filmbild und füllst es in DREI aufeinanderfolgende Halbbilder. Fertig. Aus 16,666 progressiven Filmbildern werden 50 Videohalbbilder.

Das dritte und vierte Halbbild, das zwar videotechnisch zu dem selben einen Vollbild gehört, kommen zwar von unterschiedlichen Filmbildern und zeigen daher in der Vollbildansicht die Verzahnung der beiden Halbbilder aus zwei unterschiedlichen Bewegungsphasen, aber auf einem interlaced Fernseher werden sowieso keine Vollbilder dargestellt und die Darstellung der Halbbilder erfolgt schön der Reihe nach. Sieht also ohne eine dazwischen liegende Vollbildverarbeitung nicht unbedingt schlechter aus. Nur im Vollbild-Standbild oder in der deinterlaceten Vollbild-Laufbild Betrachtung sieht jedes zweite Vollbild seltsam verzahnt aus.

Link zu diesem Kommentar
Auf anderen Seiten teilen

16 2/3 B/s, die viele Normal8-Kameras hatten.

 

Also....lange Rede, kurzer Sinn:

 

16 B/s war die Standard-Frequenz bei Normal- bzw. Doppel8 (Federwerks-Ungenauigkeiten ausser Acht gelassen)

....und auch bei 9,5mm (Aaton...habe ich recht?)

Von zusätzlichen ZweiDrittel Bildern habe ich noch nie, in keinem Buch, in keiner Kamera-Anleitung gelesen.

Sollten die immer zur Vereinfachung unterschlagen worden sein?

(wobei das mit den 1000 Bildern pro Minute irgendwie nachvollziehbar klingt..)

 

Die einzigen Kameras mit 16 2/3 Frequenz die ich kenne sind die späten, großen Super-8-Tonfilmkameras von Nizo (4056...6080)

Die hatten aus Gründen der bereits hier im Thread erwähnten guten Kompabilität zu Video sowohl diese Frequenz, als auch 25 B/s.

Passend dazu der Braun Visacustic Projektor mit ebendiesen Lauffrequenzen im Angebot, um wohl leicht flimmerfreien Videotransfer durchführen zu können.

Zur Zeit dieser Kameras war ja Video bereits Thema.

  • Like 1
Link zu diesem Kommentar
Auf anderen Seiten teilen

Hallo,

 

Als reinen Wiedergabecodec für DVD und Bluray lasse ich Interframe gelten, aber als Aufnahmecodec finde ich sowas abolute Scheisse...

 

Ich würde auch nie mit MPEG aufnehmen wollen. Die meisten HD-Kameras nehmen aber bis heute genau diese Inter-"scheiße" auf. DV dagegen komprimiert nur das einzelne Bild, nicht die Sequenz (wenn man mal von der Kompression in Form der Halbbilder absieht, die noch von 1931 stammt).

 

Wenn ich sehe, wieviele Minuten zu welchem Preis wir analogen Filmer ausgeben, ist Digital ja echt gratis...

 

Naja...

 

Digital = teure Technik, billige Aufnahmemedien

Schmalfilm = billige Technik, teure Aufnahmemedien

  • Like 1
Link zu diesem Kommentar
Auf anderen Seiten teilen

Die einzigen Kameras mit 16 2/3 Frequenz die ich kenne sind die späten, großen Super-8-Tonfilmkameras von Nizo (4056...6080)

Die hatten aus Gründen der bereits hier im Thread erwähnten guten Kompabilität zu Video sowohl diese Frequenz, als auch 25 B/s.

 

Vielleicht gab es den 16 2/3 Modus auch, damit beim Filmen mit annähernd 16 oder von mir aus auch annähernd 18 B/s mit Schmalfilmkameras der eingeschaltete, laufende Fernseher, der irgendwo im Raum herumsteht, auf dem Schmalfilm nicht mit flackerndem Bild zu sehen ist.

Link zu diesem Kommentar
Auf anderen Seiten teilen

Man stelle sich vergleichsweise nur mal vor, man hätte neben dem 8 mm Film noch einen 8,1 mm, einen 7,9 mm und einen 7,86 mm Film erfunden (und würde alle diese Formate auch noch pflegen - alle selbstverständlich inkompatibel zueinander). Was für ein Unsinn!

 

Immerhin sind verschiedene Bildgeschwindigkeiten im selben Projektor abspielbar, verschiedene Filmbreiten nicht.

 

Und ich bin nicht der Meinung, dass 4:2:0 eingeführt wurde, weil es für das Auge besser ist und es nicht "zu viel" Information bekommen soll.

 

Und der Maskierungseffekt, den man sich beim Komprimieren von Audiodaten zunutze macht, wurde auch nicht erfunden, weil das unreduzierte PCM Signal das Ohr überfordert oder minderwertig klingt, sondern weil man nach Wegen gesucht hat, Speicherplatz zu sparen und mehr Inhalt auf weniger Speicherfläche/-volumen unterzubringen ohne dafür Audioqualität opfern zu müssen.

 

Ich habe auch nie behauptet, daß es: "besser" aussieht. Sondern nur, daß es, das richtige Anzeigegerät vorausgesetzt, nicht auffällt.

 

Die Nachteile von MP3 Kompression (eigentlich ja "Reduktion") von Audiosignalen, oder Farbsubsampling beim Bild sind z.B. bei Chromakeyings und anderen Bildveränderungen so eklatant, dass die Frage erlaubt sein muss, warum man sich nicht schon längst von all diesen "Krücken" verabschiedet hat.

 

Viel schlimmer fürs Keying ist die: "Krücke" namens Halbbilder, von denen sich heute offenbar noch kaum ein Videot außer mir trennen will. Die Probleme wegen Chroma subsampling sind da ein Witz gegen.

 

16 2/3 geht prima in 25 B/s zu konvertieren (und hat man auch lange Zeit genau so gemacht). Du nimmst je ein Filmbild und füllst es in DREI aufeinanderfolgende Halbbilder. Fertig. Aus 16,666 progressiven Filmbildern werden 50 Videohalbbilder.

Das dritte und vierte Halbbild, das zwar videotechnisch zu dem selben einen Vollbild gehört, kommen zwar von unterschiedlichen Filmbildern und zeigen daher in der Vollbildansicht die Verzahnung der beiden Halbbilder aus zwei unterschiedlichen Bewegungsphasen, aber auf einem interlaced Fernseher werden sowieso keine Vollbilder dargestellt und die Darstellung der Halbbilder erfolgt schön der Reihe nach. Sieht also ohne eine dazwischen liegende Vollbildverarbeitung nicht unbedingt schlechter aus. Nur im Vollbild-Standbild oder in der deinterlaceten Vollbild-Laufbild Betrachtung sieht jedes zweite Vollbild seltsam verzahnt aus.

 

Genau das ist ja der Pull down, vor dem sich Friedemann immer fürchtet, und der auf deinterlacenden Monitoren immer zum telecine jitter führt (wie übrigens auch das frame blending, nur sorgt das auf wirklich allen Monitoren für den jitter). Und auch genau der Grund, weshalb ich auch die Verlangsamung von 25 auf 16-18 B/s partout nurnoch in Vollbildprojekten ohne Überblendung irgendeiner Sorte mache. Wie gesagt, auf der Kontrollröhre kommt das dem Bewegungseindruck in der Projektion noch am nächsten.

 

Und die hypermoderne Luxusvariante, um quasi von 25 auf 16-18 B/s zu kommen, ist mit Apple Motion. Das hat mehrere verschiedene Möglichkeiten zur Zeiltupenberechnung, wovon eine exakt so aussieht wie mit einer höheren Bildgeschwindigkeit gedreht. Dagegen kann man Konkurrenten wie Twixtor, Motion Perfect und Retimer mit ihren billigen, psychedelischen Artefakten in die Tonne treten. Das einzige, was da noch rankommt, ist das AviSynth Frame Rate Conversion Filter Plugin von MSU: http://www.compression.ru/video/frame_rate_conversion/index_en_msu.html

 

Vielleicht gab es den 16 2/3 Modus auch, damit beim Filmen mit annähernd 16 oder von mir aus auch annähernd 18 B/s mit Schmalfilmkameras der eingeschaltete, laufende Fernseher, der irgendwo im Raum herumsteht, auf dem Schmalfilm nicht mit flackerndem Bild zu sehen ist.

 

Hätte nichts gebracht. Selbst zwei Systeme mit derselben Bildgeschwindigkeit müssen noch extra miteinander synchronisiert werden. Sieht man prima, wenn man eine Videokamera auf einen Fernseher hält, und beide nicht am selben Stromkreis hängen (z. B. Akku für die Kamera). Den Versatz sieht man dann als schwarzen Streifen auf der Mattscheibe des Fernsehers.

Link zu diesem Kommentar
Auf anderen Seiten teilen

Der Overscan hat nichts mit unsauberen Rändern zu tun, sondern damit, daß bei Röhrenfernsehern den Herstellern nie exakte Vorgaben über die Bildgröße gemacht wurden, sondern bloß eine Mitte exakt definiert wurde.

 

Ich dachte da eigentlich auch an alte CRT-TVs, bei denen man sieht, das das Bild minimal größer wird (sich aufbläht) je heller der Bildinhalt ist und regelrecht etwas in sich zusammenfällt wenn es dunkler wird.

(Oder wars umgekehrt? Egal! Jedenfalls gabs eine ganze Reihe von Röhren-TVs bei denen z.B. das sehr weit am Rand befindliche Senderlogo etwas gewandert ist, wenn sich die durchschnittliche Bildhelligkeit verändert hat. Ich dachte, man hat diesen "safety margin" deshalb eingeführt, um etwas "Knautschzone" zu haben).

Link zu diesem Kommentar
Auf anderen Seiten teilen

Und hier: http://www.martinred...s/colorconv.faq kann man wirklich gut sehen, wieviel Arbeit die Konvertierung zwischen YUV und RGB eigentlich macht und was da technisch alles zu beachten ist.

Viel Arbeit? :)

Das macht Dir (rechentechnisch) jede billige Smartphone-GPU (inkl. Gammakorrekturen) für HD in Echtzeit.

 

(Nur mal am Rande bemerkt. Du kannst ja nix dafür.)

Link zu diesem Kommentar
Auf anderen Seiten teilen

Viel schlimmer fürs Keying ist die: "Krücke" namens Halbbilder, von denen sich heute offenbar noch kaum ein Videot außer mir trennen will. Die Probleme wegen Chroma subsampling sind da ein Witz gegen.

 

Mit Halbbildern hatte ich schon unzählige Schwierigkeiten. Material von zwei unterschiedlichen Halbbildvideoquellen in ein Schnittprogramm importiert. Was ich nicht wußte: die eine Quelle lieferte top-field first, die andere Quelle bottom-field first. Das Programm ließ aber für den ganzen Film nur eine einzige globale Ausgabeeinstellung zu und je nach Einstellung gabs dann zauberhafte Ruckler entweder bei allen Szenen der einen, oder eben der anderen Quelle. Als ich testweise beim (nochmaligen) Importieren dann auch noch mal das Material der einen Quelle mit falscher Reihenfolge (ich kannte die Reihenfolge ja nicht) importierte und dann auch mit falscher exportierte gab es Halbbildreihenfolgen die gingen ungefähr so:

 

1-4-3-2- 5-8-7-6- 9-12-11-10 usw.

Waaah!

 

Genau das ist ja der Pull down, vor dem sich Friedemann immer fürchtet, und der auf deinterlacenden Monitoren immer zum telecine jitter führt (wie übrigens auch das frame blending, nur sorgt das auf wirklich allen Monitoren für den jitter). Und auch genau der Grund, weshalb ich auch die Verlangsamung von 25 auf 16-18 B/s partout nurnoch in Vollbildprojekten ohne Überblendung irgendeiner Sorte mache. Wie gesagt, auf der Kontrollröhre kommt das dem Bewegungseindruck in der Projektion noch am nächsten.

 

Wobei die oben beschriebene Methode auf interlace Ausgabegeräten immer noch gleichmässig aussieht. So richtig unerträglich wirds ja erst wenn man erst zwei Halbbilder, dann wieder drei, dann wieder zwei und so weiter mit Filmvollbildern befüllt.

 

Hätte nichts gebracht. Selbst zwei Systeme mit derselben Bildgeschwindigkeit müssen noch extra miteinander synchronisiert werden. Sieht man prima, wenn man eine Videokamera auf einen Fernseher hält, und beide nicht am selben Stromkreis hängen (z. B. Akku für die Kamera). Den Versatz sieht man dann als schwarzen Streifen auf der Mattscheibe des Fernsehers.

 

Wobei ich jetzt einen stehenden schwarzen Balken auf einem Fernseher im Bild eines Schmalfilms immernoch angenehmer empfinde als einen zappelnden Paternosterbildstrich. <<-- Quatsch: "pternosterartig übers Bild zappelnden Balken" meinte ich natürlich, nicht Bildstrich.

Link zu diesem Kommentar
Auf anderen Seiten teilen

Ich dachte da eigentlich auch an alte CRT-TVs, bei denen man sieht, das das Bild minimal größer wird (sich aufbläht) je heller der Bildinhalt ist und regelrecht etwas in sich zusammenfällt wenn es dunkler wird.

(Oder wars umgekehrt? Egal! Jedenfalls gabs eine ganze Reihe von Röhren-TVs bei denen z.B. das sehr weit am Rand befindliche Senderlogo etwas gewandert ist, wenn sich die durchschnittliche Bildhelligkeit verändert hat. Ich dachte, man hat diesen "safety margin" deshalb eingeführt, um etwas "Knautschzone" zu haben).

 

Ach ja, ich erinnere mich. Hatte irgendwas mit Volt und schlechter Isolierung zu tun, glaub' ich.

 

Viel Arbeit? :)

Das macht Dir (rechentechnisch) jede billige Smartphone-GPU (inkl. Gammakorrekturen) für HD in Echtzeit.

 

(Nur mal am Rande bemerkt. Du kannst ja nix dafür.)

 

War nur zur Demonstration, um zu zeigen, daß und wie YUV nicht identisch mit RGB ist und für korrekte Darstellung immer mit Gammakorrektur umgerechnet werden muß. Und daß das bei YUV-Video kaum jemals automatisch passiert, weshalb sich Leute so'nen Riesenkopp drum machen müssen.

 

Mit Halbbildern hatte ich schon unzählige Schwierigkeiten. Material von zwei unterschiedlichen Halbbildvideoquellen in ein Schnittprogramm importiert. Was ich nicht wußte: die eine Quelle lieferte top-field first, die andere Quelle bottom-field first. Das Programm ließ aber für den ganzen Film nur eine einzige globale Ausgabeeinstellung zu und je nach Einstellung gabs dann zauberhafte Ruckler entweder bei allen Szenen der einen, oder eben der anderen Quelle. Als ich testweise beim (nochmaligen) Importieren dann auch noch mal das Material der einen Quelle mit falscher Reihenfolge (ich kannte die Reihenfolge ja nicht) importierte und dann auch mit falscher exportierte gab es Halbbildreihenfolgen die gingen ungefähr so:

 

1-4-3-2- 5-8-7-6- 9-12-11-10 usw.

Waaah!

 

Auch ein Grund, weshalb man immer die YUV-Röhre zur Echtzeitkontrolle des Materials danebenstehen haben sollte.

 

PremierePro hat da die komfortable Funktion namens: "Halbbilder immer zusammenfügen", die genialerweise immer mehrere Frames nach vorne und hinten kuckt, ob er was identisches vom gleichen originalen Vollbild findet, und das packt er dann zur Rekonstruktion des originalen Vollbilds wieder zusammen. Und wo nicht, macht die Funktion ein Frame blending, weil es sich dann um natives Halbbildmaterial handelt und damit die Belichtungszeit von 25p einigermaßen simuliert wird, aber eben nur bei nativem Halbbildmaterial

 

Man muß nur dran denken, daß man auch wirklich ein Vollbildprojekt angelegt hat. Sonst bringen diese ganzen Deinterlacebefehle exakt garnix.

 

Und wenn man kein PremierePro hat, würde ich empfehlen, daß Video genau an der Wechselstelle in zwei Teile zu schneiden und einzeln zu deinterlacen. Bzw. jede Quelle dementsprechend zu bearbeiten, bevor man sie zusammenmischt. In PremierePro ist es immerhin so einfach, daß man jeden Clip einzeln anwählen kann, nicht nur die gesamte Timeline.

 

Cetereum censeo: Interlactionem esse delendam. Ich arbeite aus Prinzip nurnoch mit Vollbildprojekten, und alles, was in Halbbildern daherkommt, wird gnadenlos deinterlacet, mit der jeweils richtigen Methode. Schon allein, weil kaum ein heutiger Endkundenmonitor noch richtig weiß, wie er damit umgehen soll.

 

Wobei die oben beschriebene Methode auf interlace Ausgabegeräten immer noch gleichmässig aussieht. So richtig unerträglich wirds ja erst wenn man erst zwei Halbbilder, dann wieder drei, dann wieder zwei und so weiter mit Filmvollbildern befüllt.

 

Stimmt, unregelmäßig ist noch schlimmer. Trotzdem führt auch die regelmäßige Aufreißung in Halbbilder zu matschigen Bewegungen, nur eben gleichmäßig matschig. Einzige Ausnahme ist 25SpF, das bis in die 90er noch so gemacht wurde, daß nach der Abtastung das Material um exakt ein Halbbild verschoben wurde. Ich vermute mal, der Grund, weshalb das auf per Einzelbildinterpolation deinterlacenden Monitoren nicht so schlimm aussah, hatte was damit zu tun, daß anders als bei 25 --> 16 B/s keine Geschwindigkeitsänderung mit der Erzeugung der Habbilder einherging.

Link zu diesem Kommentar
Auf anderen Seiten teilen

Hallo Jeff,

 

Wie kommst du denn auf deine Aussage bezüglich der Bildfrquenz von 16 2/3...?

 

18 Bilder wurden meines Wissens erst mit Super-8 eingeführt, vorher waren 1000 Bilder Minute (16 2/3) die Norm...

 

Rudolf

 

Der Kodak Film Calculator gibt Rudolf jedenfalls recht. Bei 8mm und 1 Minute Laufzeit kommen nur dann exakt 1.000 Bilder raus, wenn man statt exakt 16 B/s eben 16.66 angibt. motion.kodak.com/motion/uploadedfiles/US_plugins_flash_en_motion_filmCalculator.swf

Link zu diesem Kommentar
Auf anderen Seiten teilen

Der Kodak Film Calculator gibt Rudolf jedenfalls recht. Bei 8mm und 1 Minute Laufzeit kommen nur dann exakt 1.000 Bilder raus, wenn man statt exakt 16 B/s eben 16.66 angibt. motion.kodak.com/motion/uploadedfiles/US_plugins_flash_en_motion_filmCalculator.swf

 

1000 Bilder/min : 60 sec/min = 16,66 B/sec.

Das ist eine einfache Rechnung.

Dafür brauche ich keinen Filmkalkulator.

Die Frage ist, ob von den "Erfindern" des Formats 1000 Bilder je Minute geplant waren (also 16,66B/s) - oder eben 16 Bilder je Sekunde, der Frequenz die bei jeder Normal-/Doppel-Acht angegeben ist.

Link zu diesem Kommentar
Auf anderen Seiten teilen

Hallo,

 

Warum sollte man rein "zufälligerweise" gerade auf 16 Bilder gekommen sein...? Warum nicht auf 17 oder 15 oder sonst eine Bildfrequenz...?

 

16 2/3 sind eben nicht zufällig, die haben irgend eine klar verständliche Logik... 1000 Bilder Minute... oder so... auch ohne Kodak Kalkulator...

 

Wie schnell eine alte Federwerkskamera denn wirklich lief... das ist eine andere Baustelle... wen kümmerts...

 

Rudolf

Link zu diesem Kommentar
Auf anderen Seiten teilen

1000 Bilder/min : 60 sec/min = 16,66 B/sec.

Das ist eine einfache Rechnung.

Dafür brauche ich keinen Filmkalkulator.

Die Frage ist, ob von den "Erfindern" des Formats 1000 Bilder je Minute geplant waren (also 16,66B/s) - oder eben 16 Bilder je Sekunde, der Frequenz die bei jeder Normal-/Doppel-Acht angegeben ist.

 

Ich mag gerade ziemlich vernagelt sein, aber spielt hier nicht auch der verschiedene Bildgrößenfaktor von Normal8 und Super8 eine Rolle?

 

Warum kam man auf 18 B/s bei Super 8 ?

Warum kam man auf 24 B/s beim Profifilm ?

Weiß jemand da die Zusammenhänge?

 

Vor dem Ersten Weltkrieg gab's erstmal eine bunte Mischung aus lauter verschiedenen Bildgeschwindigkeiten, zwischen den 8 B/s der Gebrüder Skladanowsky und den 48 B/s von Edisons Nicklelodeon-Kuckkästen. Um die Dunkelphasen zwischen den Bildern zu verkürzen (weil das Auge für das Hell-Dunkel-Flimmern wesentlich empfindlicher ist als für das einfache stehende bzw. wechselnde Bild), wurde schon kurz vor dem Weltkrieg die Flügelblende eingeführt.

 

Nach dem Weltkrieg wurden erste Standards für die Bildgeschwindigkeiten eingeführt, wobei dank des Malteserkreuzes auch ein für die damalige Zeit beachtlicher Gleichlauf erreicht werden konnte. Die Standardgeschwindigkeit beim Stummfilm lag aber in den 20ern noch deutlich unter 24 B/s, so zwischen 12-16 B/s. Die Stummfilme der 20er Jahre, die wir heute hauptsächlich durchs einfache Abfilmen fürs Fernsehen bzw. der Umkopierung auf 24-B/s-Film nur viel zu schnell abgespielt kennen, wurden damals noch zumeist mit der originalen Aufnahmegeschwindigkeit abgespielt.

 

Erst mit Einführung der Tonspur auf dem Film wurde eine schnellere Bildgeschwindigkeit nötig, denn je schneller ein Tonband abgespielt wird, desto größer die Frequenzbreite der Töne, die es aufnehmen kann. Auch wenn die ersten Tonfilme (wie: "The Jazz Singer") noch separaten Ton auf Schallplatten hatten, einigte man sich mit Einführung der Tonspur auf dem Film um 1930 recht schnell auf 24 B/s. Nötig war hierzu auch die Erfindung und Entwicklung des Tonbands, was weltweit führend ab 1929 bei BASF und ab 1932 auch bei AEG stattfand.

 

Der Amateurfilm, der damals natürlich ein Stummfilm war, blieb davon unberührt, so daß Normal8 bei der Einführung 1932 die genormte Bildgeschwindigkeit von 16 B/s bekam.

 

Mitte der 60er, als Super8 entwickelt wurde, dachte man wohl auch schon an die kurz darauf folgende Einführung des Super8-Tonfilms im Jahr 1972/'73, so daß Super8 gleich eine etwas erhöhte Bildgeschwindigkeit von 18 B/s für eine gegenüber 16 B/s verbesserte Klanqualität verpaßt bekam. Natürlich ist die Klangqualität auch von 18 B/s nur Amateurqualität im Vergleich zu 24 B/s (und die mitgelieferten Kameramikros waren zumeist sowieso unbrauchbar, weshalb man grundsätzlich externe Mikros in die Kameras einstöpseln sollte!), aber doch deutlich verbessert gegenüber der Geschwindigkeit von 16 B/s.

 

Tja, die Geschichte des Schmalfilms... ist eine Geschichte voller Mißverständnisse... :)

So sehen Normal 8 Kameras aus - und sie laufen frecherweise einfach mit 16B/s.

http://www.helmuts-f...schmalfilm.html

 

Ich kenn's jedenfalls so, daß auch viele Normal8-Kameras aus den 50ern und 60ern, die von Haus aus 16 2/3 B/s abspielen sollten und taten, fast immer mit 16 B/s gelabelt waren, weil die Erklärung für die 2/3 die meisten Amateure mangels technischen Sachverstands überfordert hätte (auch wenn die Tatsache, daß die Kameras nicht mit exakt 16 B/s liefen, ihren bestimmten Nutzen schon damals hatten, den die Amateure nur daran merkten, daß eben irgendwas nicht schiefging, was mit genau 16 B/s sonst schiefgegangen wäre...aber zumeist war ihnen nichtmal das spezifische Problem bekannt, wofür unbedingt 16 2/3 B/s die Lösung war). Und in der Projektion machte es für die Amateure auch keinen großen Unterschied, ob der Projektor mit exakt 16 B/s oder mit 16 2/3 B/s lief, so ähnlich, wie heute Chroma subsampling und PAL speedup auf YUV-Monitoren nicht ins Gewicht fallen.

 

Soweit ich mich erinnere, war 16 2/3 schon damals eine nicht ganz so verbreitete Sonderform, die aber aufgrund obiger Gründe noch weitaus seltener explizit ausgewiesen als eingebaut wurde.

Link zu diesem Kommentar
Auf anderen Seiten teilen

Und hier noch ein paar gute Quellen zu den Unterschieden zwischen YUV und RGB:

 

YUV / YCbCr color componet data ranges: http://discoverybiz....geByBreeze.html

Nennt die genaue Abstufungsanzahl zwischen Reinweiß und Reinschwarz, die eben nicht wie bei RGB 255 Werte umfaßt, so daß ein Farbwert 0 bei YUV ungleich dem Farbwert 0 RGB und der Farbwert 35 YUV ungleich dem Farbwert 35 RGB ist.

 

Charles Poyton: Color FAQ - Frequently Asked Questions Color: http://www.poynton.c...a/ColorFAQ.html

Einiges an Theorie u. a. zu den verschiedenen Fabräumen wie RGB und YUV.

 

Charles Poyton: Gamma FAQ - Frequently Asked Questions about Gamma: http://www.poynton.c...a/GammaFAQ.html

Linearität, Gamma, und wieso das für den Wechsel von TV (YUV) zu Computer (RGB) wichtig ist

Link zu diesem Kommentar
Auf anderen Seiten teilen

Welche denn?

Ein bischen kenn ich mich nämlich auch aus...aber das wär mir neu.

 

Ich rede vor allem deshalb so im unbestimmten, weil ich außerhalb der Abtastung noch nie praktisch mit Normal8 zu tun hatte. Das ist eben alles Hörensagen, was ich glaube z. T. auch auf dunklen (Falsch-?)Erinnerungen an Ausführungen von Jürgen beruht. Aber zumindest Rudolf scheint ja ähnliches gehört zu haben.

Link zu diesem Kommentar
Auf anderen Seiten teilen

Erstelle ein Benutzerkonto oder melde Dich an, um zu kommentieren

Du musst ein Benutzerkonto haben, um einen Kommentar verfassen zu können

Benutzerkonto erstellen

Neues Benutzerkonto für unsere Community erstellen. Es ist einfach!

Neues Benutzerkonto erstellen

Anmelden

Du hast bereits ein Benutzerkonto? Melde Dich hier an.

Jetzt anmelden
×
×
  • Neu erstellen...

Filmvorführer.de mit Werbung, externen Inhalten und Cookies nutzen

  I accept

Filmvorfuehrer.de, die Forenmitglieder und Partner nutzen eingebettete Skripte und Cookies, um die Seite optimal zu gestalten und fortlaufend zu verbessern, sowie zur Ausspielung von externen Inhalten (z.B. youtube, Vimeo, Twitter,..) und Anzeigen.

Die Verarbeitungszwecke im Einzelnen sind:

  • Informationen auf einem Gerät speichern und/oder abrufen
  • Datenübermittlung an Partner, auch n Länder ausserhalb der EU (Drittstaatentransfer)
  • Personalisierte Anzeigen und Inhalte, Anzeigen- und Inhaltsmessungen, Erkenntnisse über Zielgruppen und Produktentwicklungen
Durch das Klicken des „Zustimmen“-Buttons stimmen Sie der Verarbeitung der auf Ihrem Gerät bzw. Ihrer Endeinrichtung gespeicherten Daten wie z.B. persönlichen Identifikatoren oder IP-Adressen für diese Verarbeitungszwecke gem. § 25 Abs. 1 TTDSG sowie Art. 6 Abs. 1 lit. a DSGVO zu. Darüber hinaus willigen Sie gem. Art. 49 Abs. 1 DSGVO ein, dass auch Anbieter in den USA Ihre Daten verarbeiten. In diesem Fall ist es möglich, dass die übermittelten Daten durch lokale Behörden verarbeitet werden. Weiterführende Details finden Sie in unserer  Datenschutzerklärung, die am Ende jeder Seite verlinkt sind. Die Zustimmung kann jederzeit durch Löschen des entsprechenden Cookies widerrufen werden.