Zwischen den Zeilen: Wie wir Film sehen

Zwischen den Zeilen: Wie wir Film sehen

Links ein eizeln abgetastetes Super 8 Einzelbild, rechts eine durch SR errechnete Simulation dessen, was unser Auge bei der Projektion wahrnimmt

Wie kommt es eigentlich, dass projizierter Film so unendlich viel besser aussieht als jede noch so teure Abtastung? Wieso erscheint uns die Super-8-Nahaufnahme auf der Leinwand knackscharf, wo doch kein einziges Einzelbild in der Vergrößerung scharf erscheint? Wieso sehen Farben und Kontrast nach der Abtastung oft so enttäuschend aus, während das projizierte Original trotz Fehlbelichtung in der Projektion noch erfreute? Warum entsteht bei gut belichtetem und projiziertem Schmalfilm so viel mehr Kinogefühl als bei jeder teuer abgetasteten Version auf DVD?

Die Antwort auf alle diese Fragen liegt in der Natur der Sache. Sie ist in der Funktionsweise des analogen Laufbildfilms begründet, die sich in wesentlichen Punkten von der digitalen Konserve bewegter Bilder unterscheidet. So sichtbar diese Systemunterschiede in der Vorführung werden, so wenig offensichtlich sind sie bei einer oberflächlichen Betrachtung der Aufnahmeprinzipien. Wir müssen daher etwas genauer hinsehen. Das Geheimnis des Films liegt nämlich „zwischen den Zeilen“.

Drei Unterschiede

Film unterscheidet sich in drei wesentlichen Punkten von seinem digitalen Pendant: Er besteht aus vollwertigen, unkomprimierten Einzelbildern. Er hat kein festes, durch Sensoren vorgegebenes Raster mit Bildpunkten. Er hat einen ungleich größeren Farbraum. Das bedeutet: Farbumkehrfilm kann Farben wiedergeben, die sich auch mit teuren digitalen Kameras nicht einfangen lassen und ebenso schwierig wiedergegeben werden können.

Schon nach diesen Feststellungen hört man oft viele vermeintliche Gegenargumente. „Die Kompression sieht man aber doch nicht, wenn sie richtig gemacht ist“. Oder: „Die Auflösung einer HD-Kamera ist wesentlich höher als die von Super-8-Film.“ Oder: „Mein Beamer kann aber den ganzen sRGB Farbraum“. Der grundsätzliche Denkfehler hierbei ist: Es wird nur das Einzelbild betrachtet und verglichen, nicht das Ergebnis, das letztendlich wahrgenommen wird. Wie auch? Wahrnehmung kann man ja schwer messen. Übersehen wird dabei immer, welche Rolle das Gehirn spielt und was es beim Sehen allgemein leistet.

Vergessen wir mal kurz Film, Kamera und HD-Bildsensor komplett. Betrachten wir das menschliche Auge. Es ist ein Zweilinser in einer Gruppe, feste Brennweite, Blende von ca. 5,6-16 regulierbar. Einstellbar von ca. 20 cm bis unendlich durch sagenhaft schnellen Autofocus. Verzeichnung und störende stürzende Linien kennt es offenbar auch nicht. Die Lichtstrahlen treffen auf unsere Netzhaut, einem gewölbten Sensor mit ca. 6 Mio. tageslichtempfindlichen Rezeptoren, angeborenem blindem Fleck und gefühlten 25-2000 ASA variabler Empfindlichkeit. Unsere Augen sind offenbar so leistungsfähig, dass wir mit ihrer Hilfe winzige Details wie Staubkörner oder Filmkorn erkennen können. Wir können mit ihrer Hilfe sogar die Qualität von Objektiven der 1000- oder auch 3000-€-Klasse beurteilen!

Moment mal. Diese beiden Glubschklumpen aus organischem Material mit einem miesem Brechungsindex von etwa 1,4… [Der Brechungsindex beschreibt optische Materialeigenschaften, je höher die Zahl, desto stärker bricht das Material das Licht. Optische Gläser haben einen Brechungsindex von 1,5-2,3, sind – salopp gesagt – also wesentlich effizienter] sollen also genauer und besser sein als das kiloschwere Angenieux-Zoom oder das Leica Noctilux? Keine Sorge, rein optisch gesehen sind sie es nicht. Das auf der Netzhaut produzierte Abbild der Wirklichkeit ist sogar erbärmlich schlecht. Es ist unser Gehirn, das ohne spürbare Anstrengungen die eingehenden Reize zu einer beachtlichen optischen Wahrnehmung verarbeitet. In unserer Sprache ist diese Tatsache fest verankert. Man „schärft den Blick“, in dem man auf ein besonderes Muster oder Objekt trainiert wird. Man sagt „Tunnelblick“, wenn einer nur noch eine Sache im Kopf hat. Wer alles unter Kontrolle hat, hat gar den „Überblick“. Eine neue Erkenntnis „öffnet einem die Augen“. Oder man „sieht den Wald vor lauter Bäumen nicht“. Über Dinge, die man nicht sehen will, „schaut man hinweg“ oder „verschließt die Augen“.

Das Gehirn bringt Schärfe

Und wie gelingt es dem Gehirn nun, aus den qualitativ sehr mäßigen Informationen unserer beiden Sehnerven scheinbar mühelos ein messerscharfes und sogar dreidimensionales Bild zu erzeugen? Es assoziiert, es arbeitet mnemonisch – auch Gedächtnistraining genannt. Jeder kennt das: Lernt man ein neues Wort, liest man es plötzlich überall. Das Gesicht eines guten Freundes erkennen wir in der Menge viel schneller als das eines flüchtigen Bekannten. Füttern wir unser Gehirn nun mit einer gewissen Frequenz mit Einzelbildern, interpoliert es daraus die nahezu gleichen Eindrücke wie die, die unsere Augen in der Wirklichkeit wahrnehmen. Wir nehmen so Dinge wahr, die auf keinem einzelnen Filmbild zu sehen sind. Wir lesen quasi zwischen den Zeilen (Phi-Effekt).

Erst seit jüngster Zeit ziehen diese Erkenntnisse auch in einige Softwareprodukte ein, die den abgetasteten Film zum digitalen Movie machen. Man spricht dann von „Super Resolution“ oder kurz SR. SR ist kein Produkt und keine eindeutig definierte Technik, sondern eine Methode, die solche oft übersehenen Nebeneffekte ausnutzt, um eine effektiv weit höhere Informationsdichte zu erzielen, als das einzelne Filmbild sie wiedergeben zu vermag. SR funktioniert etwas eingeschränkt auch mit digitalen Daten, ist aber für unseren Analogfilm prädestiniert. Das Faszinierende: Unser Gehirn benutzt die SR-Methodik bei entsprechendem Input (Projektion echten Films) implizit, einwandfrei und ohne nennenswerte Denkanstrengung!

Hohe Datenredundanz

Grundsätzlich macht sich die SR die hohe Datenredundanz im Film zu nutze. Betrachtet man einen halben Meter Film, enthalten die einzelnen Filmbilder überwiegend gleiche Informationen. Die sogenannten „Codecs“ digitaler Filme machen sich u.a. dieses Phänomen zu Eigen, um die zu speichernde Datenmenge zu reduzieren. Moderne Codecs beschreiben nach einem sogenannten „Keyframe“ (einem vollwertigen Einzelbild mit allen erfassten Bildinformationen ohne Kompressionsverluste) nur noch die Unterschiede zum jeweils vorigen Bild (sogenannte „Delta-Kompression“). Im Idealfall sind das nur Bewegungsvektoren für bestimmte Bildbereiche, „stehende“ Bildausschnitte werden jeweils recycelt. Filmt man zum Beispiel vom Stativ aus ein sprechendes Gesicht, bewegt sich von einem Einzelbild zum nächsten fast nur der Mund des Sprechenden. Bei einer solchen Codierung beschreibt man aber nie alle Veränderungen zum vorigen Bild, sondern nur die relevanten. Auch werden „irrelevante“ Bild-Details (irrelevant, da im Einzelbild unterhalb der Wahrnehmungsgrenze) von solchen Codecs gerne ausgefiltert. Aber Relevanz ist eben relativ…

Das Filmkorn ist da ein gutes Beispiel. Filmkorn ist chaotisch und birgt an sich keine weiteren Bildinformationen, da es nur sich selbst darstellt. Trotzdem ist es für den „Look“ von Film unglaublich wichtig. Bei der SR macht man nun genau das Gegenteil dessen, was so ein Codec zur Reduzierung der Datenrate tut. Man arbeitet idealerweise von vornherein ohne jede verlustbehaftete Kompression, extrahiert also jedes Einzelbild so detailreich und umfassend wie möglich. Kein Korn darf weggerechnet werden, keine Kante Kompressionsartefakte zeigen, kein Schatten darf Klötzchenbildung haben, kein Licht ausfressen und kein Schatten zulaufen. Die Bedeutung des Worts Redundanz kehrt sich hier um: Man lässt nicht Informationen weg, die ja „eh schon vorhanden“ sind, sondern erfasst sie immer wieder erneut, weil sie sich eben geringfügig unterscheiden und in Summe ein feineres Bild zeichnen.

Bei SR mit Analogfilm nutzt man vornehmlich zwei Dimensionen: Die spatiale (räumliche) und die temporale (zeitbasierte). Beide Dimensionen spielen im Analogfilm eine große Rolle: Die Zeitachse, da pro Zeiteinheit n volle, unkomprimierte Einzelbilder vorliegen und die räumliche, da Film kein klares, starres „Raster“ hat, wie es bei jedem CCD oder CMOS Sensor naturgemäß der Fall ist. Beide Dimensionen spielen wunderbar ineinander. Konkret: Warum sehen wir im projizierten S8-Film eindeutig einzelne Haare im Gegenlicht, obwohl doch das Auflösungsvermögen des winzigen Filmbilds viel zu klein ist, um so ein Haar 3- bis 400-fach verkleinert abzubilden? Weil in jedem Filmbild ein paar Silberhalogenidkristalle das Licht dieses einzelnen Haares eingefangen und somit durch die Entwicklung eingefärbt haben. Zwar reichen sie alleine nicht, um das Haar als klare Linie im Filmbild zu zeichnen. Sehen wir jetzt aber 24 oder auch 100 solcher sehr ähnlichen Einzelbilder in schneller Folge hintereinander, verdichten sich die paar eingefärbten Kristalle im Kopf zu genau der Linie, die das Haar beschrieb. Und genau so arbeitet die temporale SR: Sie nutzt die Informationsredundanz der Zeitachse, um viele Informationen des erfassten Zeitraums zu einer erweiterten Information zu verdichten und in jedem erzeugten Einzelbild wiederzugeben. Ein digitales SR-Ergebnis würde als im Idealfall in jedem Einzelbild dieser Szene das Haar so zeigen, wie es sich aus der Summe aller Bilder ergibt.

Blick aufs „i“

Der Buchstabe „i“, wie er von einem digitalen Sensor gesehen wird und ein Monitor ihn wiedergibt: Das gefilmte i liegt nicht ganz genau auf dem Pixelraster, der Strich des i blutet in die benachbarte Pixelspalte rein, sie wird dadurch hellgrau
Der Buchstabe „i“, wie er von einem digitalen Sensor gesehen wird und ein Monitor ihn wiedergibt: Das gefilmte i liegt nicht ganz genau auf dem Pixelraster, der Strich des i blutet in die benachbarte Pixelspalte rein, sie wird dadurch hellgrau

Zum spatialen Aspekt betrachten wir mal beispielhaft den Buchstaben „i“, wie er von einem digitalen Sensor gesehen wird und ein Monitor ihn wiedergibt: Ein i, das weiß ein jedes Kind, ist ein Strich mit einem Punkt drüber. Nun lag das hier imaginär gefilmte i aber eben nicht ganz genau auf dem Pixelraster, oder es war eine Spur breiter als jenes. Der Strich des i blutet damit in die benachbarte Pixelspalte rein, sie wird dadurch hellgrau. Der i-Punkt gar, an Schlichtheit kaum zu übertreffen, er besteht plötzlich aus vier unterschiedlich dichten, grauen Quadraten!

Nehmen wir nun an, unser i als Motiv bewege sich absolut nicht, die Kamera sei auf dem Stativ montiert und der Bildstand perfekt. Wir filmen das Motiv nun drei Sekunden lang. Eine digitale Kamera würde 75 absolut identische Einzelbilder liefern (bzw. ein Einzelbild und 74x die Information „sieht genau aus wie eben“). Es gäbe gegenüber dem Einzelbild keinerlei Zusatzinformation durch die temporale Dimension. Unsere analoge Filmkamera würde die Kanten von i-Strich und i-Punkt vielleicht weniger scharf wiedergeben können. Dafür ist sie aber an kein filmübergreifend festes Raster gebunden:

Unser Film würde 72 Bilder liefern, aber jedes wäre ein bisschen anders als das vorige, denn die Kornverteilung ist chaotisch. Ein SR-Algorithmus oder unser Hirn würde schon aus nur fünf dieser unterschiedlichen Bilder dieses Ergebnis berechnen können:

Unser Hirn vermag es viel besser als heutige Software, so zwischen den Zeilen zu lesen. Für uns ist das nicht mal eine Denkanstrengung. Ein Computer hat es da schwerer: Ist der Signal-Rausch-Abstand in kontrastarmen Bereichen (oder bei gepushtem Tri-X) zu niedrig, kann ein Algorithmus partiell Filmkorn mit Motiv verwechseln und so ins Schleudern kommen – dann erzeugt er hässliche Artefakte. Auch kann ein Computer Tiefenunschärfe und Bewegungsunschärfe nur schwer unterscheiden. Durch Unschärfe freigestellte Motivbereiche sollen aber durch SR nicht plötzlich lauter unerwünschte Details zeigen.

Wie „gucken“ Filmabtaster?

Nach diesem kurzen Exkurs in die Wahrnehmungsphysiologie betrachten wir die gängigen Filmabtaster nun aus einer anderen Perspektive. Die meisten etwas ambitionierteren Systeme filmen mit einer synchronisierten Videokamera das Laufbild direkt vom Filmfenster ab. Es entsteht so ein Ausgangssignal, das sowohl einem festgelegten Raster unterliegt als auch (in der Regel verlustbehaftet) komprimiert ist. Spatiale und temporale Auswertung der erfassten Informationen sind damit für Hirn und Software weitgehend unmöglich. Der digitale Output dieser Methode, meist eine AVI-Datei, zeigt zwar flüssige Bewegtbilder – das wahrgenommene Ergebnis steht in seiner Postkartengröße, der unbefriedigenden Bildschärfe und schlechten Motivkontrasten der Wirkung eines projizierten Bild allerdings maßgeblich nach. Leider genügt die Qualität solcher Abtastungen den meisten Kunden offenbar. Wenn man 30 oder 40 Jahre nach ihrer Entstehung die geerbten Schmalfilme mangels „Abspielgerät“ nicht mehr betrachten kann, kaschiert die emotionale Wirkung der ersten Betrachtung nach der Abtastung wohl die suboptimale Qualität des Ergebnisses. Vielleicht unterstreicht das ganze für einige auch schlicht den Retro-Charme. Oma Ilse ist ja immer noch Oma Ilse und zudem plötzlich wieder lebendig.

Eine adäquate Abtastung, im Ergebnis der Bildgüte einer Projektion entsprechend, muss daher anders passieren:

• Jedes Filmbild muss als volles Einzelbild ohne Qualitätsverlust gespeichert werden • Die digitalisierende Kamera muss in allen Disziplinen richtig gut sein. Ihre Auflösung kann kaum hoch genug sein, sie sollte wenig rauschen, ihr Dynamikumfang muss besonders hoch sein. Auch die Optik benötigt einen winzigen Zerstreuungskreis und sollte so hochauflösend wie möglich sein, desweiteren „auf nah“ gerechnet. Nur so erhält man genug Informationen, um erfolgreich zwischen den Zeilen lesen zu können.

Die sogenannten Framescanner, die Bild für Bild vollständig aufzeichnen, sind den Videokamera-basierten Geräten also grundsätzlich schon mal qualitativ voraus, wenn auch dafür meist langsamer arbeitend. Und selbstverständlich muss die gesamte Kette stimmen und zudem auch noch richtig bedient werden – ein ahnungsloser Operator wird auch an der teuersten Telecine-Maschine Schrott produzieren.

Daan Müllers Framescanner

Daan Müller verwendete an seinem Framescanner HM73 zuletzt eine sogenannte Zeilenkamera, die JAI LT-200CL. Diese Kamera benutzt ein hochwertiges Prisma, dichroitische Filter und scannt mit ihren drei einzelnen CMOS-Sensoren immer nur einzelne Zeilen, sodass sich eine Auflösung von echten 2048 x 1 Pixel [Herkömmliche CCD/CMOS Bildsensoren unterscheiden nur hell und dunkel. Um Farben zu unterscheiden, werden die einzelnen Bildpunkte mit roten, blauen und v.a. grünen Mniatur-Filten bestückt. Da zum Bestimmen einer Farbe daher mehrere Pixel zusammengefasst werden müssen (sogenanntes „debayering“), sinkt die effektive Auflösung des Sensors.
In einer guten Zeilenkamera wie dieser wird das Licht hinterm Objektiv über ein hochpräzises Prisma in Rot, Grün und Blau-Anteil zerlegt. Drei einzelne Sensorzeilen erfassen so Rot, Grün und Blau simultan und ohne jeglichen Versatz oder Auflösungsverminderung. ] ergibt. Die Pixel liegen durch das Prisma exakt ausgerichtet aufeinander, so dass es keine Farbsäume geben kann. Mit 14μm Kantenlänge hat die JAL-Kamera sehr große Pixel und rauscht entsprechend wenig. Ihr Farbraum ist groß und mit 10 Bit pro Farbkanal vierfach so präzis differenziert wie ein normales Video-Out-Signal.

Die Zeilenkamera ermöglicht aber vor allem einen kontinuierlichen Vortrieb ohne intermittierende Schaltschritte und dadurch auch eine kontinuierliche Beleuchtung. Das ist ein großer Vorteil, denn auch bei noch so kurzer Blitzzeit ist der Film, während eine normale Kamera eines seiner Einzelbilder erfasst, in Bewegung. Für die Schärfe ist das abträglich, eine Zeilenkamera kennt dieses Problem nicht.

Als Ergebnis einer solchen Abtastung von Daan Müller erhielt ich zigtausende von Raw- Dateien auf Festplatte, die ich zunächst von 10 auf 8 Bit pro Farbkanal brachte – leider arbeitet die Software Avisynth, mit der ich mich an die SR herangewagt hatte, nur mit 8 Bit Farbtiefe. Nach dieser Konvertierung lassen sich die Einzelbilder dann echt einfach in ein gänzlich unkomprimiertes .avi zu wandeln, dass als Futter für Avisynth dient.

Arbeit mit Avisynth

Avisynth ist eine sehr mächtige, komplexe, kostenlose, aber auch komplizierte, unübersichtliche und gähnend langsame Plattform für die Bearbeitung von Videodateien. Die mittlerweile legendären Skripte von Freddy Van de Putte sind eine gute Ausgangsbasis, um sich in Avisynth einzuarbieten und Skripte zu erstellen, die gänzlich den eigenen Vorstellungen entsprechen. In meinem Fall verwendete ich bis zu 15 verschiedene Avisynth Plugins, um Daan Müllers Einzelbildern das Maximum an Qualität zu entlocken.

So wird der Bildstand horizontal stabilisiert, in dem die Bildinhalte aneinander ausgerichtet werden. Ohne diesen Schritt ist eine SR nicht ohne weiteres möglich. Danach werden Staub und Kratzer entfernt, was dank der hohen Datenredundanz erstaunlich gut und fehlerfrei gelingt. Ein Staubkorn ist ja meist nur auf einem Einzelbild zu sehen und auf dem nächsten schon wieder verschwunden. Verschiedene Schärfungsalgorithmen und Signalverarbeitungsalgorithmen beziehen Informationen aus den umliegenden Bildern und interpolieren diese zu einem höher aufgelösten Bild. Verschiedene Farb- und Gamma-Korrekturen sowie Beschnitt und Balkung runden das Ergebnis ab.

Das Feld der SR ist ein junges, weites und hochinteressantes. Avisynth geht an das Thema sehr hemdsärmelig und architekturbedingt gähnend langsam heran, liefert aber trotzdem schon verblüffend gute Ergebnisse. Andere für Analogfilm optimierte SR-Software ist mir nicht bekannt, die Landschaft entsprechender Algorithmen wächst aber rasant und bietet stets mehr Möglichkeiten. Die stets zunehmende Leistungsfähigkeit von GPUs ermöglicht immer bessere Ansätze, die auch in Echtzeit arbeiten und mit 16 oder gar 32 Bit Signalinput und Rendertargets arbeiten können.

Holt den Projektor raus!

Einfach ein paar Knöpfe zu drücken reicht nicht, um mit einem Framescanner das Beste an möglicher Qualität aus Schmalfilmen herauszuholen. Die meisten Ergebnisse kommerzieller Anbieter sind im direkten Vergleich zu fachgerechter Projektion daher enttäuschend. Ich rate vielen zur Anschaffung eines gewarteten Projektors, um die alten Schätze wieder vorführen zu können. Der kostet nur den Bruchteil dessen, was man für eine professionelle Abtastung auf den Tisch legen muss. Wer seine Filme aber für die Verbreitung per Internet, DVD oder Blu-ray digitalisieren möchte, sollte entweder einen entsprechend hochpreisigen Profi beauftragen oder selbst mit den Rohdaten weiterarbeiten. Es steckt noch so viel drin im Schmalfilm, was von vielen Dienstleistern beim Abtasten schlichtweg unter den Teppich gekehrt wird.

Friedemann Wachsmuth

Schmalfilmer, Dunkelkammerad, Selbermacher, Zerleger, Reparierer und guter Freund des Assistenten Zufalls. Nimmt sich immer viel zu viele Projekte vor.

16 Kommentare

Jan Veröffentlicht am21:40 - 21. August 2013

Ein spannender Artikel! Die Neugierde auf das Filmbeispiel passend zum Text wird natürlich mit jeder Zeile größer 😉

    Friedemann Wachsmuth Veröffentlicht am00:17 - 22. August 2013

    Das Ergebnis der avisynth-Behandlung gibt es hier:

      Rolf Grossmann Veröffentlicht am15:58 - 21. Juli 2017

      Hallo Friedmann
      Ich bin wirklich beeindruckt von der erreichten Qualität!!!
      Ich habe noch jede Menge alte Norma- und Super-8-Filme, teilweise von meinem Vater noch aus den 1930er Jahre.
      Nun habe ich anfangs Jahr einen Fimscanner gekauft und damit auch schon einige Rollen gescannt. Mit dem Ergebnis bin ich zwar zufrieden, bin aber überzeugt, dass mit „digitaler“ Nachbearbeitung noch einiges herauszuholen wäre.
      Ich war nun auch schon auf der website von Freddy van der Putte – aber die dort runtergeladen Script laufen nicht (habe mich schon an Freddy gewendet, der Mailwechsel ist noc nicht abgeschlossen). Natürlich habe ich auch Avisynth und VirtualDub runtergeladen und installiert. Es happert beim loaden der Filter-DLL’s.
      Haben Sie nun ev. noch andere Tipps und Quellen – muss nicht kostenlos sein – für die digitale Nachbearbeitung? Ich selbst arbeite mit EDIUS 8.5. Ev. gibt es ja für dieses Schnittprogramm Empfehlungen für Filtereinstellungen – habe aber bis jetzt in div. Foren noch nichts gefunden.
      Fast alles was ich für Avisynth gefunden habe ist schon ein paar Jährchen alt – also kann es durchaus auch ein Kompatibilitätsproblem mit aktueller Software sein (WIN10?)
      Also, wenn Sie – oder auch jemand anders der das liest – eine Idee oder Tipps haben zum voraus herzlichen Dank!!
      Liebe Grüsse
      Rolf Grossmann

        pieceman Veröffentlicht am16:25 - 21. Juli 2017

        Hallo Rolf,

        ich hab den ganzen Avisynth-Klumpatch seit Jahren nicht mehr angefasst, weil das so ein fragiles, endlos langsames Gefrickel war. Ich bin komplett analog – ich projiziere und lasse nur in absoluten Ausnahmefällen abtasten. Sorry, wenn ich nicht helfen kann…

          Paul Veröffentlicht am17:06 - 8. Januar 2018

          Hallo Friedemann,

          interessanter Artikel insbes. über das Sehen eher mit dem Gehirn als mit den Augen,
          und den Zusammenhang mit analogem Film.

          Frage: Wäre es (abgesehen vom immer zwangsläufig besseren projezieren) nicht qualitativ besser,
          den Film zwar möglichst hochauflösend, und mit möglichst hoher Farbtiefe und Kontrastumfang usw abzutasten (z.b. mit der Zeilenkamera als Dauerwurst oder mit einer Dlsr im Raw Modus oder was auch immer) und das Digitalisat,
          um die Superresolution-Eigenschaften des Filmmaterials, die ja teilweise bei der Digitalisierung im Prinzip erhalten bleiben (sonst könnte ja nicht mit Avisynth etc einiges davon genutzt werden zum Schärfen etc) bestmöglich und unverfremdet zu nutzen, ganz einfach die quasi rohen, nur grundlegend Levels- und Weissabgleichkorrigierten Daten inklusive informationsenthaltenden Grain als hochwertiges h.264 rendern, sodaß dann, wenn das Video auf einem guten hochauflösenden Monitor betrachtet wird, dann beim SEHEN
          zumindest teilweise genau dieselben Superresolution-Effekte, nur nicht ganz so super und nicht ganz so resolution, stattfinden?

          Also anstatt Avisynth zu quälen um irgendwie unzureichend mathematisch temporal usw nachzuschärfen, ebendies dem Auge bzw eher Gehirn zu überlassen?

          Nach meiner Erfahrung mit einigen Normal 8 Familienfilmen aus den 80er Jahren sieht das Endergebnis am PC am besten, lebendigsten, und tatsächlich auch schärfsten aus,
          wenn man sich bei vermeintlichen „Verbesserungen“ also diverse Bereinigungen inklusive auch sehr elaboriertem Nachschärfen wie hier im Artikel beschrieben,
          möglichst zurückhält und wirklich auf ein absolutes Minimum beschränkt ( lift gamma gain weissabgleich) .
          Voraussetzung hierfür ist natürlich ein wirklich guter scharfer! Scan , auch wenn das Einzelbild dann vermeintlich unscharf aussieht.

          Ist das nachvollziehbar?

          ( Next Level wären dann Lichtfeldkameras
          wo dann nicht nur die Lichtintensität pro Pixel aufgezeichnet wird sondern auch die Richtung, was der dreidimensionalen Struktur des Films gerechter würde)

        thorichTommy Veröffentlicht am17:08 - 21. Juli 2017

        Hallo Rolf,
        ich hatte das gleiche Problem und lange experimentiert und wieder verworfen.
        Im Ergebnis habe ich dann festgestellt:
        Schmalfilme sollten zwingend im RAW-Format digitalisiert werden. Dann kannst Du mit Resolve (Software von Blackmagic) die Filme, insbesondere Unter- und Überbelichtungen sehr gut korrigieren. Die Ideen dafür habe ich mir abgeguckt von hier:
        http://schmalfilm-überspielen.de/Nachbearbeitung%20Restauration%20Ihrer%20Super%208%20und%208mm%20Schmalfilme%20bei%20Schmalfilm%20-%C3%BCberspielen%20.de.html

        Die haben zwar dort im Funkhaus ganz andere technische Möglichkeiten, aber einiges davon kann man mit der kostenlosen Version von Resolve und Neatvideo auch machen. Teste mal Deinen Scanner, ob der Rohdaten abgreifen kann. Wenn ja, erzielst Du mit Resolve richtig gute Ergebnisse. Auch ohne Avisynth.

    Friedemann Wachsmuth Veröffentlicht am00:19 - 22. August 2013

    Ich hab das im Artikel mal ergänzt. 🙂

      Jan Veröffentlicht am19:11 - 23. August 2013

      In der Tat nIcht schlecht 😉

Olaf S8 Veröffentlicht am08:53 - 2. September 2013

Sehr starker Artikel 🙂 viele neue Informationen für mich, die ganz gut erklären warum das natürliche Sehen ohne diese festgelegten Raster im Vorteil ist. Die Chaos Information von Korn und anderen Elementen im Film ist aber aus meiner Sicht genau das wichtige Element, das den projizierten Film so lebendig wirken lässt. Ein weiterer Punkt ist das aktive Sehen bei der Projektion, da das Auge das reflektierte Licht aktiv erfassen muss und nicht wie auf einem Monitor davon beschossen wird, was ein passiver Sehvorgang ist. Ganz nebenbei sind Farben in der Natur ja auch nicht digital sondern chemische Zusammensetzungen. Diese Unterschiede sind sehr gut bei Gemälden alter Meister zu sehen, die noch mit hochwertigen Substanzen ihre Farben selber hergestellt und gemischt haben. Als Vergleich sollte dann mal ein modernes Gemälde betrachtet werden mit künstlich hergestellten Farben. Für mich ist das Medium Film also eher mit einem guten Gemälde zu vergleichen, und da wäre bestimmt noch mehr möglich gewesen in der Entwicklung neuer Emulsionen. Leider haben die technischen Pixel diese Vision erst einmal zerstört aber Film lebt und vielleicht wird er ja wiedergeboren mit noch mehr Lebendigkeit und verzaubernder Magie …

Joachim Veröffentlicht am14:47 - 26. September 2013

Hallo Friedemann,

ein von Dir gut gemachter Artikel. Video u. die elektronische Bildverarbeitung sind nicht so mein Gebiet. Trotzdem informiere ich mich über dieses Medium.

Ich bewundere Dein großes Wissen auf dem Gebiet. Für mich ist dieser Beitrag hochinteressant. Ich habe ihn mit großer Aufmerksamkeit gelesen u. vieles Neues erfahren.

Deinen mit der Nikon R10 gedrehten Film fand ich nett gemacht u. er hat mir gefallen. Bésame mucho passt gut zu den Bildern.

Gruß

Joachim

Rudolf Goertz Veröffentlicht am23:58 - 29. September 2013

Sehr, sehr interessant und dabei unterhaltsam. Vielen Dank und bitte mehr davon!

Filmkorn – gewolltes Stilmittel oder doch nur nervig – Seite 15 Veröffentlicht am12:15 - 26. November 2013

[…] […]

T.Richter Veröffentlicht am17:43 - 9. November 2014

Hallo Friedemann,

das Video ist ja wirklich überzeugend, das Korn ist ja völlig rausgerechnet.
Würdest Du die Scripts für avisynth zur Verfügung stellen, welche für das Beispiel verwendet wurden? Noch besser wäre natürlich – falls Du die Zeit hierfür hättest – wenn Du zu diesem Thema mal einen workshop verfassen könntest. Ich denke, dass viele Schmalfilmer diese Bearbeitung ihrer Schmalfilme gern einmal selbst versuchen möchten.

Da sich nicht jeder Filmer intensiv mit avisynth beschäftigt hat, wäre eine solche Punkt-für-Punkt-Anleitung sicherlich ein sehr guter Einstieg in diese Nachbearbeitung mit Amateurmitteln.

Aber bereits ein Link zu den Scripts für
-die Bildstandstabilisierung
-die Staub- und Kratzerentfernung
-die Schärfeoptimierung aus Nachbarbildern

wäre sehr interessant für ein paar Experimente.

Wie hast Du die Geschwindigkeitsanpassung gemacht? Bilddoppelung oder Interpolation?
Wenn Interpolation – womit ?

Über eine Antwort würde ich mich sehr freuen.

Gruß Thomas

    Friedemann Veröffentlicht am17:17 - 8. Januar 2018

    Ja, das ginge – wenn Der Scan mindestestens mit 5K gemacht wird (lieber mehr) um das Raster aufzulösen und der wiedergebende Bildschirm mindestens 300dpi Pixeldichte hätte. Und eine Projektorähnliche Bilddiagonale. Dazu müssten dann aber noch 48 bzw. 54 (2 oder 3-fach wiederholte) Vollbilder pro Sekunde mit entsprechenden Dunkelphasen dazwischen. Ich wüsste keine Grafikkarte, die das schafft 🙂

      BP Veröffentlicht am14:09 - 13. Februar 2018

      Was mich an der Idee da stört ist der h.264. Was soll der wegkomprimieren, wenn nicht genau die Schein-Redundanzen, die dem Film zur Superresolution verhelfen?

        Paul Veröffentlicht am15:24 - 13. Februar 2018

        es gibt beim x264 encoder die „grain“ option, (grain erhalten) mit welcher das file gleich doppelt oder dreimal so gross wird, das ist dann gar nicht mehr so weit von der unkomprimierten bzw nur farbraumkomprimierten grösse entfernt (die man natürlich auch verwenden könnte, die unterschiede sind auf einer grossen leinwand allerdings wahrnehmbar)

        digital abtasten und wiedergeben ist derzeit IMMER ein qualitätsverlust, ich meine aber, dass man diesen, minimieren kann indem man das korn korn sein lässt und nicht dem gehirn was vorkaut was es selber besser kann, und zwar unabhängig davon zu welchem grad man mit der abtastung und wiedergabe an die originale auflösung, pixeldichte, kontrastumfang herankommt.

        ein gut belichteter schöner super8 film, projeziert auf ein weisses A4 blatt sieht (allein wegen der hdr mässigen helligkeit!) sehr gut aus,
        derselbe film in z.b. 2k abgetastet und inklusive grain, dreck usw auf einem leuchtstoffmässig noch relativ „frischen“ kalibrierten ca. 21 zoll crt wiedergegeben ( filmfile fps 18, bei 48hz monitorbildwiederholrate) sieht auch sehr gut, plastisch, tief, scharf aus, bei weitem nicht so wie die projektion aber auch gut.

        die superresolutionberechneten sachen sehen auf den ersten blick extrem scharf aus, den hd camcorder / digitalkinokamera geschmacksvorstellungen entsprechend, aber es fehlt das eigentliche „charisma“. somit: netter versuch, naheliegend das so zu probieren, es funktioniert aber nicht wirklich, bzw ist anders, einfacher besser imho, wobei aber natürlich immer die frage ist, was man sehen will…

Kommentar verfassen