Wie man noch mehr Auflösung bekommen kann ...

<12>
Diskutier doch mit!
Anmelden und kostenlos mitmachen.
Kostenlos mitmachen
Google Anzeigen Google Anzeigen
Ehemaliges Mitglied Ehemaliges Mitglied Beitrag 1 von 26
0 x bedankt
Beitrag verlinken
Mich hat irgendwas gebissen. Da hochwertige Linsen die Auflösung der DSLR-Sensoren übersteigen, habe ich eine Idee bekommen, wie man dieses Mehr auch bei bestimmten Motiven herausholen kann:

Statt einem Bild habe ich mehrere Bilder (Reihenaufnahme) gemacht, die durch meine Körperbewegung zufällig versetzt sind. Mit EBV blähe ich die Einzelbilder dann auf 200% 400% oder mehr Auflösung (aber "Nearest-Neighbour"-Interpolation, das scheint nicht unwichtig zu sein) und lege sie dann als Ebenen übereinander bis sie möglichst gut passen. Da diese Bilder dann statistisch gegeneinander um Halbpunkte versetzt sind und außerdem die Bayer-Sensorstellen gegeneinander versetzt sind, bekommt man so ein detailreicheres Bild. Je mehr Bilder, desto mehr Details, bis zur Grenze des Objektivs.

Das schärfste: Das funktioniert sogar: Hier ein (zugegeben jenseits der Möglichkeiten liegender) kleiner Test, der eigentlich für was anderes bestimmt war:


[fc-foto:2735607]


edited:
BEVOR JEMAND IM QUADRAT SPRINGT, HABE INZWISCHEN DIE TATSÄCHLICHEN MÖGLICHKEITEN WEGEN CANON'S AA-FILTER ALS RECHT BESCHRÄNKT ZUR KENNTNIS GENOMMEN. SIEHE DISKUSSION UNTEN.

Der Ansatz ist also anders als der Mosaikansatz von Panoramen: Der Blickwinkel wird beibehalten, die Auflösung geht bis an die Grenzen des Objektivs hoch, die Tiefenschärfe ist unverändert, Bewegung führt zu Geistern.
Vielleicht geht es ja auch mit Stativ, wenn man zwischen den Bildern den Apparat berührt (und so minimal versetzt)



Nachricht bearbeitet (18:32h)
Ehemaliges Mitglied Ehemaliges Mitglied Beitrag 2 von 26
0 x bedankt
Beitrag verlinken
Kapiere ich nicht...wo sind da mehr Details?
Björn Eisen Björn Eisen Beitrag 3 von 26
0 x bedankt
Beitrag verlinken
Pssst! Die Idee hatte ich auch schonmal, es aber leider noch nicht ausprobiert!
Hast du das ganze mal mit einem Tele ausprobiert?

Das Problem, was ich an der Sache sehe ist, das man damit nur statische Objekte (Landschaft usw.) vergrößern kann, jedoch keine dynamischen. Es sei denn, man synchronisiert mehrere Kameras, dann kann man aber gleich in ein besseres Tele oder Macro investieren.

Mit Stativ sollte es auch gehen, bei großer Brennweite sollte sogar ein anstubsen des Statives reichen.

Gibt es auf diese Idee schon ein Patent?
Falls jemand auf die dumme Idee kommt kannst du ja Prior Art anmelden.
Ehemaliges Mitglied Ehemaliges Mitglied Beitrag 4 von 26
0 x bedankt
Beitrag verlinken
Glückwunsch, du hast gerade das Prinzip der Unschärfe entdeckt... jag mal über dein "niedrigauflösendes" Bild einen Weichzeichner (gaußscher Weichzeichner, Radius 1 Pixel) und es sieht praktisch genauso aus. ;)


Mit mehreren Aufnahmen vom gleichen Standpunkt aus (Stativ!) lässt sich lediglich das Rauschen recht effektiv herausfiltern, wodurch sich unter Umständen die Auflösung minimal erhöht.
Ehemaliges Mitglied Ehemaliges Mitglied Beitrag 5 von 26
0 x bedankt
Beitrag verlinken
So einen Test wollte ich auch schon immer machen, Danke für die Zeitersparnis.

Es sieht aber so aus als wenn ein vernünftiger Scharfzeichner das gleiche Ergebnis hinbekommt.
Da das Moiree trotzdem an gleicher Stelle auftaucht ist mit den 4 Bildern wohl auch die Grenze erreicht.
Ehemaliges Mitglied Ehemaliges Mitglied Beitrag 6 von 26
0 x bedankt
Beitrag verlinken
Pierre Walther schrieb:

Zitat:Kapiere ich nicht...wo sind da mehr Details?


Siehst Du links nicht deutlicher die Kreise als rechts und weniger Farbmoiré? Wenn Du das Bild rechts versuchst zu glätten, verschwindet da noch mehr. Das sind aber auch nur vier Bilder und das Objektiv ist recht offen (wir sind nicht so schrecklich weit weg von seiner Auflösung). Vielleicht mache ich noch einen Test mit WW Blende 8 Landschaftsaufnahme und vielleicht noch mehr Bildern.
Ehemaliges Mitglied Ehemaliges Mitglied Beitrag 7 von 26
0 x bedankt
Beitrag verlinken
Matthias M. schrieb:

Zitat:Glückwunsch, du hast gerade das Prinzip der Unschärfe
entdeckt... jag mal über dein "niedrigauflösendes" Bild einen
Weichzeichner (gaußscher Weichzeichner, Radius 1 Pixel) und es
sieht praktisch genauso aus. ;)


Du hast vielleicht Recht, daß ich zum Vergleich rechts einen Gaussfilter hätte drüberlegen sollen. Wenn Du es aber tust, wirst Du sehen, daß links mehr Details sind und vor allem weniger Farbmoiré.
Jens Thielmann Jens Thielmann Beitrag 8 von 26
0 x bedankt
Beitrag verlinken
Das ist doch ein ganz alter Hut und jeder kennt den Effekt:
ein Kinofilm oder Super-8-Film oder Videofilm wirkt scharf, solange er läuft, aber sobald wir ein Standbild davon betrachten wirkt alles viel viel unschärfer. Grund: durch schnelle Abfolge von fast identischen Bildern überlagert unser Gehirn die Bilder und filtert das Rauschen raus und erkennt Strukturen, die im Einzelbild nicht sichtbar sind.

Du bräuchtest selbst bei digital den Standpunkt gar nicht zu verändern sondern kannst vom Stativ identische Bilder schießen. Beim Überlagern am Computer mittelt sich das zufällige Rauschen raus und es erscheinen vorher unsichtbare Strukturen.

°Jens°
Ehemaliges Mitglied Ehemaliges Mitglied Beitrag 9 von 26
0 x bedankt
Beitrag verlinken
Jens Thielmann schrieb:

Zitat:
Du bräuchtest selbst bei digital den Standpunkt gar nicht zu
verändern sondern kannst vom Stativ identische Bilder schießen.
Beim Überlagern am Computer mittelt sich das zufällige Rauschen
raus und es erscheinen vorher unsichtbare Strukturen.


Das Argument zielt mehr auf den Dynamikumfang, nicht auf die räumliche Auflösung. Was ich meine, sind Strukturen, die feiner sind als die Pixel.
Ehemaliges Mitglied Ehemaliges Mitglied Beitrag 10 von 26
0 x bedankt
Beitrag verlinken
Ich bezweifel diesen Effekt.

das sich statistisches rauschen durch Überlagerung mehrerer Bilder wegrechnen lässt ist ein Alter Hut.

Das man allerdings die Auflösunge eines Chips durch Überlagerung ähnlicher Bilder verbessern kann glaube ich nicht.

Um diese Verbesserung zu erreichen, müsstest Du bei der Überlagerung entscheiden können, welches der Pixel nun grade das "bessere" ist.

Eine nicht selektve Überlagerung, so wie Du sie gemacht hast) wird meßtechnisch eher zu einer Verschlechterung der Ergebnisse führen (wenn man den Effekt des Rauschen wegdenkt)
Torsten Wosnizok Torsten Wosnizok   Beitrag 11 von 26
0 x bedankt
Beitrag verlinken
Heißt das, dass die Mehrfachbelichtungsfunktion an meiner Pentax doch zu etwas zu gebrauchen ist?

Immerhin überlagert sie intern die RAW-Dateien und gibt mir eine zusammengerechnete RAW-Datei aus.

Torsten
Norbert Esser Norbert Esser Beitrag 12 von 26
0 x bedankt
Beitrag verlinken
Na, die Gaussche Normalverteilung wird spitzer und so ist tatsächlich bei dieser Art des "Oversamplings" ein schärfe Gewinn zu erzielen.
Andreas Leupin Andreas Leupin   Beitrag 13 von 26
0 x bedankt
Beitrag verlinken
Hallo zusammen,
prinzipiell sollte es tatsächlich möglich sein, durch geringfügige Versetzung mehrerer Bilder eine grössere räumliche Bildauflösung zu erhalten - die für die Ueberlagerung der Bilder notwendigen Algorithmen für die "Entfaltung" sind aber relativ komplex und kaum mit einfacher EBV machbar. Wo eine Ueberlagerung IMHO aber etwas bringen könnte ist allenfalls zur Reduktion von Moiré-Effekten, so sie denn auftreten...
Bei unbewegten Objekten ist der Ansatz über die Panoramafunktion sicher die bessere (und mit einfacher EBV auch handhabbare) Option zur Erhöhung der räumlichen Bildauflösung...
Mit freundlichen Grüssen aus der Schweiz
Andreas
Holger Nagel Holger Nagel Beitrag 14 von 26
0 x bedankt
Beitrag verlinken
Steh ich auf'm Schlauch ...??

Das ist doch genau das Prinzip von UNSCHARF MASKIEREN - jedenfalls wenn ich mir die historische Definition davon ansehe. Oder habe ich da etwas falsch verstanden?
Ehemaliges Mitglied Ehemaliges Mitglied Beitrag 15 von 26
0 x bedankt
Beitrag verlinken
Martin2 S. schrieb:

Zitat:Ich bezweifel diesen Effekt.

das sich statistisches rauschen durch Überlagerung mehrerer
Bilder wegrechnen lässt ist ein Alter Hut.

Das man allerdings die Auflösunge eines Chips durch
Überlagerung ähnlicher Bilder verbessern kann glaube ich nicht.

Um diese Verbesserung zu erreichen, müsstest Du bei der
Überlagerung entscheiden können, welches der Pixel nun grade
das "bessere" ist.


Du hast das Prinzip nicht genau verstanden: Da man die Bilder aufbläht, können nach justieren die Einzelbilder um halb- oder Viertelpunkte versetzt zueinander sein.

Das Ergebnis kann nicht schärfer werden, als die einzelnen Bilder, es wird nur an mehr stellen gemessen, dann wird interpoliert.

Ich gebe Dir aber Recht, daß der Ansatz auch mit einem Qualitätsverlust, der in die gegensätzliche Richtung wirkt, verbunden sein kann, schließlich steigt ja die Gesamtbelichtungszeit.
Diskutier doch mit!
Anmelden und kostenlos mitmachen.
Kostenlos mitmachen
Nach
oben