Wie man noch mehr Auflösung bekommen kann ...

<12>
Diskutier doch mit!
Anmelden und kostenlos mitmachen.
Kostenlos mitmachen
Google Anzeigen Google Anzeigen
Björn Eisen Björn Eisen Beitrag 16 von 26
0 x bedankt
Beitrag verlinken
Martin2 S. schrieb:
Zitat:das sich statistisches rauschen durch Überlagerung mehrerer
Bilder wegrechnen lässt ist ein Alter Hut.


wird hier aber nicht gemacht!
Zitat:Das man allerdings die Auflösunge eines Chips durch
Überlagerung ähnlicher Bilder verbessern kann glaube ich nicht.


wird hier auch nicht getan

Zitat:Um diese Verbesserung zu erreichen, müsstest Du bei der
Überlagerung entscheiden können, welches der Pixel nun grade
das "bessere" ist.


es werden nicht mehrere original Kamera Pixel überlagert, sondern es werden mehr Pixel aus den Bildern erzeugt(interpolier) und dann werden die Bilder überlagert.
Dadurch liegen nicht alle Kamerapixel an der gleichen Stelle, sondern überlagern sich teilweise.

Zitat:Eine nicht selektve Überlagerung, so wie Du sie gemacht hast)
wird meßtechnisch eher zu einer Verschlechterung der Ergebnisse
führen (wenn man den Effekt des Rauschen wegdenkt)


nur wenn man die Auschnitte nicht richtig übereinanderlegt,
oder verstehe ich dich falsch?
Torsten Wosnizok Torsten Wosnizok   Beitrag 17 von 26
0 x bedankt
Beitrag verlinken
Was gehen müßte wäre drei Aufnahmen zu machen die jeweils um einen Pixel horizontal und vertikal versetzt sind.
Dann hätte man für jeden Pixel einen Rot-, Blau- und Grünwert und bräuchte nicht mehr interpolieren.

Aber wie man das in Praxis hinbekommen soll weiß ich nicht.
Vielleicht ginge es mit der Minolta D7D, wenn man den CCD mit Hilfe des AS zwischen den Aufnahmen um jeweils einen Pixel verschiebt.


Torsten
Ehemaliges Mitglied Ehemaliges Mitglied Beitrag 18 von 26
0 x bedankt
Beitrag verlinken
Da es Zweifler gibt, habe ich noch weiter experimentiert, diesmal bei Blende 8 und Statif. Das Ergebnis ist eher ernüchternd: Zwar geht das Farbmoiré ganz eindeutig zurück (und das ist ja ein Artefakt der Bayer-Interpolation) aber die Auflösung steigt allenfalls unwesentlich. Um die zusätzlichen Details im Bild sichtbar zu machen, muß man am Ende schärfen, das ist aber normal bei einer solchen Interpolation. Was Andreas für intelligentere Algorithmen zum Interpolieren meint, weiß ich leider nicht.
Holger Nagel Holger Nagel Beitrag 19 von 26
0 x bedankt
Beitrag verlinken
...

Durch die Überlagerung entsteht - wie beim UNSCHARF MARKIEREN - eine Kontraststeigerung, die wir mit unserem menschlichen Sehvermögen auch als Steigerung der Schärfe verstehen.

Das mit dem " .. nicht richtig übereinanderlegt" hat damit zu tun, dass klassisch (lithografisch) ein unscharfes Bild als Kopie über das Original gelegt wird -> deshalb heisst das ja auch "unscharf maskieren!!"
sasgro sasgro Beitrag 20 von 26
0 x bedankt
Beitrag verlinken
Peter N. schrieb:

Zitat:Mich hat irgendwas gebissen.


Ich hätte jetzt eher gedacht, Du hast die CHIP Foto-Video-Digital 04.2005 gelesen und uns ein Beispiel zu deren Headline "24 Megapixel mit jeder Kamera" präsentiert. Habe leider keinen Hinweis in Deinem Text dazu gefunden...
Ehemaliges Mitglied Ehemaliges Mitglied Beitrag 21 von 26
0 x bedankt
Beitrag verlinken
Ich lese sowas nicht. Was steht denn da drin?

Vielleicht wäre es mal interessant, wenn ein D70-Besitzer sowas testen könnte. Da der AA-Filter dort schwächer ist, sollte es vielleicht besser funktionieren als an der 20D.
Bernd Wondollek Bernd Wondollek Beitrag 22 von 26
0 x bedankt
Beitrag verlinken
also, kaufen kann man das ja schon länger, na dem prinzip arbeiten multi shot digitalrückteile im mittelformat.

die versetzen den chip zwischen den aufnahmen ein wenig, und die software im rückteil bastelt die bilder dann zusammen...
sasgro sasgro Beitrag 23 von 26
0 x bedankt
Beitrag verlinken
Peter N. schrieb:

Zitat:Ich lese sowas nicht. Was steht denn da drin?


Da steht so ziemlich genau das Verfahren zur Kombination von Mehrfachaufnahmen drin, was Du hier beschrieben hast, daher mein Einwurf...
Ehemaliges Mitglied Ehemaliges Mitglied Beitrag 24 von 26
0 x bedankt
Beitrag verlinken
Na, jetzt mal kurz nachgedacht und verstanden, warum der Befund an der 20D weniger Farbmoire aber sonst nich viel ist: Der AA-Filter des 20D-Sensors läßt einfach praktisch keine räumlichen Frequenzen unterhalb Sensorabstand durch. So erklärt sich, warum man noch Farbmoiré bekommen kann -- doppelter Sensorabstand -- wenn auch viel weniger als an einer D70. Das Farbmoire kann man also theoretisch durch die o.a. Interpolation eliminieren, wenn man gut versetzte Bilder hat, bekommt auch insgesamt eine bessere Farbinterpolation, "echte 8 Megapixel". Mehr ist aber nicht, denn räumliche Frequenzen, die in den Einzelbildern ausgefiltert sind, kann man auch durch Interpolation nicht wiederbekommen.

An dr D70 sieht die Sache bestimmt anders aus. D70-Besitzer, zeigt mal was Eure Kamera kann, was die Canon's nicht können ;-) Aber mit der Größe der Photozellen ist auch einem Sensor ohne AA-Filter eine Auflösungsgrenze gesetzt.
Frank Herberg Frank Herberg Beitrag 25 von 26
0 x bedankt
Beitrag verlinken
Das Verfahren nennt sich meines Wissens auch "Hardwareinterpolation", wobei ich jetzt mal gegoogelt habe und nix dazu gefunden.
Al Al 2 Al Al 2 Beitrag 26 von 26
0 x bedankt
Beitrag verlinken
http://www.chip.de/downloads/c1_downloa ... 985&tid2=0

...24 MP mit jeder Kamera
Diskutier doch mit!
Anmelden und kostenlos mitmachen.
Kostenlos mitmachen
Nach
oben