beugungsunschärfe

<12345 ... 13>
Diskutier doch mit!
Anmelden und kostenlos mitmachen.
Kostenlos mitmachen
Google Anzeigen Google Anzeigen
Ehemaliges Mitglied Ehemaliges Mitglied Beitrag 16 von 183
6 x bedankt
Beitrag verlinken
Als Besserwisser (milder: Naseweis; derber: Klugscheißer) wird umgangssprachlich jemand bezeichnet, der die Gewohnheit hat, anderen gegenüber damit anzugeben, dass er sich in bestimmten (oder in allen) Angelegenheiten besser auskennt und besser darin urteilen kann oder auf bestimmten (oder auf allen) Wissensgebieten mehr Kenntnis und Bildung besitzt als andere.

Die Umgebung nimmt am Verhalten solcher Personen Anstoß - nicht so sehr, weil man ihnen das (angebliche oder tatsächliche) Wissen neidet, sondern weil sie andere uneingeladen belehren, sich den Meinungen, den Argumenten und dem Wissen anderer Menschen aber verschließen. Dadurch entsteht ein Anschein von Überheblichkeit und mangelndem Taktgefühl. Als unangenehm wird auch ein überzogenes Wettbewerbsverhalten von Menschen empfunden, die weniger aus Interesse am Thema als um des Rechtbehaltens willen diskutieren.
(Wikipedia)

Da drängt sich doch die Frage auf, was hier Besserwisserei ist.

Sollte das ihr privates Forum sein, Herr Klecker, dann werde ich in Zukunft Abstand nehmen hier was zu posten.
Ist dem aber nicht so, dann bitte ich Sie höflichst, diese anzüglichen Bemerkungen in Zukunft zu lassen.

Vielen Dank für das Respektieren meiner Meinung
Hermann Klecker Hermann Klecker   Beitrag 17 von 183
0 x bedankt
Beitrag verlinken
Zitat: Jürgen W2 18.09.15, 20:21Zum zitierten BeitragBei 10 bis 12 mm Brennweite an APS-C braucht man, wenn man nach "Hyperfokaldistanz" fotografiert, meist Blende f/11 oder f/16, je nachdem, wie weit der Vordergrund entfernt ist.

Manche "Landscaper" machen auch zwei Fotos mit jeweils f/5.6 oder f/8, eins für den Vordergrund, eins für "unendlich", und fügen diese mittels "Focus Stacking" (z.B. mit Helicon-Software) zusammen.


Da Du es sicher besser weißt, muß ich gestehen, den Witz nicht verstanden zu haben.

10mm, 7D, f/2.8, Hyperfocal bei 1.87m, da ist dann ab 94cm alles scharf.
Hast Du viele Motive in der Landschaftsfotografie, die näher an der Filmebene liegen als 1m?
PauI-Franziskus DCLXVI. PauI-Franziskus DCLXVI. Beitrag 18 von 183
0 x bedankt
Beitrag verlinken
Selten aber auch das gibts. Typische 14 -16 mm UWW bei sehr tiefem Aufnahmepunkt am Meer z.B., sieht man recht häufig.

Aber zurück zur Beugung.
Zitat: Hermann Klecker 18.09.15, 18:49Zum zitierten BeitragDie Pixelgröße spielt nur bei Pixelpeepern eine Rolle.
Die Pixelgrösse spielt dann eine Rolle, wenn die native Auflösung des Sensors beim Endergebnis auch eine Rolle spielt. Und das ist ganz sicher nicht nur bei Pixelpeepern der Fall, sondern bei jedem, der auch mal über A3 druckt und sich ein Bild nicht nur aus 2 m Entfernung anschaut.
Zitat: Hermann Klecker 18.09.15, 18:49Zum zitierten BeitragDie Größe der Streuscheibe (Airy Disk meinetwegen) wirkt sich bei kleinen Sensoren womöglich deutlicher auf das Ergebnis aus.
Sehr wahrscheinlich, wenn nicht beide Ergebnisse auf fc Format herunter skaliert werden (s.o.). Kann man sich ganz gut an diesem Vergleich vorstellen:
http://www.digicamdb.com/compare/canon_ ... s-mark-ii/
Ich hatte die G10 eine Weile, die 15 MP waren praktisch bei keiner Blende wirklich nutzbar, denn schon offene f2.8 entsprechen bei Crop 4.6 effektiv f13 bei KB (gleiche Auflösung). Auf f4 abgeblendet (eff. f18) war man schon deutlich sichtbar im Bereich der Beugung. Wobei das Glas bei der BQ natürlich auch eine zusätzliche Rolle gespielt haben wird.

Nun ist die G10 auch schon ein paar Jährchen alt und wir hatten bisher hier in der fc noch keinen Konsens bei dem Thema "Kompensation von Beugung". Denn theoretisch könnten Beugungseffekte ja auch mathematisch kompensiert werden. Nur ob das bereits getan wird, oder in welchem Umfang, ist nicht im Detail bekannt. Bisher wirbt jedenfalls m. W. kein Hersteller aktiv damit. Wäre mal eine Recherche wert.
Hermann Klecker Hermann Klecker   Beitrag 19 von 183
0 x bedankt
Beitrag verlinken
Zitat: PauI-Franziskus I. 19.09.15, 07:40Zum zitierten BeitragDie Pixelgrösse spielt dann eine Rolle, wenn die native Auflösung des Sensors beim Endergebnis auch eine Rolle spielt.

Darauf können wir uns einigen. Denn die native Auflösung des Sensors spielt für das Endergebnis keine Rolle.
hcceds hcceds Beitrag 20 von 183
0 x bedankt
Beitrag verlinken
Zitat: PauI-Franziskus I. 19.09.15, 07:40Zum zitierten Beitrag.....Denn theoretisch könnten Beugungseffekte ja auch mathematisch kompensiert werden. Nur ob das bereits getan wird, oder in welchem Umfang, ist nicht im Detail bekannt. Bisher wirbt jedenfalls m. W. kein Hersteller aktiv damit. Wäre mal eine Recherche wert.

In Kamera / Objektiv kenne ich auch keinen Hersteller, aber Canon reklamiert mit DLO in DPP zu mindestens eine Software-Lösung für sich. Werde das in den nächsten Tagen ausprobieren!
MatthiasausK MatthiasausK Beitrag 21 von 183
3 x bedankt
Beitrag verlinken
Zitat: PauI-Franziskus I. 18.09.15, 00:30Zum zitierten BeitragEs kommt nur auf den Pixelpitch an.

Beugungsunschärfe gibts nicht nur da, wo es Pixel gibt.
Ehemaliges Mitglied Ehemaliges Mitglied Beitrag 22 von 183
0 x bedankt
Beitrag verlinken
Ein wahres Wort!
MatthiasausK MatthiasausK Beitrag 23 von 183
0 x bedankt
Beitrag verlinken
Zitat: PauI-Franziskus I. 19.09.15, 07:40Zum zitierten BeitragDenn theoretisch könnten Beugungseffekte ja auch mathematisch kompensiert werden.

Nö. Den alten Shannon wird kein Papst, kein 42-jähriger Elektroinscheniör übergehen könmem. Und selbst Du wirst ihn nicht übergehen können.
N. Nescio N. Nescio   Beitrag 24 von 183
1 x bedankt
Beitrag verlinken
http://www.lensrentals.com/blog/2013/03 ... tekaphobia
Dame Eda Dame Eda   Beitrag 25 von 183
0 x bedankt
Beitrag verlinken
Zitat: hcceds 19.09.15, 21:29Zum zitierten BeitragZitat: PauI-Franziskus I. 19.09.15, 07:40Zum zitierten Beitrag.....Denn theoretisch könnten Beugungseffekte ja auch mathematisch kompensiert werden. Nur ob das bereits getan wird, oder in welchem Umfang, ist nicht im Detail bekannt. Bisher wirbt jedenfalls m. W. kein Hersteller aktiv damit. Wäre mal eine Recherche wert.

In Kamera / Objektiv kenne ich auch keinen Hersteller, aber Canon reklamiert mit DLO in DPP zu mindestens eine Software-Lösung für sich. Werde das in den nächsten Tagen ausprobieren!


Diese Methode wird in der Astronomie schon länger angewandt, mitunter auch von Hobby-Astronomen.
Die Sache erfordert dort allerdings einen ordentlichen Rechenaufwand, nicht zuletzt weil man die sog. Transfer-Funktion bzw. deren Inverse erst selbst ermitteln muss - dafür hat man dann aber auch eine Transfer-Funktion, die auch die individuellen Abbildungsfehler der Optik berücksichtigt.

Die Beugungsunschärfe selbst kann man damit natürlich nicht 'herausrechnen' - das ist nämlich nicht möglich. Man kann damit aber das durch nicht exakt kreisförmige Blenden (Lamellen) verursachte 'verschmieren' bzw. 'verzerren' der Beugungsscheibchen (zu kleinen "Sternchen") korrigieren.
Ehemaliges Mitglied Ehemaliges Mitglied Beitrag 26 von 183
0 x bedankt
Beitrag verlinken
Danke für den link Nescio.

dieser führt dann zu diesem Calculator

http://www.stegmann.dk/mikkel/barnack/

empfehlenswert !
PauI-Franziskus DCLXVI. PauI-Franziskus DCLXVI. Beitrag 27 von 183
0 x bedankt
Beitrag verlinken
Zitat: Dame Eda 20.09.15, 00:23Zum zitierten BeitragDie Beugungsunschärfe selbst kann man damit natürlich nicht 'herausrechnen' - das ist nämlich nicht möglich.
Warum soll das nicht gehen, der Effekt ist mathematisch hinreichend beschrieben und ich kann die Beeinflussung eines jeden Bildpunktes auf jeden anderen durch diesen Effekt rekursiv numerisch bestimmen.
Frage ist nur bis zu welcher Ordnung ich gehen möchte und mit welchem Aufwand dies verbunden ist. Beugung ist ja kein stochastisches Ereignis, oder erinnere ich mich da irgendwie unscharf!? ;-)
MatthiasausK MatthiasausK Beitrag 28 von 183
2 x bedankt
Beitrag verlinken
Zitat: PauI-Franziskus I. 20.09.15, 09:29Zum zitierten BeitragWarum soll das nicht gehen, der Effekt ist mathematisch hinreichend beschrieben und ich kann die Beeinflussung eines jeden Bildpunktes auf jeden anderen durch diesen Effekt rekursiv numerisch bestimmen.
Wenn DU das kannst und es bisher außer Dir niemand geschafft hat, dann solltest Du Dich selber für die Fields-Medaille bewerben. Normalerweise wird man dafür zwar vorgeschlagen, aber in diesem Sonderfall werden die eine Ausnahme machen.

Zitat: PauI-Franziskus I. 20.09.15, 09:29Zum zitierten BeitragFrage ist nur bis zu welcher Ordnung ich gehen möchte
Tja, jetzt finde den Fehler.

Das ist genau deshalb nicht möglich, WEIL es eben mathematisch beschrieben ist, WARUM das nicht möglich ist.
Shannons Informationstheorie sollte Dir, der Du ja Dipl.Ing bist, der sich in allem Elektrischem auskennt, nicht unbekannt sein. Und es gilt natürlich auch hier - einfach ausgedrückt: Information, die verrauscht ist, kann man halt nicht mehr im Original zurückgewinnen - sonst wäre sie ja nicht verrauscht sondern noch Information.

(Manche tun aber so, als könnten sie sowas und erzeugen eine schön anzuschauende Scheininformation, die in die vermutete(!) Richtung des ursprünglichen Signals geht, aber mit dem ursprünglichen Signal natürlich nichts zu tun hat. Und das Volk steht da und staunt und merkt nicht, daß der Kaiser nackt ist ... Mundus vult decipit. Nur schade, daß das Thema Beugungsunschärfe in der Realität meist gänzlich unsichtbar bleibt, weil die Beugungsunschärfe von anderen Fehlerquellen in der Prozeßkette übertönt wird - noch mehr Rauschen, das dann sogar das Beugungsrauschen stört. Da kann man, egal, was man algorithmisch tut, gar nicht viel falsch machen, weil man schon gar nicht viel machen kann ...).

Zitat: PauI-Franziskus I. 20.09.15, 09:29Zum zitierten BeitragBeugung ist ja kein stochastisches Ereignis
Echt jetzt nicht? Wie war das nochmal mit der Wellenstruktur und der Teilchenstruktur des Lichts?
Vielleicht solltest Du auch mal beim Karolinska Institutet vorstellig werden, wenns mit der Fields Medaille wider Erwarten nicht klappen sollte.

Zitat: PauI-Franziskus I. 20.09.15, 09:29Zum zitierten Beitrag, oder erinnere ich mich da irgendwie unscharf!? ;-)
Das wird dann wohl die Lösung sein.

Und über das mit der numerischen Mathematik und den iterativen Verfahren in der Optik, insbesondere zum Thema Streuung und Beugung, gibts Material für mehr als ein Menschenleben.
Ehemaliges Mitglied Ehemaliges Mitglied Beitrag 29 von 183
0 x bedankt
Beitrag verlinken
das Problem ist, man hat es mit 2 unbekannten zu tun.
Zersteuungsscheibe und beugungsscheibe.
Kennt man diese, dann kann man schon rechnen.
Vorher aber die genaue Transferfunktion bestimmen.
Wird auch gemacht bei deconvolution (raytracing)
Dazu braucht es aber mindestens 3 Bilder in verschiedenen Schärfeebenen.
Recht teuer so ein Programm.
PauI-Franziskus DCLXVI. PauI-Franziskus DCLXVI. Beitrag 30 von 183
0 x bedankt
Beitrag verlinken
Danke für den Hinweis! Deconvolution schaue ich mir mal an, klingt interessant.
Zitat: T-lam 20.09.15, 10:39Zum zitierten BeitragDazu braucht es aber mindestens 3 Bilder in verschiedenen Schärfeebenen.
Sowas macht ja z.B. Olympus mit der Fokus-Stacking Funktion, auch meine Nikon 1 machen in einem Modus diverse Bilder schon vor der eigentlichen Aufnahme beim ersten Druckpunkt. Grundfunktionen dazu gibt es also vereinzelt schon.
Bin sicher, dass das kommen wird. Man muss sich nur heutige numerische Verfahren anschauen, die teilweise bei völlig unstrukturierten Vorgängen noch sehr genaue Prognosen treffen können. Zum Beispiel turbulente, kompressive Strömungen beim aerodynamischen und aeroakustischen Design in der Fahrzeug- und Luftfahrt-Entwicklung.
Im Vergleich dazu ist Beugung doch nicht mehr als simpler Dreisatz. Noch dazu bewege ich mich bei der Fotografie in der Fläche und hab eine Dimension weniger. Also ein Potenz weniger Aufwand.
Die Frage ist nur, ob man das ganze performant genug auch in ein Kameragehäuse bekommt und ob der Aufwand im Verhältnis zum Nutzen steht. Jedenfalls bei "herkömmlicher" Fotografie. In der Forschung sicher keine Frage!
Diskutier doch mit!
Anmelden und kostenlos mitmachen.
Kostenlos mitmachen
Nach
oben