Hallo Herr Werres,
Die Abbildungsdefinition in der Kombination Vixen VC200L und Canon EOS 400D habe ich hier exemplarisch an einem hellen Stern dargestellt:
[
www.juelich-bonn.com]
Rechnerisch ergibt sich eine Auflösung von 0,65"/pix (Bogensekunden pro Pixelbreite), was teilweise den Adaptierungen der großen Sternwarten entspricht. Das theoretische Auflösungsvermögen des Teleskops liegt bei 0,63". Die Bildgröße bei dieser Kamera beträgt 3888x2592 Pixel.
Das von Ihnen angesprochene Sampling Theorem ist hier nur von Bedeutung, wenn man Speckle-Interferometrie betreibt und die Beugungsfiguren des Teleskops aufgelöst erscheinen lassen will. Hier reden wir von Öffnungsverhältnissen von f/30 oder mehr. Solche Beobachtungen haben wir als eines der wenigen Teams erfolgreich mit CCDs am Hohen List und am ESO Danish 1.5m Teleskop durchgeführt. Die Brennweiten lagen dabei deutlich über 40m, also jenseits von Gut und Böse. Man muss Shannon auch dann Rechnung tragen, wenn man über auflösungsverbessernde Methoden wie Richardson-Lucy nachdenkt, bei denen davon ausgegangen wird, daß die Schärfe definitiv over-sampled ist. Das ist ja das Ziel dieser Algorithmen, nämlich dies zu kompensieren.
Im Regelfall wird man mit dem Teleskop jedoch Langzeitbelichtungen aufnehmen. Hier haben wir einen anders gelagerten Fall. Es geht darum, das S/N (Signal-Rauschabstand) zu optimieren, um größere Reichweite zu erzielen. Dabei betrachten wir nicht die theoretische Schärfeleistung, sondern den durch Seeing aufgeweiteten Stern. Professionelle Aufnahmen sind bei solchen Abbildungsmaßstäben ebenfalls meist Seeing-limitiert, weswegen die Aufnahmen praktisch immer aufgeweitete Sterne bei solchen Brennweiten der Großteleskope zeigen. Für die Astrometrie gibt es sogar ein Optimum zwischen S/N und Sampling. Man findet es in der Simulation etwa bei der Größenordnung des Sampling-Theorems, verbunden mit systematischen Messfehlern, die bis dato unveröffentlicht sind. Mal sehen, was wir da noch tun können.
Binning, also das nachträgliche, digitale Zusammenfassen von Pixeln läuft dem Gedanken des Sampling Theorem sogar zuwider, da wir die Auflösung vermindern, notfalls sogar bis zum Undersampling. Sinn ist es, das S/N nachträglich zu verbessern. Da Rauschgrößen sich in etwa quadratisch verhalten, gewinnen wir beim 2x2 Binning ein 2x besseres Signal, das ist etwas weniger als eine Größenklasse nach astronomischer Notation.
Fokalreduktoren erledigen dies besser, da sie durch Bildfeldvergrößerung für den Auflösungsverlust entschädigen. Allerdings ist nicht jeder x-beliebige Fokalreduktor (z.B. Shapley-Linse) geeignet. Er sollte schon an das Teleskop angepasst sein, um zusätzliche Abbildungsfehler zu minimieren oder gar zu korrigieren (günstigster Fall gut adaptierter Fokalreduktoren). Weswegen Vixen übrigens verschiedene Fokalreduktoren für seine unterschiedlichen Cassegrain Bauformen anbietet. Schätzt man das durchschnittliche Seeing ab, so erscheint der passende Fokalreduktor zum Vixen übrigens auch optimal an mittleres Seeing angepasst. Universelle Fokalreduktoren gibt es übrigens nicht, denn jede Teleskopbauform hat ihre ganz eigenen, charakteristischen Abbildungsfehler. Alles andere ist ein Weg, den ich nach unzählichen Versuchen und Veröffentlichungen von damals definitiv nicht mehr empfehlen kann.
CCDs und Teleskope, zwei Welten treffen aufeinander. Eine Wissenschaft für sich.
Gruß
Thilo Bauer
11-mal bearbeitet. Zuletzt am 12.08.07 20:17.