zum Directory-modus

Spektrale Auflösung dispersiver Geräte

Das Auflösungsvermögen eines Monochromators allgemein ist definiert als: R = λ / Δ λ und beschreibt die Fähigkeit eines Monochromators, zwei eng beieinander liegende Spektrallinien gerade noch zu unterscheiden. Das Auflösungsvermögen eines Gitters wird wie folgt definiert:

R = λ / Δ λ = n N n - Beugungsordnung N - Gitterlinien

Daraus folgt, dass sich die Auflösung mit größerer Anzahl von Gitterlinien und steigender Beugungsordnung erhöht. Da aber die Lichtstärke in der ersten Beugungsordnung maximal ist, ist man bestrebt, in dieser zu messen. Nicht nur die Eigenschaften des Gitters bestimmen die Auflösung des Spektrometers, sondern auch die Dispersion ( D = d y / d λ ) und Spaltbreiten des Monochromators. Die Dispersion wird im allgemeinen als reziproke lineare Dispersion D - 1  mit der Einheit nm/mm angegeben.

D - 1 = d λ / d y d λ - Wellenlängenänderung d y - Strecke auf der Brennebene

Das Produkt aus linearer reziproker Dispersion und der Spaltbreite ergibt die spektrale Bandbreite, die die Auflösung eines dispersiven Spektrometers bestimmt. Je kleiner die spektrale Bandbreite des Monochromators ist, desto besser können die Banden aufgelöst werden. Die Auflösung verbessert sich demnach mit abnehmender Spaltbreite und mit möglichst hoher Dispersion des Gittermonochromators.

Abb.1
Bandbreite

Bei kleinen Spaltbreiten verringert sich aber die Strahlungsintensität auf den Detektor. Das heißt, um eine Verbesserung der Auflösung bei gleicher Strahlungsintensität zu erreichen, ist es erforderlich, die Messzeit zu erhöhen.

Es muss bei der Messung von IR-Spektren mit dispersiven Geräten ein Optimum zwischen der Strahlungsintensität (Messzeit) und Auflösung (Spaltbreite) gefunden werden.