Benutzer-Werkzeuge

Webseiten-Werkzeuge


wiki:analytik

Der analytische Vorgang in den Naturwissenschaften (Schwerpunkt Chemie)

Ursprung und Aufgaben der Analytik

Ihre geschichtlichen Wurzeln hat die Analytik im mineralogischen und metallurgischen Bereich: Bergbau und die Weiterverarbeitung der Rohstoffe erforderten die Kenntnis von Art und Mengen der in Mineralien und Erzen enthaltenen Stoffe. Zu dieser Zeit war Analytik noch zu Recht „Analytische Chemie“ - ihre Methoden kamen samt und sonders aus der Chemie. Heute wird die Analytik universell dort verwendet, wo es nur irgendwie um Stoffe geht; ihre Prinzipien entstammen dabei der Chemie, der Biologie und der Physik, die hochgezüchteten Analysenverfahren wären ohne aufwendigen Einsatz der Technik und der Datenverarbeitung nicht möglich. Wo es um Routineaufgaben geht, sind Analysenverfahren oft schon voll automatisiert und greifen als Teil eines Regelkreises in vielfältige Produktionsprozesse ein.

Analyse und Analytik als Methode und Verfahren

Das Wort „Analyse“ bedeutet im Griechischen „Auflösung“. Dies läßt sich umschreiben als „Zergliederung, Zerlegung, Trennung eines Ganzen in seine Teile, Untersuchung eines Sachverhaltes unter Berücksichtigung seiner Teilaspekte“ 1). Erscheinungen der objektiven Realität werden in ihre Elemente (im philosophischen Sinne) und in Relationen zwischen diesen Elementen zerlegt. Durch eine anschließende gedankliche Synthese versucht man, das primär vorhandene Ganze zu rekonstruieren und sein Wesen zu erkennen. Diese Vorgehensweise ist grundlegend für alle Wissenschaften.

In den Naturwissenschaften bilden Gemische, Kristalle, Moleküle, Atome, Ionen die Erscheinungen der objektiven Realität; die Relationen zwischen ihnen zeigen sich ihrer Struktur, ihrem Aufbau. In diesem Sinne wäre Analytik in der Chemie die Zerlegung einer Substanz im Gegensatz zu deren Synthese. Doch ist diese Erklärung weder hinreichend noch umfassend genug, denn »Die Analyse bedingt zwar oft die Aufspaltung einer Verbindung in einfachere Stoffe (manchmal jedoch nur Abtrennung), sie ist jedoch nicht der genau umgekehrte Vorgang der Synthese, da ihr Ziel nicht die Gewinnung einfacherer Stoffe aus komplizierten, sondern - zwar oft mittels dieses Prozesses - deren Aufklärung nach Art und/oder Menge ist.« 2) Die Analyse zielt also nicht auf die Stoffebene, sondern versucht mit Blick auf ein chemisches System vielmehr dessen Art, die Menge seiner Elemente und seine Struktur während eines Zeitpunktes vollständig zu beschreiben. Da es also um die Information geht, könnte man Analyse definieren als »Transformation der in einem Objekt latent vorhandenen Informationen in aktive Information.« 3) oder mit Blick auf das technische Verfahren als »Ein System, das mindestens zwei Elemente (Probe und Reagenz) enthält sowie eine Relation (Signal) und das insgesamt der Informationsgewinnung dient.« 4)

»Die Analytik liefert optimale Strategien zur Gewinnung und Verwertung 
relevanter Informationen über Zustände und Prozesse in stofflichen Systemen. 
Chemisch orientierte Verfahren und Methoden sind dabei 
taktische Hilfsmittel zur Erreichung von Teilzielen.«
Gottschalk: "Zukunftsaspekte der Analytik"

»Chemische Analytik ist die Wissenschaft von der Gewinnung 
und verwertungsbezogenen Interpretation von Informationen 
über stoffliche Systeme mit Hilfe naturwissenschaftlicher Methoden.«
Gesellschaft Deutscher Chemiker

Der Ablauf des analytischen Prozesses

Unabhängig vom gewählten Analysenverfahren findet sich eine immer gleiche Methodik in den folgenden Schritten:

  1. Erkennen des vorliegenden Problems als außerfachlicher Fragestellung
  2. Formulierung einer analytischen Fragestellung
  3. Wahl des geigneten Analyseverfahrens
  4. Probenahme
  5. Vorbereitung der Probe
  6. Messung
  7. Auswertung: Daten verarbeiten und Fehler berechnen
  8. Kritische Interpretation des Analysenresultats

1. Außerfachliche und analytische Fragestellung

Es gilt: 1. Abwesenheit von Beweisen ist nicht Beweis von Abwesenheit.
Aber es gilt auch: //unus testis nullus testis//.

Fragestellungen ergeben sich aus konkreten Umweltsituationen: jemand ist betroffen durch die Situation, etwas hat sein Interesse erregt oder er sieht Probleme - kurzum, die Situation ist unklar und daraus erwächst ein Bedürfnis nach Information. Diese Information soll die zugrundeliegenden Fragen klären, z.B.:

  • Kann ich dieses Wasser ohne Gefahr für meine Gesundheit trinken?
  • Ist dieses oder jenes Lebensmittel vergiftet?
  • Welches Risiko gehen meine Kinder ein, wenn sie auf dem Kinderspielplatz spielen?
  • Ist die Luft in unserer Gegend, in unserem Haus schädlich?

Dieses Informationsbedürfnis ist klar, leicht verständlich und durch die subjektiven Interessen der Betroffenen enstanden. Entstanden ist es auch durch eine Güterabwägung: Gesundheit und Lebensqualität werden abgewogen gegen mögliche Risiken. Irgendein Anlaß hat die Betroffenen bewegt, sich diese Gedanken zu machen, z.B. schlechte Erfahrungen aus anderen Städten und Gebieten, Zeitungs- oder Fernsehberichte. Die näheren Umstände haben Mißtrauen erzeugt: vermehrt auftretende Erkrankungen oder Allergien, ein Chemieunfall auf der Straße oder in einem benachbarten Betrieb, die Erinnerung an längst vergessene Deponien oder Ähnliches. Dieses Mißtrauen mag dazu führen, daß den Aussagen städtischer Bediensteter oder den Pressereferenten größerer Betriebe kein Glauben geschenkt wird. Man will Sicherheit und glaubt diese am ehesten in der Wissenschaft zu finden. So wenden sich die Betroffenen an mehr oder weniger unabhängige Institute wie den TÜV, an kommerzielle Laboratorien oder an alternative Einrichtungen. Von ihnen erhoffen sie sich die Wahrheit.

Die Deutung der Wahrheit

Wahrheit bedeutet Wissenschaft: der hierfür zuständige Teil der Wissenschaft ist die analytische Chemie oder besser die Analytik.In einem Gespräch mit dem Analytiker werden sofort Probleme deutlich: Es gibt keinen Test, der die Fragen nach der Gesundheit so direkt und klar beantworten kann. Die Wahrheit des Analytikers ist eine verschlüsselte. Ähnlich dem Orakel bedarf sie der Deutung. Eine Unterhaltung zwischen Analytiker und Betroffenen könnte folgendermaßen ablaufen:

  • Also, ich möchte wissen, ob ich das Grundwasser aus meinem Garten trinken darf. Oder werde ich davon krank?
    • Nun, ich kann untersuchen, ob es den Grundanforderungen für Trinkwasser genügt.
  • Ich glaube nämlich, daß unser Wasser verseucht ist. Und wenn es den Anforderungen genügt, ist es dann gesund und macht nicht krank?
    • Normalerweise wird man dann nicht krank. Aber ganz sicher sein kann man nicht. Es kommt eben darauf an, was drin ist. Wonach sollen wir denn suchen?
  • Am liebsten nach allem, was krank macht.
    • Nun, das geht nicht. Wir können Tests machen, mit Fischen oder mit Bakterien oder anderen Lebewesen. Und wenn die Tiere gesund bleiben, ist das Wasser zumindest nicht so stark vergiftet, daß es akute Wirkungen hat.
  • Die armen Tiere. Das heißt, dann kann ich das Wasser bedenkenlos trinken?
    • Nein, natürlich nicht. Es können immer noch Stoffe drin sein, die sehr langfristig wirken, die krebserzeugend sind oder das Erbgut verändern oder die sich im Körper anreichern und erst nach Jahren ihre Giftwirkung zeigen.
  • Ja, dann suchen Sie im Wasser doch diese Stoffe.
    • Ach, wissen Sie: es gibt zehntausende Stoffe, von denen wir wissen, daß sie gefährlich sein können. Da brauchen wir Monate und Jahre, um die alle nachzuweisen. Besser wäre es, wenn Sie einen Verdacht haben. Wenn also in Ihrer Gegend viel Landwirtschaft ist, könnte es sinnvoll sein, nach Nitraten zu suchen oder nach Pestiziden. Oder wenn Sie von einer Deponie in der Nähe wissen, könnten wir das berücksichtigen. Oder wenn eine alte Autowerkstatt in Ihrer Nachbarschaft liegt, dann würden wir nach Mineralölen suchen.
  • Und dann können Sie herausfinden, ob das Wasser völlig frei von diesen Schadstoffen ist?
    • Wir können schon untersuchen, wieviel von diesen Schadstoffen im Wasser ist. Aber auch das geht nur bis zur Nachweisgrenze. Dann kann immer noch etwas drin sein, aber das können wir mit unseren Methoden nicht herausfinden.
  • Das enttäuscht mich aber sehr. Dann kann ich ja nie ganz sicher sein, daß ich sauberes Wasser habe.
    • Das gibt es ja nie und das hat es auch auf der Erde noch nie gegeben. In jedem Wassertropfen können alle Stoffe, die es auf der Welt gibt, enthalten sein. Aber eben so wenig von jedem, daß sie wahrscheinlich keinen Schaden anrichten.
  • Jetzt werde ich aber ein bißchen vorsichtig: was heißt denn „wahrscheinlich keinen Schaden anrichten“?
    • Ja, wissen Sie, wir Analytiker können herausfinden, ob ein Stoff oberhalb der Nachweisgrenze in einer bestimmten Konzentration vorliegt. Aber wir wissen doch nicht, ob dieser Stoff Schaden anrichtet und falls ja, bei welcher Konzentration. Das machen die Toxikologen. Und wenn die das von einem Stoff nicht wissen - ja, dann hilft es Ihnen auch nicht zu wissen, in welcher Konzentration der vorliegt. Und möglicherweise sind manche Stoffe schädlich, obwohl wir sie nicht nachweisen können. Anders herum sind auch manche Stoffe unschädlich, obwohl wir sie nachweisen können.
  • Sie meinen, Sie können mir eine Analyse machen von allen Stoffen, die mich interessieren. Und dann habe ich alle diese Analysenergebnisse und kann noch immer nicht mit Sicherheit sagen, ob es für mich schädlich ist, wenn ich das Wasser trinke?
    • So ist es. Sie müssen herausfinden, was die Zahlen bedeuten. Von vielen wissen wir das, da können wir dann Gefahren ausschließen. Aber ein Restrisiko bleibt immer.

In einem solchen Gespräch muß das allgemeine Interesse der Betroffenen in die Fachsprache des Analytikers übersetzt werden. Dabei wird es gleichzeitig zerlegt in analytisch beantwortbare Teilfragen. Erst diese sind dann mit der wissenschaftlichen Methodik untersuchbar. Nach Beendigung der Untersuchung erfolgt der gleiche Vorgang umgekehrt. Teilergebnisse werden verständlich gedeutet und formuliert. Aus der Summe der Teilantworten sollte sich die übergeordnete Antwort für den Interessenten konstruieren lassen. Das Kritische dieser Vorgehensweise liegt auf der Hand: es wird zweimal übersetzt und es wird zweimal interpretiert. Das Ergebnis ist sicher eine wissenschaftlich fundierte Wahrheit, aber nicht unbedingt Wahrheit in der Qualität, wie sie die Betroffenen erwarten.

Graham Priest: 
Gibt es mehr als nur wahr oder falsch?
Die westliche Philosophie mit ihrer Logik war über Jahrtausende nicht bereit, 
wahre Widersprüche zu tolerieren.
Das buddhistische Denken kennt da einen faszinierenden anderen Weg: 
Das Catuṣkoṭi.
DIE ZEIT Nr. 25/2020

Ergebnis und Resultat

Dieser Prozeß macht die so gewonnenen Wahrheiten außerordentlich anfällig für Manipulationen. Auseinandersetzungen lassen sich daher oft nicht mit dieser Vorgehensweise schlichten, da beide Parteien diese Wahrheiten für sich instrumentalisieren können. Pointiert lassen sich sechs Strategien unterscheiden:

  1. Das Ergebnis ist richtig, man verläßt sich hundertprozentig darauf.
  2. Das Resultat ist falsch, da das Analysenverfahren in irgendeinem Punkt nicht vorschriftsmäßig durchgeführt wurde. (Beispiel: Probenahmefehler)
  3. Das Resultat ist richtig, aber nicht anwendbar, da es unter völlig unrealistischen Bedingungen zustande kam. (Beispiel: Asbestfaser- und Staubmessungen in einem menschenleeren Raum mit abgeschalteten Maschinen, der sonst intensiv genutzt wird)
  4. Das Resultat ist richtig, aber irrelevant, da dem Analytiker eine falsche oder interessegeleitete Fragestellung vorlag. (Beispiel: Der Schulträger beauftragt ein Institut, die Asbestbelastung einer Schule mit dem Ziel zu messen, welche Maßnahmen die Schule baldmöglichst wieder nutzbar machen)
  5. Das Resultat kann richtig oder falsch sein. Es ist aber nicht anwendbar, da die Fragestellung zu eng gefasst wurde. Weitere Fragen bleiben offen und müssen durch zusätzliche Untersuchungen erst geklärt werden. (Beispiel: Messung der Schadstoffbelastung des Waldes ohne eindeutig bekannte Wirkungszusammenhänge mit der Erkrankung von Bäumen)
  6. Das Resultat ist richtig, aber in seiner Anwendung auf den Einzelfall zweifelhaft, da es nur statistische Aussagen ermöglicht. (Beispiel: An einem Arbeitsplatz werden 20000 Asbestfasern pro Kubikmeter gemessen, damit ist für die dort Arbeitenden das Lungenkrebsrisiko 2:100000)

Im konkreten Fall mag es durchaus möglich sein, daß alle Strategien gleichzeitig auf dasselbe Analysenergebnis angewandt werden, da unterschiedliche Gruppen unterschiedliche Interessen haben.Es mag paradox erscheinen, daß eine wissenschaftlich exakt geführte, enorm aufwendige Untersuchung zu einem Ergebnis führt, das nahezu beliebig bewertet werden kann. Der Wert der Untersuchung ist damit selber in Frage gestellt!

Das Bemühen von Analytikern, Labors und Instituten um ein möglichst richtiges und objektives Ergebnis bewirkt einerseits standardisierte, anerkannte und vergleichbare Analysenverfahren mit einer Vielzahl genauester Angaben, Voraussetzungen und Bedingungen über Probenahme, Probenvorbereitung, Messung, Auswertung, Angabe von Ergebnis und Fehler, deren Beachtung einen äußerst gewissenhaft arbeitenden Analytiker verlangt. So umfasst die DIN 52400 Teil 2 „Bestimmung des Schwefelgehaltes in Mineralölen“ sechs kleinbedruckte A 4-Seiten mit Querverweisen auf weitere acht DIN-Ausgaben.

Andererseits sind die Auftraggeber meist analytische Laien. Für sie zählt das Ergebnis nicht als Produkt eines solch komplexen Prozesses verstehen, sondern oft nur als Ja-Nein-Grundlage einer Entscheidung. das objektive Ergebnis muss situativ etwas ergeben, ein subjektives Resultat bewirken. Dann muß sich der Analytiker fragen:

  • Wie kann ich dem Auftraggeber deutlich machen, daß das exakt anmutende, mathematisch formulierte Ergebnis am Ende eines aufwendigen Analysenverfahrens steht und als solches auch mit dessen Voraussetzungen, Bedingungen und Einschränkungen behaftet ist?
  • Wie wird das Ergebnis vom Auftraggeber in dessen ursprüngliche Problematik eingeordnet? Bildet es das letzte Steinchen eines Puzzles und ist so durch Querbezüge abgesichert oder dient es als isolierte Grundlage einer vielleicht weitreichenden Entscheidung?

Der verantwortungsvolle Analytiker muß zusätzliche Hinweise über den Aussagewert seiner Untersuchung liefern; er muß sich klar sein, daß sein Resultat eine interpretationsbedürftige Information darstellt. Der Chemiker R. Pudill meint dazu: »Es reicht jedoch nicht, einem Auftraggeber nur Analysenwerte zu liefern. Ebenso wichtig ist die zusätzliche Bewertung der Ergebnisse und die Abschätzung ihrer Auswirkungen. Die Umweltanalytik kann ihre Aufgaben daher nur lösen, wenn sie sich interdisziplinär versteht und neben den Naturwissenschaften auch die Ökologie, die Toxikologie und die Gesellschaftswissenschaften einbezieht.« 5)

2. Die Formulierung des analytischen Problems

Die Schwierigkeit des Analytikers besteht nun darin, aus diesem unauflösbaren Konflikt heraus eine analytisch umsetzbare Fragestellung herauszukristallisieren. Ohne jetzt auf Einzelfälle einzugehen, lassen sich die Ziele des Analytikers in etwa folgenden Zielgruppen zuordnen 6):

  1. Ein stoffliches System ist vollständig beschrieben, wenn Art und Menge seiner Komponenten in ihrer räumlichen Verteilung und Anordnung sowie in ihren zeitlichen Veränderungen bekannt sind. Bei heterogenen Systemen sind Phasengrenzen und Objektebenen zu beachten. Dieses absolute Ziel wird nur äußerst selten angestrebt und ist kaum zu erreichen.
  2. Die partielle, gezielte Information: Man weiß schon etwas über die Geschichte der Probe und sucht einen bestimmten Stoff, der lediglich identifiziert und bestimmt werden muss.
  3. Der gesuchte Stoff ist unbekannt, jedoch sind Wirkungen erkennbar, die auf eine materielle Ursache hinweisen. Der gesuchte Stoff muß isoliert, charakterisiert und seine Anteile quantifiziert werden.
  4. Der gesuchte Stoff ist Reaktionsprodukt (Metabolit) einer bekannten Komponente und somit wenigstens teilweise bekannt. Das weitere Verfahren entspricht 2 und 3.
  5. Der gesuchte Stoff ist nicht nur eine einzige Komponente, sondern eine Gruppe von Substanzen mit ähnlichen Wirkungen. Beispielsweise könnten das die mehr als 20 polychlorierten Biphenyle (PCB) sein.
  6. Das zu Bestimmende ist so wenig abgrenzbar, daß es nur aufgrund bestimmter vereinbarter Verfahren nachgewiesen und bestimmt werden kann. Andererseits ist eine Abgrenzung vielleicht überflüssig, da die Wirkung durch die allgemeine Aussage bereits hinreichend charakterisiert ist. Beispiele sind Kennzahlen wie der totale organische Kohlenstoff in Wasser oder die Hydroxyzahl.
  7. Die zu bestimmenden Komponenten sind Hauptbestandteile, d.h. ihre Anteile liegen zwischen 1 und 99%. Das ist die klassische Fragestellung.
  8. Der interessierende Stoff ist Hauptbestandteil in hoher Konzentration von etwa 99%. In diesem Fall spricht man von Reinheitsprüfung. Es werden die Nebenbestandteile bestimmt und als Verunreinigungen bewertet. Der Reinheitsgehalt folgt aus der Differenz zu 100%.
  9. Ein gesicherter Grenzwert für die Abwesenheit gewisser Komponenten ist zu garantieren, z.B. Wassergehalt unter 0,5%.
  10. Eine oder mehrere Phasen müssen getrennt quantitativ oder qualitativ analysiert werden.
  11. Mehrphasensysteme werden unter gleichzeitiger Mittelung analysiert, z.B. klassische Gesteinsanalysen.
  12. Die Analyse bezieht sich auf einen zwar begrenzten Teilbereich, der jedoch ständigen äußeren Einflüssen unterliegt, z. B. bestimmte Organe im Organismus.
  13. Ziel ist die Aufklärung atomarer oder molekularer Strukturen. Reinheit und Phasenverhalten werden als bekannt vorausgesetzt. Für Strukturanalysen ist die Einheitlichkeit im chemischen Sinne unabdingbar.
  14. Bestandteile werden auf niedrigerem Hierarchieniveau bestimmt, z.B. der Gehalt an aromatischen Aminen durch Titration mit Säuren.
  15. Die zu bestimmenden Stoffe haben eine gemeinsame Eigenschaft, die es ermöglicht, ein charakteristisches Signal als Funktion der Zeit mit Detektoren zu verfolgen, z.B. Wärmeleitfähigkeitsmessung im strömenden Gas, spektrometrische Methoden, Waage.
  16. Bestimmung physikalisch-chemischer Eigenschaften von Stoffen und Systemen, z.B. die Bestimmung der Löslichkeit, des Siedepunktes usw. Hier besteht ein gleitender Übergang zu Nachbardisziplinen, z.B. der Physik und Biologie.

Methodenorientierte und problemorientierte Analytik

Die methodenorientierte Analytik entwickelt und optimiert Analysenprinzipien, -methoden und -verfahren unter den Anforderungen der problemorientierten Analytik. Deren Aufgabenstellungen sind:

  1. Die vergleichende Qualitätskontrolle in der landwirtschaftlichen und industriellen Produktion sowie beim Umweltschutz. Materialien werden hinsichtlich festgelegter Kenngrößen, Grenzwerte usw. untersucht.
  2. Die Untersuchung von im allgemeinen unerwünschten Nebenprodukten und Mechanismen, die meist mit Produktion oder Verwendung der Substanzen gekoppelt ist.
  3. Die wissenschaftliche Grundlagenforschung bezüglich Zusammensetzung, Struktur und zeitlicher Änderung natürlicher Objekte und Prozesse.

3. Die Wahl eines geeigneten Analysenverfahrens

Der Analytiker sucht nach Informationen, die im Untersuchungsobjekt als statisches Signal gespeichert sind. Der gesamte Weg vom statischen Signal bis zur Information wird Analysenverfahren genannt. Die dazu benötigten Analysenmittel stellen sich als Methoden dar, die stofflich und energetisch Wechselwirkungen provozieren zwischen den Bestandteilen der zu untersuchenden Probe einerseits und mit von außen kontrolliert zugeführten Stoffen und Energien andererseits, wobei diese Wechselwirkungen zu messbaren Werten führen, welche nach gesicherten mathematischen Verfahren zielgerichtet ausgewertet werden können.

Analysenprinzipien

Soll beispielsweise der Gehalt des Objektes an einer bestimmten Komponente untersucht werden, so werden sich eine Reihe von Analysenprinzipien finden lassen, die grundsätzlich zur Wechselwirkung mit dieser Komponente geeignet sind (siehe im Abschnitt „Messung“). Schließen wir der Einfachheit halber einmal elastische Wechselwirkungen der Komponente mit elektromagnetischer und Teilchenstrahlung aus und beschränken uns auf das Feld der reaktionsenergetischer Vorgänge. Die chemische Reaktion kann durch ihren Verlauf, durch Zwischen-, Übergangs- und Endprodukte sowie den dabei auftretenden Zustandsänderungen analytisch verwertbare Informationen liefern. Als Meßgrößen sind erfassbar:

  • Masse
  • Volumen
  • Druck
  • Teilchenzahl
  • Konzentration und Konzentrationsänderungen
  • Reaktionsgeschwindigkeit und Geschwindigkeitskonstante
  • Reaktionsordnung
  • Reaktionszeit und Halbwertszeit

Da diese Meßgrößen mit den analytischen Informationen nur über stöchiometrische Faktoren zusammenhängen, stellen chemische Reaktionen Absolutmethoden dar, die wiederum zum Eichen anderer Methoden dienen. Damit eine Reaktion in diesem Sinne verwendet werden kann, müssen drei Voraussetzungen erfüllt sein:

  1. Eindeutigkeit des Reaktionsablaufs,
  2. Vollständigkeit der Umsetzung und
  3. hinreichend große Reaktionsgeschwindigkeit.

Da chemische Reaktionen meist mit messbaren thermischen Effekten verbunden sind, ergeben sich weitere thermische Meßgrößen als Grundlage von Analysenprinzipien, nämlich:

  • Temperatur und Wärmemenge
  • Wärmeleitfähigkeit
  • Schmelz-, Erstarrungs-, Verdampfungs-, Sublimations-, Umwandlungs-, Verdünnungs-, Mischungs- und Reaktionsenthalpie
  • Schmelz- und Siedepunkte usw.

Diese Fülle möglicher Analysenprinzipien steigt ins Unermessliche durch methodische Varianten, wie nachfolgend am Beispiel der Bestimmung von Schwefelsäure in wässrigen Proben sichtbar wird. Auf der Basis chemischer Reaktionen bieten sich als zugrundeliegende Prinzipien etwa an:

  • Reaktionen mit Bariumverbindungen
  • Reaktionen mit Calciumverbindungen
  • Reaktionen mit Bleiverbindungen
  • Reaktionen mit Laugen

Analysenmethoden

Das Analysenprinzip enthält keine Aussage darüber, wie die Reaktion durchgeführt wird und was gemessen wird. Es empfiehlt sich daher, von Analysenmethode zu reden, sobald das „Wie“ geklärt ist. Die ausgewählte Reaktion kann unter zahlreichen unterschiedlichen Bedingungen durchgeführt werden, denn

  • die Zustandsgrößen Temperatur, Druck, Konzentration sind variabel,
  • Zusätze von Hilfsreagentien sind möglich (Indikatoren),
  • es können andere Lösungsmittel gewählt werden (z.B. Ethanol zum Verbessern einer Fällung).
  • Bei der apparativen Umsetzung sind den Möglichkeiten kaum Grenzen gesetzt.

Beispielsweise kann die Reaktion mit Bariumchlorid in einem Tropfen unter dem Mikroskop, auf der Tüpfelplatte oder in einem Reagenzglas durchgeführt werden. Das Resultat ist immer qualitativ: es läßt sich erkennen, ob Sulfat vorliegt oder nicht - quantitative Aussagen lassen sich nicht machen. Alle drei Methoden sind schnell durchführbar. Der Einsatz von Mikroskop und Tüpfelplatte ist sinnvoll, wenn beispielsweise die zur Verfügung stehende Probenmenge sehr gering ist.

Der apparative Aufwand steigt, wenn die Methode quantitative Aussagen ermöglichen soll. Beispielsweise kann die Titration mit einer normalen Bürette oder einer Mikrobürette erfolgen. Die Reaktion mit Bariumhydroxid läßt sich gravimetrisch erfassen oder titrimetrisch, bei letzterer Methode können Farbindikatoren eingesetzt werden oder der Endpunkt konduktometrisch bestimmt werden. Beim Einsatz von Farbindikatoren ist wiederum der Einsatz des Photometers möglich. Aus diesen drei Prinzipien ergeben sich zahlreiche Methoden:

1. Fällung und nachfolgende gravimetrische Bestimmung 
 1.1 mit Bariumverbindungen 
  1.1.1 über Bariumchlorid 
  1.1.2 über Bariumhydroxid 
  1.1.3 über Bariumperchlorat 
  1.1.4 über Bariumacetat 
 1.2 mit Calciumverbindungen 
  1.2.1 über Calciumchlorid 
  1.2.2 über Calciumhydroxid 
  1.2.3 über Calciumoxalat 
 1.3 mit Bleiverbindungen 
  1.3.1 über Bleichromat
2. Neutralisationstitration mit Säure-Base-Indikatoren zur Endpunktbestimmung 
 2.1 mit Natronlauge 
 2.2 mit Kalilauge
3. Fällungstitration mit allen unter 1. genannten Möglichkeiten 
 3.1 und konduktometrische Gehaltsbestimmung
 3.2 und amperometrische Gehaltsbestimmung 
 3.3 und potentiometrische Gehaltsbestimmung
4 Photometrische Bestimmung 
 4.1 mit Parafuchsin 

Anforderungen und Voraussetzungen zur Auswahl einer Analysenmethode

Über die Auswahl einer geeigneten Analysenmethode entscheiden gänzlich andere Kriterien. Auf der einen Seite begrenzen die apparative Ausstattung des Labors, die Erfahrung und die Fähigkeiten des Analytikers die Auswahl der Methode. Auf der anderen Seite stehen die Anforderungen des Interessenten:

  • Wie genau soll der Gehalt dieser Komponente bestimmt werden?
  • Wie schnell wird das Ergebnis benötigt?
  • Wie sicher soll das Ergebnis sein?
  • Handelt es sich um eine Einzelbestimmung oder soll regelmäßig gemessen werden?
  • Wie teuer darf der ganze Vorgang sein?

Unter Berücksichtigung dieser Anforderungen sollten sich bereits einige Analysenmethoden von anderen abheben. Es kann sich dabei nur um eine Vorauswahl handeln, da das zu untersuchende Objekt selbst bisher noch nicht berücksichtigt wurde. Je mehr über dieses Objekt bzw. die Probe bekannt ist, desto erfolgreicher kann eine vielversprechende Analysenmethode ausgewählt und daraus ein Analysenverfahren entwickelt werden:

  • Ist die Zusammensetzung der Probe zeitlich konstant oder verändert sie sich?
  • Ist die Probe homogen oder besteht sie aus mehreren Phasen?
  • Welche Probenmengen stehen zur Verfügung?
  • In welchem Gehaltsbereich liegt die zu bestimmende Komponente vor (z.B. ppm, bis 1%, bis 10%, bis 99%)?

Werden beispielsweise Wasserproben aus Oberflächengewässern gezogen, so ist durchaus mit einer sich verändernden Probe zu rechnen: darin enthaltene Algen verändern den Sauerstoffgehalt, so können Bakterien Ammonium umsetzen. Man muß daher überlegen, einige Parameter gleich vor Ort zu messen oder die Probe geeignet zu konservieren (kühlen, einfrieren). Kontinuierliche Messungen ermöglichen differenzierte Aussagen über das zeitliche Verhalten, möglicherweise können unbekannte Anfangswerte extrapoliert werden.

Eine Wasserprobe kann durchaus heterogen sein, auch wenn sie auf den ersten Blick völlig klar und gleichmäßig erscheint. Sauerstoff und Kohlenstoffdioxid sind nahezu immer darin gelöst; bei Tiefenwasser muss jedoch ein Ausgasen verhindert werden bzw. entwichenes Gas aufgefangen und getrennt untersucht werden, weil sich Löslichkeiten ändern, wenn sich Druck und Temperatur der Probe ändern.

Die Probenmengen können begrenzt sein, etwa bei Proben von Lebewesen oder wertvollen Objekten. Dann stehen vielleicht nur Milligrammengen zur Verfügung oder es handelt sich von vorneherein um Mikroanalytik mit Substanzmengen im Mikrogrammbereich. Auch das schränkt die Wahl der Methode ein.

Aber zurück zu unserem schwefelsäurehaltigen Wasser. Eine solche Probe ist meist problemlos. Sicher sind auch hier sulfatabbauende Bakterien möglich, aber sehr selten und wir können von einer stabilen Probe ausgehen. Auch die Probenmengen sollten nicht ungewöhnlich klein sein, da Regen, Grundwasser, Oberflächenwasser hinreichend vorhanden sind. Schwierig wird es allerdings mit dem Gehaltsbereich: Schwefelsäure liegt in Regenwasser im ppm-Bereich vor und dies begrenzt die Anwendbarkeit einiger Methoden. So kann beispielsweise nicht mit Natrium- oder Kalilauge titriert werden, da diese sehr schnell mit dem Kohlenstoffdioxid aus der Luft reagieren und bei solch geringen Gehaltsmengen die Resultate entscheidend verfälschen. Auch Titrationen mit anderen Lösungen sind nur möglich, wenn entweder sehr stark verdünnte Lösungen und/oder Mikrobüretten eingesetzt werden. Es muß dann in Vorversuchen ermittelt werden, ob die Konzentrationsänderungen stark genug sind, um mittels Farbindikatoren oder konduktometrisch erkannt zu werden. Gravimetrische Bestimmungen erfordern in diesem Arbeitsbereich große Probenmengen, sehr genaues Arbeiten und extrem genaue Analysenwaagen. Die Methode der Wahl wäre in diesem Fall vermutlich die konduktometrische Titration mit Bariumacetat aus der Mikrobürette.

Die geeignete Analysenmethode ist nun gewählt, das Analysenverfahren ist jedoch noch nicht vollständig. Anforderungen des Auftraggebers hinsichtlich Genauigkeit, Preis, Zeitaufwand können erst anhand des vollständigen Analysenverfahrens bestimmt werden.

4. Die Probenahme

Bei der Probenahme wird ein Teil des Analysenobjektes stellvertretend für das Ganze entnommen; selber möglichst klein, soll die Probe das Objekt in allen zu untersuchenden Eigenschaften exakt abbilden: die Probe repräsentiert das Objekt. Diese Forderung kann relativ einfach erfüllt werden, wenn das zu untersuchende Objekt räumlich und zeitlich homogen ist. Genau genommen wird dies niemals der Fall sein. Alle Regeln für die Probenahme bezwecken jedoch, dieses Ideal zu erreichen. Selbst im scheinbar einfachsten Fall, der Probenahme aus Luft, sind die Verhältnisse verzwickt: Raumluft unterscheidet sich von Außenluft, die Luft über Straßen ändert sich schon nach wenigen Metern, an Kreuzungen herrschen wieder andere Verhältnisse, bei Sonnenschein finden andere Reaktionen statt als nachts, Wind und Regen tun ein übriges.

Viele allgemeine Regeln lassen sich vor diesem Hintergrund verstehen:

  • Einzelproben haben nahezu keine Aussagekraft.
  • Gleichzeitige Stichproben erlauben für den abgedeckten Bereich eine Durchschnittsanalyse.
  • Meßreihen erlauben Aussagen über die zeitliche Entwicklung.
  • Alle Umstände der Probenahme müssen festgehalten werden, da sie die Probe beeinflussen.

Die Methodik der Probenahme berücksichtigt dies durch Einzel-, Sammel-, Stich-, Teil- Mischproben. Für die meisten Einzelfälle gibt es in der Literatur genaue Angaben über die Technik der jeweiligen Probenahme. Diese Vorgehensweisen entstammen letztlich der Erfahrung und sind durch vergleichende Untersuchungen mit statistischen Methoden verifiziert worden. Sie sind optimale Annäherungen an das Ideal. Ein Probenahmefehler wird so minimiert, haftet jedoch mit einer bestimmten Größe am Ergebnis.

Die Menge der zu nehmenden Probe richtet sich sowohl nach dem Anteil der zu bestimmenden Komponente in der Probe als auch nach der Menge, die mit dem ausgewählten Analysenverfahren bestimmbar ist. Diese Mengen sind im System der analytischen Mengenbereiche festgelegt:

  1. Arbeitsbereich A=m x
    Zulässiger Verfahrensbereich der Mengen für den zu bestimmenden Bestandteil x
  2. Probenmengenbereich P= m + m x y
    Nötige Probenmenge aus der zu bestimmenden Komponente x und der Matrix y (Summe der übrigen Bestandteile) m x
  3. Gehaltsbereich G
    Gehalt der Probe an der zu bestimmenden Komponente x in Massenprozenten

5. Die Probenvorbereitung

Die Probe ist die Informationsquelle für die Messung. Oft sind jedoch die gesuchten Informationen, die statischen Signale, nicht in der vorliegenden Form meßbar, unter störenden Einflüssen verdeckt oder zu schwach. Die Probenvorbereitung beseitigt diese Mängel und passt die Probe optimal an das nachfolgende Meßverfahren an. Dabei darf der zu untersuchende Bestandteil nur in eindeutiger Weise verändert werden.
Informationstheoretisch betrachtet wird dadurch die gesuchte Information verstärkt (angereichert), gefiltert (getrennt) oder umcodiert (in eine meßbare Form überführt). Dabei darf die Information nur mathematisch eindeutig, jedoch nicht zufällig verändert werden.

Die chemischen Verfahren zur Probenvorbereitung basieren auf Verfahren zum Trennen, Lösen und Aufschließen. Diese werden so eingesetzt, dass

  • der zu untersuchende Bestandteil angereichert wird.
  • oder störende Bestandteile derart »maskiert« werden, dass sie nicht mehr stören (Innere Trennung).

Homogenisieren der Probe durch Lösen oder Aufschließen

Während des Messvorgangs muss die Probe räumlich und zeitlich homogen sein, andernfalls muss sie stabilisert werden.
Räumliche Homogenität ist bei gasförmigen und flüssigen Stoffen meist gegeben oder kann durch Phasentrennung (Abscheiden, Filtern usw.) erreicht werden. Feste Proben werden durch Lösen oder Aufschließen homogenisiert. Der Übergang zwischen beiden Methoden ist fließend: Dabei bedeutet Lösen die Überwindung der Gitterenergie des zu lösenden Stoffes durch Solvatations- oder thermische Energie mit einem geeigneten Lösungsmittel.

Aufschlußmethoden dagegen beruhen auf chemischen Reaktionen im engeren Sinne:

  • Ionenreaktionen (ohne Redox-Vorgänge)
  • Redox-Reaktionen
  • Reaktionen in der Probe durch Energiezufuhr

Die folgende Tabelle gibt eine (unvollständige) Übersicht über mögliche Aufschlussmethoden:

1 Aufschlüsse über Ionenreaktionen
 1.1 in Lösung 
  mit HCl, HBr oder HJ 
  mit Schwefelsäure 
  mit Phosphorsäure 
  mit Alkalimetallhydroxid
  oder -carbonat-Lösungen
 1.2 in der Schmelze 
  mit Hydrogensulfaten oder Disulfaten 
  mit Alkalimetallhydroxiden 
  mit Alkalimetallcarbonaten
 1.3 Enzymatische Aufschlüsse
2 Aufschlüsse über Redoxreaktionen
 2.1 Oxidierende Verfahren 
  mit Sauerstoff oder Ozon 
  mit Oxonium-Ionen 
  mit Salpetersäure oder Stickoxiden 
  mit Wasserstoffperoxid 
  mit Peroxiden oder Persulfaten 
  mit Kaliumpermanganat 
 2.2 Reduzierende Verfahren 
  mit Wasserstoff 
  mit Kohlenstoff 
  mit Metallen oder metallorganischen Verbindungen 
  mit Lithiumaluminiumhydrid 
  mit Hydrazin 
  mit Natriumborhydrid
3 Aufschluß durch Energiezufuhr 
  mit thermischer Energie 
  mit elektrischer Energie 
  mit Strahlungsenergie

Phasentrennungen

Trennverfahren sollen feste, flüssige und gasförmige Phasen sauber voneinander trennen. Hierfür sind alle Methoden geeignet die bewirken, daß sich die Teilchen der unterschiedlichen Phasen entweder in verschiedene Richtungen bewegen und/oder unterschiedlich schnell in der gleichen Richtung bewegen. Dazu wird auf die zu trennende Probe von außen eine Kraft ausgeübt, die das bestehende Gleichgewicht in einneues überführt. Solche Kräfte entstehen durch Änderungen von Druck, Temperatur, Konzentration, elektrischem-, magnetischem oder Schwerefeld und wirken auf die Eigenschaften der Teilchen: Teilchenmasse, -ladung, -größe oder Eigenschaften der Phasen: Dampfdruck, Dichte, Löslichkeit.

Beispiele für Trennverfahren durch unterschiedliche Teilchenbeschleunigung in Feldern

Elektrisches Feld Magnetfeld Schwerefeld
Teilchenmasse Elektrodialyse Massenspektrometrie Zentrifugieren, Dekantieren
Teilchengröße Elektrophorese Magnetscheidung Filtrieren, Sieben
TeilchenladungElektrolyse Elektrofiltration

Beispiele für Trennverfahren aufgrund unterschiedliche Wanderung in den Zustandsgradienten

DruckTemperaturKonzentration
Teilchengröße, - masse Druckdiffusion Thermodiffusion Diffusion
Löslichkeit Entgasen Kristallisation, Ausfrieren Fällung, Extraktion
Dampfdruck Vakuum-Destillation Trocknung, Destillation, Sublimation
Absorption, AdsorptionAlle Arten der Chromatografie

6. Die Messung

Die Messung ist der komplexeste Vorgang im Analysenverfahren, bei dem die statischen, stoffgebundenen Informationen in dynamische Signale umgewandelt werden. Neben den unbegrenzt möglichen chemischen Reaktionen sind nach kursorischer Dursicht mehr als 300 Meßprinzipien geeignet, solche stofflich-energetischen Wechselwirkung einer Messung zugänglich zu machen.

Jedes einzelne Meßprinzip basiert auf einer eindeutigen Wechselwirkung mit bestimmten Bestandteilen der Probe. Diese Wechselwirkung wird durch eine Meß- oder Eichfunktion mathematisiert: die Meßgröße (Gewicht, Volumen, Extinktion, Leitfähigkeit usw.) entspricht dabei eindeutig der analytischen Information (Gehalt oder Struktur einer Komponente). Die Ergebnisse dieser Eichungen sind beispielsweise Spektrallinientabellen, die Schemata der Trennungsgänge, der elektrogravimetrische Faktor 1, Titrationsfaktoren oder eine mathematische Formel.

»Bei jeder Analyse wird die Probe über die Analysenfunktion
(u.U. ist das nur ein Umrechnungsfaktor) mit den Eichproben verglichen, 
die zur Eichung des Verfahrens benutzt wurden.
(Bei gängigen, bewährten Verfahren mag das lange her sein, 
der Autor und seine Arbeit mögen vergessen sein; 
seine Ergebnisse gehören jedoch zum anonymen Erfahrungsschatz der Analytischen Chemie)«
Methodicum Chimicum

Einteilung der Meßprinzipien

Die Vielzahl möglicher Meßprinzipien zeigt sich über die Gliederung der möglichen stofflich-energetischen Wechselwirkungen.

Bei den sogenannten elastischen Wechselwirkungen werden derzeit elektromagnetische- und Teilchenstrahlung eingesetzt. Die Energie der Strahlung ändert sich dabei nicht (elastische W.), es finden lediglich Richtungsänderungen statt; diese Veränderungen werden zur Strukturaufklärung genutzt. Dabei führt jede Wellenart durch Beugung, Brechung, Reflexion, Polarisation und Streuung zu unterschiedlichsten Meßprinzipien.

Bei den unelastischen Wechselwirkungen verändert sich die innere Energie der Probe: dabei charakterisiert der resultierende Energiebetrag die Art der vorhandenen Komponenten, während die Summe aller gleichartigen Energiequanten die Menge der Komponenten beschreibt:

  • der Reaktionsenergie (chemisches und elektrochemisches Potential)
  • der Aggregationsenergie (van-der-Waals-Kräfte, Gitterenergie)
  • der Molekülenergie (Rotations-, Schwingungs-, Dissoziationsenergie)
  • der Elektronenenergie (Elektronenmomente, -niveaus, Ionisierungsenergie)
  • der Kernenergie (Kernmomente, Nukleonenniveaus, Kernbindungsenergie)
  • der Translationsenergie (Masse, Ladung)

Die folgende Tabelle deutet die Vielzahl der Möglichkeiten nur an, die durch die oben aufgeführten Wechselwirkungen möglich sind.

1. Änderungen der Reaktionsenergie (chemisches und elektrochemisches Potential)
 1.1 Potentialänderungen durch Protonenaustausch
 1.2 Potentialänderungen durch Ionen- oder Radikalreaktionen
  1.2.1 Lösen und Aufschließen ohne Redoxvorgänge
  1.2.2 Fällungen ohne Redoxvorgänge
  1.2.3 Komplex- und Ligandenaustauschreaktionen
 1.3 Potentialänderungen durch Elektronenaustausch
  1.3.1 Redoxreaktionen in homogener Phase
   1.3.1.1 Oxidierende Verfahren
   1.3.1.2 Reduzierende Verfahren
  1.3.2 Redoxreaktionen an Phasengrenzflächen
   1.3.2.1 Verfahren ohne Elektrodenreaktion
    1.3.2.1.1 Konduktometrie
   1.3.2.2 Verfahren mit Elektrodenreaktionen
    1.3.2.2.1 Potentiometrie
    1.3.2.2.2 Amperometrie
    1.3.2.2.3 Elektrogravimetrie
    1.3.2.2.4 Elektrolytische Trennung
2 Änderungen der Aggregationsenergie
 2.1 Thermische Meßprinzipien
  2.1.1 Wärmeleitfähigkeitsmessungen
  2.1.2 Kalorimetrie
 2.2 Lösen ohne chemische Reaktionen
  2.2.1 Lösungsmittel
  2.2.2 Aufschließen durch Energiezufuhr
  2.2.3 Gleichgewichte an Phasengrenzflächen
   2.2.3.1 Ausschütteln
   2.2.3.2 Gaschromatografie
   2.2.3.3 Fällungen
   2.2.3.4 Destillation
3 Änderungen der Molekülenergie
 3.1 Mikrowellen-Spektroskopie
 3.2 IR-Spektroskopie
 3.3 Raman-Spektroskopie
4 Änderungen der Elektronenenergie
 4.1 UV-VIS-Spektroskopie
 4.2 Röntgen-Spektroskopie
 4.3 Elektronenspinresonanz-Spektroskopie
5 Änderungen der Kernenergie
 5.1 Kernresonanz-Spektroskopie
 5.2 Mößbauer-Spektroskopie
 5.3 Aktivierungsanalyse
6 Änderungen der Translationsenergie
 6.1 Beschleunigung im elektrischen und magnetischen Feld
  6.1.1 Massenspektrometrie
  6.1.2 Elektrodialyse
  6.1.3 Elektrolyse
 6.2 Beschleunigung im Schwerefeld
  6.2.1 Filtration
  6.2.2 Zentrifugation
 6.3 Unterschiedliche Wanderung im Zustandsgradienten
  6.3.1 Wanderung im Druckgradienten
   6.3.1.1 Druckdiffusion
   6.3.1.2 Reversosmose
  6.3.2 Wanderung im Temperaturgradienten
   6.3.2.1 Destillation
   6.3.2.2 Sublimation
  6.3.3 Wanderung im Konzentrationsgradienten
   6.3.3.1 Diffusion 

Die Meßgrößen des elektromagnetischen Spektrum sind Wellenlänge, Wellenzahl, Frequenz, Strahlungsenergie, thermische Energie, kinetische Energie, de-Broglie-Wellenlänge u.a.m. Ihnen liegen im Gegensatz zu den unelastischen Wechselwirkungen quantenoptische Erscheinungen und damit ein definierter Energieaustausch mit den Komponenten der Probe zugrunde.

7. Auswertung und Fehlerbetrachtung

Daten verarbeiten

Der Meßvorgang setzt sich zusammen aus:

  • der Codierung statischer Probensignale in dynamische Signale und
  • der Codierung dynamischer Signale in Meßgrößen.

Die mathematische Form der Codierung ist zum einen durch das Analysenprinzip festgelegt und wird durch gerätetechnische Randbedingungen der Analysenmethode beeinflußt. In ihrer Gesamtheit ergibt sich daraus die Meß- oder Eichfunktion; deren Umkehrfunktion wird Analysenfunktion genannt. Für unelastische Wechselwirkungen gilt:

Eichfunktion w = f (z) Meßgröße w z z
Analysenfunktion z = g (w )
analytische Information z z

Es besteht eine Beziehung zwischen der Meßgröße (Gewicht, Volumen, Extinktion usw.) und der geforderten analytischen Information (z.B. Gehalt einer Komponente). Diese Beziehung wird immer durch Eichung der Methode erhalten, beispielsweise mittels einer Probe bekannter Zusammensetzung. Mit der Eichung werden die Koeffizienten der Analysenfunktion bestimmt. Diese Koeffizienten können nur dann im voraus festgelegt werden, wenn ihnen eine eindeutige chemische oder physikalische Bedeutung zukommt. Dies ist beispielsweise bei gravimetrischen und titrimetrischen Untersuchungen der Fall; eine zusätzlich noch stattfindende Faktorierung korrigiert dann lediglich Abweichungen, die sich aus dem Analysenverfahren ergeben (Konzentrationsänderungen einer älteren Lösung). Praktisch wird die Eichung gravimetrischer und titrimetrischer Methoden nicht mehr durchgeführt, da die betreffenden Werte aus der Literatur bekannt sind. Analytische Information und Meßgröße unterscheiden sich bei diesen Verfahren nur durch einen stöchiometrischen Faktor z = a w z Im Falle elektrogravimetrischer Metallabscheidung ist dieser Faktor gleich eins.

Die Ergebnisse der Eichung kann die Beziehung zwischen Meß- und Analysengröße auf drei Arten darstellen:

  1. Die tabellarische Form wird meist gewählt bei Strukturanalysen (Spektrallinientabelle) und Elementanalysen: schematische Trennungsgänge enthalten die Information, ob ein Element vorhanden ist oder nicht. Andere Tabellen enthalten die Verhältnisse, mit denen Elemente in einer Verbindung enthalten sind (z.B. Sulfatanteil in Bariumsulfat).
  2. Graphische Darstellungen wählt man bevorzugt bei empirischen Eichungen. Aus Gründen der Ablesegenauigkeit wird eine lineare Kurvenform bevorzugt und gegebenenfalls durch Koordinatentransformation erreicht (logarithmisch, halb-logarithmisch). Dies ist die anschaulichste Form der Darstellung.
  3. Funktionsgleichungen sind die abstrakteste und komprimierteste Darstellungsform. Mathematisch geschulten Personen fällt das Erkennen von Gesetzmäßigkeiten leichter. Nachteilig ist die aufwendige Ableitung aus den Eichpunkten mittels Regression.

Am Beispiel einer Schwefelsäure-Bestimmung sollen diese Zusammenhänge verdeutlicht werden: Eine Lösung enthält einen exakten, aber uns unbekannten Sulfatanteil (statisches Signal 1). In der Reaktion mit Bariumacetat oder Calciumoxalat oder Bleichromat oder …. fällt ein schwerlösliches Produkt aus. Dieses Produkt enthält wieder denselben, uns immer noch unbekannten Sulfatanteil (statisches Signal 2). Dennoch liefert uns diese Reaktion alle Informationen, um an die gesuchte analytische Information (Sulfat- oder Schwefelsäuregehalt) zu gelangen.

Bei der gravimetrischen Vorgehensweise wird das schwerlösliche Produkt in sauberer, trockener Form gewogen (Meßgröße: Masse) und wir erhalten einen definierten Meßwert. Um daraus die gewünschte analytische Information zu erhalten, bedarf es der Eichung. Dazu könnte man Lösungen mit bekannter Sulfatkonzentration mit Bariumacetat oder Calciumoxalat oder Bleichromat oder …. umsetzen, das schwerlösliche Produkt wiegen und dessen Masse ins Verhältnis zu den bekannten Sulfatkonzentrationen setzen: Ergebnis wäre ein gleichbleibender analytischer Faktor a. Da die zugrundeliegenden Reaktionen naturgesetzlich determiniert sind, kann sich dieser Faktor niemals ändern und wird in Tabellenwerke oder analytische Handbücher aufgenommen. Die gesuchte Sulfatkonzentration z ergibt sich nun aus Multiplikation des Faktors a mit dem Meßwert w:
Analytische Information = Faktor x Meßwert

Dieselben Reaktionen können auch als Fällungstitration durchgeführt werden. Der Endpunkt der Reaktion wird konduktometrisch oder potentiometrisch bestimmt. Der eigentliche Meßwert ist dann das Volumen der zugegebenen Lösung (Bariumacetat, Calciumoxalat, Bleichromat) bekannter Konzentration. Die Eichung kann erfolgen wie bei der gravimetrischen Bestimmung. Sie kann aber auch nach der gleichen Methode titrimetrisch anhand Sulfatlösungen bekannter Konzentration durchgeführt werden. Auf jeden Fall erhält man auch hier einen Faktor, der jedoch auf die verwendeten Lösungen (z.B. c= 1 mol/l) bezogen und daher vom Faktor a verschieden ist. Die verwendeten Lösungen können von Labor zu Labor einen weiteren, jeweils unterschiedlichen Faktor haben (z.B. 0,9876), der aber nur zur Korrektur einer abweichenden Konzentration dient. Bei der Fällungsreaktion mit Bariumchlorid wäre sogar eine photometrische Bestimmung der entstehenden Trübung möglich; Bariumchlorid-Lösung würde im Überschuß zugesetzt. Meßwert ist dann die Extinktion. Zur Eichung werden verschiedene Sulfatlösungen unterschiedlicher Konzentration ebenso behandelt und man erhält entweder einen Umrechungsfaktor oder erstellt einen graphischen Zusammenhang zwischen Extinktion und Sulfatkonzentration.

Die Suche nach dem wahren Wert

Das Ergebnis obigen Beispiels ist ein Zahlenwert, der die Masse oder Konzentration angibt. Ein sorgfältiger Analytiker hat den gesamten Vorgang mehrfach wiederholt und erhält jedes Mal einen etwas anderen Zahlenwert. Das kann, muß aber kein Grund zur Beunruhigung sein.

Ziel des analytischen Prozesses ist es, einen wahren Wert zu finden. Nach all dem, was bislang ausgeführt wurde, scheint dies prinzipiell unmöglich zu sein. Anzustreben ist jedoch erstens eine möglichst gute Annäherung an den wahren Wert und zweitens eine Angabe, wie gut diese Annäherung ist. Wie kann der Analytiker herausfinden, ob er sich dem wahren Wert gut oder schlecht angenähert hat?

Nehmen wir an, eine Probe mit bekanntem Gehalt eines Stoffes wird von verschiedenen Personen mehrfach analysiert und die Ergebnisse werden anhand einer Zielscheibe verglichen, deren Mittelpunkt den wahren Wert darstellt. Dann lassen sich die folgenden Typen von Fehlern erkennen:

FehlerartPräzisionRichtigkeitKorrektur mittels
zufälliger F. schlecht gut Fehlerrechnung
systematischer F. gut schlecht Verfahrensänderung
grober F. mittel mittel Ausreißer-Test
Verfahrens-F. optimal optimal Verfahrensvergleich

Zufällige Fehler

Zufällige Fehler verursachen eine Streuung um den wahren Wert und beeinflussen die Reproduzierbarkeit der Werte. Sie sind unvermeidbar und hängen von Schwankungen der Fehlerquellen ab (z.B. natürliche Schwankungen beim Pipettieren). Zur Minimierung werden Wiederholungsmessungen mit demselben Verfahren und durch denselben Analytiker durchgeführt und der Mittelwert gebildet. Die mit statistischen Methoden errechenbare Streuung um den Mittelwert ist ein Parameter für die Genauigkeit der Messung.

Der Mittelwert ist eine optimale Annäherung an den wahren Wert, den man bei unendlichfacher Wiederholung der Messungen erhalten würde. Die Präzision steigt aber nicht linear mit der Anzahl zusätzlicher Messungen, sondern mit der Wurzel aus deren Anzahl: vier Messungen sind doppelt so genau wie eine Messung; hundert Messungen sind zehnmal so genau wie eine, aber nur fünfmal so genau wie vier Messungen. Messwerte mit steigender oder fallender Tendenz dürfen nicht zur Mittelwertbildung herangezogen werden. Die Meßwerte müssen der Gaußschen Normalverteilung gehorchen.

Ein Maß für die Streuung um den Mittelwert und somit für die Reproduzierbarkeit ist die Standardabweichung s; sie wird als Absolutfehler des Mittelwertes in dessen Maßeinheit angegeben. Die Varianz s und der Variationskoeffizient s sind gleichwertige Angaben, bedürfen jedoch der Umrechnung. Komplizierter liegen die Verhältnisse, wenn eine Größe nicht direkt gemessen, sondern aus jeweils fehlerbehafteten Einzelmessungen berechnet wird. Dann muß die Standardabweichung nach dem Gaußschen Fehlerfortpflanzungsgesetz ermittelt werden.

Systematische Fehler

Der systematische Fehler wird durch eine einseitige Tendenz in den Fehlerquellen verursacht und läßt sich durch Wiederholung des Verfahrens nicht ausschließen. Soweit diese bekannt sind, kann und muß er durch Korrekturen beseitigt werden. Systematische Fehler lassen sich häufig auch noch in der Auswertung korrigieren, ohne daß der Versuch wiederholt werden muß.

Absolute, systematische Fehlerquellen sind z.B.:

  • Verwendete Reagenzien sind nicht konstant, sondern wechselhaft verunreinigt. Blindwerte aus früheren Meßreihen sind damit falsch.
  • Während der Analyse wird, z.B. durch Einengen oder Stoffzugabe, die Löslichkeit der zu bestimmenden Komponente überschritten und ein Teil fällt aus.
  • Die zu bestimmende Komponente liegt in mehreren Formen vor oder wurde teilweise komplexiert und verhält sich damit im Analysenverfahren anders.
  • Das dynamische Signal einer Komponente wird von dem Signal einer anderen Komponente überlagert, verdeckt oder verändert (z.B. Peaks in der Gaschromatografie oder HPLC).

Relative, systematische Fehlerquellen sind:

  • mit verunreinigten Reagenzien erstellte Eichkurven;
  • falsche Gehaltsangabe der Standardlösungen;
  • falsche Umrechnungsfaktoren.

((aus: Ullmans Enzyklopädie der Technischen Chemie, Band 5, Bandermann: „Auswertung von Meßdaten“) )

Systematische Fehler lassen sich in Analysenverfahren nur durch komplexe statistische Verfahren aufdecken. Eine Möglichkeit ist die Modellanalyse: dabei wird die zu untersuchende Komponente in bekannter Konzentration vorgegeben und das Verfahren durchgeführt. Im Idealfall sollten die Ergebnisse nur um den Betrag des Zufallsfehlers schwanken - dies muß statistisch verglichen werden. Eine weitere, aufwendigere Möglichkeit ist es, das Verfahren bei wechselnden Parametern (Zeit, Konzentration, Temperatur, Reagenzien, Geräten, Analytiker) durchzuführen und die Ergebnisse und Varianzen zu vergleichen.

Grobe Fehler

Die groben Fehler sind nicht korrigierbar und können bei der statistischen Aufarbeitung der Ergebnisse nicht berücksichtigt werden. Sie gelten als Ausreißer und können mit geeigneten mathematischen Verfahren als solche erkannt werden (z.B. nach Nalimov). Fehlerquellen können beispielsweise sein:

  • Einstellung einer falschen Wellenlänge
  • Weglassen oder Zusatz eines Reaktanden
  • Ablesen auf falscher Skala usw.

Verfahrensfehler

Die Einteilung in einen Verfahrensfehler ist unüblich, da normalerweise nur die Fehler während der Durchführung einer Methode betrachtet werden. Sie ist aber nützlich, da schon bei der Auswahl eines Verfahrens dessen verfahrenseigener Fehler akzeptiert wird.

Ein Maß für Verfahrensinhärente Fehler ist der Störpegel, der durch das Untersuchen von Blindproben gemessen werden kann. Diese Abweichungen vom eigentlich zu erwartenden Basispegel (meist Null) entstehen beispielsweise durch die Brownsche Molekularbewegung bei der Waage oder das Rauschen in der Elektronik, Verunreinigungen der Reagenzien, Nebenreaktionen, Absorption an Gefäßwänden, Temperaturschwankungen der Lichtquelle bei der Spektroskopie.

Hier muß eine Grenze gezogen werden, bei der gemessene Werte noch als sinnvoll anerkannt werden können; diese Grenze ist die Nachweisgrenze. Sie erhält man, indem man zahlreiche Blindproben mißt, den Mittelwert und die Standardabweichung ermittelt. Zu 99,9% hat man kein Störsignal gemessen, wenn man die Nachweisgrenze um drei Standardabweichungen oberhalb des Mittelwertes festgelegt. Die Nachweisgrenze sagt daher aus, daß ein Meßwert in diesem Bereich zu 99,9% keine Störung ist, sondern durch die zu bestimmende Komponente verursacht wurde.

Nun ist allerdings jeder Meßwert an der Nachweisgrenze mit einer großen Streuung behaftet, dementsprechend ist seine Standardabweichung sehr groß. Dies führt zu einer seltsamen Schlußfolgerung: zwar sagt ein Meßsignal an der Nachweisgrenze aus, daß dieser Stoff sicher vorhanden ist - aber kein Meßsignal zu haben, bedeutet nicht die Abwesenheit dieses Stoffes. Aufgrund seiner Standardabweichung kann sein Meßsignal auch unterhalb der Nacheisgrenze liegen und wird damit nicht erfasst oder nicht anerkannt! Insgesamt wird man nur in 50% aller Fälle ein Meßsignal über der Nachweisgrenze erhalten.

Um nun in 99,9% aller Fälle, in denen eine Komponente vorliegt, ein positives Ergebnis zu finden, wurde die Bestimmungsgrenze definiert: sie liegt um sechs Standardabweichungen über dem Blindwert.

Fehlerquellen

Grundsätzlich lassen sich alle Fehler in den folgenden Kategorien erfassen:
1. Instrumentelle Fehler

  • Waage mit Schlagseite
  • schlecht oder nicht geeichte Meßgeräte
  • unreine Reagentien
  • defekte Geräte
  • angegebener Gerätefehler

2. Methodische Fehler

  • Mitfällung von Eisen und Mangan
  • Restlöslichkeit schwerlöslicher Substanzen
  • Nebenreaktionen
  • Absorption an Gefäßwänden

3. Handhabungsfehler

  • falsches Filterpapier
  • Siedeverzug
  • nicht abgedecktes Glas
  • Meßgeräte werden falsch bedient
  • Versuchsvorschriften werden nicht exakt beachtet

4. Menschliche Fehler

  • Erwartungen und Hoffnungen
  • Befürchtungen und Ängste bewirken einseitig falsche Handlungsweisen, durch die unbewußt ein bestimmtes Ergebnis bevorzugt oder verhindert werden soll.

Fehlerbetrachtung und Fehlerfortpflanzung

Das Analysenresultat soll nun kritisch betrachtet werden, dabei fließen die bisherigen Ausführungen über Fehler mit ein. Vorab sei nochmals daran erinnert, daß

Der gesuchte wahre Wert ist zwar eindeutig und unveränderlich, jedoch leider unbekannt. Das prinzipiell fehlerbehaftete Analysenergebnis nähert sich diesen Wert an. Durch die Fehleranalyse läßt sich der Bereich um den ermittelten Wert angeben, in dem der wahre Wert mit 95% oder 99%- oder 99,9%-iger Sicherheit zu finden ist - den Vertrauensbereich.

Der absolute Fehler

Die Abweichung des Meßwertes x vom wahren Wert u nennt man den absoluten Fehler: x - u = Fa Da der wahre Wert aber unbekannt ist, kann der absolute Fehler nicht auf diese Weise ermittelt werden; die Verfahren, ihn dennoch zu erhalten, werden im folgenden geschildert. Sie unterscheiden sich je nachdem, ob Einzel- oder Wiederholungsmessungen vorliegen.

Bei Einzelmessungen erhält man den absoluten Fehler am sichersten durch eine kritische Prüfung des Verfahrens. Dies beinhaltet aufwendige Kontrollmessungen und eine entsprechende statistische Auswertung. Lohnen wird sich dieser Aufwand vermutlich nur, wenn das Verfahren zur Serienanalyse eingesetzt wird. Hat der Analytiker bereits lange Erfahrung mit dem Verfahren, so ist auch das Schätzen zugelassen. Handelt es sich um ein älteres oder bekanntes Verfahren, so besteht die Möglichkeit in der Literatur auf eine Angabe des absoluten Fehlers zu stoßen. Eventuell finden sich im Handbuch auch Angaben des Geräteherstellers. Als unverzichtbares Minimum ist allerdings die Angabe der Ablesefehler aller verwendeten Meßgeräte erforderlich! Die beste Möglichkeit, den absoluten Fehler zu ermitteln und gleichzeitig zu verringern, ist die Wiederholungsmessung ist! Damit ermittelt man den absoluten Fehler als Standardabweichung s.

Die einfachste Methode: Angabe und Berücksichtigung der Ablesefehler

Meist wird sich der Analytiker damit begnügen, nur einmal zu pipettieren, zu titrieren oder abzuwiegen. Jeder dieser Meßwerte gilt dann als Einzelmessung. Ein solcher Wert wird nur mit so vielen (signifikanten, tragenden) Ziffern angegeben, wie es der absolute Fehler noch zuläßt. Der absolute Fehler ist dann beispielsweise der Pipettenbeschriftung oder Tabellen über die Genauigkeit von Pipetten zu entnehmen; bei Waagen macht der Hersteller meist Angaben über den absoluten Fehler in den verschiedenen Wägebereichen; bei Zeigerinstrumenten gilt meist der kleinste Skalenabstand als absoluter Fehler. Wert und Fehler werden immer zusammen angegeben:

1,6483 g +/- 0,0001 g 	5 signifikante Ziffern
Unmittelbar vor oder hinter dem Komma stehende Nullen gelten als nicht signifikant,
da sie nicht gemessen wurden: bei der Umwandlung in Zehnerpotenzen verschwinden sie.
0,0164 = 1,64 10-2 	3 signifikante Ziffern
0,00016 = 1,6 10-4 	2 signifikante Ziffern
Nullen, die zwischen den Ziffern oder unmittelbar hinter der letzten Ziffer stehen, 
sind signifikant, da sie gemessen wurden.
36,608 	5 signifikante Ziffern
641,0 	4 signifikante Ziffern

Wird das Analysenresultat aus mehreren Meßwerten berechnet, so bestimmt der ungenaueste Meßwert die Genauigkeit des Ergebnisses: hat der ungenaueste Meßwert drei signifikante Ziffern, so darf auch das Analysenresultat nur mit drei Ziffern Genauigkeit angegeben werden! Dieses Signifikanzverfahren ist eine Schätzung, die nach Regeln abläuft und keine mathematische Ermittlung des Fehlers: sie verhindert lediglich eine allzu große, unbegründete Genauigkeit.

Die Methode der Fehlerfortpflanzung

Um im Resultat für den absoluten Fehler exakte Zahlen anzugeben, müssen nicht nur alle Teilfehler bei allen Teilmessungen berücksichtigt werden. Es muß auch berücksichtigt werden, wie sich diese Teilfehler durch die Berechnungen fortpflanzen. Dies sei an enem einfachen Beispiel illustriert:

Tiegel mit Inhalt 	25,3692 g +/- 0,0001 g
Tiegel, leer	 25,2346 g +/- 0,0001 g
Masse des Inhalts 	0,1346 g +/- 0,0002 g

Es wird deutlich, daß sich die Fehler (bei Strichrechnung) addieren - egal, ob es sich dabei um Addition oder Subtraktion handelt. Mathematisch läßt sich das folgendermaßen schreiben:

E = x + y + z E = Endergebnis
E+ E = x + x + y + y + z + z E = Fehler des Ergebnisses
E = x + y + z x = Fehler der Einzelwerte
+ E+ E = E ( x + y + z ) -

Bei Punktrechnung gilt:

x + y E = z
x y z E = ( + + ) E x y z 

Beispiel: Eine Analyse erbringt folgende Zwischenergebnisse:

Auswaage = 0,1346 g 0,0002 g
Einwaage = 1,0898 g 0,0002 g
Faktor = 0,2394 0,0001
Auswaage x Faktor Analysenresultat = Einwaage
0,1346 g x 0,2394 = = 0,0295680 1,0898 g
0,0002 0,0002 0,0001 Fehlerfortpflanzung= ( + + ) x 0,029568 g = 0,000062 g 0,1346 1,0898 0,2394
+ Analysenresultat = 0,00295 g 0,00006 g -

8. Kritische Angabe des Analysenergebnisses

Ein zahlenmässiges »Ergebnis« ohne Kontext ist nicht vertrauenswürdig. Die Aussagekraft eines Ergebnisses lässt sich einschätzen, wenn es begleitet wird von Angaben zur Messwertverarbeitung, also:

  1. Benutzt man ein Analysenverfahren, dessen Verfahrensfehler bekannt ist (z.B. aus der Literatur), so kann man diesen Fehler getrost als Fehler des Analysenresultates angeben: alle anderen möglichen Fehlerangaben sind weniger umfassend.
  2. Gestaltet man sein eigenes Verfahren, so muß bei sehr hohen Ansprüchen in aufwendigen und vergleichenden Untersuchungen (evtl. gar in Ringversuchen mit anderen Laboratorien) der Verfahrensfehler bestimmt werden. Dabei werden systematische, zufällige und grobe Fehler ausgeschlossen. Dies wird im seltensten Fall geschehen - man muß auf anderem Wege zu einer Fehlerangabe gelangen.
  3. Der pragmatischste Weg führt über Wiederholungsmessungen zu einem Mittelwert und dessen Standardabweichung. Systematische Fehler werden damit nicht erfasst und müssen akzeptiert werden. Grobe Fehler werden ausgeschlossen, zufällige Fehler minimiert.
  4. Die Einzelmessung mit Angabe eines Fehlers als Ergebnis der Fehlerfortpflanzung lässt systematische und zufällige Fehler unerkannt. Grobe Fehler werden nur bei aufmerksamem Arbeiten erkannt.
  5. Die unzuverlässigste Methode ist eine Einzelmessung, die nur die signifikanten Stellen im Analysenresultat berücksichtigt. Fehler bleiben unerkannt, die Genauigkeit des Ergebnisses bleibt eingeschränkt.
1)
Brockhaus Enzylopädie
2)
Römpps Chemielexikon
3)
H. Malissa Education in Analytical Chemistry
4)
Malissa/Jellinek Automation in und mit der Analytischen Chemie
5)
„Recht und Analytik im Umweltschutz“, GIT Fachz. Lab. 8/88, S. 866
6)
angelehnt an „Ullmanns Enzyclopädie der technischen Chemie“
wiki/analytik.txt · Zuletzt geändert: 2021/08/18 05:02 von norbert

Donate Powered by PHP Valid HTML5 Valid CSS Driven by DokuWiki