Statistisches Denken für Analytiker - Block I (A 10)

Statistisches Denken für Analytiker - Block I (A 10)

Heidelberg

Seminar Nr. 16305

Diese Seminar ist Bestandteil des GMP-Lehrgangs "GMP-Beauftragter im analytischen Labor". Mehr über diesen GMP-Lehrgang erfahren.


Kosten

Die Veranstaltung hat bereits stattgefunden. Suchen Sie nach Wiederholungsterminen und weiteren, themenbezogenen Seminaren auf der Seite GMP Seminare/-Konferenzen nach Thema.

Rückfragen unter:
Tel.: 06221 / 84 44 0 E-Mail: info@concept-heidelberg.de

Sprecher

Dr. Joachim Ermer, Sanofi Aventis
Dr. Thomas Trantow, Analytik-Service Dr. Thomas Trantow

Zielsetzung

Block I: Ziel ist das Verstehen der statistischen Grundlagen der Streuung/Verteilung von Messwerten. Die Teilnehmer lernen, wie Datensätze durch Parameter wie Mittelwert und Standardabweichung beschrieben werden. Die Verwendung dieser Parameter in Berechnungen und statistischen Tests, insbesondere zum Datenvergleich, wird erklärt und geübt. Mit der Bewertung verschiedener Methoden zum Datensatzvergleich erhalten die Teilnehmer die Grundlage zur Auswahl einer für ihre Fragestellung geeigneten Vorgehensweise.
Die Empfehlungen der USP <1010> werden dabei berücksichtigt und erläutert.
Block II: Im Mittelpunkt stehen Verstehen und Anwendenkönnen von Methoden und Techniken wie z.B. Varianzanalyse zur Auswertung von Validierungsstudien und zur Beurteilung der Eignung analytischer Methoden für gegebene Produktspezifikationen.
Mit der Regressionsrechnung und geeigneten grafischen Darstellungen werden die Grundlagen der Beurteilung der Linearität analytischer Verfahren gelegt. Als weitere Anwendungen werden die statistische Auswertung von Stabilitätsstudien und die Schätzung der Bestimmungs-grenze analytischer Methoden vorgestellt und erklärt.
Kapitel zu Versuchsarten, zur Messunsicherheit und zu Trendanalysen runden das Seminar ab.

Hintergrund

Schon seit Jahren sind statistische Arbeitsmethoden in allen Bereichen von Analytik und Qualitätskontrolle etabliert.

Der neue, risikobasierte Ansatz setzt vermehrt Wissen und Verständnis voraus - auch hinsichtlich erforderlicher Stichprobenumfänge für konkrete Fragestellungen/Situationen - abhängig von Streuung (Vorwissen!) und erforderlicher Genauigkeit/Zuverlässigkeit der erstrebten Aussagen. Eine Entwicklung, die im Sinne des heute geforderten „scientific sound“ für den gesamten ICH-Raum gilt.

Aktuelle Anforderungen zum PQR erfordern Methoden zur Überprüfung auf Trends. Jede statistische Prozesskontrolle fußt auf statistischen Regeln. Zunehmend wichtiger werden statistisch geprägte Vorgehensweisen auch zum Datensatzvergleich für den Methodentransfer / Methodenvergleich oder für die Erarbeitung extrapolierender Stabilitätsaussagen.





Bei OOS-Untersuchungen und zur Überprüfung der Präzision im Rahmen von Methodenvalidierungen werden immer häufiger statistisch geprägte Versuchspläne eingesetzt. Das Setzen von Spezifikationen ist ein weiteres Einsatzgebiet, in dem Statistik zunehmend angewendet wird. Die USP-Monografie <1010> und ganz besonders die neuen USP-Monografien zu Potency-Assays (<1032>, <1033>, <1034>) sind stark von statistischen Methoden geprägt. Die neue USP-Monographie <1210> interpretiert mit ihrem Ansatz, die Unsicherheiten bei der Bewertung gegen die Akzeptanzlimits zu berücksichtigen, die „alte“ ICH-Guideline zur Methodenvalidierung (Q2) entsprechend dem heutigen Denken und führt zu mehr Sicherheit bei der Entscheidung zur Akzeptierung eines Analysenverfahrens für die Routineanalytik Aber nicht nur die amerikanischen Guidelines, auch das Aide Memoire Qualifizierung/Validierung der deutschen Inspektoren legt großen Wert auf Statistik.

Daher sind Kenntnis der Grundlagen, der Methoden und die Fähigkeit, sie sachgerecht anzuwenden, erforderlich.

Zielgruppe

Das Seminar ist für Mitarbeiter konzipiert, die Ergebnisse in der Entwicklung, der Methodenvalidierung, bei Stabilitätsprüfungen, beim Methodentransfer, bei Routineverfahren (auch in OOS-Situationen) ermitteln und bewerten. Angesprochen sind auch Mitarbeiter aus der Qualitätssicherung, die Daten-Reviews und Trendanalysen durchführen sowie Mitarbeiter aus den Bereichen Forschung und Entwicklung sowie Regulatory Affairs, die statistische Auswertungen erstellen oder bewerten und in Zulassungsunterlagen einarbeiten.

Programm

Grundlagen

  • Grundlagen des Konzeptes „Stichprobenprüfung zur Beurteilung einer Gesamtheit“ (Charge, Prozess, Produkt)
  • Grundlagen der Beschreibung von Zufallsereignissen
  • Verteilungen als Beschreibung von Zahlenmengen
  • Eigenschaften / Parameter der Normalverteilung
  • Streubereiche Einzelwerte / Stichprobenmittelwerte
  • Wahrscheinlichkeiten außerhalb definierter Bereiche liegender Werte
  • Übersichten zur Abhängigkeit des OOS-Risikos von Stichprobenumfang, Streuung, Spezifikation und wahrer Qualitätslage
Unsicherheit von stichprobenbasierenden Schätzwerten
  • Vertrauensbereiche zur Beschreibung der Unsicherheit von Mittelwerten und Standardabweichungen
  • t-Verteilung
  • F- und x²-Verteilung
Workshop 1: Mittelwert, Standardabweichung, Konfidenzintervall, Prognoseintervall
  • Ermittlung der Stichprobenparameter Mittelwert und Standardabweichung
  • Beurteilung der Stichprobengüte [Zuverlässigkeit der Stichprobenparameter (Konfidenzintervalle)]
  • Extrapolation von der Stichprobe auf die zugrunde liegende Gesamtheit
  • Berechnung des Erwartungsbereichs für künftige „normale“ Werte
Datensatzvergleich mithilfe statistischer Tests – Grundlagen
  • Gleichheit, Vergleichbarkeit oder Verschiedenheit
  • Reduktion von Datensätzen auf Ja-/Nein-Aussagen
  • Grundlagen Statistische Hypothesenprüfung
  • Prinzipien statistischer Tests
  • Fehler 1. und 2. Art (alpha- / beta-Fehler)
Datensatzvergleich mithilfe statistischer Tests – Details
  • Signifikanz bei statistischen Tests
  • Vergleich von Mittelwerten gegen festes Limit
  • Mittelwertvergleich mithilfe des Vertrauensbereichs
  • t-Test für verbundene und unverbundene Stichproben
  • Äquivalenztest
Workshop 2 und 3: Datensatzvergleich mithilfe statistischer Tests: Vergleich von Mittelwerten
  • Differenzen-t-Test
  • Äquivalenztest
Vergleich von Methoden zum Datensatzvergleich
  • Signifikanztests (F- und t-Test)
  • Äquivalenztest (USP <1010>)
  • Vorführung von Datensatzbeispielen
Setzen von Akzeptanzkriterien
  • Setzen von analytisch / statistisch brauchbaren Akzeptanzgrenzen
Anleitungen und Empfehlungen der USP <1010> zu statistischen Auswertungen im Überblick
  • Variabilität, Konfidenzintervalle
  • Methoden zur Datenprüfung / Ausreißerbewertung
  • Vergleich von Datensätzen zum Methodenvergleich: Streuung (precision), Richtigkeit (accuracy), Stichprobenumfänge
Empfehlungen und Anleitungen der NEUEN USP<1210> (Mai 2018) zur statistischen Auswertung von Methodenvalidierungen
  • Zielsetzung des erweiterten Ansatzes
  • Relevante Fragen/Überlegungen zur Vorbereitung/Planung einer Methodenvalidierung
  • Auswertung der Richtigkeit und der Streuung
  • Kombinierte Auswertung der Richtigkeit und Streuung
  • Schätzung der LOD aus der Streuung
  • Weitere mpfehlungen (Life Cycle Ansatz)
  • Vorführung eines Datenbeispiels

Zurück

GMP Seminare nach Thema

Cookies helfen uns bei der Bereitstellung unserer Dienste. Durch die Nutzung unserer Dienste erklären Sie sich damit einverstanden, dass wir Cookies setzen. Weitere Informationen

OK