Statistisches Denken für Analytiker - Block II (A11)

Statistisches Denken für Analytiker - Block II (A11)

Heidelberg

Seminar Nr. 16306

Diese Seminar ist Bestandteil des GMP-Lehrgangs "GMP-Beauftragter im analytischen Labor". Mehr über diesen GMP-Lehrgang erfahren.


Kosten

Die Veranstaltung hat bereits stattgefunden. Suchen Sie nach Wiederholungsterminen und weiteren, themenbezogenen Seminaren auf der Seite GMP Seminare/-Konferenzen nach Thema.

Rückfragen unter:
Tel.: 06221 / 84 44 0 E-Mail: info@concept-heidelberg.de

Sprecher

Dr. Joachim Ermer, Sanofi-Aventis Deutschland GmbH
Dr. Thomas Trantow, Analytik-Service Dr. Thomas Trantow

Zielsetzung

Block II: Im Mittelpunkt stehen Verstehen und Anwendenkönnen von Methoden und Techniken wie z.B. Varianzanalyse zur Auswertung von Validierungsstudien und zur Beurteilung der Eignung analytischer Methoden für gegebene Produktspezifikationen.
Mit der Regressionsrechnung und geeigneten grafischen Darstellungen werden die Grundlagen der Beurteilung der Linearität analytischer Verfahren gelegt. Als weitere Anwendungen werden die statistische Auswertung von Stabilitätsstudien und die Schätzung der Bestimmungs-grenze analytischer Methoden vorgestellt und erklärt.
Kapitel zu Versuchsarten, zur Messunsicherheit und zu Trendanalysen runden das Seminar ab.

Hintergrund

Schon seit Jahren sind statistische Arbeitsmethoden in allen Bereichen von Analytik und Qualitätskontrolle etabliert.

Der neue, risikobasierte Ansatz setzt vermehrt Wissen und Verständnis voraus - auch hinsichtlich erforderlicher Stichprobenumfänge für konkrete Fragestellungen/Situationen - abhängig von Streuung (Vorwissen!) und erforderlicher Genauigkeit/Zuverlässigkeit der erstrebten Aussagen. Eine Entwicklung, die im Sinne des heute geforderten „scientific sound“ für den gesamten ICH-Raum gilt.

Aktuelle Anforderungen zum PQR erfordern Methoden zur Überprüfung auf Trends. Jede statistische Prozesskontrolle fußt auf statistischen Regeln. Zunehmend wichtiger werden statistisch geprägte Vorgehensweisen auch zum Datensatzvergleich für den Methodentransfer / Methodenvergleich oder für die Erarbeitung extrapolierender Stabilitätsaussagen.





Bei OOS-Untersuchungen und zur Überprüfung der Präzision im Rahmen von Methodenvalidierungen werden immer häufiger statistisch geprägte Versuchspläne eingesetzt. Das Setzen von Spezifikationen ist ein weiteres Einsatzgebiet, in dem Statistik zunehmend angewendet wird. Die USP-Monografie <1010> und ganz besonders die neuen USP-Monografien zu Potency-Assays (<1032>, <1033>, <1034>) sind stark von statistischen Methoden geprägt. Die neue USP-Monographie <1210> interpretiert mit ihrem Ansatz, die Unsicherheiten bei der Bewertung gegen die Akzeptanzlimits zu berücksichtigen, die „alte“ ICH-Guideline zur Methodenvalidierung (Q2) entsprechend dem heutigen Denken und führt zu mehr Sicherheit bei der Entscheidung zur Akzeptierung eines Analysenverfahrens für die Routineanalytik Aber nicht nur die amerikanischen Guidelines, auch das Aide Memoire Qualifizierung/Validierung der deutschen Inspektoren legt großen Wert auf Statistik.

Daher sind Kenntnis der Grundlagen, der Methoden und die Fähigkeit, sie sachgerecht anzuwenden, erforderlich.

Zielgruppe

Das Seminar ist für Mitarbeiter konzipiert, die Ergebnisse in der Entwicklung, der Methodenvalidierung, bei Stabilitätsprüfungen, beim Methodentransfer, bei Routineverfahren (auch in OOS-Situationen) ermitteln und bewerten. Angesprochen sind auch Mitarbeiter aus der Qualitätssicherung, die Daten-Reviews und Trendanalysen durchführen sowie Mitarbeiter aus den Bereichen Forschung und Entwicklung sowie Regulatory Affairs, die statistische Auswertungen erstellen oder bewerten und in Zulassungsunterlagen einarbeiten.

Programm

Ansätze der Versuchsplanung - Fehlerschätzung/Fehlerfortpflanzung – Messunsicherheit

  • Konfirmatorisch / exploratorisch / systematisch
  • Randbedingungen der Auswertung / Grundlagen
  • der Ergebnisqualität ( Zuverlässigkeit abgeleiteter Aussagen)
  • Fehlerbetrachtung / Fehlerschätzung / Fehlerfortpflanzung
  • Messunsicherheit nach GUM
  • Beispiele
Präzisionsebenen, Berechnung und Bewertung
  • Präzisionsebenen (System-, Wiederhol-, Vergleichs-präzision)
  • erechnung der Präzisionsebenen mittels Varianzanalyse (ANOVA)
  • Beurteilung und Verwendung der Varianzbeiträge (Optimierung von Analyseverfahren)
  • Wie präzise muss es sein?
Workshop 1: Variabilität
  • Arbeiten mit Excel-Simulationen
Workshop 2: Varianzanalyse
  • Berechnung einer einfaktoriellen ANOVA mit Excel
Methodeneignung; OOS und Ausreißertests Berechnung und Bewertung
  • Variabilität, Analysenergebnis (reportable result) und Spezifikationsgrenzen
  • Methodenfähigkeitsindex
  • Statistische Ausreißertests (nach Grubbs, Dixon, Hampel)
  • Was ist akzeptabel im Rahmen einer OOS-Untersuchung?
Workshop 3: Methodeneignung
  • Variabilität, Grenzen und OOS-Ergebnisse; statistische Simulationen
  • Optimierung der Gesamtpräzision eines Prüfverfahrens durch Variation der Anzahl an Mehrfachanalysen und –einwaagen
Trendanalysen
  • Grundlagen
  • Variabilität / Zufall in Datenreihen
  • Durchführung von Trendanalysen, Formeln, Tools
  • Kontrollkarten
  • OOT-Prüfung von Haltbarkeitsdaten
Workshop 4: Trendanalyse
  • Auswertung / Diskussion von Datenreihen der Qualitätskontrolle („Trending“ zur Produktionsüberwachung)
Regressionsrechnung
  • Bewertung der Linearität (grafisch, statistische Tests) und des Ordinatenschnittpunktes
  • Regressionsparameter, Vertrauens- und Prognosebereich
Kalibrierung
  • Welche Kalibrierung ist die Richtige?
  • Ergebnisunsicherheit bei Mehrpunktkalibrierung
Workshop 5: Regression
Beurteilen der Linearität von 3 Fallbeispielen

Auswertung von Stabilitätsstudien gemäß Guideline ICH Q1E
  • ICH-Guideline zur statistischen Auswertung und Extrapolation von Stabilitätsergebnissen (ICH Q1E)
  • Schnittpunkt Vertrauensbereich der Regressionsgeraden mit dem Limit der Laufzeitspezifikation
  • Prüfung der Poolbarkeit
  • Bewertung mittels Prognosebereich
Workshop 6: Stabilitätsauswertung
  • Prüfung der Variabilität der Daten (OOT?)
  • Welche Aussage ist nach welcher Prüfdauer möglich?
  • Auswertung einzelner Chargen
  • Prüfung der Poolbarkeit (Vergleich der Veränderungsgeschwindigkeiten mehrerer Chargen)
  • Gepoolte Auswertung
Nachweis- und Bestimmungsgrenze
  • Anforderungen in pharmazeutischer Analytik: aktuelle und allgemeine Bestimmungrenze
  • Berechnung aus der linearen Regression (Standardabweichung des Ordinatenschnittpunkts, Reststandardabweichung, Prognoseintervall, DIN 32645, Ergebnisunsicherheit)
  • Ableitung aus Präzisionsstudien
  • Vergleich der Berechnungen und Fehlerquellen

Zurück

GMP Seminare nach Thema

Cookies helfen uns bei der Bereitstellung unserer Dienste. Durch die Nutzung unserer Dienste erklären Sie sich damit einverstanden, dass wir Cookies setzen. Weitere Informationen

OK