Sprecher
Dr. Joachim Ermer, Sanofi-Aventis Deutschland GmbH
Dr. Thomas Trantow, Analytik-Service Dr. Thomas Trantow
Zielsetzung
Block I: Ziel ist das Verstehen der statistischen Grundlagen der Streuung/Verteilung von Messwerten. Die Teilnehmer lernen, wie Datensätze durch Parameter wie Mittelwert und Standardabweichung beschrieben werden. Die Verwendung dieser Parameter in Berechnungen und statistischen Tests, insbesondere zum Datenvergleich, wird erklärt und geübt. Mit der Bewertung verschiedener Methoden zum Datensatzvergleich erhalten die Teilnehmer die Grundlage zur Auswahl einer für ihre Fragestellung geeigneten Vorgehensweise.
Die Empfehlungen der USP <1010> werden dabei berücksichtigt und erläutert.
Block II: Im Mittelpunkt stehen Verstehen und Anwendenkönnen von Methoden und Techniken wie z.B. Varianzanalyse zur Auswertung von Validierungsstudien und zur Beurteilung der Eignung analytischer Methoden für gegebene Produktspezifikationen.
Mit der Regressionsrechnung und geeigneten grafischen Darstellungen werden die Grundlagen der Beurteilung der Linearität analytischer Verfahren gelegt. Als weitere Anwendungen werden die statistische Auswertung von Stabilitätsstudien und die Schätzung der Bestimmungs-grenze analytischer Methoden vorgestellt und erklärt.
Kapitel zu Versuchsarten, zur Messunsicherheit und zu Trendanalysen runden das Seminar ab.
Hintergrund
Schon seit Jahren sind statistische Arbeitsmethoden in allen Bereichen von Analytik und Qualitätskontrolle etabliert.
Der neue, risikobasierte Ansatz setzt vermehrt Wissen und Verständnis voraus - auch hinsichtlich erforderlicher Stichprobenumfänge für konkrete Fragestellungen/Situationen - abhängig von Streuung (Vorwissen!) und erforderlicher Genauigkeit/Zuverlässigkeit der erstrebten Aussagen. Eine Entwicklung, die im Sinne des heute geforderten „scientific sound“ für den gesamten ICH-Raum gilt.
Aktuelle Anforderungen zum PQR erfordern Methoden zur Überprüfung auf Trends. Jede statistische Prozesskontrolle fußt auf statistischen Regeln. Zunehmend wichtiger werden statistisch geprägte Vorgehensweisen auch zum Datensatzvergleich für den Methodentransfer / Methodenvergleich oder für die Erarbeitung extrapolierender Stabilitätsaussagen.
Bei OOS-Untersuchungen und zur Überprüfung der Präzision im Rahmen von Methodenvalidierungen werden immer häufiger statistisch geprägte Versuchspläne eingesetzt. Das Setzen von Spezifikationen ist ein weiteres Einsatzgebiet, in dem Statistik zunehmend angewendet wird. Die USP-Monografie <1010> und ganz besonders die neuen USP-Monografien zu Potency-Assays (<1032>, <1033>, <1034>) sind stark von statistischen Methoden geprägt. Die neue USP-Monographie <1210> interpretiert mit ihrem Ansatz, die Unsicherheiten bei der Bewertung gegen die Akzeptanzlimits zu berücksichtigen, die „alte“ ICH-Guideline zur Methodenvalidierung (Q2) entsprechend dem heutigen Denken und führt zu mehr Sicherheit bei der Entscheidung zur Akzeptierung eines Analysenverfahrens für die Routineanalytik Aber nicht nur die amerikanischen Guidelines, auch das Aide Memoire Qualifizierung/Validierung der deutschen Inspektoren legt großen Wert auf Statistik.
Daher sind Kenntnis der Grundlagen, der Methoden und die Fähigkeit, sie sachgerecht anzuwenden, erforderlich.
Zielgruppe
Das Seminar ist für Mitarbeiter konzipiert, die Ergebnisse in der Entwicklung, der Methodenvalidierung, bei Stabilitätsprüfungen, beim Methodentransfer, bei Routineverfahren (auch in OOS-Situationen) ermitteln und bewerten. Angesprochen sind auch Mitarbeiter aus der Qualitätssicherung, die Daten-Reviews und Trendanalysen durchführen sowie Mitarbeiter aus den Bereichen Forschung und Entwicklung sowie Regulatory Affairs, die statistische Auswertungen erstellen oder bewerten und in Zulassungsunterlagen einarbeiten.
Programm
Programm Block I
Grundlagen
- Grundlagen des Konzeptes „Stichprobenprüfung zur Beurteilung einer Gesamtheit“ (Charge, Prozess, Produkt)
- Grundlagen der Beschreibung von Zufallsereignissen
- Verteilungen als Beschreibung von Zahlenmengen
- Eigenschaften / Parameter der Normalverteilung
- Streubereiche Einzelwerte / Stichprobenmittelwerte
- Wahrscheinlichkeiten außerhalb definierter Bereiche liegender Werte
- Übersichten zur Abhängigkeit des OOS-Risikos von Stichprobenumfang, Streuung, Spezifikation und wahrer Qualitätslage
- Vertrauensbereiche zur Beschreibung der Unsicherheit von Mittelwerten und Standardabweichungen
- t-Verteilung
- F- und x²-Verteilung
- Ermittlung der Stichprobenparameter Mittelwert und Standardabweichung
- Beurteilung der Stichprobengüte [Zuverlässigkeit der Stichprobenparameter (Konfidenzintervalle)]
- Extrapolation von der Stichprobe auf die zugrunde liegende Gesamtheit
- Berechnung des Erwartungsbereichs für künftige „normale“ Werte
- Gleichheit, Vergleichbarkeit oder Verschiedenheit
- Reduktion von Datensätzen auf Ja-/Nein-Aussagen
- Grundlagen Statistische Hypothesenprüfung
- Prinzipien statistischer Tests
- Fehler 1. und 2. Art (alpha- / beta-Fehler)
- Signifikanz bei statistischen Tests
- Vergleich von Mittelwerten gegen festes Limit
- Mittelwertvergleich mithilfe des Vertrauensbereichs
- t-Test für verbundene und unverbundene Stichproben
- Äquivalenztest
- Differenzen-t-Test
- Äquivalenztest
- Signifikanztests (F- und t-Test)
- Äquivalenztest (USP <1010>)
- Vorführung von Datensatzbeispielen
- Setzen von analytisch / statistisch brauchbaren Akzeptanzgrenzen
- Variabilität, Konfidenzintervalle
- Methoden zur Datenprüfung / Ausreißerbewertung
- Vergleich von Datensätzen zum Methodenvergleich: Streuung (precision), Richtigkeit (accuracy), Stichprobenumfänge
- Zielsetzung des erweiterten Ansatzes
- Relevante Fragen/Überlegungen zur Vorbereitung/Planung einer Methodenvalidierung
- Auswertung der Richtigkeit und der Streuung
- Kombinierte Auswertung der Richtigkeit und Streuung
- Schätzung der LOD aus der Streuung
- Weitere mpfehlungen (Life Cycle Ansatz)
- Vorführung eines Datenbeispiels
Ansätze der Versuchsplanung - Fehlerschätzung/Fehlerfortpflanzung – Messunsicherheit
- Konfirmatorisch / exploratorisch / systematisch
- Randbedingungen der Auswertung / Grundlagen
- der Ergebnisqualität ( Zuverlässigkeit abgeleiteter Aussagen)
- Fehlerbetrachtung / Fehlerschätzung / Fehlerfortpflanzung
- Messunsicherheit nach GUM
- Beispiele
- Präzisionsebenen (System-, Wiederhol-, Vergleichs-präzision)
- erechnung der Präzisionsebenen mittels Varianzanalyse (ANOVA)
- Beurteilung und Verwendung der Varianzbeiträge (Optimierung von Analyseverfahren)
- Wie präzise muss es sein?
- Arbeiten mit Excel-Simulationen
- Berechnung einer einfaktoriellen ANOVA mit Excel
- Variabilität, Analysenergebnis (reportable result) und Spezifikationsgrenzen
- Methodenfähigkeitsindex
- Statistische Ausreißertests (nach Grubbs, Dixon, Hampel)
- Was ist akzeptabel im Rahmen einer OOS-Untersuchung?
- Variabilität, Grenzen und OOS-Ergebnisse; statistische Simulationen
- Optimierung der Gesamtpräzision eines Prüfverfahrens durch Variation der Anzahl an Mehrfachanalysen und –einwaagen
- Grundlagen
- Variabilität / Zufall in Datenreihen
- Durchführung von Trendanalysen, Formeln, Tools
- Kontrollkarten
- OOT-Prüfung von Haltbarkeitsdaten
- Auswertung / Diskussion von Datenreihen der Qualitätskontrolle („Trending“ zur Produktionsüberwachung)
- Bewertung der Linearität (grafisch, statistische Tests) und des Ordinatenschnittpunktes
- Regressionsparameter, Vertrauens- und Prognosebereich
- Welche Kalibrierung ist die Richtige?
- Ergebnisunsicherheit bei Mehrpunktkalibrierung
Beurteilen der Linearität von 3 Fallbeispielen
Auswertung von Stabilitätsstudien gemäß Guideline ICH Q1E
- ICH-Guideline zur statistischen Auswertung und Extrapolation von Stabilitätsergebnissen (ICH Q1E)
- Schnittpunkt Vertrauensbereich der Regressionsgeraden mit dem Limit der Laufzeitspezifikation
- Prüfung der Poolbarkeit
- Bewertung mittels Prognosebereich
- Prüfung der Variabilität der Daten (OOT?)
- Welche Aussage ist nach welcher Prüfdauer möglich?
- Auswertung einzelner Chargen
- Prüfung der Poolbarkeit (Vergleich der Veränderungsgeschwindigkeiten mehrerer Chargen)
- Gepoolte Auswertung
- Anforderungen in pharmazeutischer Analytik: aktuelle und allgemeine Bestimmungrenze
- Berechnung aus der linearen Regression (Standardabweichung des Ordinatenschnittpunkts, Reststandardabweichung, Prognoseintervall, DIN 32645, Ergebnisunsicherheit)
- Ableitung aus Präzisionsstudien
- Vergleich der Berechnungen und Fehlerquellen
Dieses Seminar/Webinar kann nicht gebucht werden. Alternative Termine für dieses Seminar/Webinar und ähnliche Veranstaltungen finden Sie in der Übersicht nach Thema..
Für viele Seminare und Webinare gibt es auch Aufzeichnungen, die Sie jederzeit bestellen und anschauen können. Diese Aufzeichnungen finden Sie in einer themensortierten Liste.
Oder senden Sie uns Ihre Anfrage einfach über das folgende Kontaktformular.
Dieses Seminar ist Bestandteil des GMP-Lehrgangs "GMP-Beauftragte/r im analytischen Labor (A)"
Haben Sie noch Fragen?
Wir stehen Ihnen für weitere Auskünfte gerne zur Verfügung.
Tel.: +49 6221 84 44 0
E-Mail: info@concept-heidelberg.de
Teilnehmerstimmen - das sagen andere über unsere Seminare: