Praktische Statistik für Analytiker - Block I und Block II (A 10 / A 11)

Praktische Statistik für Analytiker -  Block I und Block II (A 10 / A 11)

Mannheim

Seminar Nr. 18574

Dieses Seminar ist Bestandteil des GMP-Lehrgangs "GMP-Beauftragter im analytischen Labor". Mehr über diesen GMP-Lehrgang erfahren.

 

Rückfragen unter:
Tel.: 06221 / 84 44 0 E-Mail: info@concept-heidelberg.de

Sprecher

Dr. Joachim Ermer, Ermer Quality Consulting
Dr. Thomas Fürst, Boehringer Ingelheim

Zielsetzung

Block I: Ziel dieses Seminars ist, die statistischen Grundlagen der Streuung/Verteilung von Messwerten sowie von wichtigen statistischen Parametern und Tests verständlich zu vermitteln. Hierbei werden auch die im USP-Kapitel <1010> beschriebenen Grundlagen besprochen.

Sie lernen,
  •  wie Datensätze durch Parameter wie Mittelwert, Standardabweichung und Vertrauensbereich beschrieben werden,
  •  wie Sie diese Parameter in Berechnungen und statistischen Tests verwenden,
  •  wie Sie Komponenten der Variabilität von Analyseverfahren ermitteln, Datensätze vergleichen und die lineare Regression anwenden.
Die Referenten erklären anhand von Excel-Dateien zu statistischen Simulationen die grundlegende Bedeutung der analytischen Variabilität und deren Konsequenzen, z.B. bezüglich Spezifikationsverletzungen. Damit können Sie später auch eigene Fragestellungen mit verschiedenen Szenarien intuitiv erproben.
Mit einer praxisnahen Erläuterung und Bewertung der verschiedenen statistischen Methoden und deren Rahmenbedingungen erhalten Sie die Grundlagen zur Auswahl einer für Ihre Fragestellungen geeigneten Vorgehensweise. Dies wird in 5 Workshops sowie einem abschließenden Statistikquiz gefestigt.

Block II: Im Mittelpunkt stehen die Vertiefung und Erweiterung der grundlegenden statistischen Werkzeuge, insbesondere deren Anwendung im Rahmen des analytischen Lebenszyklusmodells nach dem Entwurf des USP-Kapitels <1220>.
Sie erfahren,
  • welche Anforderungen an die Präzision bei einer Gehaltsbestimmung bestehen und wie Sie diese unter Berücksichtigung der Unsicherheit der Präzision praktisch überprüfen,
  • welche Anforderungen der USP <1210> zur Target Measurement Uncertainty sowie an die Statistik diskreter Daten und Trendanalysen, auch für Stabilitätsbestimmungen, zu beachten sind.
Weitere Schwerpunkte des Seminars bilden die Regression, Kalibriermodelle sowie Nachweis- und Bestimmungsgrenzen.

3 Workshops dienen der Festigung und Anwendung des Erlernten.

Im abschließenden Workshop wird die praktische Umsetzung trainiert, wobei die Teilnehmer eigene Entscheidungen hinsichtlich Auswahl und Anwendung derjenigen statistischen Tests und Werkzeuge treffen müssen, die für die gegebenen Fragestellungen geeignet sind.

Für einen optimalen Lernerfolg sollten die Teilnehmer ein Notebook oder Laptop mir EXCEL 2007 oder höher mitbringen.

Hintergrund

Schon seit Jahren sind statistische Arbeitsmethoden in allen Bereichen von Analytik und Qualitätskontrolle etabliert, beispielsweise:
  •  In analytischer Methodenentwicklung und –validierung
  •  Beim analytischen Transfer
  •  Bei der Etablierung oder Bestätigung von Akzeptanz- bzw. Spezifikationsgrenzen
  •  Bei Bewertung, Vergleich und Trending von Daten.
Der risikobasierte Ansatz in ICH Q9 sowie Quality-by-Design entsprechend ICH Q8 setzen vermehrt Wissen und Verständnis bezüglich der analytischen Verfahren voraus - auch hinsichtlich erforderlicher bzw. erreichter Variabilität, Genauigkeit und Zuverlässigkeit für die jeweiligen Anwendungen bzw. Fragestellungen.

Ein umfassendes Verständnis der Leistungsfähigkeit der angewendeten analytischen Methoden ist der Schlüsselaspekt des Lebenszykluskonzeptes (USP Draft-Kapitel <1220>). Dies ist auch Voraussetzung für regulatorische Flexibilität, wie im Entwurf der ICH Q12 Guideline „Pharmaceutical Product Lifecycle Management“ als „enhanced established conditions“ beschrieben. Aktuelle Anforderungen zum PQR und der FDA-Guidance zur Methodenvalidierung erfordern Methoden zur Überprüfung auf Trends. Zunehmend wichtiger werden auch statistisch geprägte Vorgehensweisen zum Datensatzvergleich für den Methodentransfer bzw. -vergleich oder für die Erarbeitung extrapolierender Stabilitätsaussagen.

Das Setzen von Spezifikationen ist ein weiteres Einsatzgebiet, in dem Statistik intensiver angewendet wird. Die USP-Informationskapitel <1010> und ganz besonders die Kapitel zu Potency-Assays (<1032>, <1033>, <1034>) sind stark von statistischen Methoden geprägt. Kapitel <1210> interpretiert mit dem Ansatz, die Unsicherheiten bei der Bewertung gegen die Akzeptanzgrenzen zu berücksichtigen, die „alte“ ICH-Guideline zur Methodenvalidierung (Q2) entsprechend dem heutigen Denken und führt zu mehr Sicherheit bei der Entscheidung, ein Analysenverfahrens für die Routineanalytik zu akzeptieren. Die Anwendung geeigneter statistischer Werkzeuge spielt auch in der Revision der ICH /Q14 Guideline eine wichtige Rolle. Auch das Aide Memoire Qualifizierung/Validierung der deutschen Inspektoren legt großen Wert auf Statistik.

Statistik ist jedoch kein Selbstzweck. Von essentieller Bedeutung ist die richtige Auswahl und Anwendung derjenigen Berechnungen und Tests, die eine Antwort auf die praktische analytische Fragestellung liefern! Dazu soll dieser Kurs den Teilnehmern Orientierung geben. Ein grundlegendes Verständnis der „statistischen Sprache“ erleichtert auch die Kommunikation zwischen den beteiligten Bereichen wie Qualitätskontrolle und -sicherung, Produktion, regulatorische Funktionen und Behörden. 

Zielgruppe

Das Seminar ist für Mitarbeiter konzipiert, die Ergebnisse in der Entwicklung, der Methodenvalidierung, bei Stabilitätsprüfungen, beim Methodentransfer,  bei Routineverfahren sowie OOS und anderen Untersuchungen ermitteln und bewerten. Angesprochen sind auch Mitarbeiter aus der Qualitätssicherung, die Daten-Reviews und Trendanalysen durchführen, sowie Mitarbeiter aus den Bereichen Forschung und Entwicklung sowie Regulatory Affairs, die statistische Auswertungen erstellen oder bewerten und in Zulassungsunterlagen einarbeiten.

Hilfsmittel

Für einen optimalen Lernerfolg sollten die Teilnehmer ein Notebook oder Laptop mit Excel® 2007 oder höher mitbringen. 

Programm

Block I

Verteilung analytischer Daten
  • Fehlertypen (zufällig, systematisch)
  • Datenkategorien (Skalenniveaus)
  • Normal- (Gauß-) Verteilung, Lage- und Streuparameter
  • Log-Normalverteilung
  • Unsicherheit von statistischen Parametern 
  • Vertrauensbereiche
  • Zuverlässigkeit von Parametern
  • Statistische Sicherheit, Fehler 1. und 2. Art (alpha- / beta-Fehler)
  • Signifikante Stellen und Runden
Normal oder nicht normal?
  • Grafische Darstellung von normalverteilten Daten
  • Ausreißertests (Grubbs, Dean-Dixon, Hample, Bioassays)
Workshop Variabilität
  • Statistische Simulationen
  • Verteilung von Werten, Mittelwerten und Standardabweichungen
  • OOS-Wahrscheinlichkeiten
Fehlerfortpflanzung und Präzisionsebenen
  • Fehlerfortpflanzung, Messunsicherheit
  • Systempräzision
  • Wiederholpräzision
  • Labor- und Vergleichspräzision
  • Präzisionsberechnungen (aus Doppelbestimmungen, ein- und zweifaktorielle Varianzanalyse, Präzision aus linearer Regression/ Stabilitätsstudien)
Workshop Fehlerfortpflanzung und Varianzanalyse
  • Beispiel Fehlerfortpflanzung
  • Zuordnung ANOVA-Varianzen
Datenvergleich
  • Prinzipien statistischer Tests
  • Signifikanztests, t-Test (Mittelwert-, Sollwert-, paarweise)
  • Äquivalenztests (Mittelwert-, Sollwert-, paarweise)
  • Einfacher Vergleich, Variabilität und Mittelwertsunterschiede
Workshop Datenvergleich
  • Statistische Simulationen
  • Fehlerarten
  • Datensatzvergleich
  • Zufallsdifferenz von Mittelwerten
Lineare Regression
  • Korrelationsanalyse (Korrelationskoeffizient, Bestimmtheitsmaß)
  • Ungewichtete lineare Regression
  • Berechnungsparameter
  • Residuen
  • Sensitivitäten
  • Sinnvolle Überprüfung einer linearen Funktion
Workshop lineare Regression
  • Extrapolation und Ordinatenschnittpunkt
  • Grafische Linearitätsbewertung
Statistik-Quiz und abschließende Diskussion
 
Block II

Präzisionsanforderungen für Gehaltsbestimmungen)
  • Leistungsanforderung an die Analytik: Analytical Target Profile (ATP)
  • Lebenszykluskonzept (USP-Draft <1220>)
  • Ableitung einer akzeptablen Präzision aus Spezifikationsgrenzen
    • Mittels Standardunsicherheiten und Toleranzbereichen
    • Mittels Wahrscheinlichkeiten der Normalverteilung (USP <1033>)
Optimierung der Präzision
  • Experimentelle Überprüfung der Präzision: Schätzwert und Vertrauensbereich
  • Methodenpräzision: Präzision des Endergebnisses (reportable value)
  • Optimierung der Methodenpräzision (Replikationsstrategie)
  • Optimierung der Variabilität der Kalibrierung
  • Unsicherheit (Vertrauensbereich) der Methodenpräzision
Target Measurement Uncertainty, Simultane Bewertung von Richtigkeit und Präzision
  • Accuracy profile (SFSTP Vorschlag)
  • USP Informationskapitel <1210>
Workshop Präzision
  • Statistische Simulationen: Zuverlässigkeit der Methoden- und Vergleichspräzision, erforderliche Anzahl an Serien und Bestimmungen in Präzisionsstudien
  • Optimierung der Methodenpräzision durch Anzahl der Wiederholbestimmungen
Statistik diskreter Daten
  • Verteilungsfunktionen
  • Stichprobenpläne
  • Annahmewahrscheinlichkeiten, AQL Definition
  • Fehlerbewertungslisten
Trendanalysen
  •  Trendtest nach WALLIS-MOORE)
  •  Kontrollkarten (SHEWART, Range, CUSUM, attributiv)
  •  Monitoring der Methodenleistungsfähigkeit, welche Parameter sind geeignet?
Workshop Trendanalysen
  •  Identifizierung geeigneter Kontrollkarten für Beispieldatensätze
Regression und Kalibriermodelle
  •  Kalibrierung
    • interne, externe Standards, Standardaddition
    • Einpunktkalibrierung, Kalibrierfunktion
    • DIN 38402
  • Ungewichtete und gewichtete lineare Regression
  • Vertrauens- und Prognosebereiche
  • Absicherung des linearen Arbeitsbereichs
  • Statistische Linearitätstests (Mandeltest, ANOVA lack-of-fit)
  • ANVISA Forderungen
  • Nicht lineare Kalibriermodelle
  • Auswertung von Stabilitätsdaten nach ICH Q1E, pooling
Workshop Kalibriermodelle
  • Bewertung der Güte der Kalibration an Hand von Praxisbeispielen
Stabilitätstrending
  • Regulatorische Anforderungen
  • Vorteile einer OOT-Untersuchung bei Stabilitätsprüfungen
  • Statistische Methoden zur Identifizierung von Stabilitäts-OOT (Prognosebereich, Regressions-Kontrollkarte, Zeitpunktvergleich
Konzentrationsabhängigkeit der Präzision
  • Horwitz-Funktion
  • Akzeptanzkriterien bei Nebenproduktbestimmungen
Nachweis- und Bestimmungsgrenze
  • Anforderungen in pharmazeutischer Analytik: aktuelle und allgemeine Bestimmungsgrenze
  • Berechnung aus der linearen Regression (Standardabweichung des Ordinatenschnittpunkts, Reststandardabweichung, Prognoseintervall, DIN 32645, Ergebnisunsicherheit)
  • Ableitung aus Präzisionsstudien
Workshop
Anwendung der erlernten statistischen Methoden auf Beispieldaten und praktische Fragestellungen

Zurück

GMP Seminare nach Thema