- Mitarbeitende aus Entwicklung, Analytik und Qualitätskontrolle, die analytische Daten ermitteln, vergleichen und bewerten (z. B. Methodenvalidierung, Stabilität, Methodentransfer, OOS)
- Kolleginnen und Kollegen aus der Qualitätssicherung, die Datenreviews, Trendanalysen und statistische Bewertungen durchführen
- Mitarbeitende aus den Bereichen Forschung und Entwicklung sowie Regulatory Affairs, die statistische Auswertungen erstellen oder bewerten und in Zulassungsunterlagen einarbeiten
Ziel des Seminars ist es, den Teilnehmenden ein praxisnahes und fundiertes Verständnis zentraler statistischer Methoden in der pharmazeutischen Analytik zu vermitteln. Das Seminar wurde hierfür neu konzipiert, um neben bewährten statistischen Grundlagen auch aktuelle Anforderungen und moderne Werkzeuge zu berücksichtigen.
Die Teilnehmenden lernen, analytische Daten korrekt zu beschreiben, zu vergleichen und zu bewerten sowie geeignete statistische Verfahren unter Berücksichtigung ihrer Grenzen und regulatorischen Anforderungen auszuwählen. Darüber hinaus werden neue Inhalte und Ansätze, wie der Einsatz von R sowie die Nutzung von Large Language Models (z. B. ChatGPT) zur Unterstützung bei statistischen Auswertungen und Skripterstellungen, praxisnah vorgestellt und diskutiert.
Wichtig: Für einen optimalen Lernerfolg sollten die Teilnehmenden ein Notebook oder Laptop, auf dem Excel installiert ist, mitbringen, idealerweise mit aktivierter Makrofunktion. Hilfreich, aber nicht unbedingt erforderlich, ist eine Installation von R und RStudio auf den Rechnern.
Verteilung analytischer Daten
- Fehlertypen (zufällig, systematisch)
- Datenkategorien (Skalenniveaus)
- Normal- (Gauß-) Verteilung, Lage- und Streuparameter
- Log-Normalverteilung
- Unsicherheit von statistischen Parametern
- Zuverlässigkeit von Parametern (Vertrauensbereiche)
- Signifikante Stellen
Normal oder nicht normal
- Grafische Darstellung von (normalverteilten) Daten (Run-Chart, Box-Whisker-Plot, Normalverteilungsplot)
- Zentraler Grenzwertsatz
- Ausreißertests (Grubbs, Dean-Dixon), deren Einschränkungen und Alternativen
Workshop Variabilität
- Statistische Simulationen
- Verteilung von Werten und Standardabweichungen
- OOS-Wahrscheinlichkeiten
Fehlerfortpflanzung und Präzisionsebenen
- Fehlerfortpflanzung, Messunsicherheit
- Systempräzision
- Wiederholpräzision
- Labor- und Vergleichspräzision
- Varianzanalyse und Präzisionsberechnungen
Optimierung der Präzision
- Methodenpräzision: Präzision des Endergebnisses (reportable result)
- Optimierung der Methodenpräzision (Replikationsstrategie, USP <1225> Rev.)
- Optimierung der Variabilität der Referenzstandardanalyse
- „Mittelwertsproblem“ der FDA (OOS-Guidance)
- Einfache oder statistische Bewertung (Vertrauensbereich)
Datenvergleich
- Prinzipien statistischer Tests (Hypothesentest)
- Signifikanztests, t-Test (Mittelwert-, Sollwert-, paarweise)
- Äquivalenztests
- Vertrauens-, Prognose- und Toleranzbereiche (ICH Q2(R2))
- Einfacher Vergleich, Variabilität und Mittelwertsunterschiede
Akzeptanzkriterien für Präzision und Richtigkeit
- Leistungsanforderungen an ein Prüfverfahren (Analytical Target Profile)
- Empirische Akzeptanzkriterien (Methodenfähigkeit)
- Anforderungsbasierte Akzeptanzkriterien (Ableitung aus Spezifikationsgrenzen)
- Aus Wahrscheinlichkeit der Normal- bzw. log-Normalverteilung
- Unsicherheits- oder Toleranzfaktoren
Large Language Models (ChatGPT…) für die Erstellung von R und Python Scripts
Fehlerbewertung von Pharmazeutika
- Berechnung von Stichprobenplänen
Workshop Datenvergleich
- Statistische Simulationen
- Mittelwertsdifferenzen, Äquivalenz- und Signifikanztests in Abhängigkeit von der Anzahl an Serien und Werten
Trendanalysen (mit Übungen)
- Regulatorische Erwartungen, USP <1221> Draft „Ongoing Procedure Performance Verification“
- Kontrollkarten (SHEWART, Spannweite, Standardabweichung, CUSUM, EWMA)
- Kontrollgrenzen und -regeln (statistisch, empirisch)
- Monitoring der Methodenleistungsfähigkeit, welche Parameter sind geeignet?
Modellierung von Zusammenhängen
- Anpassen von Funktionen an Daten
- Nähern von Dissolutionskurven
- Dosis-Wirkungskurven
- Polynome
- Splines
Kalibrierung (mit Übungen)
- Auswahl und Prüfung von Kalibriermodellen (Linear, nicht-linear, gewichtet, ungewichtet)
- Regressionskoeffizient
- Restfehler
- Beurteilung der Residuen
- Homo/Heteroskedastizität
- Lack-of-Fit Test
- Krümmungstest
- Rückrechnung von Kalibrierproben
Experimentelles Design (DoE) für Methodenentwicklung und Validierung
- allgemeine Einführung
- Software
Workshop DoE
Konzentrationsabhängigkeit der Präzision, Nachweis- und Bestimmungsgrenze (mit Übungen)
- Horwitz-Funktion
- Akzeptanzkriterien bei Nebenproduktbestimmungen
- Nachweis- und Bestimmungsgrenze: Eine Frage der Verteilung
- Anforderungen in pharmazeutischer Analytik: allgemeine und intermediäre Bestimmungsgrenze
- Blindwertverfahren, Signal-Rausch-Verhältnis
- Berechnung aus der linearen Regression
- Ableitung aus Präzisionsstudien
Zusammenfassungen & Diskussionen
Alle Seminartage schließen mit einer Zusammenfassung der besprochenen Themen und der Möglichkeit zur Diskussion ab.
Concept Heidelberg hat eine limitierte Anzahl an Zimmern im Konferenzhotel reserviert. Sie erhalten nach Ihrer Anmeldung ein Reservierungsformular oder einen Reservierungslink. Reservierungen laufen direkt über das Hotel. Es wird eine frühzeitige Reservierung empfohlen.
Teilnahmegebühr
€ 1.990,- zzgl. MwSt.
schließt 3 Mittagessen sowie Getränke während der Veranstaltung und in den Pausen ein. Zahlung nach Erhalt der Rechnung.
Präsentation/Zertifikat
Die Präsentationen für diese Veranstaltung stehen Ihnen vor und nach der Veranstaltung zum Download und Ausdruck zur Verfügung. Beachten Sie bitte, dass vor Ort keine gedruckten Unterlagen ausgegeben werden und dass Sie auch keine Möglichkeit haben, die Präsentationen vor Ort zu drucken. Alle Teilnehmer/innen erhalten im Anschluss an das Seminar ein Teilnahmezertifikat zugesandt.