header-image

Statistisches Denken für Analytiker (A 10 / A 11) - Kombibuchung: Sparen Sie EUR 400,-

6.-9. November 2018, Heidelberg

Seminar-Nr. 16307

Sprecher

Dr. Joachim Ermer, Sanofi-Aventis Deutschland GmbH
Dr. Thomas Trantow, Analytik-Service Dr. Thomas Trantow

Zielsetzung

Block I: Ziel ist das Verstehen der statistischen Grundlagen der Streuung/Verteilung von Messwerten. Die Teilnehmer lernen, wie Datensätze durch Parameter wie Mittelwert und Standardabweichung beschrieben werden. Die Verwendung dieser Parameter in Berechnungen und statistischen Tests, insbesondere zum Datenvergleich, wird erklärt und geübt. Mit der Bewertung verschiedener Methoden zum Datensatzvergleich erhalten die Teilnehmer die Grundlage zur Auswahl einer für ihre Fragestellung geeigneten Vorgehensweise.
Die Empfehlungen der USP <1010> werden dabei berücksichtigt und erläutert.
Block II: Im Mittelpunkt stehen Verstehen und Anwendenkönnen von Methoden und Techniken wie z.B. Varianzanalyse zur Auswertung von Validierungsstudien und zur Beurteilung der Eignung analytischer Methoden für gegebene Produktspezifikationen.
Mit der Regressionsrechnung und geeigneten grafischen Darstellungen werden die Grundlagen der Beurteilung der Linearität analytischer Verfahren gelegt. Als weitere Anwendungen werden die statistische Auswertung von Stabilitätsstudien und die Schätzung der Bestimmungs-grenze analytischer Methoden vorgestellt und erklärt.
Kapitel zu Versuchsarten, zur Messunsicherheit und zu Trendanalysen runden das Seminar ab.

Hintergrund

Schon seit Jahren sind statistische Arbeitsmethoden in allen Bereichen von Analytik und Qualitätskontrolle etabliert.

Der neue, risikobasierte Ansatz setzt vermehrt Wissen und Verständnis voraus - auch hinsichtlich erforderlicher Stichprobenumfänge für konkrete Fragestellungen/Situationen - abhängig von Streuung (Vorwissen!) und erforderlicher Genauigkeit/Zuverlässigkeit der erstrebten Aussagen. Eine Entwicklung, die im Sinne des heute geforderten „scientific sound“ für den gesamten ICH-Raum gilt.

Aktuelle Anforderungen zum PQR erfordern Methoden zur Überprüfung auf Trends. Jede statistische Prozesskontrolle fußt auf statistischen Regeln. Zunehmend wichtiger werden statistisch geprägte Vorgehensweisen auch zum Datensatzvergleich für den Methodentransfer / Methodenvergleich oder für die Erarbeitung extrapolierender Stabilitätsaussagen.





Bei OOS-Untersuchungen und zur Überprüfung der Präzision im Rahmen von Methodenvalidierungen werden immer häufiger statistisch geprägte Versuchspläne eingesetzt. Das Setzen von Spezifikationen ist ein weiteres Einsatzgebiet, in dem Statistik zunehmend angewendet wird. Die USP-Monografie <1010> und ganz besonders die neuen USP-Monografien zu Potency-Assays (<1032>, <1033>, <1034>) sind stark von statistischen Methoden geprägt. Die neue USP-Monographie <1210> interpretiert mit ihrem Ansatz, die Unsicherheiten bei der Bewertung gegen die Akzeptanzlimits zu berücksichtigen, die „alte“ ICH-Guideline zur Methodenvalidierung (Q2) entsprechend dem heutigen Denken und führt zu mehr Sicherheit bei der Entscheidung zur Akzeptierung eines Analysenverfahrens für die Routineanalytik Aber nicht nur die amerikanischen Guidelines, auch das Aide Memoire Qualifizierung/Validierung der deutschen Inspektoren legt großen Wert auf Statistik.

Daher sind Kenntnis der Grundlagen, der Methoden und die Fähigkeit, sie sachgerecht anzuwenden, erforderlich.

Zielgruppe

Das Seminar ist für Mitarbeiter konzipiert, die Ergebnisse in der Entwicklung, der Methodenvalidierung, bei Stabilitätsprüfungen, beim Methodentransfer, bei Routineverfahren (auch in OOS-Situationen) ermitteln und bewerten. Angesprochen sind auch Mitarbeiter aus der Qualitätssicherung, die Daten-Reviews und Trendanalysen durchführen sowie Mitarbeiter aus den Bereichen Forschung und Entwicklung sowie Regulatory Affairs, die statistische Auswertungen erstellen oder bewerten und in Zulassungsunterlagen einarbeiten.

Programm

Programm Block I

Grundlagen

  • Grundlagen des Konzeptes „Stichprobenprüfung zur Beurteilung einer Gesamtheit“ (Charge, Prozess, Produkt)
  • Grundlagen der Beschreibung von Zufallsereignissen
  • Verteilungen als Beschreibung von Zahlenmengen
  • Eigenschaften / Parameter der Normalverteilung
  • Streubereiche Einzelwerte / Stichprobenmittelwerte
  • Wahrscheinlichkeiten außerhalb definierter Bereiche liegender Werte
  • Übersichten zur Abhängigkeit des OOS-Risikos von Stichprobenumfang, Streuung, Spezifikation und wahrer Qualitätslage
Unsicherheit von stichprobenbasierenden Schätzwerten
  • Vertrauensbereiche zur Beschreibung der Unsicherheit von Mittelwerten und Standardabweichungen
  • t-Verteilung
  • F- und x²-Verteilung
Workshop 1: Mittelwert, Standardabweichung, Konfidenzintervall, Prognoseintervall
  • Ermittlung der Stichprobenparameter Mittelwert und Standardabweichung
  • Beurteilung der Stichprobengüte [Zuverlässigkeit der Stichprobenparameter (Konfidenzintervalle)]
  • Extrapolation von der Stichprobe auf die zugrunde liegende Gesamtheit
  • Berechnung des Erwartungsbereichs für künftige „normale“ Werte
Datensatzvergleich mithilfe statistischer Tests – Grundlagen
  • Gleichheit, Vergleichbarkeit oder Verschiedenheit
  • Reduktion von Datensätzen auf Ja-/Nein-Aussagen
  • Grundlagen Statistische Hypothesenprüfung
  • Prinzipien statistischer Tests
  • Fehler 1. und 2. Art (alpha- / beta-Fehler)
Datensatzvergleich mithilfe statistischer Tests – Details
  • Signifikanz bei statistischen Tests
  • Vergleich von Mittelwerten gegen festes Limit
  • Mittelwertvergleich mithilfe des Vertrauensbereichs
  • t-Test für verbundene und unverbundene Stichproben
  • Äquivalenztest
Workshop 2 und 3: Datensatzvergleich mithilfe statistischer Tests: Vergleich von Mittelwerten
  • Differenzen-t-Test
  • Äquivalenztest
Vergleich von Methoden zum Datensatzvergleich
  • Signifikanztests (F- und t-Test)
  • Äquivalenztest (USP <1010>)
  • Vorführung von Datensatzbeispielen
Setzen von Akzeptanzkriterien
  • Setzen von analytisch / statistisch brauchbaren Akzeptanzgrenzen
Anleitungen und Empfehlungen der USP <1010> zu statistischen Auswertungen im Überblick
  • Variabilität, Konfidenzintervalle
  • Methoden zur Datenprüfung / Ausreißerbewertung
  • Vergleich von Datensätzen zum Methodenvergleich: Streuung (precision), Richtigkeit (accuracy), Stichprobenumfänge
Empfehlungen und Anleitungen der NEUEN USP<1210> (Mai 2018) zur statistischen Auswertung von Methodenvalidierungen
  • Zielsetzung des erweiterten Ansatzes
  • Relevante Fragen/Überlegungen zur Vorbereitung/Planung einer Methodenvalidierung
  • Auswertung der Richtigkeit und der Streuung
  • Kombinierte Auswertung der Richtigkeit und Streuung
  • Schätzung der LOD aus der Streuung
  • Weitere mpfehlungen (Life Cycle Ansatz)
  • Vorführung eines Datenbeispiels
Programm Block II

Ansätze der Versuchsplanung - Fehlerschätzung/Fehlerfortpflanzung – Messunsicherheit
  • Konfirmatorisch / exploratorisch / systematisch
  • Randbedingungen der Auswertung / Grundlagen
  • der Ergebnisqualität ( Zuverlässigkeit abgeleiteter Aussagen)
  • Fehlerbetrachtung / Fehlerschätzung / Fehlerfortpflanzung
  • Messunsicherheit nach GUM
  • Beispiele
Präzisionsebenen, Berechnung und Bewertung
  • Präzisionsebenen (System-, Wiederhol-, Vergleichs-präzision)
  • erechnung der Präzisionsebenen mittels Varianzanalyse (ANOVA)
  • Beurteilung und Verwendung der Varianzbeiträge (Optimierung von Analyseverfahren)
  • Wie präzise muss es sein?
Workshop 1: Variabilität
  • Arbeiten mit Excel-Simulationen
Workshop 2: Varianzanalyse
  • Berechnung einer einfaktoriellen ANOVA mit Excel
Methodeneignung; OOS und Ausreißertests Berechnung und Bewertung
  • Variabilität, Analysenergebnis (reportable result) und Spezifikationsgrenzen
  • Methodenfähigkeitsindex
  • Statistische Ausreißertests (nach Grubbs, Dixon, Hampel)
  • Was ist akzeptabel im Rahmen einer OOS-Untersuchung?
Workshop 3: Methodeneignung
  • Variabilität, Grenzen und OOS-Ergebnisse; statistische Simulationen
  • Optimierung der Gesamtpräzision eines Prüfverfahrens durch Variation der Anzahl an Mehrfachanalysen und –einwaagen
Trendanalysen
  • Grundlagen
  • Variabilität / Zufall in Datenreihen
  • Durchführung von Trendanalysen, Formeln, Tools
  • Kontrollkarten
  • OOT-Prüfung von Haltbarkeitsdaten
Workshop 4: Trendanalyse
  • Auswertung / Diskussion von Datenreihen der Qualitätskontrolle („Trending“ zur Produktionsüberwachung)
Regressionsrechnung
  • Bewertung der Linearität (grafisch, statistische Tests) und des Ordinatenschnittpunktes
  • Regressionsparameter, Vertrauens- und Prognosebereich
Kalibrierung
  • Welche Kalibrierung ist die Richtige?
  • Ergebnisunsicherheit bei Mehrpunktkalibrierung
Workshop 5: Regression
Beurteilen der Linearität von 3 Fallbeispielen

Auswertung von Stabilitätsstudien gemäß Guideline ICH Q1E
  • ICH-Guideline zur statistischen Auswertung und Extrapolation von Stabilitätsergebnissen (ICH Q1E)
  • Schnittpunkt Vertrauensbereich der Regressionsgeraden mit dem Limit der Laufzeitspezifikation
  • Prüfung der Poolbarkeit
  • Bewertung mittels Prognosebereich
Workshop 6: Stabilitätsauswertung
  • Prüfung der Variabilität der Daten (OOT?)
  • Welche Aussage ist nach welcher Prüfdauer möglich?
  • Auswertung einzelner Chargen
  • Prüfung der Poolbarkeit (Vergleich der Veränderungsgeschwindigkeiten mehrerer Chargen)
  • Gepoolte Auswertung
Nachweis- und Bestimmungsgrenze
  • Anforderungen in pharmazeutischer Analytik: aktuelle und allgemeine Bestimmungrenze
  • Berechnung aus der linearen Regression (Standardabweichung des Ordinatenschnittpunkts, Reststandardabweichung, Prognoseintervall, DIN 32645, Ergebnisunsicherheit)
  • Ableitung aus Präzisionsstudien
  • Vergleich der Berechnungen und Fehlerquellen

Dieses Seminar/Webinar kann nicht gebucht werden. Alternative Termine für dieses Seminar/Webinar und ähnliche Veranstaltungen finden Sie in der Übersicht nach Thema..

Für viele Seminare und Webinare gibt es auch Aufzeichnungen, die Sie jederzeit bestellen und anschauen können. Diese Aufzeichnungen finden Sie in einer themensortierten Liste.

Oder senden Sie uns Ihre Anfrage einfach über das folgende Kontaktformular.

* auch unkompliziert per Kreditkarte bezahlbar
American Express Visa Mastercard

icon
Weitere Termine vor Ort
Weitere Termine vor Ort nicht verfügbar
icon
Weitere Termine online
Weitere Termine online nicht verfügbar
icon
Aufzeichnung nicht verfügbar

Haben Sie noch Fragen?

Wir stehen Ihnen für weitere Auskünfte gerne zur Verfügung.
Tel.: +49 6221 84 44 0
E-Mail: info@concept-heidelberg.de

Frau mit Headset

Zurück

Teilnehmerstimmen - das sagen andere über unsere Seminare:

Guter, breit gefächerter Überblick mit interessanten Verknüpfungen zur Praxis,
welche die Theorie super veranschaulicht.”
Marina Kicoranovic, Labor Hartmann GmbH
GMP/Basis-Einstiegsschulung (B 14), September 2023

Die Referenten waren sehr gut! Sie haben sehr klar gesprochen, nur sehr wenige englische Begriffe
verwendet (super) und waren sehr praxisbezogen.”
Astrid Gießler, Regierungspräsidium Karlsruhe
Live Online Seminar - Basiskurs Computervalidierung & Datenintegrität im GxP Umfeld (B 3), Juni 2023

Sehr guter Bezug zur Schulung für einen GMP-Anfänger. Habe mich sehr gut abgeholt gefühlt.”
Dr. Harald Werner, Infraserv GmbH & Co. Höchst KG
GMP-Basisschulung (B 1), Juni 2023

NEWSLETTER

Bleiben Sie informiert mit dem GMP Newsletter von Concept Heidelberg!

GMP Newsletter

Concept Heidelberg bietet verschieden GMP Newsletter die Sie auf Ihren Bedarf hin zusammenstellen können.

Hier können Sie sich kostenfrei registrieren.

Kontakt

Kontaktieren Sie uns

Haben Sie Fragen?

Concept Heidelberg GmbH
Rischerstraße 8
69123 Heidelberg

Tel. :+49622184440
Fax : +49 6221 84 44 84
E-Mail: info@concept-heidelberg.de

zum Kontaktformular