Stepped Wedge Design
Autoren
Zusammenfassung
Messungen und Evaluationen von Lean-Interventionen werden immer wichtiger, z. B. als Nachweis, ob sich der Ressourceneinsatz gelohnt hat oder um die Auswirkungen auf verschiedene betriebliche Kennzahlen festzustellen. Unter einer Intervention versteht man ein geplantes und gezieltes Eingreifen, um Probleme zu beheben oder ihnen vorzubeugen. Da Lean-Interventionen häufig nicht als «Big Bang», sondern stufenweise nach dem Roll-Out-Prinzip umgesetzt werden, eignet sich das Stepped Wedge Design (SWD) als Methode, um Fortschritte zu messen sowie die Intervention wissenschaftlich zu untersuchen.
Randomisierte, kontrollierte Studien (RCTs) gelten als «Goldstandard» zur Ermittlung einer Ursache-Wirkungs-Beziehung zwischen einer Intervention und einem Ergebnis. Cluster-randomisierte kontrollierte Studien (CRCTs) werden im Gesundheitswesen zunehmend eingesetzt, um Interventionen auf Organisationsebene pragmatisch zu bewerten und organisatorische Veränderungen zu untersuchen. Da solche Interventionen typischerweise in einer Organisationseinheit stattfinden, findet auch die Randomisierung nicht individuell (auf Patientenebene, siehe Abb. 1 «Randomisierung von Individuen»), sondern auf Spitalebene statt. Die Studienteilnehmerinnen und -teilnehmer aus einer Klinik bilden damit gemeinsam ein sogenanntes Cluster (siehe Abb. 1 «Randomisierung von Gruppen).
Abbildung 1: Vergleich Randomisierung bei Individuen oder in Cluster nach (Chenot, 2009)
Eine Variante des Cluster-Designs ist das SWD: Bei diesem Design werden Cluster, z. B. Arztpraxen, Alters- und Pflegeheime, Spitaler oder Kliniken identifiziert, um an einer Cluster-randomisierten Studie teilzunehmen. Das SWD beinhaltet die sequenzielle Einführung einer Intervention zu verschiedenen Zeitpunkten über einen bestimmten Zeitraum hinweg. Vor Beginn der Studie wird ihnen nach dem Zufallsprinzip ein Zeitpunkt zugewiesen, an dem sie die Intervention erhalten. Im Gegensatz zu herkömmlichen CRCTs, bei welchen die Intervention zu einem Zeitpunkt vollumfänglich eingeführt wird, wird sie bei einem SWD schrittweise eingeführt. Dabei durchlaufen alle Gruppen bzw. Cluster sowohl eine Kontroll- als auch eine Interventionsphase, sprich eine Phase ohne Veränderungen und eine Phase mit Intervention, bspw. die Implementierung von Lean in einer Klinik.
Das SWD eignet sich besonders dann, wenn die Intervention nicht wie üblich an Individuen geprüft werden soll, sondern wenn sich die Anwendung auf Organisationsebene anbietet und vor allem dann, wenn aufgrund von begrenzten Ressourcen z. B. personeller oder finanzieller Art, es nicht möglich ist, die Intervention in allen Clustern gleichzeitig einzuführen. Demzufolge ist die Methode des SWDs gerade für den Bereich der (pflegerischen) Versorgungsforschung interessant, um komplexe Anwendungen, wie eine gesamte Lean-Intervention, zu evaluieren.
Die Implementierung einer Intervention findet im SWD stufenweise statt. Dies führt dazu, dass der gesamte Evaluationsprozess, im Gegensatz zu anderen Methoden, über einen längeren Zeitraum stattfindet. Trotz dessen können aufgrund der sequenziellen Einführung, Ressourcen eingespart werden und zusätzlich zwischenzeitliche Follow-up Messungen (Effekte werden in gewissen Zeitabständen erneut gemessen) durchgeführt werden.
Zielsetzung / Leitfragen für die Praxis
Um eine reibungslose Durchführung des komplexen Studiendesigns zu gewährleisten ist eine ausführliche Vorbereitung ausschlaggebend. Dafür sollten unter anderem folgende Fragen beantwortet werden:
- Eignet sich die Intervention zur stufenweisen Implementierung auf Organisationsebene?
- Wie viele Cluster sollten gebildet werden?
- Wie lange muss die clusterweise Interventionsphase anhalten, um sich vollumfänglich zu entfalten?
Voraussetzungen / Notwendige Ressourcen
Bei Einführung einer neuen Massnahme bspw. Einführung von Lean-Prinzipien in den Kliniken eines Spitals, kann ein verzögerter Interventionseffekt, welcher bei der Studienplanung nicht berücksichtigt wurde, nicht ausgeschlossen werden. Dies kann erhebliche Auswirkungen auf die Stärke des Effekts haben. Der Schätzwert für eine optimale Studiendauer bei Interventionen mit langwierigen Effektentwicklungen, ist die Dauer einer Studie im Parallelgruppendesign multipliziert mit der Anzahl der Schritte. Bei einem SWD gibt es mindestens drei Schritte, was bedeutet, dass so eine Studie an sich mindestens dreimal so lange andauert, wie eine klassische cluster-randomisierte Studie.
Aus diesem Grund bedürfen geplante Studien mit der Methode des SWD eine intensive Pilotphase, in dieser besonders drei Risiken abgeklärt werden müssen:
- Coverage delay: Der Interventions-Rollout auf Clusterebene erfolgt langsamer als geschätzt.
- Lag of effect: Das Auftreten des Effekts verspätet sich.
- Delayed treatment initiation: Verzögerter Rollout auf Patientenebene
Detailbeschreibung des Tools
Üblicherweise setzen sich die Cluster beim SWD auf Gruppenebene zusammen. Die Cluster kreuzen sich in regelmässigen Abständen, typischerweise bei dem Übergang von der Kontrollphase zur Interventionsphase (Abbildung 2). Die Reihenfolge, in der die Cluster die Intervention erhalten, wird nach dem Zufallsprinzip festgelegt, womit bewusst Elemente einer klinischen randomisierten Studie in das SWD integriert werden. In Abbildung 1 erfolgt beispielsweise eine Randomisierung vor dem Beginn des Versuchs. Keiner der Cluster erhält die Intervention zum Zeitpunkt T=0. Cluster 1 wird zufällig zugewiesen, um die Intervention zum Zeitpunkt T=1 zu erhalten, die bis zum Datenerhebungszeitpunkt T=4 andauert, während alle verbleibenden Cluster sich zu diesem Zeitpunkt weiterhin in der Kontrollphase befinden. Zum nächsten Datenerhebungszeitpunkt (T=2) wechselt in einem nächsten Schritt (Step 1) das Cluster 2 von der Kontrollphase in die Interventionsphase. Die restlichen Cluster folgen dann zu den nachfolgenden Datenerhebungszeitpunkten. Zum Zeitpunkt T=4 erhalten alle Cluster die Intervention. Aus dem SWD ergeben sich in der Konsequenz drei Phasen: 1) eine Prä-Studienphase, 2) ein Rollout-Zeitraum, 3) eine Follow-Up Phase.
Abbildung 2: Funktionsweisen des SWD nach Bartholomeyczik et al., 2016; Holle et al., 2014; Köberlein-Neu & Hoffmann, 2017
Die Outcome-Messung wird dabei an jedem Punkt durchgeführt, an dem ein neues Cluster die Intervention erhält und in die Interventionsphase übertritt. Der Interventionseffekt wird nicht nur durch Vergleiche zwischen Clustern wie beim Parallelgruppen-Design, sondern auch durch Vergleiche innerhalb von Clustern gemessen. Die Anzahl der Steps und Cluster kann je nach Fragestellung variieren.
Das SWD bietet eine Reihe von Möglichkeiten zur Datenanalyse, insbesondere zur Modellierung des Einflusses der Zeit auf die Wirksamkeit einer Intervention. Die Bestimmung der Gesamtwirksamkeit der Intervention umfasst einen Vergleich von den im Kontrollbereich erhobenen Daten mit denen im Interventionsbereich.
Diese Methode wird insbesondere angewendet, um Interventionen zu bewerten, bei denen es an Beweisen für die Wirksamkeit mangelt, wo jedoch angenommen wird, dass sie mehr positive als negative Effekte mit sich bringen. Die Methode ist ein potenziell nützliches Forschungsdesign zur Bewertung von Interventionen, die während des Praxisalltags implementiert werden.
Stärken und Schwächen
Stärken
- Erlaubt die Evaluation komplexer Interventionen mit experimentellem Design
- Das Design erfährt i.d.R. hohe Akzeptanz auf Seiten der Leistungserbringer, denn die zeitversetzte Implementierung der Intervention ermöglicht die Verteilung des Ressourcenbedarfs über einen längeren Zeitraum hinweg. die Entzerrung des hohen Ressourcenbedarfs
- Stufenweise Implementierung ermöglicht intensive und parallellaufende Prozessevaluation
- Regelmässige Datenerhebung: Kleinteilige Veränderungen erfassbar
- Direkter Vergleich zwischen Kontroll- und Interventionsphase, da jedes Cluster in die Interventionsphase wechselt
Schwächen
- Sehr genaue Studienplanung nötig (z.B. Abstände der Datenerhebung, Anzahl der Steps und Randomisierungsverfahren)
- Längere Studiendauer im Vergleich zu herkömmlichen Parallel-Designs, da die Wirksamkeit unmittelbar nach jeder Implementierung gemessen wird
- Anspruchsvolle statische Analyseverfahren (z.B. Zeiteffekte)
- Verzögerte Interventionseffekte wirken sich erheblich auf die Stärke der Effekteinschätzungen aus
- Hoher Dokumentationsaufwand, wenn Primärdaten erhoben werden sollen (regelmässige Datenerhebung)
- Häufige Datenerhebungen können eine Belastung für die Studienteilnehmenden darstellen und damit Auswirkungen auf die Datenqualität haben. Insbesondere bei Clustern, die als letztes in die Interventionsphase wechseln, kann dies die
- Motivation zur Teilnahme an der Intervention erheblich einschränken und gegebenenfalls sogar zu einem vorzeitigen Ausstieg aus der Studie führen.
Quellenzitierung
Bitte zitieren Sie diese Quelle wie folgt:
Berger, S. & Hollenstein, E. (2021). Stepped Wedge Design. In: A. Angerer (Hrsg.), LHT-BOK Lean Healthcare Transformation Body of Knowledge: Edition 2018–2019. Winterthur. Abgerufen von www.leanhealth.ch
Literatur
Bartholomeyczik, S., Halek, M., Roes, M., Reuther, S., & Holle, D. (2016). Das Stepped Wedge Design—Chancen und Herausforderungen für die Effektivitätsmessung von komplexen Interventionen—Ein Fallbeispiel aus der Forschungspraxis. Pflege & Gesellschaft, 01. https://content-select.com/de/portal/media/view/56b852a3-c244-4c58-8e5f-3020b0dd2d03
Chenot, J.-F. (2009). Cluster-randomisierte Studien: Eine wichtige Methode in der allgemeinmedizinischen Forschung. Zeitschrift für Evidenz, Fortbildung und Qualität im Gesundheitswesen, 103(7), 475–480. https://doi.org/10.1016/j.zefq.2009.07.004
Holle, D., M, R., I, B., S, R., R, M., & M, H. (2014, November 12). Process evaluation of the implementation of dementia-specific case conferences in nursing homes (FallDem): Study protocol for a randomized controlled trial. Trials; Trials. https://doi.org/10.1186/1745-6215-15-485
Köberlein-Neu, J., & Hoffmann, F. (2017). Das Stepped Wedge Design: Stufenlos regelbar? Zeitschrift für Evidenz, Fortbildung und Qualität im Gesundheitswesen, 126, 1–3. https://doi.org/10.1016/j.zefq.2017.09.003