Die Geburtshilfe
Autoren
N. Pateisky

Patientensicherheit im Krankenhaus

Gerade in der Geburtshilfe kommt dem Fehler- und Risikomanagement eine wachsende Bedeutung zu. Die Fachliteratur sowie alle bisher gemachten Erfahrungen weisen darauf hin, dass der beste Weg darin besteht, sich an den Sicherheitsstrategien der „high reliability organisations“ (HRO: Luftfahrt, Raumfahrt, Petrochemie, Nuklearkraft), die zu den „ultra-safe technologies“ zählen, zu orientieren. Auslöser für die Beschäftigung mit vermeidbaren Fehlern und deren Folgen war das Buch „To Err is Human“ im Jahr 1999. Die wesentlichste Schlüsselbotschaft war, dass sowohl in den HRO als auch in der Medizin 80 % aller Komplikationen auf Team- bzw. Kommunikationsdefizite zurückzuführen sind. Den weitaus größten Effekt in der Vermeidung von Fehlern haben demnach all jene Aktivitäten, die die Kommunikation und Teamarbeit verbessern. Den kritischen Erfolgsfaktor schlechthin bildet dabei die herrschende Fehlerkultur. Ein neuer Wissenszweig „patient safety science“ befindet sich in der Entwicklung.

Zum Einstieg

Die technischen und medizinischen Fortschritte der letzten Jahrzehnte haben gerade in der Geburtshilfe die Erwartungen auf ein perfektes Ergebnis in kaum erreichbare Höhen geschraubt. Diese hohe Anspruchshaltung führt in der Folge häufig zu forensischen Problemen, wobei die Frage der Versicherbarkeit von Ärzten und Krankenhäusern immer mehr in den Fokus rückt. In diesem Zusammenhang kommt dem Bereich Fehler- und Risikomanagement eine stark wachsende Bedeutung zu. Während die Beschäftigung mit diesem Thema im angloamerikanischen Sprachraum eine zentrale Stellung in der täglichen Arbeit einnimmt, setzen sich die Prinzipien dieser Arbeit in Mitteleuropa nur zögerlich durch. Experten hegen allerdings keinen Zweifel daran, dass sich insbesondere klinisches Risiko- und Fehlermanagement auch in Europa zu einem Megatrend der Medizin entwickeln wird.
Die einschlägige Fachliteratur sowie alle bisher gemachten Erfahrungen weisen darauf hin, dass der beste Weg darin besteht, sich an den Sicherheitsstrategien der „high reliability organisations“ (HRO), die zu den „ultra-safe technologies“ zählen, zu orientieren. Namentlich ist hier in erster Linie die zivile Luftfahrt zu nennen, die insbesondere in den letzten 25 Jahren gezeigt hat, wie komplexe Organisationen erfolgreich mit Risiken und Fehlern umgehen können.
Auslöser für die Beschäftigung mit „vermeidbaren Fehlern und deren Folgen“ war das Buch „To Err is Human“ im Jahr 1999 (Institute of Medicine 1999).
Die wesentlichste Schlüsselbotschaft dabei war, dass sowohl in den HRO (Luftfahrt, Raumfahrt, Petrochemie, Nuklearkraft) als auch in der Medizin 80 % aller Komplikationen und Katastrophen auf Team- und/oder Kommunikationsdefizite zurückzuführen sind.
Den weitaus größten Effekt in der Vermeidung von Fehlern und ihren Folgen haben demnach all jene Aktivitäten, die imstande sind, Kommunikation und Teamarbeit zu verbessern. Den kritischen Erfolgsfaktor schlechthin bildet dabei die herrschende Fehlerkultur. Sie bestimmt, ob Instrumente und Methoden bester Risikomanagementstrategien den erwünschten Erfolg bewirken.
Will die Medizin im Umgang mit Fehlern und Risiken ähnlich erfolgreich werden wie andere Industrien, ist ein grundlegender Paradigmenwechsel unumgänglich (Pateisky 2004). Seit einigen Jahren hat sich in diesem Sinn ein neuer Wissenszweig entwickelt, der im angloamerikanischen Sprachraum mit dem Begriff „patient safety science“ bezeichnet wird.

Problemausmaß

Die erste umfangreiche Publikation in einem hochrangigen Journal zum Thema Folgen vermeidbarer Fehler in der Medizin erschien im Jahr 1991 (Brennan et al. 1991).
Das Institute of Medicine publizierte schließlich 1999 das Aufsehen erregende Buch „To Err is Human“. Darin wurden alle bis zu diesem Zeitpunkt erschienenen Publikationen und Daten zu diesem Thema zusammengefasst. Selbst bei vorsichtigster Interpretation zeigte sich, dass die vermeidbaren Fehler in der Krankenhausmedizin unter den 10 häufigsten Todesursachen zu finden waren. Sie rangierten deutlich vor Todesursachen wie Brustkrebs, Aids und tödlichen Verkehrsunfällen.
Die massive Kritik an den Interpretationen führte zu zahlreichen weiteren Studien. In der Publikation „Five Years after To Err is Human“ wurden die zwischenzeitlich gemachten Erfahrungen neuerlich zusammengefasst (Leape und Berwick 2005). Das Resultat: Im Wesentlichen ist das Problem größer als 1999 angenommen. Dort konnte gezeigt werden, dass im Schnitt etwa 3 von 1.000 in Akutkrankenhäusern aufgenommenen Patienten schwere bis schwerste Schäden im Gefolge vermeidbarer Fehler erleiden.
Alle bis heute diesbezüglich in den Fachjournalen erschienenen Publikationen bestätigen diese Annahmen und zeigen in Abhängigkeit von der Untersuchungsgenauigkeit teilweise auch weit höhere Versagensraten.
Es kann nicht oft genug betont werden, dass es sich dabei ursächlich meist nicht um das Versagen einzelner Personen, sondern um Systemschwächen handelt. Das Problem sind also nicht schwache Menschen, das Problem sind schwache Systeme, die Fehlern Vorschub leisten.
„Every system is perfectly designed to achieve exactly the results it gets.“ (Donald M Berwick – CEO des Institute of Health Care Improvement)

Begriffsbestimmung, Definitionen und Abkürzungen

Im Folgenden sind die wichtigsten Begriffe für den Bereich Risiko- und Fehlermanagement definiert. Da praktisch die gesamte Literatur und Erfahrung zu diesem Thema aus dem anglo-amerikanischen Sprachraum stammt, scheint es sinnvoll, die dort verwendeten Begriffe zu verwenden. Diese Begriffe können als termini technici angesehen werden.
  • Adverse Events (unerwünschter Zwischenfall ): Unerwünschte bzw. unbeabsichtigte Zwischenfälle, die in Adverse Outcomes (Schaden am Patienten) resultieren können oder zusätzlichen Aufwand erfordern, um ein Adverse Outcome zu vermeiden.
  • Adverse Outcome (unerwünschtes Ergebnis): Unerwünschtes und unbeabsichtigtes Ergebnis im Rahmen medizinischer Betreuung mit den Folgen zeitweiser Beeinträchtigung, bleibender Behinderung oder Tod.
  • ANTS (Anaesthesists’ Non Technical Skills): Kategorisierung von Soft Skills für den Einsatz zur Beurteilung sicherheitsrelevanter Vehaltensmarker in der Anästhesie.
  • Assertiveness : Bezeichnet die Fähigkeit, subjektive Bedenken, Gefühle oder Meinungen so an Vorgesetzte zu kommunizieren, dass sie wahrgenommen werden, ohne Aggressionen auszulösen. Handelt es sich um sicherheitsrelevante Bedenken, könnte man Assertiveness auch als „kritische Beharrlichkeit“ bezeichnen.
  • Briefing : Allgemein versteht man unter Briefing eine kurze Teambesprechung vor einer gemeinsamen Aktion, bei der alle Teammitglieder anwesend sind. Ein gutes Briefing enthält jeweils die Zusammenfassung aller essenziellen Daten und Fakten, die für die geplante Aktivität Bedeutung haben.
  • CIRS (Critical Incident Reporting System) : Internetbasiertes System zur anonymen Erfassung kritischer Vorfälle in der Medizin.
  • CRM (Crew-Ressource-Management): CRM bezeichnet jene Trainingsform für Teams, die die Fähigkeiten aus dem Bereich der Soft Skills trainiert, die Teams in die Lage versetzen, eine optimale Leistung zu erbringen.
  • Fehler – allgemein: Es gibt hier im Wesentlichen 2 Fehlertypen:
    • Ausführungsfehler: Eine Aktion wird nicht so durchgeführt, wie sie geplant war.
      Beispiel: Bei einer geplanten Bluttransfusion werden die Proben verwechselt.
    • Planungsfehler: Die geplante Aktion entspricht nicht den Erfordernissen.
      Beispiel: Auswahl eines kontraindizierten Medikamentes.
  • Fehler – aktiv:
    • Als aktive Fehler werden solche bezeichnet, die dem betreuenden Personal (meist) direkt am Patienten passieren.
    • Beispiel: Ein falsch dosiertes Medikament wird verabreicht.
  • Fehler – latent:
    • Als latente Fehler werden solche bezeichnet, die lange Zeit unbemerkt im System schlummern, bis ihr Vorhandensein zu einem Problem beiträgt.
    • Beispiel: Ein selten gebrauchtes Gerät funktioniert im Notfall nicht.
  • Fehler-Mode-Effekt-Analyse (FMEA): Methode, um die Fehlerresistenz kritischer Abläufe zu maximieren.
  • HRO (High Reliability Organisation): Organisationen und Branchen, deren Existenz von höchster Zuverlässigkeit und Freiheit von Fehlfunktionen abhängt (Nuklearindustrie, Ölplattformen, Luftfahrt. Raumfahrt etc.)
  • Near Miss (Beinaheschaden): Ereignisse, in denen eine unerwünschte Konsequenz (Adverse Event), die auf einen Fehler zurückzuführen ist, abgewendet werden konnte.
  • Risiko : Wahrscheinlichkeit des Eintretens von Schaden.
  • Sentinel Event: Als Sentinel Events gelten Vorfälle, die mit bleibender Behinderung oder Tod eines Patienten enden.
  • Soft Skills oder Non Technical Skills: All jene Fähigkeiten, die über das rein technische Können, die Arbeit zu verrichten, hinausgehen, aber im Rahmen von Teamarbeit für Spitzenleistungen unabdingbar sind. Dazu zählen in erster Linie Fähigkeiten im Bereich Kommunikation und soziale Kompetenz.
  • Root-Cause-Analyse – RCA (systemische Vorfallsanalyse): Systemische Vorgehensweise, um möglichst alle Begleitumstände, die zur Fehlerentstehung beitragen, zu identifizieren.

Fehlermodell

Allgemeine Grundlagen

Im Allgemeinen gibt es zwei Ansätze, wie menschliche Fehler betrachtet werden können:
  • den individuellen, personenzentrierten Ansatz,
  • den systemischen Ansatz.

Personenzentrierter Ansatz

Der personenzentrierte Ansatz zielt auf individuelle Faktoren wie Nachlässigkeit, Unachtsamkeit oder Vergesslichkeit ab, die in unerwünschten Ergebnissen („adverse events“) resultieren.
Organisationen versuchen oft mittels disziplinärer Maßnahmen, zukünftige Unfälle dieser Art zu verhindern. Diese Maßnahme ist als Sündenbockmentalität („shame and blame culture“) in den allgemeinen Sprachgebrauch eingegangen. Ein solches Vorgehen verhindert üblicherweise eine objektive Analyse. Systemische Fehler werden nicht erkannt, können deshalb nicht eliminiert werden und verursachen weiter vermeidbaren Schaden.

Systemansatz

Der Systemansatz anerkennt die Tatsache, dass hinter Problemen jeweils eine Reihe von Faktoren steht. Wichtigste Erkenntnis dabei ist, dass menschliche Fehler unvermeidbar sind (Reason 1990). Einzige und beste Möglichkeit, die Auswirkungen menschlicher Fehlbarkeit zu reduzieren, besteht darin, das Arbeitsdesign so zu gestalten, dass Fehler
  • möglichst verhindert,
  • möglichst früh erkannt, oder
  • dass die Fehlerauswirkungen minimiert werden.
Kommt es zu unerwünschten Ereignissen („adverse events“), ist die wichtigste Frage, wie und warum das System und dessen Sicherheitsmechanismen versagt haben, dass der „aktive Fehler“ begangen werden konnte.
Anders ausgedrückt: Das System muss dafür sorgen, dass es sehr schwer ist, das Falsche zu tun.
Die konkreten Ansätze dazu werden in Abschn. 6 beschrieben.

Fehlermodell

In der Literatur zum Thema Fehlerforschung finden sich zahlreiche Ansätze und Erklärungen, die komplexen Ursachen von Katastrophen zu erfassen. Das bestechendste und gleichzeitig einfachste Modell stammt in Form einer Analogie von Prof. James Reason.

Schweizer-Käse-Modell

James Reason, der Fehlerforscher schlechthin, spricht vom „Swiss cheese model“. Es stellt die stark vereinfachte Form des von ihm entwickelten „accident causation model“ dar (Reason 2000).
Das „Schweizer-Käse-Modell“ kann als Paradeanalogie beim Entstehen einer Katastrophe in jedem beliebigen Bereich gelten (Abb. 1). Jede Käsescheibe stellt einen Abwehrmechanismus dar, der einmal der Organisation, einmal dem Management, einmal dem Arbeitsplatz, einmal dem Team etc. zuzuordnen ist. Da sich unmöglich jede Konstellation vorhersehen lässt, hat jede Scheibe Löcher, die als sog. latente Fehler bezeichnet werden. Latente Fehler sind im System ruhende Fehler, die oft lange Zeit ohne Auswirkung bleiben.
In der Medizin kann dies das Fehlen einer Leitlinie, ein nicht funktionierendes Gerät, ungenaue oder fehlende Informationen, ein nicht angeordneter Befund, unqualifiziertes Personal oder Sonstiges sein.
Tatsache ist, dass Arzt, Schwester oder Hebamme bei der Arbeit an der Patientin all diese latenten Fehler ausbaden müssen. Eine unglückliche Konstellation latenter Fehler, ein kleiner zusätzlicher aktiver Fehler, und die Katastrophe passiert – in Abwesenheit der für alle latenten Fehler Verantwortlichen.
In der Regel trifft den Letzten in der Ereigniskette nicht mehr Schuld als den Tormann beim erfolglosen Versuch, einen Elfmeter zu halten. Die Frage, wie es zum Strafstoß kommen konnte, ist dabei mindestens so wichtig wie die Frage, warum er nicht gehalten wurde – ein Vergleich, der sich eins zu eins auf den Krankenhausbetrieb übertragen lässt.
Kernaussagen der Fehlerforschung
  • Jeder macht Fehler.
  • Niemand macht absichtlich Fehler.
  • (Fast) jeder Fehler hat eine systemische Komponente.
Die jeweils vielen kleinen, jeder für sich unbedeutenden Fehler summieren sich im Einzelfall unter besonders unglücklichen Umständen zur Katastrophe. Wie dies im Besonderen die Geschehnisse in Organisationen mit komplexen Strukturen betrifft, wurde ebenfalls von James Reason (1997) intensiv beforscht. Als Beispiele dienen praktisch alle bekannten Katastrophen wie Tschernobyl, Apollo 13, Challenger, Discovery etc., um nur einige zu nennen.
Da also jeder unausweichlich Fehler macht und menschliche Fehler einerseits unvermeidbar und andererseits zu 75 % an allen – auch medizinischen – Unfällen beteiligt sind, stellt Fehlermanagement das zentrale Thema im Risikomanagement dar.
„We cannot change the human condition, but we can change the conditions under which humans work.“ (James Reason)

Fehlerarten und Fehlerursachen

Hauptziel aller Patientensicherheitsbestrebungen ist es, Schaden am Patienten möglichst zu vermeiden. Das Aufspüren und Eliminieren von Fehlern nimmt dabei eine zentrale Rolle ein. Um das zu ermöglichen, ist es jedoch notwendig, die traditionellen, aber leider falschen Vorstellungen über Fehler und Fehlervermeidung auszurotten. Alle hochrangigen Untersuchungen – egal in welcher Branche – zeigen, dass 80 % der Fehlerursachen auf systemische Faktoren zurückzuführen sind. Das bedeutet im Umkehrschluss, dass die Wahrscheinlichkeit menschlicher Fehler zu einem hohen Grad von systemischen – fehlerhaften – Rahmenbedingungen abhängt. Da es in absehbarer Zeit nicht möglich sein wird, ideale Arbeitsbedingungen in diesem Sinne herzustellen, müssen Strategien und Instrumente zur Anwendung kommen, welche helfen, mit systemisch bedingten gefährlichen Situationen möglichst gut umgehen zu können (Abschn. 6).

Menschliche Fehler

Kommt es in der Medizin zu einem unerwünschten Ergebnis, werden menschliche Fehler der Betreuenden (Arzt oder Schwester) fälschlicherweise oft als einzige Ursache wahrgenommen. Soll die fehlerauslösende Ursache beseitigt werden, ist es nötig, die einzelnen Fehlerarten differenzieren zu können.

Fehlerarten

Die aktiven Fehler können laut Reason (1990, 1997, 2000) und Rasmussen (1982) drei Kategorien zugeordnet werden:
  • Routinefehler („skill-based errors“),
  • regelbasierte Fehler („rule-based errors“),
  • wissensbasierte Fehler („knowledge-based errors“).

Routinefehler („skill-based“)

Die betreffende Person weiß und kann, was sie tut, es geht aber dennoch etwas schief.
Diese Fehlerart ist bei weitem die häufigste und passiert Menschen jeder Qualifikationsstufe. Typischerweise sind automatisierte Abläufe betroffen. In Tätigkeiten, die „normalerweise“ perfekt beherrscht werden und i. d. R. unbewusst ablaufen, schleicht sich ein Fehler ein.
Meist stellen Ablenkung, Unterbrechung, oder die weiter unter beschriebenen menschlichen Leistungsgrenzen die Hauptursache dar.
Klinisches Beispiel
Blut wird ins falsche Röhrchen abgenommen.
Mögliche Gründe
Ablenkung, Unterbrechung, Arbeitsüberlastung.
Beste Lösungsmöglichkeit
Anwendung von Selbstchecks, Doppelchecks, Warnfunktionen oder Checklisten dort, wo es um Aktivitäten geht, die gefährlich für den Patienten werden können.

Regelbasierte Fehler („rule-based“)

Die betreffende Person glaubt zu wissen, was sie tut, bemerkt aber nicht, dass die angewandte Regel der Situation nicht entspricht.
In diese Kategorie fallen auch
  • das fehlerhafte Anwenden einer richtigen Regel sowie
  • das bewusste Abgehen von Regeln oder Leitlinien.
Die Anwendung einer falschen Regel ist häufig darin begründet, dass sich die betroffene Person nicht genügend Zeit nimmt oder nicht genügend Zeit hat, die Richtigkeit der gefällten Entscheidung zu überprüfen. Den Hintergrund bilden hier oft unrealistische Ablaufbeschreibungen, die im Routinebetrieb nicht einhaltbar sind.
Klinisches Beispiel
Verzicht auf an sich übliche Arbeitsschritte bei hoher Patientenfluktuation und daraus resultierendem Übersehen pathologischer Parameter.
Mögliche Gründe
Mangelhaftes Design der Leitlinien, fehlende Entscheidungshilfen, schlechtes Arbeitsdesign.
Beste Lösungsmöglichkeit
Das Anwenden strukturierter Entscheidungsmodelle, was einem gedanklichen „Team Time Out“ entspricht.

Wissensbasierte Fehler („knowledge-based errors“)

Die betreffende Person ist sich mangels Wissens nicht sicher, ob das, was sie tut, richtig ist.
Klinisches Beispiel
Auswahl einer fehlerhaften Vorgehensweise in zeitkritischen, unbekannten Notfallsituationen.
Mögliche Gründe
Ausbildungsdefizite, fehlendes Notfalltraining, mangelhafte Supervision.
Beste Lösungsmöglichkeit
Beiziehen kompetenter Hilfe. Wo das nicht möglich ist, sollte zumindest im Nachhinein überlegt werden, wie in Zukunft ähnliche Situationen vermieden werden können (z. B. entsprechende Schulungen, Bereitschaftsdienste).

Menschliche Leistungsgrenzen

Als Menschen unterliegen wir definierten physischen und psychischen Leistungsgrenzen. Es ist bemerkenswert, dass v. a. chirurgisch tätige Ärzte eine hohe Neigung haben, diese Leistungsgrenzen deutlich zu überschätzen.
Die menschliche Leistungsfähigkeit limitierende Faktoren
  • Wahrnehmungsschwäche
  • Ermüdbarkeit
  • Begrenztes Kurzzeitgedächtnis
  • Schlechte Multitasking-Fähigkeit
  • Limitierte Stressresistenz
In Kombination mit erschwerenden Begleitumständen wie Zeitdruck, Ärger, hohe Arbeitsbelastung, Angst vor Versagen, Strafe und Imageverlust erhöhen diese Faktoren die Fehlerwahrscheinlichkeit um ein Vielfaches gegenüber idealen Bedingungen. Fehlerraten von bis zu 25 % sind unter oben genannten Bedingungen keine Seltenheit.
Im Zusammenhang mit der menschlichen Fehleranfälligkeit hat sich der Begriff des „human factor“ etabliert. Leider gibt es dafür in der Literatur keine allgemeingültige, griffige Definition. Meist nähert man sich dem Begriff mit einer Beschreibung. Im Grunde geht es um die Frage, was uns als Menschen scheitern lässt. Hatte man anfangs geglaubt, das Problem durch Optimierung der Arbeitsbedingungen allein in den Griff zu bekommen, stellte sich das bald als fatale Fehleinschätzung heraus.
Als beste Maßnahmen, der menschlichen Fehleranfälligkeit wirksam zu begegnen, stellte sich – zuallererst in den Bereichen Luftfahrt, Raumfahrt und Kernenergie – neben der rein beruflichen Qualifikation die Kenntnis und das Beherrschen der sogenannten NOTECHS („non technical skills“) in Verbindung mit effektiver Teamarbeit heraus.
Unter den „NOTECHS“ werden in allen Branchen Fähigkeiten im kognitiven und interpersonellen Bereich verstanden, die uns helfen, mit physischen und psychischen Leistungsgrenzen besser umgehen zu können. Menschen und Teams, die in diesen Fähigkeiten geschult und trainiert sind, neigen wesentlich weniger häufig zu Fehlleistungen. Die NOTECHS werden üblicherweise in Kategorien und Elemente unterteilt (Übersicht).
NOTECHS – Kategorien und Elemente
Während die Kategorien (fett hervorgehoben) jene Fähigkeiten bezeichnen, die es zu erlernen und trainieren gilt, benennen Elemente (kursiv gesetzt) die entsprechenden Aktivitäten.
  • Situationsbewusstsein
    • Informationen sammeln
    • Situation einschätzen
    • Weiteren Verlauf bedenken
  • Treffen von Entscheidungen
    • Optionen erarbeiten
    • Beste Option wählen und kommunizieren
    • Entscheidung umsetzen und bei Bedarf revidieren
  • Kommunikation und Teamarbeit
    • Information im Team austauschen
    • Gemeinsames Verständnis schaffen
    • Teamaktivitäten koordinieren
  • Führungsverhalten
    • Einhalten von Standards und „Best Practices“
    • Aktive Unterstützung der Teammitglieder
    • Überlegtes, ruhiges Handeln im Stress
Das Beherrschen dieser Fähigkeiten, ergänzt durch Strategien und Hilfsinstrumente wie in der folgenden Übersicht dargestellt, bilden ein solides Fundament für sicheres Arbeiten in jeder Branche – auch in der Medizin. Um die nötige Akzeptanz zu schaffen, ist es allerdings nötig, alle Betroffenen entsprechend zu schulen und regelmäßig in den relevanten Kompetenzen zu trainieren. Soll dies eines Tages flächendeckend geschehen, sind gesetzliche Regelungen, wie auch in anderen Branchen institutionalisiert, unumgänglich.
In der Übersicht sind all jene Aktivitäten und Strategien aufgelistet, die im Rahmen eines zeitgemäßen Arbeitsdesigns helfen, durch menschliche Leistungsgrenzen bedingte Fehlerraten niedrig zu halten.
Strategien zur Minimierung menschlicher Fehler
  • Abläufe vereinfachen und standardisieren
  • Notwendigkeit von Erinnerungsvermögen reduzieren
  • Protokolle und Checklisten verwenden
  • Informationszugang erleichtern
  • Anzahl von Übergaben minimieren
  • Fehlerverhindernde Mechanismen einsetzen
  • Einsatz effektiver Kommunikation

Strategien und Instrumente im klinischen Sicherheitsmanagement

Angesichts des notwendigen Paradigmenwechsels im Bereich Fehlerreduktion und Schadensminimierung kommt der Frage nach den diesbezüglich anzuwendenden Strategien und Instrumenten eine zentrale Bedeutung zu. In diesem Sinn gilt es, Vorgehensweisen anzuwenden, die imstande sind, fehlerauslösende Systemfaktoren zu identifizieren und möglichst auszuschalten. Da die moderne Medizin diesbezüglich enormen Aufholbedarf hat, müssen in erster Linie Maßnahmen ergriffen werden, die es den am Patienten tätigen Krankenhausmitarbeitern ermöglichen, mit den bestehenden Systemschwächen so gut es geht fertig zu werden.
Die Erfahrungen aus den Bereichen Luftfahrt, Raumfahrt und Nuklearindustrie zeigten, dass erst die intensive Beschäftigung mit dem „menschlichen Faktor“, der eindeutig als Unfallursache N. 1 identifiziert wurde, Erfolg brachte (Helmreich 2000). Im Mittelpunkt stehen dabei die Bereiche Teamarbeit und Kommunikation, die in der Medizin bis heute kaum Berücksichtigung in Aus-, Fort- und Weiterbildung finden. Entsprechende Publikationen zeigen genau diese Defizite auf (Leonard et al. 2004). Die erforderlichen Fähigkeiten, die es in diesem Sinn zu lehren und trainieren gilt, werden den sog. „soft skills“, auch „non technical skills“ oder NOTECHS genannt, zugerechnet.
Art und Bedeutung der NOTECHS wurden in der Medizin seitens des Fachbereichs Anästhesie bearbeitet und rangieren dort – was die Anästhesie betrifft – unter dem Namen ANTS („anaesthesits non technical skills“; Fletcher et al. 2002; Flin und Maran 2004). In analoger Weise wurden von den gleichen Autoren auch die NOTECHS für operativ tätige Ärzte beschrieben. Im Rahmen der ANTS finden 4 Hauptkategorien Beachtung:
  • Taskmanagement,
  • Teamarbeit bzw. Teamfähigkeit,
  • Situationsbewusstsein und
  • Entscheidungsfindung.
Details dazu wurden in Abschn. 5.1 beschrieben.

Kommunikation

Einer der häufigsten Gründe, die bei medizinischen Fehlleistungen mitauslösend sind, ist die mangelhafte oder fehlerhafte Informationsübermittlung – man spricht vom „Kommunikationsversagen“ (Lingard et al. 2004; Leonard et al. 2004). Gerade in heiklen Situationen, wenn auch Stress eine Rolle spielt und rasches Eingreifen erforderlich ist, passiert dies besonders leicht.
Ein wirksames Mittel, um dieses Problem zu vermeiden, stellt die sog. effektive oder strukturierte Kommunikation dar. Strukturierte Kommunikation ist ein Instrument der Risikokommunikation. Sie hat ihren Ursprung in der Luftfahrt und im militärischen Bereich. Diese Form der Kommunikation ermöglicht es, hinderliche Kommunikationsbarrieren, wie steile Hierarchieformen, auszuschalten.
In dem Zusammenhang soll hier auf 2 besonders wichtige Bereiche eingegangen werden: Es handelt sich dabei um Briefingverfahren und den Problemkreis Assertiveness.

Briefingverfahren

Das Briefing stellt wahrscheinlich die am häufigsten zur Anwendung kommende Form strukturierter Kommunikation dar. Briefing ermöglicht es, in kurzer Zeit („brief“ = engl. kurz) klar und effektiv miteinander zu kommunizieren. Die Qualität des Briefings entscheidet darüber, ob Menschen, die zusammenarbeiten, als Team die bestmögliche Leistung erbringen, oder ob es laufend zu Missverständnissen und unnötigen Pannen kommt. Diese Methode der Kommunikation stammt aus den Bereichen der Luftfahrt und des Militärs, wo Teamarbeit der entscheidende Erfolgsfaktor für optimale Sicherheit und Zielerreichung ist.
  • Zu beantwortende Fragen: In einem guten Briefing sollten die folgenden Fragen beantwortet werden:
    • Was haben wir vor?
    • Wie wollen wir es erreichen?
    • Wer hat dabei welche Aufgaben?
    • Was tun wir, wenn sich der Plan nicht verwirklichen lässt?
    • Haben alle alles verstanden?
    • Gibt es noch Fragen?
  • Was sind die Effekte eines Briefings? Nach einem guten Briefing
    • verfügen die Teammitglieder über alle relevanten Informationen,
    • besteht die höchste Erfolgschance der geplanten Aktion,
    • sind unangenehme Überraschungen selten,
    • herrscht für alle ein angenehmes und angstfreies Arbeitsklima.
  • Wie sollten Briefings durchgeführt werden? Damit Briefings ihr Ziel erreichen, sind einige Punkte zu beachten:
    • Die Informationen sollen kurz und genau gegeben werden.
    • Alle Beteiligten sollen involviert und nach Meinungen und Vorschlägen gefragt werden.
    • Die Personen sollten jeweils mit Namen angesprochen werden.
    • Augenkontakt mit allen Teammitgliedern sollte während des Briefings hergestellt werden.
  • Bei welchen Gelegenheiten sollte ein Briefing durchgeführt werden?
    • Am Beginn des Arbeitstages,
    • vor kritischen Abläufen und Operationen,
    • im Rahmen von Übergaben,
    • wenn sich der Plan ändert (z. B. bei intraoperativen Komplikationen).
Briefingverfahren sind einfach durchzuführen und tragen enorm zur Sicherheit bei.
Auch hier tritt der Erfolg nur dann ein, wenn das Briefing zum Teil der Sicherheitskultur wird.
Einen Klassiker für die Anwendung eines Briefingverfahrens stellt das präoperative „time-out briefing“ dar. Dabei werden die wichtigsten Daten zur geplanten Operation, einschließlich der Patientenidentifikation unmittelbar vor Operationsbeginn an alle im OP tätigen Personen kommuniziert. Am Ende stehen jeweils die Fragen:
  • Ist jedem alles klar?
  • Weiß jeder, was er wissen kann und muss?
Auf diese Weise lassen sich zwar seltene, aber äußerst unangenehme Probleme praktisch ausschließen, z. B.
  • Operation des falschen Patienten,
  • Operation der falschen Seite,
  • Operation des falschen Organs,
  • nicht geplantes Operationsverfahren.

Assertiveness

Assertiveness kann als ein Begriff aus dem Problemkreis der effektiven Kommunikation angesehen werden. Auf sicherheitsrelevante Situationen bezogen, bezeichnet Assertiveness die Fähigkeit, Bedenken solange mit Nachdruck zu äußern, bis eine klare Lösung gefunden wird.
Es ist bezeichnend, dass dieser Begriff in der Medizin praktisch unbekannt ist. Demzufolge gibt es kaum Publikationen in medizinischen Journalen zu diesem Thema. Einer der wenigen Artikel sei hier aufgeführt (Hamman 2004).
Eine der möglichen Übersetzungen für „assertiveness“ könnte kritische Beharrlichkeit lauten. Mit Sicherheit hat es aber auch etwas mit Zivilcourage zu tun. Am besten lässt sich Assertiveness an einem konkreten Beispiel erklären.
Klinisches Beispiel für Assertiveness
Ein Oberarzt ist dabei, bei einer Patientin die Geburt mittels Prostaglandintablette einzuleiten. Der anwesende Assistent vermutet, dass es sich bei der auf dem Untersuchungsstuhl liegenden Frau um die falsche Patientin handelt.
  • Szenarium 1:
    • Der Assistent bringt seine Bedenken vor, wird vom Oberarzt ernst genommen, die Sachlage wird überprüft und schließlich entsprechend gehandelt.
    • Assertiveness wurde ausgeübt und wahrgenommen.
  • Szenarium 2:
    • Der Assistent bringt seine Bedenken vor, diese werden nicht wahrgenommen.
    • Bei einem neuerlichen Versuch die Bedenken zu äußern, wird der Assistent gemaßregelt und fälschlicherweise zurechtgewiesen.
    • Er traut sich nicht, einen weiteren Versuch zu starten.
    • Assertiveness wurde ausgeübt, aber nicht wahrgenommen.
  • Szenarium 3:
    • Der Assistent, der schon mehrmals fälschlich zurechtgewiesen wurde, traut sich nicht mehr, seine Bedenken ein weiteres Mal vorzubringen.
    • Steile Hierarchie, negative Erfahrungen und mangelhafte Sicherheitskultur haben die Ausübung von Assertiveness verhindert.
In vielen dokumentierten Fällen hat sich herausgestellt, dass anwesende „nachgeordnete“ Ärzte oder Schwestern entweder nicht den Mut hatten, ihre Bedenken zu äußern, oder kurz abgefertigt wurden.
Steile Hierarchien und falsches Rollenverständnis haben auf diese Weise in allen Arbeitswelten wiederholt Katastrophen ausgelöst.
Praxistipp
Um Assertiveness zu ermöglichen, ist es nötig, alle Beteiligten in entsprechenden Trainings von der Sinnhaftigkeit dieser Verhaltensweise zu überzeugen.
Die älteren Vorgesetzten müssen lernen, ihre Nachgeordneten als Sicherheitsnetz zu verstehen. Die Jüngeren müssen lernen, keine unnötige Furcht davor zu haben, Bedenken zu äußern, auch wenn man sich einmal irrt.
Treten Sicherheitsbedenken auf, kann man sich an folgendem Schema orientieren:
  • Erlange die Aufmerksamkeit des Teamleaders.
  • Äußere deine Bedenken.
  • Bringe das Problem auf den Punkt.
  • Schlage vor, was zu tun ist.
  • Dränge auf eine Entscheidung.
In Kurzform: Bedenken werden mit Nachdruck geäußert, bis eine klare Lösung erreicht ist.
Wissen alle Teammitglieder über die Vorteile der Assertiveness aus den entsprechenden Trainings Bescheid, gibt es damit kaum Probleme.
Wie bei allen anderen NOTECHS auch, kann Assertiveness nur dann erfolgreich gelebt werden, wenn es in Aus-, Fort- und Weiterbildung verpflichtend eingeführt und in der Folge fixer Bestandteil gesetzlich vorgeschriebener Trainings wird.

Medical Team Trainings

Die wesentlichste Erkenntnis der Luftfahrtindustrie bezüglich Risikominimierung war, dass mangelhafte Teamarbeit und Kommunikation zu 80 % am Zustandekommen von Katastrophen beteiligt waren. Daraus resultierten die sog. CRM-Trainings (CRM = „crew resource management“).
In diesen Trainings werden alle Fähigkeiten geschult und aufgefrischt, die Teams in die Lage versetzen, in kritischen Situationen unter Stress und Zeitdruck bestmöglich zu reagieren (Helmreich et al. (1999)). Die Trainings werden laufend weiterentwickelt und befinden sich heute in der 6. Generation. Die in den Trainings behandelten Bereiche betreffen:
  • Fehlervermeidung,
  • Umgang mit sicherheitsrelevanten Bedrohungen,
  • Fehlermanagement und
  • Notfallmanagement.
In diesem Sinn werden die folgenden Bereiche bearbeitet:
  • Fehlerkultur,
  • Risikokommunikation,
  • Sicherheit und Kooperation,
  • Entscheidungsfindung im Team,
  • Umgang mit Stress,
  • Konfliktlösung,
  • menschliche Leistungsgrenzen,
  • sicherheitskritische Verhaltensweisen,
  • Bedeutung flacher Hierarchien u. v. a.
Diese CRM-Trainings sind in der Luftfahrt gesetzlich vorgeschrieben und stellen heute einen integrierenden Bestandteil der Fort- und Weiterbildung des fliegenden Personals dar. Sind diese Trainings bis zum vorgeschriebenen Stichtag nicht absolviert, „ruht die Lizenz“ des betreffenden Piloten, bis das Training nachgeholt wurde. Es sei hier nochmals mit allem Nachdruck darauf hingewiesen, dass es in den CRM-Trainings nicht um die rein technischen Fähigkeiten geht, die es braucht, um ein Flugzeug zu fliegen.
Wesentliche Bedeutung kommt hier auch der entsprechenden Sicherheitskultur zu, ohne die es nicht möglich ist, die Instrumente des Fehler- und Risikomanagements im Sinne einer optimalen Sicherheit effektiv einzusetzen. In diesem Zusammenhang muss eindringlich davor gewarnt werden, Risikomanagement betreiben zu wollen, ohne den Bereichen Teamtraining und Fehlerkultur die notwendige Beachtung zu schenken.
Bezüglich Fehlerkultur wären im klinischen Bereich „ehrliche“ Komplikationskonferenzen zu nennen, in denen es nicht um den oder die Schuldigen geht, sondern um das Auffinden und Beseitigen systemischer „latenter Fehler“.
Die Studienergebnisse der letzten Jahre haben eindeutig gezeigt, dass auch im Bereich Medizin entsprechende Teamtrainings einen essenziellen Teil erfolgreicher Patientensicherheitsprogramme darstellen. Einer aktuellen Auflistung zufolge gehören Medical-Team-Trainings, wie diese in der Fachliteratur genannt werden, zu den unverzichtbaren Methoden entsprechender Sicherheitsstrategien (Shekelle et al. 2013; Pateisky und Härting 2013). In diesen Trainings werden alle Mitarbeiter gemeinsam (hierarchie- und berufsgruppenüberschreitend) geschult und trainiert. Auch bei diesen Trainings geht es nicht um die eigentliche Arbeit der einzelnen Person, sondern um die Frage, wie man als Team die beste Leistung erbringen kann und Katastrophen vermeidet.
Peter Pronovost, ein Pionier der Patientensicherheitsszene, hat die nötigen Inhalte und Vorgehensweisen effektiver Patientensicherheitsprogramme in einer bereits klassischen Publikation zusammengefasst (Pronovost et al. 2006; Roming et al. 2010). Die im Rahmen dieser Strategie geforderten Medical-Team-Trainings wurden von der AHRQ (Agency for Healthcare Research and Quality) im Detail definiert und mit dem geschützten Markennamen TeamSTEPPS versehen. STEPPS steht dabei für „strategies and tools to enhance performance and patient safety“ (Sheppard et al. 2013).
Soll also ein effektives Patientensicherheitssystem etabliert werden, sind Medical-Team-Trainings im Stil des TeamSTEPPS unumgänglich.

Anonyme Meldesysteme kritischer Vorfälle (CIRS)

Eines der wirksamsten Instrumente, um aus Fehlern zu lernen, stellt zweifellos ein anonymes Meldesystem kritischer Ereignisse dar. Wird ein solches System sinnvoll eingesetzt, zählt es zu den allerwichtigsten Instrumenten im Fehlermanagement.
In Europa hat sich für solche Systeme, wie immer sie auch vom Anbieter genannt werden, der Name CIRS (Critical Incident Reporting System) durchgesetzt.
Grundvoraussetzung für das Funktionieren der Meldesysteme ist die Überzeugung, dass Fehlermeldungen eine unbedingte Notwenigkeit im Fehlermanagement darstellen. Das Prinzip eines solchen Meldesystems ist einfach:
  • Die Teilnehmer geben „near misses“ (Ereignisse, bei denen es aufgrund von Fehlern fast zum Patientenschaden gekommen wäre) anonym in das System ein.
  • Alle am System Angeschlossenen können die Meldungen lesen und daraus lernen.
Die erzielbaren Effekte:
  • Das Bewusstsein für fehleranfällige Situationen wird gestärkt.
  • Sicherheitsmaßnahmen können getroffen werden, bevor es zur Katastrophe kommt.
  • Die Patientensicherheit steigt, ohne dass jemand zu Schaden kommt.
  • Negative Trends können frühzeitig erkannt und korrigiert werden.
Der Vorteil, lernen zu können, bevor jemand zu Schaden kommt, schaltet Ängste vor Karriereschaden, Imageverlust und möglichen Ansprüchen aus.
Darüber hinaus weiß man, dass bei gegebener Fehlerkonstellation das Verhältnis von „near misses“ zum Katastrophenfall etwa 1:300 beträgt (Heinreich 1941).
Es muss nicht jeder alle Fehler selbst machen, um daraus zu lernen.
Sind genügend Datensätze vorhanden, können die Eingaben dann von Experten kodiert und nach auffälligen Mustern untersucht werden. Stellt sich heraus, dass sich bestimmte Gefahrensituationen immer wieder aus den gleichen Konstellationen heraus ergeben, können diese systemisch korrigiert werden.
Das ausgereifteste diesbezügliche System ist für den deutschsprachigen Raum (Schweiz/Basel) das über 15 Jahre hindurch gereifte CIRS (Critical Incident Reporting System). Es entstand unter Mithilfe des obersten Luftfahrtpsychologen Prof. Robert Helmreich nach dem Vorbild der funktionierenden Meldesysteme von NASA und Luftfahrt. Alle positiven und negativen Erfahrungen, die es bezüglich Erfassung und Auswertung entsprechender Daten gibt, wurden in dieser Branche gemacht und sind im ASRS (Aviation Safety Report System) berücksichtigt. Jährlich werden derzeit etwa 30.000 Meldungen in das ASRS eingegeben und ausgewertet.
CIRS wird von medizinischer Seite heute von Prof. Daniel Scheidegger, einem der Mitentwickler des Systems, betreut und kann sicherlich als der Goldstandard eines medizinischen Vorfallmeldesystem gelten (Kaufmann et al. 2002).
Über www.cirsmedical.org kann man sich von der Funktionalität des Systems überzeugen.
Wie auch beim ASRS müssen bestimmte Rahmenbedingungen erfüllt sein, damit die Teilnehmer Berichte eingeben und der Systemnutzen zum Tragen kommt. Einige der Idealvoraussetzungen sind in der Übersicht zusammengefasst.
Ideale Voraussetzungen für funktionierendes Vorfallmeldesystem
  • Schulung vor Teilnahme am Meldesystem
  • Gesetzlicher Schutz für den Meldenden
  • Gewährleistung der Anonymität
  • Keinerlei Sanktionen (Ausnahme: strafrechtlicher Tatbestand)
  • Möglichst großer Teilnehmerkreis
  • Datenbank nicht bei vorgesetzter Dienststelle
  • Vertrauensarzt, der die Meldungen vidiert
  • Statistische Auswertungen
  • Feedback
Leider muss entsprechend den aktuellen Erkenntnissen festgestellt werden, dass – vermutlich wegen der derzeit noch vorherrschenden Fehlerkultur – die CIRS-Systeme in der Medizin in fast allen Fällen nicht in dem Maße benutzt werden, wie das zu wünschen wäre. Einig sind sich alle Experten aber darüber, dass man alles tun sollte, um dieser wertvollen Strategie zum Durchbruch zu verhelfen. Das Instrument ist gut – wir müssen lernen, es zu nutzen.
Literatur
Brennan TA, Leape LL, Laird NM et al (1991) Incidence of adverse events and negligence in hospitalized patients: results of the Harvard Medical Practice Study I. N Engl J Med 324:370–377CrossRefPubMed
Fletcher GCL, McGeorge P, Flin RH et al (2002) The role of non-technical skills in anaesthesia: a review of current literature. Br J Anaesth 88:418–429CrossRefPubMed
Flin R, Maran N (2004) Identifying and training non-technical skills for teams in acute medicine. Qual Safe Health Care 13:80–84CrossRef
Hamman WR (2004) The complexity of team training: what we have learned from aviation and its applications to medicine. Qual Safe Health Care 13:72–79CrossRef
Heinreich HW (1941) Industrial accident prevention. McGraw-Hill, New York/London
Helmreich RL (2000) On error management: lessons from aviation. BMJ 320:781–785PubMedCentralCrossRefPubMed
Helmreich RL, MerrittAC WJA (1999) The evolution of crew resource management in commercial aviation. Int J Aviation Psychol 9:19–32CrossRef
Institute of Medicine (1999) To err is human: building a safer health system (by Janet Corrigan, Linda T. Kohn [ed], Janet Corrigan [ed], Molla S. Donaldson). IOM, Washington Zusammenfassung: https://​www.​iom.​edu/​~/​media/​Files/​Report%20​Files/​1999/​To-Err-is-Human/​To%20​Err%20​is%20​Human%20​1999%20​%20​report%20​brief.​pdf. Zugegriffen am 01.02.2015
Kaufmann M, Staender S, von Below G et al (2002) Computerbasiertes anonymes Critical Incident Reporting: ein Beitrag zur Patientensicherheit. Schweiz Ärztez 83:2554–2558
Leape LL, Berwick DM (2005) Five years after to err is human – what have we learned? JAMA 293:2384–2390CrossRefPubMed
Leonard M, Graham S, Bonacum D (2004) The human factor: the critical importance of effective teamwork and communication in providing safe care. Qual Safe Health Care 13:85–90CrossRef
Lingard L, Espin S, Whyte S et al (2004) Communication failures in the operating room: an observational classification of recurrent types and effects. Qual Safe Health Care 13:330–334CrossRef
Pateisky N, Härting H (2013) Patientensicherheit im Krankenhaus. Austrian Standards plus Publishing, Wien
Pateisky N (2004) Fehlerkultur und Teamtraining: Das „missing link“ im medizinischen Risikomanagement. Gynakologe 37:73–77CrossRef
Pronovost PJ, Berenholtz SM, Goeschel CA et al (2006) Creating high reliability in health care organizations. Health Serv Res 41(4 Pt 2):1599–1617PubMedCentralCrossRefPubMed
Rasmussen J (1982) Human error: a taxonomy for describing human malfunction in industrial installations. J Occupat Accidents 4:311–333CrossRef
Reason J (1990) Human error. University Press, CambridgeCrossRef
Reason J (1997) Managing the risks of organizational accidents. Ashgate Publishing, Farnham/London
Reason J (2000) Human error: models and management. BMJ 320:768–770PubMedCentralCrossRefPubMed
Roming M, Goeschel C, Pronovost P, Berenholtz SM (2010) Integrating CUSP and TRIP to improve patient safety. Hosp Pract 38:114–121CrossRef
Shekelle PG, Pronovost PJ, Wachter RM et al (2013) The top patient safety strategies that can be encouraged for adoption now. Ann Intern Med 158:365–368CrossRefPubMed
Sheppard F, Williams M, Klein VR (2013) TeamSTEPPS and patient safety in healthcare. J Healthcare Risk Manag 32(3):5–10CrossRef