Zum Einstieg
Die technischen und medizinischen Fortschritte der letzten Jahrzehnte haben gerade in der Geburtshilfe die Erwartungen auf ein perfektes Ergebnis in kaum erreichbare Höhen geschraubt. Diese hohe Anspruchshaltung führt in der Folge häufig zu forensischen Problemen, wobei die Frage der Versicherbarkeit von Ärzten und Krankenhäusern immer mehr in den Fokus rückt. In diesem Zusammenhang kommt dem Bereich Fehler- und Risikomanagement eine stark wachsende Bedeutung zu. Während die Beschäftigung mit diesem Thema im angloamerikanischen Sprachraum eine zentrale Stellung in der täglichen Arbeit einnimmt, setzen sich die Prinzipien dieser Arbeit in Mitteleuropa nur zögerlich durch. Experten hegen allerdings keinen Zweifel daran, dass sich insbesondere klinisches Risiko- und Fehlermanagement auch in Europa zu einem Megatrend der Medizin entwickeln wird.
Die einschlägige Fachliteratur sowie alle bisher gemachten Erfahrungen weisen darauf hin, dass der beste Weg darin besteht, sich an den Sicherheitsstrategien der „high reliability organisations“ (HRO), die zu den „ultra-safe technologies“ zählen, zu orientieren. Namentlich ist hier in erster Linie die zivile Luftfahrt zu nennen, die insbesondere in den letzten 25 Jahren gezeigt hat, wie komplexe Organisationen erfolgreich mit Risiken und Fehlern umgehen können.
Auslöser für die Beschäftigung mit „vermeidbaren Fehlern und deren Folgen“ war das Buch „To Err is Human“ im Jahr 1999 (Institute of Medicine
1999).
Die wesentlichste Schlüsselbotschaft dabei war, dass sowohl in den HRO (Luftfahrt, Raumfahrt, Petrochemie, Nuklearkraft) als auch in der Medizin 80 % aller Komplikationen und Katastrophen auf Team- und/oder Kommunikationsdefizite zurückzuführen sind.
Den weitaus größten Effekt in der Vermeidung von Fehlern und ihren Folgen haben demnach all jene Aktivitäten, die imstande sind, Kommunikation und Teamarbeit zu verbessern. Den kritischen Erfolgsfaktor schlechthin bildet dabei die herrschende Fehlerkultur. Sie bestimmt, ob Instrumente und Methoden bester Risikomanagementstrategien den erwünschten Erfolg bewirken.
Will die Medizin im Umgang mit Fehlern und Risiken ähnlich erfolgreich werden wie andere Industrien, ist ein grundlegender Paradigmenwechsel unumgänglich (Pateisky
2004). Seit einigen Jahren hat sich in diesem Sinn ein neuer Wissenszweig entwickelt, der im angloamerikanischen Sprachraum mit dem Begriff „patient safety science“ bezeichnet wird.
Problemausmaß
Die erste umfangreiche Publikation in einem hochrangigen Journal zum Thema Folgen vermeidbarer Fehler in der Medizin erschien im Jahr 1991 (Brennan et al.
1991).
Das Institute of Medicine publizierte schließlich 1999 das Aufsehen erregende Buch „To Err is Human“. Darin wurden alle bis zu diesem Zeitpunkt erschienenen Publikationen und Daten zu diesem Thema zusammengefasst. Selbst bei vorsichtigster Interpretation zeigte sich, dass die vermeidbaren Fehler in der Krankenhausmedizin unter den 10 häufigsten Todesursachen zu finden waren. Sie rangierten deutlich vor Todesursachen wie Brustkrebs, Aids und tödlichen Verkehrsunfällen.
Die massive Kritik an den Interpretationen führte zu zahlreichen weiteren Studien. In der Publikation „Five Years after To Err is Human“ wurden die zwischenzeitlich gemachten Erfahrungen neuerlich zusammengefasst (Leape und Berwick
2005). Das Resultat: Im Wesentlichen ist das Problem größer als 1999 angenommen. Dort konnte gezeigt werden, dass im Schnitt etwa 3 von 1.000 in Akutkrankenhäusern aufgenommenen Patienten schwere bis schwerste Schäden im Gefolge vermeidbarer Fehler erleiden.
Alle bis heute diesbezüglich in den Fachjournalen erschienenen Publikationen bestätigen diese Annahmen und zeigen in Abhängigkeit von der Untersuchungsgenauigkeit teilweise auch weit höhere Versagensraten.
Es kann nicht oft genug betont werden, dass es sich dabei ursächlich meist nicht um das Versagen einzelner Personen, sondern um Systemschwächen handelt. Das Problem sind also nicht schwache Menschen, das Problem sind schwache Systeme, die Fehlern Vorschub leisten.
„Every system is perfectly designed to achieve exactly the results it gets.“ (Donald M Berwick – CEO des Institute of Health Care Improvement)
Fehlerarten und Fehlerursachen
Hauptziel aller Patientensicherheit
sbestrebungen ist es, Schaden am Patienten möglichst zu vermeiden. Das Aufspüren und Eliminieren von Fehlern nimmt dabei eine zentrale Rolle ein. Um das zu ermöglichen, ist es jedoch notwendig, die traditionellen, aber leider falschen Vorstellungen über Fehler und Fehlervermeidung auszurotten. Alle hochrangigen Untersuchungen – egal in welcher Branche – zeigen, dass 80 % der Fehlerursachen auf systemische Faktoren zurückzuführen sind. Das bedeutet im Umkehrschluss, dass die Wahrscheinlichkeit menschlicher Fehler zu einem hohen Grad von systemischen – fehlerhaften – Rahmenbedingungen abhängt. Da es in absehbarer Zeit nicht möglich sein wird, ideale Arbeitsbedingungen in diesem Sinne herzustellen, müssen Strategien und Instrumente zur Anwendung kommen, welche helfen, mit systemisch bedingten gefährlichen Situationen möglichst gut umgehen zu können (Abschn.
6).
Menschliche Fehler
Kommt es in der Medizin zu einem unerwünschten Ergebnis, werden menschliche Fehler der Betreuenden (Arzt oder Schwester) fälschlicherweise oft als einzige Ursache wahrgenommen. Soll die fehlerauslösende Ursache beseitigt werden, ist es nötig, die einzelnen
Fehlerarten differenzieren zu können.
Fehlerarten
Die aktiven Fehler können laut Reason (
1990,
1997,
2000) und Rasmussen (
1982) drei Kategorien zugeordnet werden:
-
Routinefehler („skill-based errors“),
-
regelbasierte Fehler („rule-based errors“),
-
wissensbasierte Fehler („knowledge-based errors“).
Routinefehler („skill-based“)
Die betreffende Person weiß und kann, was sie tut, es geht aber dennoch etwas schief.
Diese Fehlerart ist bei weitem die häufigste und passiert Menschen jeder Qualifikationsstufe. Typischerweise sind automatisierte Abläufe betroffen. In Tätigkeiten, die „normalerweise“ perfekt beherrscht werden und i. d. R. unbewusst ablaufen, schleicht sich ein Fehler ein.
Meist stellen Ablenkung, Unterbrechung, oder die weiter unter beschriebenen menschlichen Leistungsgrenzen die Hauptursache dar.
Regelbasierte Fehler („rule-based“)
Die betreffende Person glaubt zu wissen, was sie tut, bemerkt aber nicht, dass die angewandte Regel der Situation nicht entspricht.
In diese Kategorie fallen auch
Die Anwendung einer falschen Regel ist häufig darin begründet, dass sich die betroffene Person nicht genügend Zeit nimmt oder nicht genügend Zeit hat, die Richtigkeit der gefällten Entscheidung zu überprüfen. Den Hintergrund bilden hier oft unrealistische Ablaufbeschreibungen, die im Routinebetrieb nicht einhaltbar sind.
Wissensbasierte Fehler („knowledge-based errors“)
Die betreffende Person ist sich mangels Wissens nicht sicher, ob das, was sie tut, richtig ist.
Menschliche Leistungsgrenzen
Als Menschen unterliegen wir definierten physischen und psychischen Leistungsgrenzen. Es ist bemerkenswert, dass v. a. chirurgisch tätige Ärzte eine hohe Neigung haben, diese Leistungsgrenzen deutlich zu überschätzen.
In Kombination mit erschwerenden Begleitumständen wie Zeitdruck, Ärger, hohe Arbeitsbelastung, Angst vor Versagen, Strafe und Imageverlust erhöhen diese Faktoren die Fehlerwahrscheinlichkeit um ein Vielfaches gegenüber idealen Bedingungen. Fehlerraten von bis zu 25 % sind unter oben genannten Bedingungen keine Seltenheit.
Im Zusammenhang mit der menschlichen Fehleranfälligkeit hat sich der Begriff des „human factor“ etabliert. Leider gibt es dafür in der Literatur keine allgemeingültige, griffige Definition. Meist nähert man sich dem Begriff mit einer Beschreibung. Im Grunde geht es um die Frage, was uns als Menschen scheitern lässt. Hatte man anfangs geglaubt, das Problem durch Optimierung der Arbeitsbedingungen allein in den Griff zu bekommen, stellte sich das bald als fatale Fehleinschätzung heraus.
Als beste Maßnahmen, der menschlichen Fehleranfälligkeit wirksam zu begegnen, stellte sich – zuallererst in den Bereichen Luftfahrt, Raumfahrt und Kernenergie – neben der rein beruflichen Qualifikation die Kenntnis und das Beherrschen der sogenannten NOTECHS („non technical skills“) in Verbindung mit effektiver Teamarbeit heraus.
Unter den „NOTECHS“ werden in allen Branchen Fähigkeiten im kognitiven und interpersonellen Bereich verstanden, die uns helfen, mit physischen und psychischen Leistungsgrenzen besser umgehen zu können. Menschen und Teams, die in diesen Fähigkeiten geschult und trainiert sind, neigen wesentlich weniger häufig zu Fehlleistungen. Die NOTECHS werden üblicherweise in Kategorien und Elemente unterteilt (Übersicht).
Das Beherrschen dieser Fähigkeiten, ergänzt durch Strategien und Hilfsinstrumente wie in der folgenden Übersicht dargestellt, bilden ein solides Fundament für sicheres Arbeiten in jeder Branche – auch in der Medizin. Um die nötige Akzeptanz zu schaffen, ist es allerdings nötig, alle Betroffenen entsprechend zu schulen und regelmäßig in den relevanten Kompetenzen zu trainieren. Soll dies eines Tages flächendeckend geschehen, sind gesetzliche Regelungen, wie auch in anderen Branchen institutionalisiert, unumgänglich.
In der Übersicht sind all jene Aktivitäten und Strategien aufgelistet, die im Rahmen eines zeitgemäßen Arbeitsdesigns helfen, durch menschliche Leistungsgrenzen bedingte Fehlerraten niedrig zu halten.
Strategien und Instrumente im klinischen Sicherheitsmanagement
Angesichts des notwendigen Paradigmenwechsels im Bereich Fehlerreduktion und Schadensminimierung kommt der Frage nach den diesbezüglich anzuwendenden Strategien und Instrumenten eine zentrale Bedeutung zu. In diesem Sinn gilt es, Vorgehensweisen anzuwenden, die imstande sind, fehlerauslösende Systemfaktoren zu identifizieren und möglichst auszuschalten. Da die moderne Medizin diesbezüglich enormen Aufholbedarf hat, müssen in erster Linie Maßnahmen ergriffen werden, die es den am Patienten tätigen Krankenhausmitarbeitern ermöglichen, mit den bestehenden Systemschwächen so gut es geht fertig zu werden.
Die Erfahrungen aus den Bereichen Luftfahrt, Raumfahrt und Nuklearindustrie zeigten, dass erst die intensive Beschäftigung mit dem „menschlichen Faktor“, der eindeutig als Unfallursache N. 1 identifiziert wurde, Erfolg brachte (Helmreich
2000). Im Mittelpunkt stehen dabei die Bereiche Teamarbeit und Kommunikation, die in der Medizin bis heute kaum Berücksichtigung in Aus-, Fort- und Weiterbildung finden. Entsprechende Publikationen zeigen genau diese Defizite auf (Leonard et al.
2004). Die erforderlichen Fähigkeiten, die es in diesem Sinn zu lehren und trainieren gilt, werden den sog. „soft skills“, auch „non technical skills“ oder NOTECHS genannt, zugerechnet.
Art und Bedeutung der NOTECHS wurden in der Medizin seitens des Fachbereichs Anästhesie bearbeitet und rangieren dort – was die Anästhesie betrifft – unter dem Namen ANTS („anaesthesits non technical skills“; Fletcher et al.
2002; Flin und Maran
2004). In analoger Weise wurden von den gleichen Autoren auch die NOTECHS für operativ tätige Ärzte beschrieben. Im Rahmen der ANTS finden 4 Hauptkategorien Beachtung:
Details dazu wurden in Abschn.
5.1 beschrieben.
Kommunikation
Einer der häufigsten Gründe, die bei medizinischen Fehlleistungen mitauslösend sind, ist die mangelhafte oder fehlerhafte Informationsübermittlung – man spricht vom „Kommunikationsversagen“ (Lingard et al.
2004; Leonard et al.
2004). Gerade in heiklen Situationen, wenn auch Stress eine Rolle spielt und rasches Eingreifen erforderlich ist, passiert dies besonders leicht.
Ein wirksames Mittel, um dieses Problem zu vermeiden, stellt die sog. effektive oder strukturierte Kommunikation dar. Strukturierte Kommunikation ist ein Instrument der Risikokommunikation. Sie hat ihren Ursprung in der Luftfahrt und im militärischen Bereich. Diese Form der Kommunikation ermöglicht es, hinderliche Kommunikationsbarrieren, wie steile Hierarchieformen, auszuschalten.
In dem Zusammenhang soll hier auf 2 besonders wichtige Bereiche eingegangen werden: Es handelt sich dabei um Briefingverfahren und den Problemkreis Assertiveness.
Briefingverfahren
Das Briefing
stellt wahrscheinlich die am häufigsten zur Anwendung kommende Form strukturierter Kommunikation dar. Briefing ermöglicht es, in kurzer Zeit („brief“ = engl. kurz) klar und effektiv miteinander zu kommunizieren. Die Qualität des Briefings entscheidet darüber, ob Menschen, die zusammenarbeiten, als Team die bestmögliche Leistung erbringen, oder ob es laufend zu Missverständnissen und unnötigen Pannen kommt. Diese Methode der Kommunikation stammt aus den Bereichen der Luftfahrt und des Militärs, wo Teamarbeit der entscheidende Erfolgsfaktor für optimale Sicherheit und Zielerreichung ist.
-
Zu beantwortende Fragen: In einem guten Briefing sollten die folgenden Fragen beantwortet werden:
-
Was haben wir vor?
-
Wie wollen wir es erreichen?
-
Wer hat dabei welche Aufgaben?
-
Was tun wir, wenn sich der Plan nicht verwirklichen lässt?
-
Haben alle alles verstanden?
-
Gibt es noch Fragen?
-
Was sind die Effekte eines Briefings? Nach einem guten Briefing
-
verfügen die Teammitglieder über alle relevanten Informationen,
-
besteht die höchste Erfolgschance der geplanten Aktion,
-
sind unangenehme Überraschungen selten,
-
herrscht für alle ein angenehmes und angstfreies Arbeitsklima.
-
Wie sollten Briefings durchgeführt werden? Damit Briefings ihr Ziel erreichen, sind einige Punkte zu beachten:
-
Die Informationen sollen kurz und genau gegeben werden.
-
Alle Beteiligten sollen involviert und nach Meinungen und Vorschlägen gefragt werden.
-
Die Personen sollten jeweils mit Namen angesprochen werden.
-
Augenkontakt mit allen Teammitgliedern sollte während des Briefings hergestellt werden.
-
Bei welchen Gelegenheiten sollte ein Briefing durchgeführt werden?
-
Am Beginn des Arbeitstages,
-
vor kritischen Abläufen und Operationen,
-
im Rahmen von Übergaben,
-
wenn sich der Plan ändert (z. B. bei intraoperativen Komplikationen).
Briefingverfahren sind einfach durchzuführen und tragen enorm zur Sicherheit bei.
Auch hier tritt der Erfolg nur dann ein, wenn das Briefing zum Teil der Sicherheitskultur wird.
Einen Klassiker für die Anwendung eines Briefingverfahrens stellt das präoperative „time-out briefing“ dar. Dabei werden die wichtigsten Daten zur geplanten Operation, einschließlich der Patientenidentifikation unmittelbar vor Operationsbeginn an alle im OP tätigen Personen kommuniziert. Am Ende stehen jeweils die Fragen:
Auf diese Weise lassen sich zwar seltene, aber äußerst unangenehme Probleme praktisch ausschließen, z. B.
-
Operation des falschen Patienten,
-
Operation der falschen Seite,
-
Operation des falschen Organs,
-
nicht geplantes Operationsverfahren.
Assertiveness
Assertiveness kann als ein Begriff aus dem Problemkreis der effektiven Kommunikation angesehen werden. Auf sicherheitsrelevante Situationen bezogen, bezeichnet Assertiveness die Fähigkeit, Bedenken solange mit Nachdruck zu äußern, bis eine klare Lösung gefunden wird.
Es ist bezeichnend, dass dieser Begriff in der Medizin praktisch unbekannt ist. Demzufolge gibt es kaum Publikationen in medizinischen Journalen zu diesem Thema. Einer der wenigen Artikel sei hier aufgeführt (Hamman
2004).
Eine der möglichen Übersetzungen für „assertiveness“ könnte kritische Beharrlichkeit lauten. Mit Sicherheit hat es aber auch etwas mit Zivilcourage zu tun. Am besten lässt sich Assertiveness an einem konkreten Beispiel erklären.
Steile Hierarchien und falsches Rollenverständnis haben auf diese Weise in allen Arbeitswelten wiederholt Katastrophen ausgelöst.
Treten Sicherheitsbedenken auf, kann man sich an folgendem Schema orientieren:
-
Erlange die Aufmerksamkeit des Teamleaders.
-
Äußere deine Bedenken.
-
Bringe das Problem auf den Punkt.
-
Schlage vor, was zu tun ist.
-
Dränge auf eine Entscheidung.
In Kurzform: Bedenken werden mit Nachdruck geäußert, bis eine klare Lösung erreicht ist.
Wissen alle Teammitglieder über die Vorteile der Assertiveness aus den entsprechenden Trainings Bescheid, gibt es damit kaum Probleme.
Wie bei allen anderen NOTECHS auch, kann Assertiveness nur dann erfolgreich gelebt werden, wenn es in Aus-, Fort- und Weiterbildung verpflichtend eingeführt und in der Folge fixer Bestandteil gesetzlich vorgeschriebener Trainings wird.
Medical Team Trainings
Die wesentlichste Erkenntnis der Luftfahrtindustrie bezüglich Risikominimierung war, dass mangelhafte Teamarbeit und Kommunikation zu 80 % am Zustandekommen von Katastrophen beteiligt waren. Daraus resultierten die sog. CRM-Trainings (CRM = „crew resource management“).
In diesen Trainings werden alle Fähigkeiten geschult und aufgefrischt, die Teams in die Lage versetzen, in kritischen Situationen unter Stress und Zeitdruck bestmöglich zu reagieren (Helmreich et al. (
1999)). Die Trainings werden laufend weiterentwickelt und befinden sich heute in der 6. Generation. Die in den Trainings behandelten Bereiche betreffen:
In diesem Sinn werden die folgenden Bereiche bearbeitet:
-
Fehlerkultur,
-
Risikokommunikation,
-
Sicherheit und Kooperation,
-
Entscheidungsfindung im Team,
-
Umgang mit Stress,
-
Konfliktlösung,
-
menschliche Leistungsgrenzen,
-
sicherheitskritische Verhaltensweisen,
-
Bedeutung flacher Hierarchien u. v. a.
Diese CRM-Trainings sind in der Luftfahrt gesetzlich vorgeschrieben und stellen heute einen integrierenden Bestandteil der Fort- und Weiterbildung des fliegenden Personals dar. Sind diese Trainings bis zum vorgeschriebenen Stichtag nicht absolviert, „ruht die Lizenz“ des betreffenden Piloten, bis das Training nachgeholt wurde. Es sei hier nochmals mit allem Nachdruck darauf hingewiesen, dass es in den CRM-Trainings nicht um die rein technischen Fähigkeiten geht, die es braucht, um ein Flugzeug zu fliegen.
Wesentliche Bedeutung kommt hier auch der entsprechenden Sicherheitskultur zu, ohne die es nicht möglich ist, die Instrumente des Fehler- und Risikomanagements im Sinne einer optimalen Sicherheit effektiv einzusetzen. In diesem Zusammenhang muss eindringlich davor gewarnt werden, Risikomanagement betreiben zu wollen, ohne den Bereichen Teamtraining und Fehlerkultur die notwendige Beachtung zu schenken.
Bezüglich Fehlerkultur wären im klinischen Bereich „ehrliche“ Komplikationskonferenzen zu nennen, in denen es nicht um den oder die Schuldigen geht, sondern um das Auffinden und Beseitigen systemischer „latenter Fehler“.
Die Studienergebnisse der letzten Jahre haben eindeutig gezeigt, dass auch im Bereich Medizin entsprechende Teamtrainings einen essenziellen Teil erfolgreicher Patientensicherheitsprogramme darstellen. Einer aktuellen Auflistung zufolge gehören Medical-Team-Trainings
, wie diese in der Fachliteratur genannt werden, zu den unverzichtbaren Methoden entsprechender Sicherheitsstrategien (Shekelle et al.
2013; Pateisky und Härting
2013). In diesen Trainings werden alle Mitarbeiter gemeinsam (hierarchie- und berufsgruppenüberschreitend) geschult und trainiert. Auch bei diesen Trainings geht es nicht um die eigentliche Arbeit der einzelnen Person, sondern um die Frage, wie man als Team die beste Leistung erbringen kann und Katastrophen vermeidet.
Peter Pronovost, ein Pionier der Patientensicherheitsszene, hat die nötigen Inhalte und Vorgehensweisen effektiver Patientensicherheitsprogramme in einer bereits klassischen Publikation zusammengefasst (Pronovost et al.
2006; Roming et al.
2010). Die im Rahmen dieser Strategie geforderten Medical-Team-Trainings wurden von der AHRQ (Agency for Healthcare Research and Quality) im Detail definiert und mit dem geschützten Markennamen TeamSTEPPS versehen. STEPPS steht dabei für „strategies and tools to enhance performance and patient safety“ (Sheppard et al.
2013).
Soll also ein effektives Patientensicherheitssystem etabliert werden, sind Medical-Team-Trainings im Stil des TeamSTEPPS unumgänglich.
Anonyme Meldesysteme kritischer Vorfälle (CIRS)
Eines der wirksamsten Instrumente, um aus Fehlern zu lernen, stellt zweifellos ein anonymes Meldesystem kritischer Ereignisse dar. Wird ein solches System sinnvoll eingesetzt, zählt es zu den allerwichtigsten Instrumenten im Fehlermanagement.
In Europa hat sich für solche Systeme, wie immer sie auch vom Anbieter genannt werden, der Name CIRS (Critical Incident Reporting System) durchgesetzt.
Grundvoraussetzung für das Funktionieren der Meldesysteme ist die Überzeugung, dass Fehlermeldungen eine unbedingte Notwenigkeit im Fehlermanagement darstellen. Das Prinzip eines solchen Meldesystems ist einfach:
-
Die Teilnehmer geben „near misses“ (Ereignisse, bei denen es aufgrund von Fehlern fast zum Patientenschaden gekommen wäre) anonym in das System ein.
-
Alle am System Angeschlossenen können die Meldungen lesen und daraus lernen.
Die erzielbaren Effekte:
-
Das Bewusstsein für fehleranfällige Situationen wird gestärkt.
-
Sicherheitsmaßnahmen können getroffen werden, bevor es zur Katastrophe kommt.
-
Die Patientensicherheit steigt, ohne dass jemand zu Schaden kommt.
-
Negative Trends können frühzeitig erkannt und korrigiert werden.
Der Vorteil, lernen zu können, bevor jemand zu Schaden kommt, schaltet Ängste vor Karriereschaden, Imageverlust und möglichen Ansprüchen aus.
Darüber hinaus weiß man, dass bei gegebener Fehlerkonstellation das Verhältnis von „near misses“ zum Katastrophenfall etwa 1:300 beträgt (Heinreich
1941).
Es muss nicht jeder alle Fehler selbst machen, um daraus zu lernen.
Sind genügend Datensätze vorhanden, können die Eingaben dann von Experten kodiert und nach auffälligen Mustern untersucht werden. Stellt sich heraus, dass sich bestimmte Gefahrensituationen immer wieder aus den gleichen Konstellationen heraus ergeben, können diese systemisch korrigiert werden.
Das ausgereifteste diesbezügliche System ist für den deutschsprachigen Raum (Schweiz/Basel) das über 15 Jahre hindurch gereifte CIRS (Critical Incident Reporting System). Es entstand unter Mithilfe des obersten Luftfahrtpsychologen Prof. Robert Helmreich nach dem Vorbild der funktionierenden Meldesysteme von NASA und Luftfahrt. Alle positiven und negativen Erfahrungen, die es bezüglich Erfassung und Auswertung entsprechender Daten gibt, wurden in dieser Branche gemacht und sind im ASRS (Aviation Safety Report System) berücksichtigt. Jährlich werden derzeit etwa 30.000 Meldungen in das ASRS eingegeben und ausgewertet.
CIRS wird von medizinischer Seite heute von Prof. Daniel Scheidegger, einem der Mitentwickler des Systems, betreut und kann sicherlich als der
Goldstandard eines medizinischen Vorfallmeldesystem gelten (Kaufmann et al.
2002).
Wie auch beim ASRS müssen bestimmte Rahmenbedingungen erfüllt sein, damit die Teilnehmer Berichte eingeben und der Systemnutzen zum Tragen kommt. Einige der Idealvoraussetzungen sind in der Übersicht zusammengefasst.
Leider muss entsprechend den aktuellen Erkenntnissen festgestellt werden, dass – vermutlich wegen der derzeit noch vorherrschenden Fehlerkultur – die CIRS-Systeme in der Medizin in fast allen Fällen nicht in dem Maße benutzt werden, wie das zu wünschen wäre. Einig sind sich alle Experten aber darüber, dass man alles tun sollte, um dieser wertvollen Strategie zum Durchbruch zu verhelfen. Das Instrument ist gut – wir müssen lernen, es zu nutzen.