Kategorie: Human Factors & HOP

  • Wie unser mentales Bild uns in Lebensgefahr bringen kann

    Wie unser mentales Bild uns in Lebensgefahr bringen kann

    Seit nunmehr beinahe 20 Jahren leiste ich als Freiwilliger aktiven Feuerwehrdienst. In diesen knapp zwei Jahrzehnten erlebte ich in zahllosen Einsätzen viel Erfreuliches aber auch immer wieder Belastendes. Ich habe in diesen zwanzig Jahren parallel zum Feuerwehrdienst meine gesamte berufliche Entwicklung bis zum heutigen Tage gemacht. Dabei habe ich mich intensiv mit Themen wie Sicherheit, menschlichen Faktoren (‘Human Factors’), Organisationskultur und -struktur, Resilienz, usw. auseinandergesetzt und diese Themen zu meinem Beruf gemacht. So hat sich in dieser Zeit auch meine Betrachtung von Mensch und Organisation stetig weiterentwickelt. Dies auch im Zusammenhang mit der Institution Feuerwehr.

    In der Vergangenheit ist mir immer wieder aufgefallen, dass automatische Alarme im Zusammenhang mit Brandmeldeanlagen (BMA) als ‘Fehlalarme’ bezeichnet wurden. Angehörige der Feuerwehr (AdF) zottelten gemächlich ins Feuerwehrlokal, es ist ja «nur eine BMA», beim Umziehen im Feuerwehrlokal sagt der Kollege «das ist sowieso nur ein Fehlalarm», die Anfahrt eilt nicht, denn es ist ja «nur eine BMA», die Beispiele sind zahlreich.

    In diesem Artikel möchte ich mich der Thematik mentales Bild, Situationsbewusstsein (‘situational awareness’) und Bestätigungstäuschung (‘confirmation bias’) am Beispiel ‘BMA-Alarme’ widmen. Ich zeige die Gefahr eines falschen mentalen Bildes auf und präsentiere erste Lösungsansätze.

    Ein paar statistische Werte zum Einstieg

    Wie gross ist der Anteil der automatischen Alarme im Zusammenhang mit Brandmeldeanlagen? Dazu habe die Einsatzstatistik der Feuerwehr Koordination Schweiz (FKS) konsultiert[1]. Die Statistik für die Jahre 2010-2020 weist einen durchschnittlichen Anteil von 23.8% mit einer Schwankung von 21.6% bis 26.1% aus. Dies entspricht meiner lokalen Auswertung für die Jahre 2018-2020. Diese Werte schienen sich jedoch nicht mit meiner persönlichen Empfindung zu decken. Darum habe ich auch «meine» Alarme der Jahre 2018-2020 ausgewertet. Von insgesamt 159 Alarmierungen, welche ich erhalten habe, handelte es sich bei 57 um BMA-Alarme, was also einen Wert von 36% ergibt[2]. So oder so zeigen die Zahlen, dass BMA-Alarme einen dominanten Bestandteil des Feuerwehralltags darstellen. Je nach Struktur des Einsatzgebiets können diese Werte natürlich schwanken.

    Weiter kann gesagt werden, dass es sich in der Tat bei meistens um Einsätze handelt, bei welchen rasche Entwarnung gegeben werden kann. Einerseits handelt es sich oft um technische Störungen der BMA, andererseits erfüllen die Anlagen ihren Zweck sehr zuverlässig und alarmieren frühzeitig, wobei es sich in der Regel um kleine Ereignisse, wie z.B. ein angebrannter Toast im Personalraum, ein überhitzter Wasserboiler, ein Kleinbrand in einem Elektroverteilschrank, usw. handelt. Allerdings erleben wir auch immer wieder, dass sich hinter BMA-Alarmen Ereignisse verbergen, welche für uns Feuerwehrleute durchaus gefährlich werden können.

    Unser mentales Bild und unser Situationsbewusstsein

    Aber warum so ein Aufheben um eine Kleinigkeit? Weil es sich dabei um eine gefährliche Kleinigkeit handelt, aufgrund derer es zu Unfällen, im schlimmsten Fall mit Todesfolge, kommen kann. In zahlreichen Untersuchungsberichten zu Unfällen aus allen Bereichen ist zu lesen, dass die Ursache in einem fehlenden oder mangelnden Situationsbewusstsein (‘lack of situational awareness’) zu finden sei[3]. Das heisst also, dass Indikatoren für den bevorstehenden Unfall grundsätzlich vorhanden waren, sie aber durch die Akteure nicht entdeckt oder nicht als solche wahrgenommen wurden. Leider enden hier die meisten Untersuchungen, ohne die wirklich relevante Frage nach dem Warum? zu stellen.

    Wie wir an einen Einsatz herangehen, prägt unser Situationsbewusstsein während des Einsatzes. Aus der Fahrt zum Einsatzort «malen» wir unser mentales Bild des bevorstehenden Einsatzes. Ist dieses mentale Bild gemalt, werden wir bewusst und unbewusst nach Hinweisen suchen, die unser Bild bestätigen. Gehen wir also mit dem mentalen Bild ‘Fehlalarm’ in den Einsatz, so werden wir unbewusst nach Anzeichen suchen, die einen Fehlalarm bestätigen und viel wichtiger noch, wir werden Anzeichen unbewusst ausblenden, die nicht unserem mentalen Bild entsprechen. Diesem Bestätigungsfehler (‘confirmation bias’) können wir uns kaum entziehen. Tritt aus einem Gebäude bereits dichter, schwarzer Rauch, ist dies weniger problematisch, da wir die offensichtliche Gefahr unmittelbar wahrnehmen. Doch sind bei einem Feuerwehreinsatz viele Gefahren nicht offensichtlich, sondern verbergen sich beispielsweise hinter Türen oder sind als Gas nicht sicht- oder riechbar. Blenden wir diese Anzeichen unbewusst aus, begeben wir uns mit einem falschen Situationsbewusstsein möglicherweise in Lebensgefahr.

    Die Rolle der Organisation

    Mit welchem mentalen Bild eine Person in einen Feuerwehreinsatz geht, bestimmt sie nicht ausschliesslich selbst. Wir alle werden durch die Organisationskultur, d.h. wie wir als Kollektiv mit solchen Situationen umgehen, geprägt. Dieser Umgang äussert sich zum Beispiel in bestehenden Prozessen, der in der Kommunikation (intern und extern) verwendeten Sprache, dem Führungsverhalten der Vorgesetzten und dem Verhalten der Kollegen und Kolleginnen. Bekennt sich die Organisation zu einer starken Sicherheitskultur und gewichtet sie kulturelle Aspekte ausreichend?

    Mit gutem Beispiel gehen hochzuverlässige Organisationen[4] (‘High Reliability Organizations – HRO’) voran. Diese Organisationen sind sich dieser verdeckten Gefahren in ihrem System sehr bewusst und gehen sie aktiv an. Hochzuverlässige Organisationen agieren nach den fünf folgenden Grundsätzen:

    Die fünf HRO-Prinzipien:

    1. Sich mit Scheitern auseinandersetzen
    2. Abneigung gegen vereinfachende Interpretationen
    3. Sensibilität für betriebliche Abläufe
    4. Streben nach Flexibilität
    5. Respekt vor fachlichem Wissen und Können

    Nehmen wir nun das Beispiel ‘Fehlalarm’, verstösst dieses vor allem gegen den 2. Grundsatz ‘Abneigung gegen vereinfachende Interpretationen’. Das mentale Bild, das durch diese vereinfachende Interpretation entsteht, entspricht nicht zwangsläufig der Realität und kann sich im schlimmsten Fall als tödlich erweisen.

    Wie kann eine Feuerwehr-Organisation dieses Risiko reduzieren, respektive minimieren?

    Erste, unmittelbare Massnahmen können sein:

    • Ein klar festgelegtes und beschriebenes Vorgehen bei (BMA-)Alarmen
    • Spezifische Sensibilisierung der Feuerwehrleute in Bezug auf die Thematik ‘Fehlalarme’
    • Sprachregelung für interne und externe Kommunikation
    • Feuerwehrleute bei der Verwendung des Begriffs ‘Fehlalarm’ konsequent auf die Sprachregelung und deren Hintergrund hinweisen.

    Hierbei handelt es sich nur um erste, punktuelle Massnahmen. Wie oben erwähnt, spielt die Organisationskultur, welche mit diesen Massnahmen natürlich noch nicht ausreichend verändert wird, eine wichtige Rolle. Um die Sicherheit nachhaltig zu verbessern, müssen die Themen ‘hochzuverlässige Organisation’ und ‘Sicherheitskultur’ umfassend angepackt werden.

    Fazit

    Das mentale Bild, mit dem wir tagtäglich in den Einsatz gehen, beeinflusst unser Situationsbewusstsein und somit unser Handeln im Einsatz massgeblich und kann im – glücklicherweise seltenen – Extremfall über Leben und Tod entscheiden. Das mentale Bild ist aber nicht ausschliesslich Sache jedes einzelnen Feuerwehrmanns oder jeder einzelnen Feuerwehrfrau, sondern wird massgeblich durch das Umfeld und die Organisationskultur geprägt. Hier kann und muss die Organisation ihre richtungsweisende Rolle übernehmen, um die Sicherheit ihrer Mitglieder nachhaltig zu verbessern. Einen möglichen Ansatz bietet hier das Modell der ‘hochzuverlässigen Organisationen’.

     

    _____________________________________________________________________________________

    [1] https://www.swissfire.ch/fileadmin/swissfire/Der%20SFV/Statistik_FKS_2020_D.pdf
    Die FKS weist hier die Kategorie «BMA und Falschalarme» aus.

    [2] Wir Feuerwehrleute sind in meinem Fall in verschiedene Einsatzgruppen mit zum Teil unterschiedlichen Aufgaben eingeteilt, wobei eine Person auch in mehreren Gruppen sein kann. Je nach Gruppe unterscheidet sich die Art der Einsätze und somit auch deren Anzahl.

    [3] Hier möchte ich unbedingt anmerken, dass das Situationsbewusstsein meiner Meinung nach nicht die Ursache für einen Unfall darstellt, sondern es sich dabei vielmehr um ein Symptom handelt. Untersuchungen, welche bei «mangelndem Situationsbewusstsein» als Ursache die Untersuchung abschliessen, sind oftmals wenig hilfreich. Denn sie ermöglichen, dass die Schuld für den Unfall auf ein Individuum geschoben werden kann, ohne das Gesamtsystem, und auch die kulturellen Aspekte im System, zu hinterfragen. Die wirklichen Ursachen liegen in der Regel tiefer im System verborgen.

    [4] Der Thematik «hochzuverlässige Organisationen» habe ich einen Blog-Beitrag gewidmet: https://neu.tailoringsafersystems.ch/blog/2020/02/12/high-reliability-organizations/.

     

     

  • Die Neue Betrachtungsweise von menschlichen Fehlern

    Die Neue Betrachtungsweise von menschlichen Fehlern

    In diesem Artikel widme ich mich der Alten Betrachtungsweise (The Old View) und der Neuen Betrachtungsweise (The New View) von menschlichen Fehlern[1]. Es handelt sich hierbei um eine erste, kurze Einführung, welche das Terrain für weitere Artikel zu dieser interessanten Thematik auslegt.

    Der Begriff «Neue Betrachtungsweise» ist bereits 20 Jahre alt und im Grunde genommen nicht mehr so neu. Allerdings hat sich in vielen Köpfen und in der Folge in zahlreichen Organisationen die Neue Betrachtungsweise noch nicht durchgesetzt.

    In jedem Unternehmen geschehen Fehler. Glücklicherweise bleiben diese meist folgenlos, und oft werden sie nicht einmal bemerkt. Doch leider kommt es auch immer wieder zu finanziellen oder sogar Personenschäden.

    Doch warum geschehen diese Fehler? Handelt es sich dabei um vermeidbare Fehler von Individuen, die einfach hätten besser aufpassen sollen? Oder sind Fehler emergente Eigenschaften eines komplexen sozio-technischen Systems und haben mit dem einzelnen Individuum wenig zu tun?

    Die Alte Betrachtungsweise (The Old View)

    Eine mögliche Betrachtungsweise ist, dass menschliche Fehler und somit deren negative Konsequenzen vermeidbar wären, würden sich alle an die Regeln halten. Geschieht ein Fehler aus Unachtsamkeit, reicht es aus, die Person darauf hinzuweisen und gegebenenfalls zu bestrafen, womit das Problem dann behoben ist. Die Bestrafung kann im Unternehmenskontext im Extremfall soweit gehen, dass der/die Schuldige aus dem System entfernt wird. Auch strafrechtliche Folgen sind denkbar. Diese werden nicht zwingend durch die Unternehmung initiiert, sondern im Falle von Offizialdelikten durch die Strafverfolgungsbehörden.

    Das System an sich wird als sicher betrachtet. Die Menschen im System werden als potentielle Fehlerquellen und Systemschwäche gesehen. Geben sich alle Akteure Mühe und halten sich an die Regeln, kann eigentlich nichts passieren. Die Sicherheit des Systems kann mittels Anzahl der Zwischenfälle oder Unfälle innerhalb einer Periode gemessen werden.

    Doch inwiefern hilft diese Betrachtungsweise, ein System sicherer zu machen?

    Ich bin geneigt zu sagen: Gar nicht! Bei Unternehmen handelt es sich um komplexe sozio-technische Systeme. Eine Eigenschaft diese Systeme ist, dass nicht alle Auswirkungen des Zusammenspiels verschiedener Systemkomponenten bekannt sind. Fehler, aber auch Systemsicherheit, sind emergente Systemeigenschaften.

    Doch was ist eigentlich ein Fehler?

    Wir unterscheiden verschiedene Arten von Fehlern. Da sind die unbeabsichtigten oder unbewussten Fehler, die ohne Kenntnis der Auswirkungen auf das System geschehen[2]. Und da sind die beabsichtigten oder bewussten Fehler. Hierbei handelt es sich meist um beabsichtigte Abweichungen von bestehenden Verfahren oder Regeln. Zu solchen Abweichungen kommt es beispielsweise bei Zielkonflikten, unter hohem Produktionsdruck oder weil keine besseren Alternativen zur Verfügung stehen. Sie sind also ein Resultat unzulänglicher Systeme. Häufig ist es auch der Fall, dass mit diesen Abweichungen schon seit geraumer Zeit bessere Resultate erzielt wurden als mit den offiziellen Verfahren.

    Ob eine Handlung ein Fehler war oder nicht, hat oft mit dem Resultat selbst zu tun. Der Begriff ‘Fehler’ ist also eine rückwärtsgerichtete Betrachtung einer Handlung, bei welcher das Resultat in der Zwischenzeit bekannt ist. Gerade in einem Umfeld mit hoher Komplexität und unvollständiger Informationslage, kann es aber dazu kommen, dass dieselbe Handlung einmal zu einem positiven und ein anderes Mal zu einem negativen Resultat führt. Ob jemand also einen Fehler begangen hat oder nicht, kann durchaus Umständen geschuldet sein, die zu diesem Zeitpunkt noch unbekannt waren.

    Die Neue Betrachtungsweise (The New View)

    Die neue Betrachtungsweise nimmt Abstand von der Sicht des Menschen als Fehlerquelle und als schwächstes Glied in der Kette. Der Mensch wird viel mehr als Systemkomponente betrachtet, welche eine hohe Systemsicherheit erst ermöglicht. Die Prämisse ist, dass Personen zur Arbeit kommen, um einen guten Job zu machen. Geschieht ein Fehler, lässt sich dieser nicht einfach auf die Handlung eines Individuums reduzieren. Es ist erforderlich, den Fehler im Systemkontext zu betrachten. Denn, die Handlung, welche sich später als Fehler herausstellte, wurde zum Zeitpunkt der Ausübung von der Person als sinnvoll für die Zielerreichung betrachtet.

    Menschen treffen Entscheidungen unter hohem Druck, in Zielkonflikten und grosser Unsicherheit. In einem komplexen System müssen Entscheidungen mit unvollständigen Informationen getroffen werden, oder die Menge an Informationen ist so gross, dass diese gar nicht verarbeitet werden kann. Dies kann dazu führen, dass Informationen übersehen oder bewusst nicht in die Entscheidungsfindung miteinbezogen werden.

    Das System sicherer machen

    Als System betrachte ich in diesem Zusammenhang eine Organisation oder Organisationseinheit mit Mitarbeitenden, technischen Systemen und Prozessen. Der Begriff System kann, wenn zweckmässig, auch auf externe Komponenten ausgeweitet werden.

    Wie eingangs erwähnt, bleiben glücklicherweise die meisten Fehler folgenlos. Dass dies so ist, ist vor allem der Resilienz der Menschen und manchmal auch einfach dem Zufall geschuldet.

    Fehler bieten eine Gelegenheit, zu lernen und das System sicherer zu machen[3]. Geschehen Fehler, ist es nicht zielführend sich bei der Analyse auf die Handlungen des Individuums zu beschränken (die Alte Betrachtungsweise). Die Entfernung des «Täters» aus dem System verbessert dieses nicht. Es ist entscheidend, bei der Analyse eine Systemperspektive einzunehmen und verstehen zu wollen, warum eine Entscheidung für das Individuum in dieser konkreten Situation Sinn ergeben hatte (die Neue Betrachtungsweise). Dabei muss miteinbezogen werden, welche Informationen die Person zur Verfügung hatte und welchen Zielkonflikten sie ausgesetzt war. Hier stellt sich auch die Frage, ob eine andere – ähnlich kompetente – Person möglicherweise in einer vergleichbaren Situation auch so entschieden hätte oder nicht. Wird diese Frage mit ‘ja’ beantwortet, bedarf es einer Anpassung im System, um eine nachhaltige Verbesserung zu erzielen.

     

     

    [1] Im Folgenden werde ich zwecks besserer Lesbarkeit von «Fehlern» schreiben. Gemeint sind damit «menschliche Fehler»

    [2] Ich benütze hier bewusst die Formulierung «geschehen», da diese Fehler nicht bewusst begangen werden.

    [3] Dies ist eine Safety-I Perspektive. Auf der Basis des Lernens aus Fehlern kann ein System sicherer gemacht werden. Dies ist jedoch nicht die einzige Möglichkeit. Durch das Verstehen, welche Faktoren dazu führen, dass ein System mit einer extrem hohen Zuverlässigkeit funktioniert, kann das System weiter verbessert werden, ohne dass es zuerst du negativen Ereignissen kommen muss. Die Safety-I und Safety-II Thematik werde ich in kommenden Artikeln auch noch aufnehmen.

  • Erreichen einer optimalen menschlichen Leistung durch effektives Systemdesign

    Erreichen einer optimalen menschlichen Leistung durch effektives Systemdesign

    Das Entwerfen von Automatisierung für komplexe sozio-technische Systeme, um eine optimale menschliche Leistung sicherzustellen, ist ein herausforderndes Unterfangen. Insbesondere in sicherheitskritischen Umgebungen muss sich der Mensch möglicherweise schnell an sich ändernde Anforderungen, Komplexität und Unsicherheit anpassen, um eine optimale Leistung, Effizienz und Betriebssicherheit aufrechtzuerhalten. Unter diesen Bedingungen kann der Mensch von der Automatisierung profitieren. In den meisten Fällen ist die Automatisierung so konzipiert, dass sie Aufgaben mit geringem Wert übernimmt, d.h. Aufgaben, die einfach und leicht zu automatisieren sind. Das Entwerfen von Automatisierung zur Unterstützung des Menschen bei kognitiv anspruchsvollen Aufgaben wie Problemlösung und komplexer Entscheidungsfindung ist jedoch aus verschiedenen Gründen schwieriger. Zunächst ist es erforderlich, ein Verständnis für alle übergeordneten Aufgaben und zugrunde liegenden (menschlichen) kognitiven Funktionen zu erlangen und zu ermitteln, inwieweit diese Aufgaben derzeit durch Automatisierung unterstützt werden und welche Ressourcen der Mensch für die Ausführung benötigt. Zweitens muss bei der Automatisierung von Aufgaben die neue Verteilung von (kognitiven) Funktionen zwischen Mensch und Automatisierung auf einer höheren Ebene überdacht werden. Es muss analysiert werden, welche Organisationsstrukturen erforderlich sind und wie die Kognition zwischen Menschen und Automatisierung geteilt wird (d.h. wie Menschen effektiv arbeiten können). Drittens muss verstanden werden, wie die Automatisierung gestaltet werden soll, so dass sie den Menschen bei der Bewältigung komplexer Aufgaben optimal unterstützt, insbesondere wenn Entscheidungen oder Problemlösungen unter sich schnell ändernden Anforderungen, hoher Komplexität und Unsicherheit erforderlich sind. Die Schaffung von Automatisierung zur Unterstützung des Menschen erfordert daher ein tiefes Verständnis der Strategien, die Menschen bei der Lösung komplexer Probleme und bei der Entscheidungsfindung anwenden. Welche Strategien verfolgen sie und was benötigen sie als Automatisierungsunterstützung? Dieser Artikel gibt einen Überblick über die Bewältigung dieser Herausforderungen.

    Schritt 1: Aufgaben und zugrunde liegende (kognitive) Funktionen eines Systems verstehen

    Wir müssen berücksichtigen, dass wir in den meisten Fällen keine Systeme von Grund auf neu entwickeln. Vielmehr bauen wir auf bestehenden Systemen auf, um in Bezug auf Sicherheit, Effizienz oder andere Leistungsdimensionen eine Verbesserung zu erzielen. Dies bedeutet, dass wir verstehen müssen, welche Aufgaben und zugrunde liegenden (kognitiven) Funktionen derzeit existieren und welche Funktionen derzeit von der Automatisierung unterstützt werden. So können wir ermitteln, wo Möglichkeiten bestehen, Aufgaben oder zugrunde liegende (kognitive) Funktionen weiter zu automatisieren oder vorhandene automatisierte Funktionen zu verbessern. Um herauszufinden, welche Automatisierung den Menschen bei komplexen Aufgaben optimal unterstützt (um eine menschenzentrierte Entscheidungsfindung sicherzustellen), müssen wir zunächst alle Aufgaben und entsprechenden (kognitiven) Funktionen identifizieren. Wir müssen auch die aktuelle Verteilung der Aufgaben (und der zugrunde liegenden kognitiven Funktionen) zwischen Menschen und Automatisierung ermitteln. Einige Aufgaben mit verschiedenen Ebenen der Automatisierungsunterstützung können möglicherweise Menschen zugewiesen werden und einige Aufgaben können vollständig automatisiert werden. Es ist aber auch möglich, dass Aufgaben dynamisch automatisiert oder Menschen zugewiesen werden. Es ist notwendig zu verstehen, wie sich eine Änderung der Aufgabenverteilung im Hinblick auf die gegenseitigen Abhängigkeiten zwischen Mensch und Automatisierung auf das Gesamtsystem auswirken kann. Eine kognitive Funktionsanalyse (Cognitive Function Analysis – CFA) (Boy, 1998) ist ein wichtiges Instrument für Human Factors Engineers und Designer (z.B. UX Engineers), um ein Verständnis für alle Aufgaben und zugrunde liegenden Funktionen eines Systems sowie für die Auswirkungen einer Änderung der Funktionsverteilung zwischen Menschen und Automatisierung zu generieren. Bei der Durchführung eines CFA ist es wichtig, eine breite Palette von Techniken, einschließlich Interviews, Beobachtungen sowie Dokumentationsstudien, zu verwenden. Interviews und Beobachtungen sind wichtig, da sich der Mensch in den meisten Fällen so angepasst hat, dass er das System anders verwendet als ursprünglich beabsichtigt, was häufig nicht dokumentiert ist.

    Schritt 2: Verständnis der Auswirkungen der Funktionszuweisung auf die Systemstabilität

    Eine Änderung der Funktionsverteilung zwischen Mensch und Automatisierung kann sich auf die Systemstabilität auswirken (Straussberger et al., 2008). Bei der Automatisierung bestehender Funktionen, die derzeit dem Menschen zugewiesen sind, muss daher bewertet werden, wie sich die Neugestaltung der kognitiven Funktionen von Mensch und Maschine durch zunehmende Automatisierung auf die Gesamtstabilität eines komplexen sozio-technischen Systems auswirkt. Dies bestimmt letztendlich die Resilienz des Systems, auf alle betrieblichen Anforderungen zu reagieren. Stabilität besteht in verschiedenen Schichten. Sie ist das Ergebnis von Organisationsstrukturen, die mit Verfahren und technischen Systemen verknüpft sind, und spiegelt die Fähigkeit des Systems wider, sich nach einer Störung zu erholen. Die Stabilität sozio-technischer Systeme wird durch zwei Prozesse definiert (Straussberger et al. 2008):

    1. Globale sozio-kognitive Stabilität
    2. Lokale sozio-kognitive Stabilität

    Die globale sozio-kognitive Stabilität befasst sich mit der Angemessenheit der dem Menschen oder der Automatisierung zugewiesenen Funktionen, dem Tempo des Informationsflusses und der damit verbundenen Koordination, indem geeignete Strukturen entworfen werden. Diese Strukturen sind verbunden mit:

    • Autorität
    • Verantwortung
    • Kontrollierbarkeit
    • Fähigkeit

    Probleme können auftreten, wenn diese Strukturen nicht angemessen definiert wurden. Zum Beispiel, wenn Menschen formale Verantwortung haben, aber nicht über die Kontrolle oder die Fähigkeit verfügen, bestimmte Aufgaben oder Funktionen auf hoher Ebene auszuführen. Oder es werden Funktionen vollständig automatisiert, der Mensch bleibt jedoch formal für diese Funktionen verantwortlich, während er nicht über die Kontrolle oder Fähigkeit verfügt, in die Ausführung dieser Funktionen einzugreifen. Probleme können auch auftreten, wenn Funktionen dynamisch dem Menschen oder der Automatisierung zugewiesen werden, oder von Menschen an das System delegiert werden, wobei die Bedingungen, die für die Delegierung erfüllt sein müssen, für Menschen nicht transparent oder gar nicht definiert sind.

    Lokale sozio-kognitive Stabilität bezieht sich auf die Arbeitsbelastung des Menschen, das Situationsbewusstsein und die Fähigkeit, geeignete Entscheidungen zu treffen und Maßnahmen zu ergreifen. Die lokale sozio-kognitive Stabilität hängt hauptsächlich von der Fähigkeit des Menschen ab, die Automatisierung zu verstehen und ein mentales Modell des Systems zu erhalten. Automatisierte Systeme müssen so konzipiert sein, dass Menschen in der Lage sind, Reaktionen automatisierter Systeme auf menschliche Eingaben vorherzusagen (zu antizipieren) sowie angemessenes Feedback zu erhalten und bei Bedarf die Autorität wiederzugewinnen (Boy, 1998). Außerdem muss die Transparenz automatisierter Funktionen berücksichtigt werden, damit der Mensch ein gültiges mentales Modell des Systems, seiner Funktionen und seines Verhaltens entwickeln kann.

    Die Gewährleistung sowohl der globalen als auch der lokalen sozio-kognitiven Stabilität wird einen gemeinsamen Bezugsrahmen gewährleisten und das gemeinsame Situationsbewusstsein zwischen Menschen und automatisierten Systemen unterstützen.

    Schritt 3: Designautomatisierung zur Unterstützung von Expertenentscheidungen

    Das Entwerfen einer Automatisierung zur Unterstützung menschlicher makrokognitiver Funktionen beginnt mit dem Verständnis, wie menschliche Bediener auf ein hohes Maß an Komplexität und Unsicherheit reagieren. Menschen müssen sich möglicherweise an sich ändernde Anforderungen anpassen, was voraussetzt, in die Zukunft extrapolieren und eine erfahrungsbasierte Bewertung erstellen zu können. Es kann auch erforderlich sein, vorauszuplanen und Kapazitäten aufzubauen, um Situationen in naher Zukunft bewältigen zu können. Möglicherweise müssen sie auch Strategien entwickeln, um mit zukünftigen Anforderungen und unerwarteten Situationen umgehen zu können. Solche Strategien können dazu dienen, Komplexität und Unsicherheit entweder zu verringern oder zu bewältigen. Beispiele für Strategien zum Komplexitäts- und Unsicherheitsmanagement sind (Corver & Grote, 2016):

    • Vorausschauendes Denken (Extrapolation der aktuellen Situation in die Zukunft basierend auf früheren Erfahrungen mit beobachteten Abweichungen)
    • Adaptive Planung (d.h. Erstellen von Ausweichplänen)
    • Abwägen der Vor- und Nachteile verschiedener Optionen (Vergleich alternativer Lösungen)
    • Vorbeugen (Verbesserung der Bereitschaft, z.B. Ressourcen für zukünftige Anforderungen verwalten)
    • Verringerung der Unsicherheit (z. B. Erhöhung der Genauigkeit und Zuverlässigkeit von Daten durch Integration und Validierung von Informationen aus verschiedenen Quellen)

    Das Verständnis dieser Strategien ist wichtig, um nützliche Automatisierungen zu entwickeln, die die Entscheidungsfindung des menschlichen Bedieners und die Ausführung von Aufgaben in hochdynamischen Situationen mit hoher Komplexität unterstützen.

    Folgende Fragen sollten gestellt werden: Welche Informationen aus welchen Quellen werden benötigt und welche Datengenauigkeit ist erforderlich? Welche Hinweise sind erforderlich, damit menschliche Bediener bei Abweichungen angemessen informiert werden, um schnell angemessen reagieren können? Was berücksichtigen Menschen bei der Analyse einer Situation und bei komplexen Entscheidungen? Automatisierte Support-Tools können so konzipiert werden, dass sie die Fähigkeit des Menschen unterstützen, Einblicke zu gewinnen oder in die Zukunft zu extrapolieren, bei Abweichungen alarmiert zu werden, oder komplexe Entscheidungen auf der Grundlage operativer Kompromisse zu treffen (Corver & Grote, 2016). Schließlich, kann das Verständnis der Aufgaben und des Informationsbedarfs das Design der Automatisierung unterstützen, die den Menschen beim Clustering, Integrieren und Filtern verschiedener Informationen aus verschiedenen Quellen unterstützt, um die Entscheidungsfindung zu verbessern und zu beschleunigen.

    Zusammenfassend kann gesagt werden, dass mittels Identifizierung menschlicher makrokognitiver Strategien verstanden werden kann, wie die Automatisierung die menschlichen Bedürfnisse unterstützen und die Gesamtleistung eines Systems steigern kann.

    ———————————————————————————————————————————————————

    Literatur

    Corver, S.C. & Grote, G. (2016). Uncertainty management in en route air traffic control: a field study exploring controller strategies and requirements for automation. Cognition, Technology & Work.

    Boy, G. (1998). Cognitive function analysis. Westport, CT: Ablex, Greenwood Publishing Group.

    Straussberger, S. et al. (2008). PAUSA for the future – A synthesis of Phase 1. June 2008. Final Report.