Gary A. Klein gehört zu den prägendsten Persönlichkeiten in der Welt der angewandten Kognitionswissenschaft. Geboren 1944 in den Vereinigten Staaten, widmete er seine akademische Laufbahn dem Verständnis, wie Menschen unter hohem Druck und in komplexen Situationen Entscheidungen treffen. Anders als viele Vertreter der rationalen Entscheidungsmodelle war Klein überzeugt, dass Experten vor allem auf Erfahrungswissen und schnelle Mustererkennung zurückgreifen. Diese Überzeugung wurde zum Ausgangspunkt seines bekanntesten Konzepts: dem Recognition-Primed Decision Model, das bis heute als grundlegende Theorie der Naturalistic Decision Making gilt.
Seine berufliche Laufbahn ist untrennbar mit seiner Rolle als Gründer und Leiter der Klein Associates Inc. verbunden, einem Forschungsunternehmen, das sich auf kognitive Aufgabenanalyse, Entscheidungsunterstützungssysteme und Trainingsmethoden spezialisiert hat. Dort entwickelte er in enger Zusammenarbeit mit Einsatzkräften, Militärs und Industriepartnern eine Vielzahl von Methoden, um Entscheidungsprozesse empirisch zu erfassen und zu verbessern.
Klein veröffentlichte zahlreiche wissenschaftliche Artikel, Monografien und Handbücher. Sein Buch “Sources of Power: How People Make Decisions” aus dem Jahr 1998 wird oft als Meilenstein der Entscheidungsforschung bezeichnet. Es legte den Grundstein für eine breitere Rezeption seiner Ansätze auch in der Welt der künstlichen Intelligenz.
Seine Arbeit hat die Sichtweise auf Expertise grundlegend verändert: Entscheidungen werden nicht primär durch analytisches Abwägen getroffen, sondern durch den schnellen Abruf von Mustern aus dem Erfahrungsschatz. Dieses Prinzip ist auch für moderne KI-Systeme hochrelevant, da es das Ziel unterstreicht, Maschinen zu entwickeln, die situationsabhängiges Wissen verarbeiten und kontextgerechte Schlüsse ziehen können.
Die Relevanz seiner Forschung liegt damit sowohl in der Psychologie als auch in der Informatik. Viele der Methoden, die heute unter dem Schlagwort Explainable AI diskutiert werden, knüpfen konzeptionell an Kleins Einsicht an, dass Wissen und Intuition eng miteinander verflochten sind. Seine Ideen sind ein Katalysator für die Entwicklung menschenzentrierter KI-Systeme, die nicht nur Ergebnisse liefern, sondern auch Entscheidungswege transparent machen.
Das vorliegende Essay untersucht Gary Kleins Konzepte im Detail, zeichnet die wichtigsten Stationen seiner Karriere nach und beleuchtet den Einfluss seiner Arbeit auf die KI-Forschung.
Methodik und Quellenlage
Wissenschaftliche Zeitschriften und Artikel
Für die Untersuchung von Kleins Karriere und Wirkung wurden primär einschlägige wissenschaftliche Zeitschriften herangezogen. Dazu zählen Publikationen aus dem “Journal of Cognitive Engineering and Decision Making”, “Cognitive Science” sowie Artikel in Fachorganen wie “Human Factors” und “Organizational Behavior and Human Decision Processes”. Diese Quellen sind für die empirische Validierung seiner Modelle besonders wichtig. Sie dokumentieren Experimente, Fallstudien und Feldforschungen, mit denen Klein und seine Kollegen die Theorie der Naturalistic Decision Making untermauerten.
Einige der zentralen Forschungsarbeiten entstanden in Kooperation mit dem US-Militär, Feuerwehrorganisationen und Großunternehmen. In diesen Studien wurden reale Entscheidungssituationen beobachtet, kognitive Abläufe systematisch erfasst und in formale Modelle übertragen. Dabei entstanden detaillierte Beschreibungen, die bis heute Grundlage für die Modellierung von Entscheidungsverhalten sind.
Bücher und Monographien
Als Referenzwerke dienen vor allem Kleins Hauptwerke:
- Sources of Power: How People Make Decisions
- The Power of Intuition: How to Use Your Gut Feelings to Make Better Decisions at Work
- Streetlights and Shadows: Searching for the Keys to Adaptive Decision Making
Diese Monografien bieten nicht nur einen umfassenden Überblick über Kleins Konzepte, sondern enthalten auch zahlreiche Praxisbeispiele, Illustrationen und Fallstudien. Darüber hinaus geben sie Aufschluss über die methodischen Hintergründe der Forschung und die interdisziplinäre Herangehensweise.
Ergänzend wurden Handbücher zur Kognitionspsychologie und Entscheidungsforschung herangezogen, etwa von Gerd Gigerenzer, Daniel Kahneman oder Herbert Simon, um Kleins Ansatz in den breiteren Kontext der Psychologie einzuordnen.
Online-Ressourcen und Datenbanken
Für die Recherche wurden aktuelle Veröffentlichungen, Interviews und Vorträge genutzt, die über digitale Plattformen zugänglich sind. Dazu zählen Datenbanken wie IEEE Xplore, SpringerLink und ResearchGate. Viele der jüngeren Beiträge zu Kleins Einfluss auf Explainable AI sind nur digital verfügbar. Sie erlauben es, den Transfer seiner Ideen in moderne KI-Systeme nachzuvollziehen.
Außerdem bieten Online-Ressourcen einen Einblick in Diskussionen über die Grenzen und Chancen seiner Modelle. Diese Perspektiven sind wichtig, um nicht nur den historischen Beitrag zu würdigen, sondern auch die Relevanz für aktuelle Debatten zu erkennen.
Einordnung der Quellen in den Forschungskontext
Das Quellenmaterial wurde mit dem Ziel ausgewählt, die Verbindung von psychologischer Forschung und technologischer Innovation differenziert darzustellen. Während die klassischen Monografien Kleins die Grundlagen seiner Theorie vermitteln, dokumentieren die Fachzeitschriften die empirische Basis. Die digitalen Ressourcen zeigen die Weiterentwicklung seiner Ideen im Diskurs der KI-Community.
Die Methodik des Essays kombiniert daher eine historische Perspektive mit einer kritischen Auseinandersetzung aktueller Forschungsergebnisse. Auf diese Weise soll ein ganzheitliches Bild entstehen, das Gary Kleins Karriere, seine Konzepte und ihren nachhaltigen Einfluss auf die künstliche Intelligenz in ihrer ganzen Tiefe beleuchtet.
Biografischer Hintergrund und akademische Entwicklung
Frühe Jahre und Ausbildung
Gary A. Klein wuchs in einer Zeit auf, in der sich die Psychologie als empirische Wissenschaft in rasantem Tempo entwickelte. Schon früh zeigte er ein besonderes Interesse an der Frage, wie Menschen komplexe Probleme lösen und welche kognitiven Mechanismen sie dabei unbewusst einsetzen. Sein akademischer Werdegang begann mit einem Psychologiestudium an der University of Pittsburgh, wo er sich erstmals intensiv mit der Kognitionspsychologie und den damals dominierenden Theorien des rationalen Entscheidens auseinandersetzte.
Seine Dissertation beschäftigte sich mit Aufmerksamkeitsmechanismen und der Verarbeitung von Informationen unter Belastung. Diese Themen legten den Grundstein für sein lebenslanges Interesse an realen Entscheidungssituationen, in denen Menschen nicht unbegrenzt Zeit und Ressourcen haben, um Alternativen gegeneinander abzuwägen. Stattdessen müssen sie häufig unter Unsicherheit, Zeitdruck und hohen Konsequenzen handeln – Bedingungen, die in klassischen Laborexperimenten nur unzureichend simuliert wurden.
Während seiner frühen Forschungen begann Klein, sich vom idealisierten Bild des „homo oeconomicus“ abzuwenden, der streng nach Wahrscheinlichkeiten und Nutzenmaximierung entscheidet. Diese Abkehr sollte zu seinem Markenzeichen werden: der konsequenten empirischen Erforschung der Entscheidungsfindung unter realen, oft chaotischen Bedingungen.
Studium und erste Forschungsinteressen
Nach seinem Abschluss promovierte Klein und arbeitete zunächst in der akademischen Forschung, später auch in angewandten Projekten für Regierungsbehörden und das Militär. Dort zeigte sich, dass Expertenentscheidungen nicht der Logik klassischer Entscheidungstheorien folgen. Vielmehr spielten Intuition, situatives Wissen und Mustererkennung eine dominierende Rolle.
In dieser Zeit entwickelte Klein eine enge Verbindung zu Forschungsinstitutionen, die sich mit Mensch-Maschine-Systemen und der sogenannten Cognitive Task Analysis beschäftigten. Diese Kontakte waren prägend, da sie ihn in die Lage versetzten, seine theoretischen Ideen mit der Praxis von Einsatzkräften und Experten zu verbinden.
Einfluss prägender Mentoren und Institutionen
Neben der engen Kooperation mit Regierungsstellen und Verteidigungsbehörden waren es vor allem einflussreiche Mentoren und Kollegen, die Kleins Denkweise prägten. Dazu gehörten Psychologen wie Herbert A. Simon, dessen Konzept der begrenzten Rationalität [bounded rationality] Klein inspirierte, sowie Forscher aus dem Umfeld der Applied Cognitive Psychology.
Insbesondere die frühen Arbeiten von Simon zu Entscheidungsheuristiken zeigten Klein, dass es möglich ist, menschliches Entscheidungsverhalten empirisch zu untersuchen und zugleich formal zu modellieren. Diese Verbindung von beobachtbarem Handeln und theoretischer Präzision wurde ein Leitmotiv seiner Forschungskarriere.
Auch die enge Zusammenarbeit mit Praktikern – etwa Feuerwehrleuten, Kampfpiloten und Notärzten – schärfte seinen Blick für die Diskrepanz zwischen Theorie und Realität. Aus diesen Erfahrungen erwuchs die Überzeugung, dass jede ernsthafte Forschung zur Entscheidungsfindung die Expertise der Handelnden respektieren muss.
Wegbereiter der Naturalistic Decision Making
Entwicklung des Konzepts
Gary Klein gilt als einer der maßgeblichen Wegbereiter der Naturalistic Decision Making (NDM). Dieses Forschungsfeld entstand Ende der 1980er Jahre als bewusster Gegenentwurf zu den Laborstudien, die Entscheidungen in künstlich simplifizierten Szenarien untersuchten.
NDM zielt darauf ab, die Entscheidungsprozesse von Experten unter realen Bedingungen zu erfassen. Im Mittelpunkt steht die Frage: Wie gelingt es Menschen, trotz Zeitdruck, Unsicherheit und Informationslücken kompetente Entscheidungen zu treffen? Kleins Antwort darauf war das Recognition-Primed Decision Model (RPD), das er während einer Feldstudie bei Feuerwehrkommandanten entwickelte.
Das RPD-Modell beschreibt einen kognitiven Mechanismus, bei dem Experten Situationen in Mustern wiedererkennen. Anstatt mehrere Alternativen zu vergleichen, aktiviert der Entscheider anhand der situativen Merkmale eine passende Handlungsoption. Nur falls diese nicht unmittelbar plausibel ist, erfolgt eine mental simulierte Anpassung oder Verfeinerung. Das Modell verbindet damit zwei Prozesse: das Erkennen typischer Muster und das mentale Durchspielen der Folgen, um Sicherheit zu gewinnen.
Formal lässt sich dieser Mechanismus als Abfolge beschreiben:
\(\text{Erkennen} \rightarrow \text{Prototyp aktivieren} \rightarrow \text{Simulation der Handlungskonsequenzen} \rightarrow \text{Auswahl}\)
Dieses Vorgehen unterscheidet sich radikal von klassischen, linearen Entscheidungsmodellen, die auf einem umfassenden Vergleich aller Optionen beruhen.
Kontrast zu klassischen Entscheidungsmodellen
In der traditionellen Entscheidungsforschung dominierte lange das sogenannte normative Paradigma. Es geht davon aus, dass rationale Akteure unter allen verfügbaren Alternativen diejenige auswählen, die den erwarteten Nutzen maximiert. Typischerweise geschieht dies auf Basis von Wahrscheinlichkeitskalkülen, wie sie auch in der Ökonomie verbreitet sind:
\(EU = \sum_{i=1}^n p_i \cdot U_i\)
wobei \(p_i\) die Wahrscheinlichkeit eines Ereignisses und \(U_i\) der Nutzen ist.
Klein kritisierte dieses Modell als zu formalistisch und realitätsfern. Im Feld gebe es weder Zeit noch vollständige Informationen, um solche Kalkulationen anzustellen. Stattdessen entstehe Expertise aus der Erfahrung, bestimmte Situationen als Variationen bekannter Muster zu erkennen. Dieser Ansatz betont Intuition und Erfahrungswissen als Grundlage für gute Entscheidungen.
Im Gegensatz zu Kahneman, der Intuition vor allem als Quelle kognitiver Verzerrungen betrachtete, zeigte Klein, dass Intuition gerade bei Expertenentscheidungen ein wertvolles Instrument ist. Dieser Perspektivwechsel markierte eine Zäsur in der Entscheidungsforschung und trug dazu bei, dass NDM zum festen Bestandteil vieler Forschungs- und Anwendungsbereiche wurde – von der Luftfahrt über das Militär bis hin zu medizinischen Notfallteams.
Auf diese Weise positionierte sich Gary Klein als innovativer Theoretiker und zugleich pragmatischer Forscher, dessen Arbeiten nicht nur den wissenschaftlichen Diskurs, sondern auch die Entwicklung moderner Entscheidungsunterstützungssysteme nachhaltig prägten.
Zentrale Konzepte und Theorien von Gary Klein
Recognition-Primed Decision Model (RPD)
Ursprünge und Motivation
Das Recognition-Primed Decision Model wurde Ende der 1980er Jahre von Gary Klein entwickelt. Die Initialzündung erfolgte während einer Feldstudie in einer amerikanischen Feuerwehrstation. Dort beobachtete er erfahrene Einsatzleiter, die in lebensbedrohlichen Situationen binnen Sekunden Entscheidungen trafen – ohne offensichtliches Abwägen von Alternativen.
Diese Erkenntnis stand im Widerspruch zum vorherrschenden Paradigma rationaler Entscheidungsmodelle. Klassische Theorien gingen davon aus, dass Menschen in drei Schritten handeln: Problem identifizieren, Alternativen generieren und vergleichen, dann die beste Option auswählen. Klein stellte hingegen fest, dass Experten oft nur eine Lösung prüften, diese mental simulierten und anschließend direkt umsetzten.
Seine Motivation war es, dieses intuitive Vorgehen theoretisch zu fassen und empirisch abzusichern. Er wollte zeigen, dass Expertise nicht aus langwierigen Analysen, sondern aus dem Wiedererkennen von Mustern erwächst – ein Gedanke, der später auch im Kontext künstlicher Intelligenz bedeutsam wurde.
Aufbau und Funktionsweise
Das Recognition-Primed Decision Model beschreibt den Entscheidungsprozess als Kombination zweier Mechanismen:
- Erkennung: Experten erkennen in einer Situation vertraute Muster, die bestimmte Handlungsmöglichkeiten nahelegen.
- Simulation: Sie überprüfen die Konsequenzen der favorisierten Option durch mentale Vorwegnahme, um ihre Angemessenheit zu validieren.
Der Ablauf kann schematisch so dargestellt werden:
\(\text{Situation} \rightarrow \text{Mustererkennung} \rightarrow \text{Handlungsoption} \rightarrow \text{mentale Simulation} \rightarrow \text{Ausführung}\)
Im Detail läuft dieser Prozess wie folgt ab:
- Die Situation wird mit früheren Erfahrungen abgeglichen.
- Ein passendes „Prototypen-Muster“ wird aktiviert.
- Falls das Muster plausibel ist, simuliert der Entscheider mögliche Folgen.
- Führt die Simulation zu keinen Widersprüchen, erfolgt die Umsetzung.
- Nur wenn Unsicherheiten bestehen, werden Alternativen geprüft oder Modifikationen vorgenommen.
Diese Funktionsweise ermöglicht rasche, kontextsensitive Entscheidungen, wie sie in Hochdrucksituationen erforderlich sind.
Bedeutung für Entscheidungsfindung unter Zeitdruck
Das RPD-Modell ist vor allem für Szenarien relevant, in denen Zeit knapp, Druck hoch und Informationen unvollständig sind. Beispiele sind Notfalleinsätze, militärische Operationen oder Krisenmanagement.
Klein wies nach, dass Experten unter diesen Bedingungen nicht schlechtere Entscheidungen treffen als bei sorgfältiger Analyse. Im Gegenteil: Intuitive Entscheidungen, basierend auf Mustererkennung und mentaler Simulation, erwiesen sich oft als schneller und effektiver.
Dieses Prinzip widerspricht der Annahme, dass Intuition zwangsläufig zu Fehlern führt. Stattdessen zeigt das RPD-Modell, dass Intuition bei Expertenentscheidungen eine wichtige Ressource darstellt, die auf jahrelanger Erfahrung beruht.
Für die Entwicklung von KI-Systemen eröffnete dies neue Perspektiven: Statt Maschinen nur als rationale Rechner zu verstehen, entstand das Ziel, algorithmische Verfahren zu entwickeln, die ebenfalls Mustererkennung und Simulation verknüpfen.
Naturalistic Decision Making (NDM)
Definition und Abgrenzung zu rationalen Modellen
Naturalistic Decision Making bezeichnet die Erforschung realer Entscheidungsprozesse unter natürlichen Bedingungen. Im Unterschied zu Laborstudien, die oft auf künstlich vereinfachte Situationen setzen, analysiert NDM komplexe Umgebungen mit echten Konsequenzen und unvollständigen Informationen.
Gary Klein definierte NDM als Ansatz, der folgende Merkmale betont:
- Zeitdruck
- hohe Unsicherheit
- sich dynamisch verändernde Situationen
- multiple, oft konkurrierende Ziele
- bedeutende Konsequenzen bei Fehlentscheidungen
- Erfahrung und Expertise als Basis
NDM grenzt sich damit klar von den rationalen Entscheidungsmodellen ab, die auf Nutzenerwartung, Wahrscheinlichkeitsrechnung und Optimierung beruhen. Diese Modelle setzen voraus, dass Akteure:
\(EU = \sum_{i=1}^n p_i \cdot U_i\)
berechnen können, wobei \(p_i\) die Wahrscheinlichkeit und \(U_i\) der Nutzen der jeweiligen Option ist. Klein zeigte jedoch, dass solche Berechnungen in der Praxis selten stattfinden, weil sie kognitiv und zeitlich zu aufwendig sind.
Einsatzgebiete (z.B. Militär, Feuerwehr, Notfallmedizin)
NDM wird heute in vielen Bereichen angewendet:
- Militär: Einsatzplanung, taktische Entscheidungen, Führungsverhalten
- Feuerwehr: Lageeinschätzung, Ressourcendisposition, Evakuierung
- Notfallmedizin: Diagnose unter Zeitdruck, Behandlungskaskaden
- Luftfahrt: Cockpit-Entscheidungen, Fluglotsen
- Industrie: Prozessmanagement in kritischen Infrastrukturen
In diesen Kontexten dienen NDM-Modelle als Grundlage für Training, Simulation und Entwicklung von Entscheidungsunterstützungssystemen. Die Kombination aus empirischer Forschung und methodischer Modellierung hat dazu beigetragen, das Sicherheits- und Qualitätsniveau in kritischen Bereichen deutlich zu erhöhen.
Kritische Würdigung
NDM hat die Perspektive auf Entscheidungsfindung grundlegend verändert, stößt aber auch auf Kritik:
- Manche Forscher monieren die mangelnde Generalisierbarkeit der Feldstudien.
- Andere bemängeln, dass der Fokus auf Expertenwissen Laienentscheidungen vernachlässigt.
- Zudem wird kritisiert, dass NDM schwer formalisierbar ist, was die direkte Implementierung in Algorithmen erschwert.
Trotz dieser Einwände hat NDM viele Anwendungsbereiche geprägt und die Erkenntnis etabliert, dass Intuition nicht nur fehlerbehaftet, sondern auch hochgradig adaptiv sein kann.
Cognitive Task Analysis
Methodische Grundlagen
Cognitive Task Analysis (CTA) bezeichnet eine Methodik, um die mentalen Prozesse zu erfassen, die Experten bei der Bearbeitung komplexer Aufgaben einsetzen. Sie wurde von Gary Klein und Kollegen entwickelt, um unsichtbare kognitive Abläufe transparent zu machen.
CTA umfasst mehrere Schritte:
- Sammlung von Aufgaben- und Kontextinformationen
- Identifikation kritischer Vorfälle und Herausforderungen
- Interviews mit Experten über Denk- und Entscheidungsprozesse
- Modellierung der kognitiven Abläufe
Die Methode basiert auf qualitativen Techniken wie strukturierte Interviews, Verhaltensbeobachtungen und Szenarienanalyse. Ziel ist es, das Expertenwissen so zu dokumentieren, dass es für Training, Simulation und Systemdesign nutzbar wird.
Beitrag zur Wissensmodellierung
CTA trug wesentlich dazu bei, kognitives Expertenwissen systematisch zu erfassen und in explizite Modelle zu überführen. Solche Modelle ermöglichen:
- Schulungsprogramme, die reale Entscheidungsabläufe abbilden
- Entwicklung von Expertensystemen
- Evaluation von Mensch-Maschine-Interaktionen
Im Unterschied zu klassischen Aufgabenanalysen berücksichtigt CTA auch unbewusste Prozesse wie Intuition, Heuristiken und Erfahrungswissen.
Ein einfaches Schema der Wissensmodellierung könnte wie folgt aussehen:
\(\text{Aufgabe} \rightarrow \text{Wissensträger} \rightarrow \text{kognitive Prozesse} \rightarrow \text{Handlungsausführung}\)
Implikationen für maschinelles Lernen
Cognitive Task Analysis hat wichtige Impulse für das maschinelle Lernen geliefert. Viele moderne KI-Systeme nutzen Verfahren, die auf Expertenwissen basieren, z. B.:
- Wissensbasierte Systeme
- Fallbasiertes Schließen (Case-Based Reasoning)
- Hybride Modelle, die maschinelles Lernen mit Expertenregeln kombinieren
Durch CTA wird es möglich, Trainingsdaten nicht nur aus großen Datenmengen, sondern auch aus menschlicher Expertise zu generieren. Dieser Ansatz ist besonders relevant für Anwendungsfelder, in denen „Big Data“ schwer zugänglich ist – etwa bei seltenen, kritischen Ereignissen.
Darüber hinaus eröffnet CTA Perspektiven für Explainable AI, indem es Transparenz in kognitive Entscheidungslogiken bringt. So können algorithmische Systeme entwickelt werden, deren Funktionsweise für Nutzer nachvollziehbar ist.
Insgesamt bilden das Recognition-Primed Decision Model, das Naturalistic Decision Making und die Cognitive Task Analysis den theoretischen Kern von Gary Kleins Werk. Sie zeigen, wie tiefgreifend sein Einfluss auf die Erforschung und Gestaltung komplexer Entscheidungsprozesse – und damit auch auf die Entwicklung menschenzentrierter KI – ist.
Gary Kleins Einfluss auf die Entwicklung der KI
Von der Psychologie zur künstlichen Intelligenz
Transfer kognitiver Modelle in die Informatik
Gary Kleins Forschung entstand aus der Kognitionspsychologie, hatte jedoch schon früh Berührungspunkte mit der Informatik. Der Transfer seiner Modelle in die Welt der künstlichen Intelligenz verlief dabei nicht linear, sondern erforderte interdisziplinäre Zusammenarbeit.
Sein Recognition-Primed Decision Model und das Naturalistic Decision Making boten der KI-Forschung eine Blaupause, wie Expertenentscheidungen modelliert werden können. Während viele klassische KI-Ansätze auf formalen Logiksystemen oder starren Entscheidungsbäumen beruhten, eröffneten Kleins Konzepte eine Perspektive, in der Erfahrungswissen, situative Einschätzungen und Heuristiken den Kern des Problemlösens bilden.
Ein zentrales Anliegen der frühen KI war es, menschenähnliches Problemlösen zu simulieren. Kleins Arbeiten boten hier wertvolle empirische Grundlagen, um Systeme zu entwickeln, die nicht nur logische Operationen durchführen, sondern auch implizite Muster erkennen.
Dieser Transfer kognitiver Modelle verlief über mehrere Etappen:
- Erste Versuche, CTA-Ergebnisse als Entscheidungsregeln in Expertensysteme einzuspeisen
- Entwicklung fallbasierter Systeme (Case-Based Reasoning), die Muster analog zum RPD-Modell abspeichern
- Integration heuristischer Entscheidungsmodelle in adaptive Systeme
Klein lieferte mit seinen Theorien ein Gegenmodell zu den rein statistischen Verfahren, die ab den 1990er Jahren zunehmend populär wurden. Sein Fokus auf Erfahrungswissen und Expertise hat den Diskurs darüber geprägt, was „intelligente Systeme“ leisten sollen.
Herausforderungen bei der Operationalisierung
Der Transfer von Kleins Ideen in algorithmische Strukturen war jedoch mit erheblichen Herausforderungen verbunden. Während psychologische Modelle oft mit qualitativen Beschreibungen arbeiten, benötigt die Informatik präzise formale Repräsentationen.
Ein zentrales Problem bestand darin, die impliziten Mustererkennungsprozesse des RPD-Modells in formalisierten Regelwerken abzubilden. Anders als in der klassischen Entscheidungslogik, in der alle Optionen explizit durchgerechnet werden, lässt sich Expertenintuition nicht einfach in Wenn-Dann-Schemata übersetzen.
Beispielsweise ist der Prozess der mentalen Simulation in Kleins Modell hochgradig kontextabhängig. Versuche, dies algorithmisch zu operationalisieren, führten zunächst zu vereinfachten Annahmen. Die Herausforderung besteht darin, Variabilität und Flexibilität der menschlichen Kognition in Softwarestrukturen nachzubilden, ohne den praktischen Nutzen zu verlieren.
Auch der Umgang mit Unsicherheit stellte Entwickler vor Probleme. Während probabilistische Verfahren mit exakten Wahrscheinlichkeiten arbeiten, beruhen Kleins Modelle eher auf heuristischer Plausibilität. Daher war es notwendig, hybride Architekturen zu entwickeln, die logische und heuristische Verfahren kombinieren.
Trotz dieser Hürden hat der Transfer der RPD- und NDM-Konzepte maßgeblich dazu beigetragen, KI-Entwicklung stärker auf menschliche Expertise auszurichten.
Nutzung von RPD und NDM in Expertensystemen
Frühe Versuche der Wissensrepräsentation
In den späten 1980er und frühen 1990er Jahren begannen Informatiker und Ingenieure, RPD- und NDM-Elemente in Expertensysteme zu integrieren. Dabei stand vor allem die Frage im Mittelpunkt, wie man das implizite Erfahrungswissen von Experten in einer Wissensbasis abbilden kann.
Ein frühes Verfahren bestand darin, typische Szenarien und Entscheidungsprozeduren in sogenannten Decision Trees zu kodieren. Ergänzend wurden Fallbibliotheken erstellt, die Muster aus vergangenen Situationen enthielten.
Das Prinzip ähnelte dem Schema:
\(\text{Situation} \rightarrow \text{Mustervergleich} \rightarrow \text{Handlungsoption} \rightarrow \text{Evaluation}\)
Ein bekanntes Beispiel war die Entwicklung von Unterstützungssystemen für Feuerwehrleitstellen, in denen Einsatzleiter über Entscheidungsbäume und Fallbeispiele angeleitet wurden. In diesen Systemen bildete RPD die Grundlage für die Vorschlagslogik, mit der Einsatzoptionen angezeigt und priorisiert wurden.
Parallel dazu entstanden Trainingssimulatoren, die Szenarien nach RPD-Logik aufbauten, um Nutzer auf schnelle Entscheidungen vorzubereiten. Diese Systeme gelten als Vorläufer moderner Entscheidungsunterstützungstechnologien in sicherheitskritischen Bereichen.
Anwendungsbeispiele in KI-Systemen
Heute findet man Kleins Ideen in zahlreichen Anwendungen, die explizit oder implizit auf seine Forschung Bezug nehmen:
- Case-Based Reasoning Systeme: Diese Systeme speichern Problemlösungen vergangener Fälle und adaptieren sie auf neue Situationen, analog zu Kleins Mustererkennungsprinzip.
- Einsatzplanung in Notfallszenarien: Softwareplattformen nutzen Erfahrungsdatenbanken, um situative Handlungsempfehlungen bereitzustellen.
- Simulationstrainings: Komplexe Simulatoren modellieren Entscheidungsabläufe nach dem Vorbild des RPD-Modells.
- Adaptive Benutzeroberflächen: Systeme, die in Echtzeit Hinweise geben, wie man kritische Entscheidungen plausibilisiert.
Die Anwendung solcher Systeme verdeutlicht, dass Kleins Forschung die Schnittstelle zwischen menschlicher Expertise und maschineller Entscheidungsunterstützung maßgeblich geprägt hat.
Rolle seiner Arbeiten im Kontext von Explainable AI
Erklärbarkeit als Grundprinzip
Gary Klein hat schon in den 1990er Jahren betont, dass Entscheidungssysteme nachvollziehbar sein müssen. Seine Perspektive auf Expertise als Prozess von Erkennen, Simulieren und Evaluieren war ein Vorläufer dessen, was heute als Explainable AI (XAI) diskutiert wird.
XAI verfolgt das Ziel, algorithmische Entscheidungen transparent zu machen. Das Bedürfnis nach Nachvollziehbarkeit entsteht aus demselben Motiv wie Kleins Forschung: Nutzer sollen verstehen, auf welcher Basis Empfehlungen oder automatisierte Entscheidungen zustande kommen.
Das RPD-Modell liefert hier eine narrative Struktur, um Entscheidungsprozesse zu erklären:
- Warum wurde ein Muster erkannt?
- Welche Handlungsoption wurde aktiviert?
- Welche mentale Simulation führte zur Auswahl?
Diese Fragen entsprechen dem Anspruch von XAI, algorithmische Entscheidungslogiken offen zu legen.
Verbindung von Erfahrungswissen und algorithmischen Methoden
Ein zentraler Beitrag Kleins zur Debatte um erklärbare KI ist die Betonung der Rolle von Erfahrungswissen. In vielen Machine-Learning-Systemen basiert die Entscheidungslogik ausschließlich auf statistischen Mustern. Kleins Modelle zeigen jedoch, dass Experten ihr Wissen durch zahlreiche Einzelerfahrungen strukturieren und situativ abrufen.
Für XAI bedeutet dies: Ein wirklich erklärbares System muss nicht nur mathematische Korrelationen ausgeben, sondern den Zusammenhang zur Expertise herstellen. Das erfordert eine semantische Verknüpfung zwischen Daten und bekannten Handlungsmustern.
In modernen Anwendungen wird dies teilweise realisiert, etwa durch:
- Rule Extraction: Algorithmen generieren Regeln, die menschlichen Entscheidungsheuristiken ähneln.
- Case-Based Justifications: Systeme geben Begründungen in Form ähnlicher Fälle aus.
- Hybridmodelle: Kombination von neuronalen Netzen und wissensbasierten Modulen, um Ergebnisse zu plausibilisieren.
Damit liefern Kleins Arbeiten bis heute theoretische Impulse für die Entwicklung menschenzentrierter, transparenter KI. Seine Überzeugung, dass Intuition, Erfahrung und kognitive Vereinfachung integrale Bestandteile jeder intelligenten Entscheidungsunterstützung sind, hat die Perspektive auf KI grundlegend erweitert.
Vergleich mit anderen Pionieren der Entscheidungsforschung
Daniel Kahneman und die Prospect Theory
Unterschiede im Menschenbild
Daniel Kahneman, Nobelpreisträger und Mitbegründer der Verhaltensökonomie, prägte mit Amos Tversky die Prospect Theory – ein Modell, das systematische Verzerrungen und Abweichungen von rationalen Erwartungen beschreibt. Ihr Ansatz basierte auf Experimenten, die zeigten, dass Menschen Risiken nicht objektiv bewerten, sondern Verluste überproportional gewichten.
Das Menschenbild der Prospect Theory ist ein eher defizitorientiertes: Menschen neigen zu kognitiven Biases wie Verlustaversion, Framing-Effekten und Ankerheuristiken. Entscheidungen gelten deshalb oft als fehleranfällig.
Gary Klein vertritt dagegen ein komplementäres Bild. Er fokussiert auf Experten in realen Situationen, deren Intuition nicht primär als Quelle von Irrtümern, sondern als Ausdruck von Erfahrung betrachtet wird. Wo Kahneman die Fehlbarkeit der Urteilsbildung betont, unterstreicht Klein die adaptive Kraft von Mustern und Expertise.
Ein vereinfachter Vergleich lässt sich in folgender Tabelle darstellen:
| Perspektive | Kahneman: Biases | Klein: Expertise |
|---|---|---|
| Fokus | Urteilsverzerrung | Mustererkennung |
| Menschenbild | kognitiv limitiert | adaptiv lernend |
| Anwendungsbezug | Alltag, Laienentscheidungen | Expertenentscheidungen |
Rationalität versus Expertise
Kahnemans Forschung zeigt, wie weit menschliches Entscheiden von rationaler Norm abweicht. Er illustriert dies anhand der Verlustaversion-Formel:
\(V(x) = \begin{cases}
x^\alpha & \text{für Gewinne} \
-\lambda (-x)^\beta & \text{für Verluste}
\end{cases}\)
mit typischerweise \(\lambda > 1\), was die stärkere Gewichtung von Verlusten ausdrückt.
Klein hingegen untersucht Kontexte, in denen diese Biases durch Erfahrung überwunden werden. In Extremsituationen, so seine These, entwickelt sich Expertise, die Entscheidungen schneller und verlässlicher macht. Während Kahneman Rationalität als seltene Ausnahme sieht, betrachtet Klein Expertise als erlernbares Muster, das die Leistungsfähigkeit erhöht.
Dieser Unterschied hat erhebliche Implikationen: Wo Kahnemans Ansätze oft zur Entwicklung von Bias-Korrekturen führen, regen Kleins Theorien dazu an, Erfahrungswissen zu nutzen und in Systeme zu integrieren.
Herbert A. Simon und Bounded Rationality
Abgrenzung der Konzepte
Herbert A. Simon gilt als Vater der Theorie der „begrenzten Rationalität“ (bounded rationality). Er stellte fest, dass Menschen aufgrund kognitiver Beschränkungen und unvollständiger Informationen nur eine befriedigende Lösung finden, anstatt zu optimieren.
Sein Konzept der Satisficing-Strategie beschreibt diesen Kompromiss:
\(\text{Satisficing} = \text{Suche nach einer Option, die ein Anspruchsniveau erfüllt}\)
Gary Klein und Simon teilen den Ausgangspunkt, dass perfekte Rationalität in der Realität nicht existiert. Doch während Simon betont, dass Menschen unvollkommen optimieren, stellt Klein die Fähigkeit in den Vordergrund, durch Erfahrung Muster zu internalisieren und dadurch schneller Entscheidungen zu treffen.
Simon beschreibt Entscheidungsprozesse vorwiegend als Such- und Auswahlprobleme in Entscheidungsbäumen. Klein hingegen betont das unmittelbare Wiedererkennen einer Situation – ein qualitativer Unterschied.
Gemeinsamkeiten bei der Modellierung kognitiver Prozesse
Trotz dieser Abgrenzung verbindet beide ein wichtiges Element: Sie machten Entscheidungsverhalten empirisch beobachtbar und entwickelten Modelle, die auf realen Bedingungen basieren.
Beide lehnen das Idealbild des rein rationalen Akteurs ab und betrachten Menschen als Akteure, die sich an die Gegebenheiten ihrer Umwelt anpassen.
Simon schuf durch seine Arbeiten die Grundlage für kognitive Architekturen wie SOAR, ACT-R und andere symbolische Modelle. Klein setzte diesen Gedanken in der Applied Cognitive Psychology fort, indem er NDM entwickelte und in praktischen Anwendungsfeldern validierte.
Insofern stehen Simon und Klein in einer Traditionslinie, die Rationalität nicht als Idealfall, sondern als situatives Konstrukt versteht.
Gerd Gigerenzer und Heuristiken
Ergänzende Perspektiven
Gerd Gigerenzer verfolgt mit seiner Forschung über Heuristiken eine ähnliche Stoßrichtung wie Gary Klein: Menschen nutzen vereinfachte Entscheidungsregeln, die oft zu erstaunlich guten Ergebnissen führen.
Gigerenzer spricht in diesem Zusammenhang von der „Ökologischen Rationalität“: Heuristiken sind dann erfolgreich, wenn sie gut an die Strukturen der Umwelt angepasst sind. Dieses Prinzip zeigt sich zum Beispiel in der „Take-the-Best“-Heuristik:
\(\text{Wähle die erste valide Information, die ein Kriterium erfüllt, ignoriere den Rest}\)
Klein sieht in Heuristiken und Mustererkennung ebenfalls adaptive Strategien, um in komplexen Situationen effizient zu handeln. Der Unterschied liegt vor allem im Fokus: Während Gigerenzer auch Laienentscheidungen untersucht, konzentriert sich Klein stärker auf Expertise.
Wirkung auf adaptive Entscheidungsunterstützungssysteme
Die Verbindung der Arbeiten von Gigerenzer und Klein hat dazu beigetragen, dass Entscheidungsunterstützungssysteme heute nicht mehr nur Optimierungslogiken implementieren, sondern auch heuristische Verfahren integrieren.
Beispielsweise finden sich in modernen Assistenzsystemen Module, die Entscheidungsvorschläge auf Basis von Erfahrungsregeln generieren – analog zu Kleins RPD – und gleichzeitig heuristische Filter verwenden, wie Gigerenzer sie beschreibt.
In Summe ergibt sich daraus ein Paradigmawechsel:
- Weg von der Vorstellung des ideal rationalen Akteurs
- Hin zu Modellen, die situative Expertise und vereinfachte Regeln kombinieren
- Entwicklung hybrider KI-Systeme, die erklärbar und adaptiv zugleich sind
Gary Klein hat mit seinen Theorien entscheidend dazu beigetragen, diese Entwicklung zu ermöglichen. Sein Fokus auf die Rolle der Erfahrung ergänzt die Heuristiken Gigerenzers ebenso wie die Begrenzungsannahmen Simons und die Bias-Perspektive Kahnemans. Durch diesen Vergleich wird deutlich, dass Kleins Werk nicht isoliert steht, sondern ein zentraler Baustein einer interdisziplinären Sichtweise auf Entscheidungsprozesse ist.
Fallbeispiele: Praktische Umsetzung der Theorien
Feuerwehr- und Rettungsdienste
Erfassung und Modellierung von Entscheidungsabläufen
Ein zentrales Anwendungsfeld der Theorien Gary Kleins war von Anfang an die Arbeit von Feuerwehrkommandanten. In seinen klassischen Feldstudien beobachtete er, wie Einsatzleiter unter enormem Zeitdruck Entscheidungen fällen. Diese Forschungsergebnisse flossen direkt in Methoden ein, mit denen kognitive Abläufe systematisch erfasst wurden.
Die Methodik der Cognitive Task Analysis ermöglichte es, typische Entscheidungsabläufe zu modellieren. Klein interviewte erfahrene Feuerwehrleute über kritische Einsätze und rekonstruierte Entscheidungsprozesse Schritt für Schritt. Dabei zeigte sich immer wieder, dass Experten selten mehrere Alternativen vergleichen. Stattdessen prüfen sie, ob die erkannte Situation einem bekannten Muster entspricht.
Ein schematischer Entscheidungsprozess im Einsatz kann so dargestellt werden:
\(\text{Lageeinschätzung} \rightarrow \text{Musteridentifikation} \rightarrow \text{Option aktivieren} \rightarrow \text{mentale Simulation} \rightarrow \text{Handlung}\)
Diese Modellierung half, Ausbildungsprogramme so zu gestalten, dass sie den Aufbau von Mustern und Intuition fördern. Der Fokus lag nicht auf reinem Faktenwissen, sondern auf dem Training der Fähigkeit, typische Situationen zu erkennen und intuitiv zu reagieren.
Technische Unterstützungssysteme
Die Erkenntnisse aus Kleins Forschung fanden Eingang in technische Systeme zur Entscheidungsunterstützung. Ein Beispiel sind Leitstellensysteme, die Einsatzleitern relevante Informationen in strukturierter Form präsentieren.
Solche Systeme nutzen Datenbanken, in denen frühere Einsätze dokumentiert sind, um Ähnlichkeiten zu erkennen und Vorschläge zu generieren. Damit bilden sie eine Art algorithmische Unterstützung des Recognition-Primed Decision Models.
Ein typisches System enthält Module für:
- Mustervergleich mit Einsatzhistorien
- Bewertung von Handlungsmöglichkeiten
- Visualisierung der Folgen (Simulation)
- Empfehlung der plausibelsten Option
Besonders in großen Katastrophenlagen (z. B. Brände in Industrieanlagen) hat sich gezeigt, dass diese Unterstützung die Reaktionszeiten reduziert und Fehler vermeidet. Gleichzeitig bleibt der Mensch im Zentrum der Entscheidung – das System liefert nur strukturierte Vorschläge, die vom Einsatzleiter final bewertet werden.
Militärische Anwendungen
Schulungs- und Simulationssoftware
Die Streitkräfte der Vereinigten Staaten gehörten zu den ersten Organisationen, die Kleins Erkenntnisse systematisch nutzten. Besonders im Bereich der Ausbildung wurden Simulationsprogramme entwickelt, die auf NDM- und RPD-Modellen basieren.
Beispielsweise enthalten taktische Simulationsumgebungen Szenarien, in denen Soldaten unter Zeitdruck Entscheidungen treffen müssen. Diese Software erfasst und bewertet, ob und wie der Nutzer Muster erkennt, Optionen aktiviert und Konsequenzen abschätzt.
Ein wesentliches Element ist die Möglichkeit, Szenarien mehrfach zu durchlaufen und dadurch Entscheidungsheuristiken zu internalisieren. Das Trainingsziel besteht darin, Erfahrungswissen in einem sicheren Umfeld aufzubauen.
Typische Merkmale solcher Systeme sind:
- Echtzeit-Feedback zur Entscheidungsgüte
- Visualisierung von Optionen und Konsequenzen
- Nachbesprechung mit Fokus auf Mustererkennung und Simulation
Entscheidungsunterstützung in Echtzeit
Neben dem Training kamen Kleins Konzepte auch in Echtzeitanwendungen zum Einsatz. Moderne militärische Führungsunterstützungssysteme integrieren Elemente des RPD, indem sie Situationsdaten automatisch analysieren und Entscheidungsoptionen priorisieren.
Ein Beispiel ist ein System für die Gefechtsfeldführung, das eingehende Lageinformationen mit Erfahrungsdatenbankeinträgen abgleicht. So werden dem Kommandeur Handlungsempfehlungen angezeigt, die bereits in ähnlichen Situationen erfolgreich waren.
Die Systemarchitektur folgt dabei einem Schema:
\(\text{Sensor- und Meldedaten} \rightarrow \text{Mustervergleich} \rightarrow \text{Optionenvorschlag} \rightarrow \text{mentale Simulation durch den Nutzer} \rightarrow \text{Freigabe oder Modifikation}\)
Die Entscheidungshoheit bleibt immer beim Menschen, aber der Algorithmus unterstützt, indem er Komplexität reduziert und Entscheidungsmuster transparent macht.
Industrie und Prozessmanagement
Wissensbasierte Systeme in komplexen Umgebungen
Auch in industriellen Kontexten hat Kleins Forschung Einzug gehalten. Besonders in Bereichen, in denen Prozesse hochkomplex sind und Fehlentscheidungen gravierende Folgen haben, wurden RPD-basierte Systeme entwickelt.
Ein Anwendungsfeld ist die Überwachung von Produktionsanlagen. Leitstände erhalten hier in Echtzeit Empfehlungen, wie auf Anomalien zu reagieren ist. Die Software gleicht Messwerte mit bekannten Mustern aus der Vergangenheit ab und zeigt, welche Handlungsschritte sich in ähnlichen Fällen bewährt haben.
In diesen Anwendungen werden oft hybride Verfahren eingesetzt, bei denen sowohl statistische Modelle als auch regelbasierte Mustererkennung genutzt werden:
\(\text{Datenstrom} \xrightarrow{\text{Anomalieerkennung}} \text{Musterabgleich} \xrightarrow{\text{Fallbibliothek}} \text{Empfehlung}\)
Das Ziel besteht darin, die Erfahrung der Bediener zu erweitern und gleichzeitig Fehlalarme zu reduzieren.
Beispiele aus der Automobilindustrie und Luftfahrt
In der Automobilindustrie kamen Kleins Ansätze bei der Entwicklung von Assistenzsystemen zum Einsatz, etwa in Kontrollzentren großer Fertigungsanlagen. Dort hilft die Kombination aus Erfahrungsdaten und heuristischen Regeln, Produktionsausfälle frühzeitig zu erkennen und Gegenmaßnahmen einzuleiten.
In der Luftfahrt wiederum flossen seine Konzepte in Trainingsprogramme für Cockpit-Crews ein. Simulatoren modellieren hier typische Störfälle, um das schnelle Erkennen von Mustern zu trainieren. Bei Zwischenfällen wie Triebwerksausfällen lernen Piloten, relevante Optionen mental durchzuspielen und intuitiv die plausibelste Entscheidung zu treffen.
Diese Umsetzungen zeigen, dass Gary Kleins Theorien nicht nur wissenschaftlichen Wert besitzen, sondern in vielen Sektoren konkrete Verbesserungen der Entscheidungsqualität bewirken. Sein Beitrag besteht darin, Entscheidungsfindung als kognitiven Prozess zu verstehen, der durch Training, Technologie und strukturiertes Erfahrungswissen optimiert werden kann.
Kritische Auseinandersetzung mit Kleins Modellen
Stärken der Konzepte
Nähe zur Praxis
Eine der größten Stärken von Gary Kleins Modellen ist ihre enge Verzahnung mit der realen Praxis. Anders als viele klassische Entscheidungstheorien, die in Laborumgebungen getestet wurden, entstanden das Recognition-Primed Decision Model und das Naturalistic Decision Making durch Feldforschung in Hochrisikoberufen.
Feuerwehrkommandanten, Militärplaner und Notfallmediziner agieren in Situationen, die sich nicht auf kontrollierbare Variablen reduzieren lassen. Kleins Konzepte sind deshalb besonders wertvoll für Kontexte, in denen Zeitdruck, Unsicherheit und Komplexität zusammentreffen.
Die Nähe zur Praxis zeigt sich auch in der breiten Akzeptanz der Modelle bei Anwendern. Viele Trainingsprogramme, Simulationssysteme und Leitfäden für Einsatzorganisationen beziehen sich explizit auf Kleins Forschung, weil sie authentisch und nachvollziehbar ist.
Kognitive Validität
Ein weiterer Vorteil liegt in der kognitiven Validität. Kleins Modelle basieren auf präziser Beobachtung und sorgfältiger Rekonstruktion mentaler Prozesse. Sie greifen jene Mechanismen auf, die Experten selbst als charakteristisch für ihre Entscheidungen beschreiben: Mustererkennung, mentale Simulation und intuitive Bewertung.
Diese Validität wird häufig hervorgehoben, weil sie nicht von abstrakten Theorien ausgeht, sondern von empirisch belegten Abläufen. Viele Experten, die an Kleins Studien teilgenommen haben, bestätigten, dass das RPD-Modell ihr eigenes Vorgehen realistisch abbildet.
Im Vergleich zu streng rationalistischen Modellen liefern Kleins Konzepte deshalb eine überzeugendere Erklärung für exzellente Leistungen unter extremen Bedingungen.
Schwächen und Kritikpunkte
Generalisierbarkeit der Befunde
Trotz der praktischen Relevanz gibt es Kritikpunkte an Kleins Modellen, insbesondere was die Generalisierbarkeit betrifft. Seine Forschung konzentriert sich vor allem auf erfahrene Profis. Die Frage, ob dieselben Mechanismen auch bei Laienentscheidungen oder in weniger strukturierten Kontexten gelten, ist nur unzureichend geklärt.
Beispielsweise stellt sich die Frage, ob Novizen ohne umfangreiche Erfahrung in der Lage sind, Muster in vergleichbarer Weise zu erkennen und zu bewerten. Kritiker bemängeln, dass sich Kleins Theorien nur eingeschränkt auf Alltagsentscheidungen übertragen lassen.
Ein weiterer Einwand betrifft die Variabilität zwischen Individuen und Kulturen. Die Studien wurden überwiegend in nordamerikanischen Organisationen durchgeführt. Ob andere kulturelle Kontexte dieselben Entscheidungslogiken hervorbringen, ist empirisch nicht abschließend belegt.
Schwierigkeiten der formalen Implementierung
Ein zweiter Kritikpunkt betrifft die Umsetzung der Modelle in algorithmische Strukturen. Während das RPD-Modell in Worten sehr plausibel klingt, ist es schwer, es in vollständig formalisierte Entscheidungslogiken zu übersetzen.
Im Kern basiert das Modell auf implizitem Wissen, das oft unbewusst aktiviert wird. Dieses Wissen in mathematische Regeln oder Algorithmen zu überführen, ist komplex. Versuche, den Prozess der mentalen Simulation in präzise Rechenmodelle zu transformieren, stoßen schnell an Grenzen.
Für KI-Entwickler bedeutet das: Systeme, die auf Kleins Prinzipien beruhen, sind oft hybride Lösungen, die statistische Verfahren mit fallbasierten Datenbanken verbinden. Solche Mischformen sind schwer zu standardisieren und bergen das Risiko von Intransparenz.
Aktuelle Debatten in Forschung und Anwendung
Grenzen der heuristischen Modelle
In der aktuellen Forschung werden zunehmend die Grenzen heuristischer Modelle diskutiert. Kritiker argumentieren, dass Kleins Fokus auf Intuition und Erfahrung dazu verleiten kann, systematische Verzerrungen zu unterschätzen.
Beispielsweise weisen Kahneman und andere Verhaltensökonomen darauf hin, dass selbst erfahrene Entscheider unter Zeitdruck Fehler machen können. Intuition schützt nicht vor Confirmation Bias, Overconfidence oder selektiver Wahrnehmung.
Zudem werden in komplexen, dynamischen Systemen immer mehr Daten generiert, die sich nicht allein mit Erfahrungswissen beherrschen lassen. Hier stoßen rein heuristische Ansätze an ihre Grenzen.
Perspektiven durch Deep Learning
Gleichzeitig eröffnen Deep-Learning-Ansätze neue Perspektiven. Neuronale Netze sind in der Lage, riesige Datenmengen zu verarbeiten und Muster zu erkennen, die selbst Experten verborgen bleiben.
Hier zeigt sich ein Spannungsfeld: Während Kleins Modelle menschliche Expertise in den Vordergrund stellen, betonen moderne KI-Verfahren die Überlegenheit datengetriebener Mustererkennung. Deep Learning kann potenziell Entscheidungen optimieren, ohne dass menschliches Erfahrungswissen explizit codiert werden muss.
Ein aktueller Trend ist die Entwicklung hybrider Architekturen, die beide Ansätze kombinieren:
\(\text{Entscheidungsprozess} = \text{Deep Learning Mustererkennung} + \text{heuristische Validierung durch Expertenwissen}\)
Diese Verbindung ermöglicht es, die Leistungsfähigkeit datenbasierter Modelle mit der Erklärbarkeit kognitiver Schemata zu vereinen.
Trotz aller Kritik bleibt Gary Kleins Werk ein unverzichtbarer Baustein in der Diskussion um menschenzentrierte Entscheidungsunterstützung. Seine Modelle haben gezeigt, dass Expertise ein komplexes Zusammenspiel aus Intuition, Mustererkennung und mentaler Simulation ist – ein Verständnis, das auch die KI-Forschung nachhaltig geprägt hat.
Gary Kleins Beiträge zur interdisziplinären Forschung
Schnittstellen zwischen Kognitionswissenschaft und Informatik
Aufwertung kognitiver Theorien in der KI-Community
Gary Klein hat maßgeblich dazu beigetragen, dass kognitionspsychologische Modelle in der Informatik und speziell in der KI-Community neue Wertschätzung erfahren haben.
Bis in die 1980er-Jahre dominierten vor allem zwei Strömungen die KI-Forschung: symbolische Systeme, die Wissen in expliziten Regeln abbilden, und zunehmend statistische Methoden, die auf Wahrscheinlichkeitstheorie und Optimierung basieren. Kleins Arbeiten zeigten jedoch, dass menschliche Expertise in komplexen Situationen weder rein symbolisch noch rein statistisch funktioniert, sondern vor allem aus situativer Mustererkennung und mentaler Simulation besteht.
Dieser Gedanke führte zu einer Aufwertung kognitiver Theorien, die lange Zeit eher als unscharf galten. Insbesondere in der Entwicklung von Expertensystemen, Trainingstechnologien und adaptiven Assistenzsystemen setzte sich die Erkenntnis durch, dass menschliche Intuition modelliert und für Maschinen nutzbar gemacht werden kann.
Ein Beispiel ist der Einzug der Cognitive Task Analysis in die Softwareentwicklung: Statt ausschließlich formale Entscheidungsregeln zu kodieren, werden kognitive Prozesse und Erfahrungswissen systematisch erhoben und in Datenbanken überführt.
Damit hat Klein ein neues Forschungsparadigma gestärkt, das sich durch interdisziplinäre Integration auszeichnet: Psychologie, Informatik und Ingenieurwissenschaften arbeiten heute enger zusammen als je zuvor.
Neue Forschungsparadigmen
Seine Arbeit war auch ein Katalysator für die Entstehung neuer Forschungsparadigmen. Dazu zählt insbesondere die Naturalistic Decision Making-Forschung, die bis heute ein eigenständiges, internationales Forschungsfeld ist.
Klein trug dazu bei, dass sich Fragen wie diese in der Informatik etablieren konnten:
- Wie bildet man unbewusste Entscheidungsprozesse ab?
- Welche Rolle spielt Expertise in adaptiven Systemen?
- Wie kann man mentale Simulationen algorithmisch approximieren?
Diese Fragen markieren einen Paradigmenwechsel: Weg von reiner Logik und Optimierung hin zu Konzepten, die kognitive Validität und situatives Handeln betonen.
Bedeutung für Mensch-Maschine-Interaktion
Design von adaptiven Interfaces
Ein zentrales Anwendungsgebiet seiner Forschung ist die Gestaltung von Mensch-Maschine-Interaktionen. Das Ziel besteht darin, Interfaces zu entwickeln, die Entscheidungsfindung unterstützen, statt sie zu überfrachten oder zu behindern.
Kleins Erkenntnisse flossen direkt in das Konzept der „Decision-Centered Design“ ein. Dieses Designprinzip stellt Fragen wie:
- Welche Informationen braucht der Nutzer, um ein Muster zu erkennen?
- Wie kann das System mentale Simulationen erleichtern?
- Welche Entscheidungsoptionen sollen priorisiert angezeigt werden?
Beispielsweise werden Leitstände oder Cockpits heute so gestaltet, dass sie typische Entscheidungsmuster unterstützen. Anstatt eine Flut an Daten bereitzustellen, präsentieren adaptive Interfaces verdichtete Informationen, die kognitive Heuristiken aktivieren.
Die Gestaltung folgt oft einem iterativen Prozess:
\(\text{Task Analysis} \rightarrow \text{Cognitive Modeling} \rightarrow \text{Interface Prototyping} \rightarrow \text{Empirical Evaluation}\)
Dieser Ansatz verbessert nicht nur die Effizienz, sondern auch die Akzeptanz komplexer Systeme.
Rolle kognitiver Modelle bei der Erklärbarkeit von KI
Ein zweiter Aspekt betrifft die Rolle kognitiver Modelle in der Debatte um Explainable AI. Kleins Forschung liefert ein theoretisches Fundament dafür, wie Systeme ihre Entscheidungen transparent machen können.
Indem Algorithmen Entscheidungsprozesse in Form vertrauter Muster und Simulationen darstellen, wird es für Nutzer leichter, sie nachzuvollziehen. Das RPD-Modell bietet hier eine narrative Struktur, um automatisierte Vorschläge in eine menschlich verständliche Logik zu überführen:
- Was wurde erkannt?
- Welche Option war naheliegend?
- Welche Simulation führte zur Auswahl?
Viele moderne XAI-Ansätze orientieren sich an dieser Logik und kombinieren statistische Verfahren mit erklärenden Modulen.
Implikationen für maschinelles Lernen und autonome Systeme
Integration von Erfahrungswissen
Kleins Konzepte haben auch die Entwicklung maschinellen Lernens beeinflusst. Zwar basieren neuronale Netze vorwiegend auf großen Datenmengen, doch in vielen Anwendungsbereichen fehlen solche Datensätze.
Hier wird Erfahrungswissen entscheidend: Fallbasierte Systeme oder hybride Modelle können Muster aus Experteninterviews, Simulationen und Einsatzprotokollen extrahieren und in Trainingsdaten überführen.
Ein vereinfachtes Prinzip lautet:
\(\text{Erfahrungswissen} \xrightarrow{\text{Cognitive Task Analysis}} \text{Fallbibliothek} \xrightarrow{\text{Feature Extraction}} \text{Trainingsdaten}\)
Diese Integration ermöglicht es, auch in datenarmen Umgebungen leistungsfähige Modelle zu entwickeln.
Entwicklung hybrider Modelle
Ein weiterer Einfluss Kleins liegt in der Entwicklung hybrider Architekturen. In vielen Bereichen zeigt sich, dass rein datengetriebene Verfahren (Deep Learning) und rein regelbasierte Systeme (symbolische KI) an ihre Grenzen stoßen.
Kleins Forschung hat dazu inspiriert, beide Ansätze zu kombinieren:
- Neuronale Netze übernehmen Mustererkennung in großen Datenräumen.
- Wissensbasierte Module sorgen für erklärbare Entscheidungslogik.
- Simulationen dienen der Validierung und Anpassung.
Ein typisches hybrides Modell folgt dieser Logik:
\(\text{Input} \xrightarrow{\text{Deep Learning}} \text{Musterhypothese} \xrightarrow{\text{heuristische Validierung}} \text{Simulation} \rightarrow \text{Entscheidung}\)
Diese Architektur ist in autonomen Systemen von besonderer Bedeutung – etwa in Drohnensteuerungen, Assistenzsystemen oder industriellen Robotern.
Gary Kleins Forschung hat dadurch wesentlich zur Vision beigetragen, dass maschinelle Systeme nicht nur rational kalkulieren, sondern menschenähnlich denken, lernen und entscheiden können. Seine Konzepte bilden bis heute einen theoretischen Referenzrahmen für eine KI, die sich an der realen Expertise orientiert und den Menschen ins Zentrum stellt.
Ausblick: Zukünftige Entwicklungen und Potenziale
Weiterentwicklung von RPD im Zeitalter der KI
Möglichkeiten durch Big Data und maschinelles Lernen
Die rasanten Fortschritte im Bereich Big Data und maschinelles Lernen eröffnen völlig neue Möglichkeiten, das Recognition-Primed Decision Model weiterzuentwickeln. Während Kleins ursprüngliche Forschung vor allem auf qualitativen Interviews und Beobachtungen beruhte, können heute riesige Mengen an Prozessdaten genutzt werden, um Muster systematisch zu erfassen.
Zum Beispiel lassen sich Datenströme aus Notfalleinsätzen, industriellen Leitständen oder Flugzeugcockpits automatisch auf wiederkehrende Entscheidungssequenzen analysieren. Dabei entsteht ein digitales Abbild der Erfahrungswelt, das bisher nur in Köpfen von Experten existierte.
Maschinelles Lernen kann helfen, diese Muster zu identifizieren und zu quantifizieren:
\(\text{Datenmenge} \xrightarrow{\text{Feature Extraction}} \text{Cluster von Entscheidungssequenzen} \xrightarrow{\text{Modellbildung}} \text{digitale RPD-Repräsentationen}\)
Ein wichtiger Fortschritt liegt darin, dass solche Modelle kontinuierlich aktualisiert werden können. Wo Kleins RPD einst auf retrospektiven Analysen beruhte, können moderne KI-Systeme in Echtzeit lernen, wie Experten handeln.
Kombination von statistischen und kognitiven Verfahren
Parallel dazu entstehen hybride Verfahren, die statistische Mustererkennung und kognitive Modellierung kombinieren. Deep Learning liefert hier die Fähigkeit, in großen Datenmengen verborgene Strukturen zu finden, während heuristische Verfahren helfen, diese Ergebnisse zu erklären und zu plausibilisieren.
Ein zukunftsweisendes System könnte so aufgebaut sein:
- Das neuronale Netz erkennt Muster und erstellt Hypothesen.
- Eine RPD-basierte Heuristik überprüft die Hypothese auf Plausibilität.
- Eine Simulation projiziert mögliche Konsequenzen.
- Ein Empfehlungssystem stellt die Resultate in menschenlesbarer Form dar.
Dieses Modell verbindet die Stärken beider Welten:
- statistische Präzision
- kognitive Nachvollziehbarkeit
- situative Anpassungsfähigkeit
Solche Systeme sind prädestiniert für Einsatzfelder, in denen sowohl Skalierbarkeit als auch Transparenz gefordert sind.
Neue Anwendungsfelder
Gesundheitswesen
Im Gesundheitswesen gibt es zahlreiche Anwendungsfelder, in denen Kleins Ideen künftig eine wichtige Rolle spielen können. Diagnostik, Notfallversorgung oder OP-Planung erfordern schnelle Entscheidungen unter Unsicherheit.
RPD-basierte Assistenzsysteme könnten hier helfen, Erfahrungen erfahrener Ärzte algorithmisch verfügbar zu machen und auch weniger erfahrene Kollegen in schwierigen Situationen zu unterstützen. Ein Beispiel ist ein Entscheidungsunterstützungssystem für Notaufnahmen, das Symptome, Laborwerte und Erfahrungswissen in Echtzeit integriert.
Robotik
Auch in der Robotik gewinnen Kleins Konzepte an Bedeutung. Autonome Systeme müssen komplexe Situationen einschätzen und unter Zeitdruck handeln. Intelligente Roboter profitieren davon, wenn sie nicht nur regelbasiert, sondern auch heuristisch reagieren können.
Ein RPD-inspiriertes Robotersystem könnte bekannte Handlungsmuster identifizieren und Handlungsoptionen simulieren, bevor es aktiv wird. Besonders in der Mensch-Roboter-Kollaboration ist dieses Vorgehen wichtig, um Verhalten vorhersehbar und vertrauenswürdig zu gestalten.
Bildung
Im Bildungswesen können Kleins Modelle ebenfalls neue Impulse geben. Lernplattformen könnten Entscheidungsstrategien erfahrener Lehrkräfte abbilden und Schülern helfen, Problemlösestrategien zu trainieren.
Zudem bietet der Ansatz Potenziale für individuelle Lernpfade: Systeme, die Muster in Lernverhalten erkennen, können gezielt Hilfestellungen geben oder Fortschritte visualisieren.
Vision einer menschenzentrierten Künstlichen Intelligenz
Leitlinien für die Zukunft
Gary Kleins Forschung liefert wertvolle Leitlinien für eine KI, die den Menschen nicht ersetzt, sondern unterstützt. Drei Prinzipien erscheinen besonders wegweisend:
- Transparenz: Entscheidungen müssen für Nutzer nachvollziehbar sein.
- Erfahrungsintegration: Systeme sollen menschliches Erfahrungswissen nutzen.
- Adaptivität: Algorithmen müssen sich an dynamische Situationen anpassen.
Diese Leitlinien bilden ein Gegengewicht zu rein datengetriebenen KI-Konzepten, die oft als „Black Box“ agieren. Eine menschenzentrierte KI muss erklärbar, situativ und kooperativ sein.
Gary Kleins Vermächtnis in Forschung und Praxis
Gary Klein hat mit seinen Arbeiten gezeigt, dass Expertise kein nebulöses Phänomen ist, sondern systematisch beschrieben, trainiert und – in Teilen – algorithmisch modelliert werden kann.
Sein Vermächtnis besteht darin, dass Entscheidungen nicht nur durch Rechenlogik, sondern durch situatives Wissen und Intuition geprägt sind. Dieses Verständnis ist aktueller denn je: In einer Welt, in der autonome Systeme immer mehr Verantwortung übernehmen, wird es entscheidend sein, dass Maschinen nicht nur rechnen, sondern auch verstehen.
So wird Kleins Ansatz in den kommenden Jahren die Entwicklung einer Künstlichen Intelligenz prägen, die sich an den kognitiven Stärken des Menschen orientiert – und ihn nicht als fehleranfälligen Faktor, sondern als unverzichtbare Ressource begreift.
Fazit
Zusammenfassung der zentralen Erkenntnisse
Gary A. Klein hat mit seiner Forschung das Verständnis menschlicher Entscheidungsfindung revolutioniert. Im Zentrum seiner Arbeit steht die Einsicht, dass Expertise nicht aus einem rationalen Abwägen aller Alternativen hervorgeht, sondern aus dem Erkennen situativer Muster und dem mentalen Simulieren von Handlungsoptionen.
Sein Recognition-Primed Decision Model hat gezeigt, dass Entscheidungen vor allem in komplexen, dynamischen Situationen durch Intuition und Erfahrung geprägt sind. Dieses Modell widerspricht dem klassischen Bild des homo oeconomicus, das Entscheidungen auf formale Nutzenmaximierung reduziert. Stattdessen wird Expertise als adaptives System sichtbar, das durch kontinuierliches Lernen, Anpassung und Heuristiken geformt wird.
Parallel dazu trug Kleins Konzept der Naturalistic Decision Making dazu bei, Forschung aus dem Labor in die Realität zu verlagern. Seine Methoden wie die Cognitive Task Analysis ermöglichten es, kognitive Prozesse präzise zu dokumentieren und in Trainings- und Unterstützungssystemen nutzbar zu machen.
Die praktischen Anwendungen sind vielfältig: Von Feuerwehr und Militär über Industrie und Robotik bis hin zu modernen KI-Assistenzsystemen hat Kleins Ansatz messbare Fortschritte in Effizienz, Sicherheit und Entscheidungsqualität bewirkt.
Einordnung von Kleins Einfluss im Kontext der KI-Geschichte
Im historischen Kontext der KI-Forschung nimmt Gary Klein eine besondere Rolle ein. Während frühe KI-Systeme fast ausschließlich auf symbolischer Logik oder reiner Statistik basierten, plädierte Klein für ein stärkeres Augenmerk auf kognitive Validität. Er stellte die Frage: Wie können wir Systeme bauen, die ähnlich denken wie erfahrene Menschen?
Seine Forschung hat den Weg bereitet für hybride Architekturen, die Deep Learning, heuristische Verfahren und fallbasierte Logik miteinander verbinden. Vor allem in der Debatte um Explainable AI ist Kleins Einfluss unübersehbar. Die Forderung nach Transparenz, Nachvollziehbarkeit und Kontextsensibilität trägt unverkennbar seine Handschrift.
Sein Beitrag besteht nicht nur in Theorien, sondern in einer grundsätzlichen Haltung: Künstliche Intelligenz darf sich nicht nur auf mathematische Optimierung beschränken – sie muss den Menschen in seiner Rolle als erfahrungsbasiert entscheidendes Wesen ernst nehmen.
Reflexion über die Verbindung von Human Factors und künstlicher Intelligenz
Gary Kleins Werk erinnert uns daran, dass technologische Systeme nie isoliert betrachtet werden dürfen. Sie stehen immer in einem Kontext menschlicher Erwartungen, Kompetenzen und Fehlerquellen. Genau hier liegt der Kern der Human Factors-Forschung: Technik muss den Menschen unterstützen, nicht ersetzen.
In einer Zeit, in der autonome Systeme zunehmend eigenständig handeln, stellt sich die Frage, wie Maschinen und Menschen optimal zusammenarbeiten können. Kleins Modelle liefern hier ein klares Plädoyer: Indem wir verstehen, wie Experten handeln, können wir Systeme gestalten, die dieses Wissen nutzen, anstatt es zu ignorieren.
Sein Vermächtnis ist eine Vision von KI, die nicht als kühles Rechenwerk begreifbar ist, sondern als Partner menschlicher Entscheidungsfähigkeit – adaptiv, erklärbar und zutiefst menschenzentriert. Dieses Verständnis wird auch in Zukunft der Schlüssel sein, um Vertrauen in KI-Technologien zu schaffen und ihr Potenzial verantwortungsvoll zu nutzen.
Mit freundlichen Grüßen

Referenzen
Wissenschaftliche Zeitschriften und Artikel
Diese Quellen bilden die empirische Basis und ermöglichen die Nachvollziehbarkeit der Experimente und Feldstudien. Sie sind zugleich methodischer Ausgangspunkt für spätere KI-Anwendungen.
- Journal of Cognitive Engineering and Decision Making
Zentralorgan für Forschung zu Entscheidungsprozessen in komplexen Umgebungen; zahlreiche Artikel von Klein selbst und Kollegen zur Naturalistic Decision Making und Cognitive Task Analysis. - Human Factors
Veröffentlichungen zu Design und Evaluation technischer Systeme unter Berücksichtigung menschlicher Entscheidungsmechanismen. - Organizational Behavior and Human Decision Processes
Fundierte empirische Studien über Entscheidungsverhalten und Expertise. - Cognitive Science
Theoretische Abhandlungen zur Modellierung kognitiver Abläufe, die Kleins Konzepte in breitere Kognitionsforschung einordnen. - IEEE Transactions on Systems, Man, and Cybernetics
Relevante Beiträge zur Integration kognitiver Modelle in technische Systeme.
Diese Zeitschriften belegen die Rezeption Kleins Forschung in interdisziplinären Kontexten und erlauben, die empirische Basis nachzuvollziehen.
Bücher und Monographien
Gary Klein – Primärliteratur
- Sources of Power (1998)
https://mitpress.mit.edu/9780262611466/sources-of-power - Intuition at Work (2003)
https://www.amazon.com/Intuition-Work-Gary-Klein/dp/0385502893 - Streetlights and Shadows (2009)
https://mitpress.mit.edu/9780262516358/streetlights-and-shadows
Sekundärliteratur und Ergänzungen
- Daniel Kahneman: Thinking, Fast and Slow
https://www.penguinrandomhouse.com/books/214177/thinking-fast-and-slow-by-daniel-kahneman - Gerd Gigerenzer: Gut Feelings
https://www.penguinrandomhouse.com/books/299138/gut-feelings-by-gerd-gigerenzer - Herbert A. Simon: Models of Thought
https://mitpress.mit.edu/9780262690416/models-of-thought
Diese Werke liefern Hintergrund, Vergleichsperspektiven und Theorierahmen für Kleins Ansatz.
Online-Ressourcen und Datenbanken
Hier werden laufend aktuelle Diskussionen, Preprints, Datensätze und Anwendungsberichte veröffentlicht. Für die Forschung zu Explainable AI und hybriden Modellen sind sie besonders wichtig.
- IEEE Xplore Digital Library
- Veröffentlichungen zu KI-Implementierungen auf Basis kognitiver Modelle.
- https://ieeexplore.ieee.org
- SpringerLink
- Zugang zu Monographien, Buchkapiteln und Journals.
- https://link.springer.com
- ACM Digital Library
- Beiträge aus der Human-Computer Interaction und Cognitive Modeling.
- https://dl.acm.org
- ResearchGate
- Preprints, Konferenzpapiere und Diskussionen direkt aus der Forschungscommunity.
- https://www.researchgate.net
- Google Scholar Alerts
- Fortlaufende Beobachtung neuer Veröffentlichungen über Naturalistic Decision Making und Explainable AI.
- https://scholar.google.com
Die Nutzung dieser Ressourcen ermöglicht eine kontinuierliche Aktualisierung des Wissensstands.
Anhänge
Die Anhänge sind essenziell, um Fachbegriffe zu klären, konzeptionelle Zusammenhänge zu visualisieren und weiterführende Quellen bereitzustellen. Sie ergänzen das Essay, indem sie den Transfer der Theorie in Forschung und Praxis erleichtern.
Glossar der Begriffe
Ein Glossar dient nicht nur der Verständnissicherung, sondern der präzisen Abgrenzung zentraler Termini im internationalen Diskurs. Vorschlag für den erweiterten Glossarumfang:
- Recognition-Primed Decision Model (RPD)
- Ein Entscheidungsmodell, das Wiedererkennung von Mustern mit mentaler Simulation verbindet.
- Naturalistic Decision Making (NDM)
- Forschungsansatz zur Analyse von Entscheidungen in realen, komplexen Umgebungen.
- Cognitive Task Analysis (CTA)
- Methodenbündel zur systematischen Erhebung kognitiver Prozesse.
- Explainable AI (XAI)
- Teilgebiet der KI, das die Nachvollziehbarkeit algorithmischer Entscheidungen sicherstellt.
- Ecological Rationality
- Konzept Gerd Gigerenzers: Heuristiken sind dann erfolgreich, wenn sie an Umweltstrukturen angepasst sind.
- Satisficing
- Begriff von Herbert A. Simon: das Streben nach zufriedenstellenden, nicht zwingend optimalen Lösungen.
- Bias
- Systematische Abweichung von normativen Erwartungen in Urteilen und Entscheidungen.
- Case-Based Reasoning
- KI-Technik, bei der vergangene Fälle als Grundlage für neue Entscheidungen genutzt werden.
Zusätzliche Ressourcen und Lesematerial
Interviews und Vorträge
- Interview mit Gary Klein zu Sources of Power
https://www.edge.org/conversation/gary_klein-sources-of-power - Vortrag „Naturalistic Decision Making“ (Video)
https://www.youtube.com/watch?v=0i60M-YmzwE
Fachartikel und Reviews
- Klein et al. (2010): Ten Challenges for Making Naturalistic Decision Making Research Relevant to Organizations
https://journals.sagepub.com/doi/abs/10.1177/1555343410383474 - Klein (2008): Naturalistic Decision Making – Human Factors
https://journals.sagepub.com/doi/10.1518/001872008X288385
Lehrmaterial
- Decision Making in Action: Models and Methods – Sammlung grundlegender Papers
https://psycnet.apa.org/record/1993-97819-000

