Skip to main content

Full text: VerifAI - Studie zur zielbasierten Standardisierung in der Prüfung und Zulassung intelligenter Entscheidungseinrichtungen von teilautonomen Überwasserfahrzeugen

2.1.2. Nachvollziehbarkeit von Entscheidungen 
Die Nachvollziehbarkeit von Entscheidungen von Kl-basierten Modellen ist stark vom 
gewählten ML-Ansatz des Modells abhängig. Der ML-Ansatz bestimmt darüber, ob 
eine künstliche Entscheidungseinrichtung aus einem tiefen neuronalen Netz oder 
zntscheidungsbaum besteht und damit, ob das Modell weniger oder mehr 
1achvollziehbar ist. Die Nachvollziehbarkeit eines Systems ist anhand seiner 
nterpretierbarkeit oder Erklärbarkeit beschreibbar. Interpretierbarkeit und Erklärbarkeit 
sind dabei unterschiedliche Begriffe im Kontext von Künstlicher Intelligenz (Norvig & 
Russell, 202 1). 
Modelle mit hoher Interpretierbarkeit sind solche, anhand deren inneren Aufbaus 
ntuitiv erkennbar ist, warum das Modell zu jenen Entscheidungen gelangt. Ein Beispiel 
alerfür ist ein Entscheidungsbaum, weil dieser durch seine einfache Wenn-Dann- 
Struktur den Weg seiner Entscheidung menschlich verständlich wiedergibt. Die 
zntscheidungsfindung ist also ohne ein externes System nachvollziehbar. Dies ist 
schematisch in Abbildung 6 links dargestellt. 
Konträr dazu ist ein tiefes neuronales Netz nicht ohne Weiteres interpretierbar und 
damit nachvollziehbar (s. Abbildung 6, rechts). Denn beim Einblick in seine Struktur ist 
eine Vielzahl Neuronen erkennbar (s. hellblaue Punkte in Abbildung 6, rechts), die 
sarallel in hintereinandergeschalteten Rechenschichten (s. Reihen aus hellblauen 
>unkten in Abbildung 6, rechts) aufgebaut sind. Jedes Neuron besteht darüber hinaus 
aus einer Aktivierungsfunktion und einer Gewichtung zwischen 0 und 1 (anstelle einer 
Wenn-Dann-Struktur). Das Modell und seine Entscheidungsfindung ist somit für das 
mnenschliche Verständnis unzugänglich. In diesem Fall wird das Modell als Black-Box 
aezeichnet. Mit Hilfe eines externen Moduls lässt sich Erklärbarkeit einführen. Zum 
3eispiel könnte bei einer visuellen Schiffserkennung ein Modul herangezogen werden, 
‚welches Merkmale markiert, die es typisch für ein Objekt von der Art „Schiff“ hält. Das 
z>orschungsfeld, das sich mit der Erklärbarkeit von KI beschäftigt wird als Explainable Al 
zezeichnet (Samek & Müller, 2019). 
Interpretierbarkeit 
Erklärbarkeit 
Eingabe 
Verarbeitung 
Ausgabe 
a 
& 
OS | 
Modul: 
Eingabe- 
Ausgabe- 
Vergleich ' 
Entscheidungsbaum: Tiefes neuronales Netz: 
Nachvoliziehbarkeit in Nachvollziehbarkeit in Verarbeitungsschicht 
VYerarbeitunagsschicht möglich nicht möglich & externes Modul notwendig 
Abbildung 6: Unterscheidung zwischen Interpretierbarkeit und Erklärbarkeit bei Kl-Modellen. Das Beispiel 
zeigt einen Entscheidungsbaum (links) und ein tiefes neuronales Netzes (rechts). Zur Nachvollziehbarkeit 
des neuronalen Netztes wird ein externes Zusatzmodul für einen Eingabe-Ausgabe-Vergleich benötigt. 
Weller führt den Begriff der Transparenz ein, dessen Bedeutung davon abhängt, 
welcher Personenkreis mit dem betrachteten Kl-System in Berührung kommt (Weller, 
2019). So bedeutet Transparenz für einen Hersteller etwas anderes als für eine 
Prüfstelle. Ersterer interessiert sich z.B. dafür, wie die Neuronen innerhalb eines CNN zu 
der Klassifizierung von bestimmten Objekten beitragen. Das Interesse von Letzterem 
Fraunhofer CN 
JefAl 
Bundesamt für Seeschifffahrt und Hydrographie
	        
Waiting...

Note to user

Dear user,

In response to current developments in the web technology used by the Goobi viewer, the software no longer supports your browser.

Please use one of the following browsers to display this page correctly.

Thank you.