2.1.2. Nachvollziehbarkeit von Entscheidungen
Die Nachvollziehbarkeit von Entscheidungen von Kl-basierten Modellen ist stark vom
gewählten ML-Ansatz des Modells abhängig. Der ML-Ansatz bestimmt darüber, ob
eine künstliche Entscheidungseinrichtung aus einem tiefen neuronalen Netz oder
zntscheidungsbaum besteht und damit, ob das Modell weniger oder mehr
1achvollziehbar ist. Die Nachvollziehbarkeit eines Systems ist anhand seiner
nterpretierbarkeit oder Erklärbarkeit beschreibbar. Interpretierbarkeit und Erklärbarkeit
sind dabei unterschiedliche Begriffe im Kontext von Künstlicher Intelligenz (Norvig &
Russell, 202 1).
Modelle mit hoher Interpretierbarkeit sind solche, anhand deren inneren Aufbaus
ntuitiv erkennbar ist, warum das Modell zu jenen Entscheidungen gelangt. Ein Beispiel
alerfür ist ein Entscheidungsbaum, weil dieser durch seine einfache Wenn-Dann-
Struktur den Weg seiner Entscheidung menschlich verständlich wiedergibt. Die
zntscheidungsfindung ist also ohne ein externes System nachvollziehbar. Dies ist
schematisch in Abbildung 6 links dargestellt.
Konträr dazu ist ein tiefes neuronales Netz nicht ohne Weiteres interpretierbar und
damit nachvollziehbar (s. Abbildung 6, rechts). Denn beim Einblick in seine Struktur ist
eine Vielzahl Neuronen erkennbar (s. hellblaue Punkte in Abbildung 6, rechts), die
sarallel in hintereinandergeschalteten Rechenschichten (s. Reihen aus hellblauen
>unkten in Abbildung 6, rechts) aufgebaut sind. Jedes Neuron besteht darüber hinaus
aus einer Aktivierungsfunktion und einer Gewichtung zwischen 0 und 1 (anstelle einer
Wenn-Dann-Struktur). Das Modell und seine Entscheidungsfindung ist somit für das
mnenschliche Verständnis unzugänglich. In diesem Fall wird das Modell als Black-Box
aezeichnet. Mit Hilfe eines externen Moduls lässt sich Erklärbarkeit einführen. Zum
3eispiel könnte bei einer visuellen Schiffserkennung ein Modul herangezogen werden,
‚welches Merkmale markiert, die es typisch für ein Objekt von der Art „Schiff“ hält. Das
z>orschungsfeld, das sich mit der Erklärbarkeit von KI beschäftigt wird als Explainable Al
zezeichnet (Samek & Müller, 2019).
Interpretierbarkeit
Erklärbarkeit
Eingabe
Verarbeitung
Ausgabe
a
&
OS |
Modul:
Eingabe-
Ausgabe-
Vergleich '
Entscheidungsbaum: Tiefes neuronales Netz:
Nachvoliziehbarkeit in Nachvollziehbarkeit in Verarbeitungsschicht
VYerarbeitunagsschicht möglich nicht möglich & externes Modul notwendig
Abbildung 6: Unterscheidung zwischen Interpretierbarkeit und Erklärbarkeit bei Kl-Modellen. Das Beispiel
zeigt einen Entscheidungsbaum (links) und ein tiefes neuronales Netzes (rechts). Zur Nachvollziehbarkeit
des neuronalen Netztes wird ein externes Zusatzmodul für einen Eingabe-Ausgabe-Vergleich benötigt.
Weller führt den Begriff der Transparenz ein, dessen Bedeutung davon abhängt,
welcher Personenkreis mit dem betrachteten Kl-System in Berührung kommt (Weller,
2019). So bedeutet Transparenz für einen Hersteller etwas anderes als für eine
Prüfstelle. Ersterer interessiert sich z.B. dafür, wie die Neuronen innerhalb eines CNN zu
der Klassifizierung von bestimmten Objekten beitragen. Das Interesse von Letzterem
Fraunhofer CN
JefAl
Bundesamt für Seeschifffahrt und Hydrographie