Erklärbare Künstliche Intelligenz

In letzter Zeit lese ich vermehrt von Forderungen zu einer sogenannten erklärbaren Künstlichen Intelligenz (KI). Damit sind Forderungen gemeint, die erklären, wie ein Algorithmus zu einem entsprechenden Ergebnis gekommen ist. Ich bin gespannt, was bei diesen Forschungen herauskommen soll und vor allem, wie diese Forschung durchgeführt wird. Es gibt mindestens zwei Gebiete, die wir genau wie die Black-Box-Modelle der KI ebenfalls nicht vollständig erklären können, sie aber tagtäglich nutzen, ohne sie ständig zu hinterfragen.

Ein Beispiel sind Medikamente. Die Wirkungsweise mancher Substanzen im Körper ist nahezu unbekannt und doch konnte in klinischen Studien die Wirksamkeit nachgewiesen werden. Und solange nicht das Gegenteil der Fall ist, ist dies ein Medikament, dem wir erst einmal grundsätzlich vertrauen.

Beim zweiten Beispiel handelt es sich um Aerodynamik. Ingeniure sind in der Lage, Geräte zu bauen, die fliegen. Allerdings lässt sich mit aktuellen physikalischen Gesetzen und Modellen nicht beschreiben, warum Flugzeuge fliegen (vgl. No One Can Explain Why Planes Stay In The Air, Scientific American). Dennoch nutzen wir dieses Verkehrsmittel in zunehmendem Maße und hinterfragen die Funktionsweise nicht, wenn wir in ein Flugzeug steigen.

Und nun zurück zur KI: Warum erkennen wir nicht an, dass manche KI-Modelle besser funktionieren, als bisherige Verfahren. Meinetwegen können sich Forscher gerne an neuen Methoden zur Erklärung der Funktionsweise abarbeiten. Aber wenn man in sorgfältig durchgeführten Studien nachweisen kann, dass das System funktioniert, sollte man es doch auch nutzen können und nicht so lange beiseite legen, bis irgend jemand mal eine allgemein gültige Erklärung gefunden hat, warum statistische Modelle funktionieren. Oder sehe ich das falsch?

Published