Explanatory Inference [Ei] erklärt das Zustandekommen von Entscheidungen, die durch KI-Systeme getroffen werden. Diese Erklärungen können z. B. den Ablauf einer Entscheidungskette betreffen – vom Zustandekommen der Daten, deren Ableitungen (Inference) sowie dem Berechnen von Entscheidungen. Durch das Nachvollziehen einer Entscheidung werden Fehler vermieden und das Vertrauen in automatisierte Entscheidungen erhöht.
Besondere Relevanz erlangt Explanatory Inference [Ei] in zwei häufigen Anwendungsfällen: Bei der Rechenschaftspflicht von getroffenen Entscheidungen (Accountability) sowie bei Mensch-Maschine-Lernverfahren (Human-in-the-loop). Bei der Rechenschaftspflicht gibt es verschiedene Stufen abhängig vom KI-System. Bei assistierenden KI-Systemen bleiben Menschen die finalen Entscheidungsträger, insofern wird Explanatory Inference [Ei] hier zu einem Werkzeug des Vertrauens, um menschliche Entscheidungen zu unterstützen und zu begründen. Bei autonomen Entscheidungssystemen wird Explanatory Inference [Ei] mehr oder minder zu einem Beweisstück für Plausibilität und Richtigkeit von Entscheidungen des KI-Systems. Je stärker KI-Systeme im Kontext von hoher Tragweite der Entscheidung eingesetzt werden, z. B. in der Medizin oder bei selbstfahrenden Autos, desto häufiger müssen entsprechende Komponenten für Explanatory Inference [Ei] integriert werden.
Bei Lernverfahren kommt es innerhalb der KI-Gemeinschaft zu einer stärker werdenden Glaubensspaltung. Während die Machine-Learning-Fraktion an der reinen Mustererkennung (Pure pattern recognition) festhält, treten andere für einen höheren Erklärungsgrad von Modellen und gemischten Lernverfahren (Human-in-the-loop) ein, wie zuletzt Ali Rahimi auf der NIPS 2017. Neuere Lernansätze versuchen in stärkerem Maße, maschinelles Lernen mit menschlicher Intelligenz bzw. menschlichem Wissen zu verbinden, und dazu müssen über Explanatory Inference [Ei] die maschinellen Verfahren besser und transparenter erklärt werden (WhiteBox AI).
In vielen Bereichen vertrauen betroffene Kunden den Resultaten von Algorithmen nicht, weil diese für sie nicht erklärbar sind. Ein KI-System kann ggf. bessere Kreditentscheidungen treffen und Kunden sind sich des Einsatzes von KI häufig nicht bewusst. Werden solche Verfahren aber eingesetzt, so darf der Kunde zu Recht eine Erklärung erwarten, wie die Entscheidung zustande kam. Dafür wären Verfahren der Explanatory Inference [Ei] nötig.
Explanatory Inference [Ei] hat eine enge Verbindung zu Predictive Inference [Pi] und Synthetic Reasoning [Sy]. Die Verbindung zur Vorhersage besteht darin, das Zustandekommen einer Vorhersage begründen zu können, z. B. die Empfehlung für den Kauf einer Grillzange, weil ein Grill gekauft wurde. Die Verbindung zu Synthetic Reasoning [Sy] liegt darin, dass nicht nur das Ergebnis begründet werden kann, sondern auch dessen Zustandekommen und Schlussfolgerungen.
Der Fokus von KI lag in den letzten Jahren vermehrt auf der Entwicklung neuer Deep-Learning-Algorithmen, weniger auf deren Erklärungsansätzen, weshalb sich für Explanatory Inference [Ei] noch kein eigener Markt für erklärbare künstliche Intelligenz oder erklärbares Maschinenlernen (explainable artificial intelligence oder XAI) etabliert hat. Im Wesentlichen wird Explanatory Inference [Ei] durch zusätzliche Systeme bereitgestellt werden müssen, die mit den Entscheidungssystemen verbunden werden. Eine stärkere gesetzliche Regulierung von automatisiert getroffenen Entscheidungen wird dem Markt Anschub verleihen. Die im Mai 2018 in Kraft getretene Datenschutz-Grundverordnung darf als erster Schritt in diese Richtung interpretiert werden. Aktuell betreten Firmen wie wunder.ai den Markt für erklärbare KI z. B. mit einer Lösung zur Personalisierung von Online-Angeboten.
Nach einer repräsentativen Umfrage des britischen Meinungsforschungsinstituts YouGov sehen 45 Prozent der Befragten beim Einsatz von KI gleich viele Gefahren und Chancen, weitere 26 Prozent bewerten die Risiken als höher als den möglichen Nutzen. Die wirtschaftliche Bedeutung von Explanatory Inference [Ei] entsteht aus der zunehmenden Notwendigkeit, dass KI-Algorithmen nachvollziehbar arbeiten müssen, z. B. durch gesetzliche Vorgaben. Am größten ist das wirtschaftliche Potenzial, wenn bestimmte Anwendungsfälle zwingend transparente KI-Verfahren fordern.
Hürden zeigen sich in mehrfacher Form. Erstens erfordern Implementierungen für Explanatory Inference [Ei] oft zusätzlichen Aufwand. Zweitens werden Qualitätsmetriken benötigt, um die Qualität von automatisierten Entscheidungen messen zu können. Oft sind leistungsfähige Algorithmen wegen ihrer Komplexität nicht erklärbar. Daraus entsteht ein Zielkonflikt: Guten Resultaten liegen oft nicht erklärbare Mechanismen zugrunde, dagegen produzieren erklärbare Algorithmen häufig unzureichende Ergebnisse. So liefern Deep-Learning-Netzwerke in vielen Bereichen hervorragende Resultate, sind aber in ihrer inhärenten Funktionsweise nur schwer nachvollziehbar.
Explainable Inference [Ei] ist aktuell ein akademisches Thema und erste Anwendungen werden durch Startups als Marktangebot sichtbar. Nennenswerte Institutionen sind MIT, Alibaba und WUNDER (wunder.ai). Die Defense Advanced Research Projects Agency (DARPA) entwickelt neue Technologien, die die Funktionsweise von automatisierten Entscheidungen mit Hilfe Künstlicher Intelligenz erklärbar machen. Ein Beispiel für die Aktivitäten der DARPA in diesem Bereich ist das XAI-Programm. Auch auf aktuellen Forschungskonferenzen ist das Thema relevant, wie der Workshop zu EXplainable AI Planning bei der International Conference on Automated Planning and Scheduling 2018 zeigt.