Knowledge Refinement [Lt] bezeichnet die stetige Erweiterung einer bestehenden Wissensbasis bzw. des einem KI-System zugrunde liegenden Modells. Das geschieht oft durch Feedback mit aktuellen Ergebnissen eines KI-Systems oder den Rückmeldungen von Benutzern. Diese Rückkopplung fügt neue Fakten hinzu, führt zur Schärfung von Hypothesen oder verbessert die Präzision von Ergebnissen. Knowledge Refinement [Lt] verwendet dafür unterschiedliche Lernverfahren, einerseits auf Logik basierte, andererseits statistische Verfahren. Als wichtige Eigenschaften von Lernverfahren gelten etwa Widerspruchsfreiheit und Stabilität im Zeitverlauf.
Knowledge Refinement [Lt] ergänzt meist andere KI-Elemente um eine Basisfähigkeit und kommt nicht als eigenständiges Element vor. Als Ergänzung zu Planning- and Decision Making-Systemen wird es etwa in der Steuerung von Maschinen und Anlagen und im autonomen Fahren eingesetzt. Weiterhin sorgt es für die Verfeinerung bzw. Weiterentwicklung des Wissens in Ingenieursanwendungen, z. B. mit dem Ziel einer vorausschauenden Instandhaltung. Generell wird Knowledge Refinement [Lt] in Situationen eingesetzt, die ein hohes Maß an Kontrolle und Nachvollziehbarkeit von KI-Ergebnissen erfordern. Häufig unterliegen dabei Fakten oder Regeln regelmäßigen Änderungen, an die das System immer wieder neu angepasst werden muss. Dazu zählen z. B. Produktempfehlungen sowie Bonitäts- oder andere Risiko-Bewertungen. Diese sind z. B. relevant im Underwriting von Versicherungen oder bei der Automatisierung von Compliance-Maßnahmen. In vielen Fällen generieren KI-Systeme mit Knowledge-Refinement-Komponenten Vorschläge, die noch durch eine menschliche Instanz bestätigt werden müssen.
Das Verbessern maschineller Lernverfahren gilt als wichtiger Fortschritt in der Entwicklung der KI der letzten Jahre. Machine Learning entwickelt sich zu einer Technik, die weit verfügbar ist und geringe Einstiegshürden zeigt. Sie stehen heute genauso wie Wissensdatenbanken ohne prohibitive Investitionen allen Unternehmen zur Verfügung. Für die Kombination beider Fähigkeiten hin zum Knowledge Refinement sind die Arbeiten rund um das autonome Fahren ein wichtiger Treiber. Konfliktsituationen des realen Verkehrs erfordern ein stabiles Regelwerk, das aber so umfassend ist, dass es nicht allein durch manuelles Training und Verfeinerung weiterentwickelt werden kann. Im Projekt NELL der Carnegie Mellon University wird seit 2010 eine Wissensbasis durch die automatische Analyse von Webtexten erzeugt. Im Oktober Jahr 2016 gab Google bekannt, dass der Google Knowledge Graph über 70 Milliarden Fakten enthält. Für die Erweiterung dieser Wissensbasis kommt Knowledge Refinement [Lt] zum Einsatz.
Für Knowledge Refinement [Lt] wird häufig Relationship Learning [Lr] verwendet. Als vorgelagerte Funktionen kommen oft Text Extraction [Te] und Language Understanding [Lu] zum Einsatz.
Beim derzeitigen Einsatz von Knowledge-Refinement-Techniken in den Unternehmen ist die Integration des Wissens von größerer praktischer Bedeutung als die spezifischen Lernverfahren, die eingesetzt werden. Hier ist als Global Player vor allem IBM mit Watson zu nennen, kleinere, innovative Unternehmen sind u. a. Grakn, Cognonto, Digital Reasoning sowie Semantic Web Company und intelligent views im deutschsprachigen Raum.
Aufgrund seines generischen Charakters vereint dieses Element die wirtschaftliche Bedeutung aller Anwendungen, die die Verfeinerung von Wissen als Teil ihrer Technologie einsetzen. Die Größe des Marktes für Text Analytics wird von Marketsandmarkets für das Jahr 2022 auf 8,8 Milliarden US-Dollar geschätzt.
Um Knowledge Refinement [Lt] durchführen zu können, bedarf es zuerst einer Wissensbasis, auf der dann Refinement-Techniken eingesetzt werden. Häufig ist die Erstellung dieser Wissensbasis die eigentliche Hürde. Das meiste Wissen liegt in der Regel nicht in strukturierter Form, sondern in unstrukturierter Form oder sogar nur in den Köpfen der Nutzer vor. Dieses Wissen muss erst erschlossen und dann dargestellt werden. Die Erschließung unstrukturierten Wissens aus Dokumenten kann mit Methoden wie Text Extraction [Te] und Language Understanding [Lu] erfolgen. Diese sind für viele praktische Anwendungen aber häufig noch nicht leistungsfähig genug. Die Erschließung von Wissen kann auch durch Abfragen und Beobachtung von Nutzerverhalten erfolgen. Ist das Wissen erschlossen, muss es dargestellt werden. Eine reine Klassifikation in einer Taxonomie genügt häufig nicht, vielmehr müssen auch Beziehungen zwischen den Begriffen einer Wissensdomäne dargestellt werden. Diese Schritte sind oft mit manuellem Aufwand und mit hohen Kosten verbunden.
Während für einen aktuellen praktischen Einsatz vor allem die Wissensintegration relevant ist, sind die größten zukünftigen Impulse von neuen Lernverfahren zu erwarten. In der neueren Literatur findet sich dementsprechend eine Vielzahl von Veröffentlichungen rund um das Lernen höherwertiger Modelle und Konstrukte. Viel Entwicklung auf diesem Gebiet betreiben u. a. Deep Mind, Google, Facebook, Nvidia etc. und führende Universitäten wie das MIT oder die Stanford University. An der Schnittstelle zwischen Lernverfahren und Wissensrepräsentation bewegt sich wiederum IBM mit Watson sowie Google mit der größten Knowledge-Base und viel Erfahrung in der halbautomatischen Weiterentwicklung dieses Wissens. Hier finden sich auch spezialisierte Forschungsteams wie z. B. das Software Reliability Lab der ETH Zürich oder Cycorp mit der Cyc-Wissensbasis.