Auf Basis einer Datengrundlage werden Prognosemodelle generiert, die eine statistische Verbindung zwischen Eingangsdaten und einer oder mehreren Ausgangsgrößen bilden. Es werden dabei lediglich Korrelationen modelliert – nicht notwendigerweise Kausalitäten. Predictive Inference [Pi] erstellt also für existierende Daten Vorhersagen von metrischen Werten, Skalenwerten, Intervallen oder Klassen, z. B. Verkaufsprognosen, Wettervorhersagen oder Risikoklassen.
Predictive Inference [Pi] generiert im einfachsten Fall mit überwachten Lernverfahren (supervised learning) Modelle, die Datensätzen Klassen zuordnen. Dies wird als Klassifikation bezeichnet. Wird von Predictive Inference [Pi] im Zusammenhang mit Zeitreihen gesprochen, so werden häufig lineare Regressionsmodelle verwendet. Ihr Zweck besteht darin, für Zeitreihen mit gewisser Sicherheit eine Prognose zu liefern. Eine verbreitete Anwendung von Predictive Inference [Pi] sind Spam-Filter, die einkommende Nachrichten analysieren und kategorisieren. Desweiteren wird Predictive Inference [Pi] als Baustein zur Einschätzung der Kreditwürdigkeit oder zur Vorhersage von Kreditbetrug eingesetzt. Bei Verkaufsvorhersagen und der Prognose von Kundenabwanderung dient Predictive Inference [Pi] als Grundbaustein. Auch im algorithmischen Börsenhandel findet Predictive Inference [Pi] Verwendung, wo Kurse prognostiziert und automatische Handelsentscheidungen getroffen werden. In der Produktion kommt Predictive Inference [Pi] häufig bei der vorausschauenden Instandhaltung zum Einsatz. Dafür werden flexible Instandhaltungspläne generiert, die Echtzeitdaten von Maschinen nutzen, um absehbare Störungen zu erkennen. Dadurch wird ein Eingreifen vor dem Ausfall einer Maschine ermöglicht. Ein weiteres Beispiel der Predictive Inference [Pi] ist der vorausschauende Versand von Amazon oder Libri.
Wegen der Bedeutung von Predictive Inference [Pi] für die produzierende Industrie widmete die Hannover Messe 2017 der proaktiven Instandhaltung eine Sonderschau. Unternehmen wie PwC oder Uber schaffen Entscheider-Positionen wie einen »Head of Machine Learning«. Die Zertifizierung als Chartered Financial Analyst durch das CFA Institute in Virginia soll ab 2019 nur noch mit solidem Kenntnisstand über dieses KI-Element Predictive Inference [Pi] möglich sein. Ende 2013 ließ Amazon ein Verfahren zum proaktiven Versand patentieren, das Lieferzeiten verkürzt (»Method and System for Anticipatory Package Shipping«).
Predictive Inference [Pi] nutzt digitalisierte Daten von Bildern, Ton- und Filmmedien und verbindet diese mit Meta-, Stamm- und weiteren Prozessdaten, um daraus mittels Data Analytics [Da] Vorhersagemodelle zu erstellen. Diese Modelle werden unter anderem vom Element Decision Making [Dm] genutzt, um automatisierte Entscheidungen zu treffen.
Das schwäbische Startup 5Analytics nutzt im Kern der Ada-Plattform Predictive Inference [Pi] für Kunden in der produzierenden Industrie wie auch im Versicherungswesen. Fero Labs, ein aus der Zusammenarbeit der RWTH Aachen und der Columbia University entstandenes Startup, bietet eine Lösung zur Optimierung von Produktionsprozessen. Rapidminer ist eine der meistgenutzten Open-Source-Lösungen für Predictive Inference [Pi].
Eine Vorstellung von der Größenordnung des Marktes vermitteln Angaben von Forbes zum Machine Learning. Das Unternehmen schätzt, dass 2016 etwa 39 Milliarden Dollar in Machine Learning investiert wurden. Diese Zahl entspricht einer Verdreifachung im Vergleich zu 2013. Die Anzahl der Patente im Bereich Machine Learning ist von 2013 bis 2017 jährlich um 34 Prozent gewachsen. Im Jahr 2017 produzierten IBM, Microsoft, Google, LinkedIn, Facebook, Intel und Fujitsu die meisten Patente in diesem Bereich.
Es lassen sich technische und organisatorische Hürden unterscheiden. Technisch gesehen muss für Predictive Inference [Pi] eine Datenbasis geschaffen werden. Für eine Prognose müssen Daten z. B. in einer größeren Granularität gespeichert werden, als ERP-Systeme sie üblicherweise zur Verfügung stellen. Für die Instandhaltungsabteilung stellt das Erzeugen dieser Daten regelmäßig eine unerwünschte Beeinträchtigung der Produktion dar. Das behindert häufig den Aufbau der notwendigen Datenbasis. Weiterhin bedingt jeder physische Eingriff in das Produktionssystem, dass sich die statistischen Merkmale der Datenbasis verändern. Dies führt dazu, dass Prognosemodelle regelmäßig nachjustiert werden müssen.
Zu den organisatorischen Hürden zählt die korrekte Interpretation der Ergebnisse. Die Wahrnehmung von Varianzen, Risiken und die Beurteilung der Qualität von Prognoseverfahren unterliegt kognitiven Verzerrungen. Der Mensch ist ohne Training nicht in der Lage, Wahrscheinlichkeiten richtig zu interpretieren und kann nicht einfach auf seine Intuition vertrauen.
Eine Prognose von Unternehmensdaten stellt nur dann einen Mehrwert dar, wenn sie Geschäftsprozesse optimiert. Predictive Inference [Pi] muss folglich in bestehende Systeme integriert werden. Dabei ist es eine besondere Herausforderung, stochastische Eingangsgrößen wie die Auftragsprognose in Produktionsplanungs- und Steuersysteme einzubinden. Eine weitere Hürde ist die häufig mangelnde Transparenz der Funktionsweise von Prognosemodellen. Kann ein Prognoseverfahren diese liefern, so steigt dessen Akzeptanz im betrieblichen Einsatz.
Die Wissensgrundlage für das Element Predictive Inference [Pi] wird traditionell in Forschungseinrichtungen entwickelt. Es sind Unternehmen jeder Größenklasse, die die Modelle und Algorithmen für die Automation von Geschäftsprozessen adaptieren und zur Automation von Geschäftsprozessen einsetzen. In den USA beteiligen sich Unternehmen, deren Geschäftsmodelle von diesen Modellen abhängen, immer stärker an der Grundlagenforschung. Prominente Beispiele sind Facebook und Google. Die chinesische Regierung veröffentlichte im Jahr 2017 mit dem »New Generation AI Development Plan« eine strategische Agenda und strebt damit eine global führende Rolle im Bereich Künstlicher Intelligenz an.