top of page
  • Martin Kammerer

Machine Learning for Business

Aktualisiert: 10. Apr. 2020

Der Business Analyst als Data Scientist?


Die Fachbereiche stecken voller Ideen für potentielle Machine Learning Use Cases. Viele von denen sind echte "low hanging fruits", die mehr als reif sind. Unserer Erfahrung nach wird bisher aber nur ein Bruchteil davon für einen PoC herangezogen und noch viel weniger werden tatsächlich bis zur produktiven Nutzung entwickelt und eingesetzt. Woran liegt das? Unternehmen die sich in den AI-Bereich "vorwagen", setzen meistens auf ein zentrales Team von Data Scientists, die hoch qualifiziert sind und als einzige in der gesamten Organisation in der Lage sind, Machine Learning Modelle zu entwickeln. Da Data Scientists zudem eine recht selten verfügbare Ressource darstellen, ist hier der Flaschenhals vorprogrammiert; jede Entwicklung wird unweigerlich teuer.


Es geht auch anders!

Um grundsätzlich Optimierungspotenziale aus Daten – über klassische Business Intelligence hinausgehend – heben zu können, braucht es Machine Learning Verfahren und die Expertise von Fachkräften, die nah am Geschäft und den Daten sind – also klassische Business Analysten bzw. datenaffine Domänenspezialisten. Diese verfügen jedoch meistens nicht über eine tiefergehende Qualifikation in der Entwicklung von Machine Learning basierten Modellen. An dieser Stelle setzt Automated Machine Learning (AutoML) an: Es ersetzt das bisher notwendige tiefe Spezialwissen, das zur Erstellung von Machine Learning basierten Modellen notwendig ist und ermöglicht somit Business Analysten standardisierte Tätigkeiten eines Data Scientist auszuführen.

Mit AutoML müssen Sie nicht über die volle Expertise eines Data Scientist verfügen, um schnell Erkenntnisse aus Ihren Daten zu gewinnen und Prognosemodelle zu nutzen. Wenn Sie Tools wie Tableau, Qlik, TIBCO Spotfire oder Excel benutzen können, die fachlichen Zusammenhänge in Ihren Daten verstehen und am Ende Zugang zu Daten haben, dann können Sie Ihrer Karriere bzw. Ihrem Unternehmen durch den Einsatz von AutoML einen gewaltigen Schub versetzen.

Die nächste Disruption im Bereich der Datenanalyse und -nutzung ist schon im Gange. Die automatisierten Machine Learning Tools werden die derzeitigen Data Science Prozesse grundlegend verändern. Die Pioniere des AutoML können vor ihren Mitbewerbern wesentlich mehr Erkenntnisse aus Daten generieren, Prognosemodelle erstellen, produktiv nutzen können und so einen entscheidenden Wettbewerbsvorteil für sich bewirken


Automated Machine Learning


AutoML-Tools sind Plattformen für Machine Learning und automatisieren den Prozess von der Dateneinspeisung bis hin zum Deployment. In die Konzeption und Funktionalität dieser Tools fließen das Fachwissen und die Best Practices von erfahrenen Data Scientisten ein. Erfahrene Anwender sowie Anfänger können Machine Learning einfach und effektiv anwenden. 

Die Entwicklung eines Modells – die früher Wochen und Monate bis zur Fertigstellung benötigte – kann jetzt in wenigen Stunden durchgeführt werden. Durch Einbindung von AutoML in Ihre (bestehenden) Reportingsysteme und Geschäftsprozesse können Sie aus den generierten Vorhersagen und daraus resultierender Erkenntnisse unmittelbar Handlungsempfehlungen ableiten.

Die Fähigkeiten von Business Analysten lassen sich einfach auf das AutoML übertragen und bilden eine solide Grundlage für Erfolg. Fundiertes Fachwissen, analytische Fähigkeiten und Daten sind die einzigen Voraussetzungen für Ihren Erfolg.


Der iterative Entwicklungsprozess von ML-Modellen


Ähnlich wie bei Kimballs Dimensionaler Modellierung ist der Entwicklungsprozess für erfolgreiche Machine Learning Modelle iterativ. Bevor ein solches Projekt gestartet werden sollte, müssen die involvierten Stakeholder und der Workflow definiert werden. Zudem muss erörtert werden, wie die Lösung in bereits bestehende Anwendungen, Strukturen und Prozesse integriert werden kann. Der Ansatz sollte sollte zuerst mit kleinen Projekten getestet werden, die schnelle Ergebnisse liefern. Anschließend können anspruchsvollere und komplexere Projekte angegangen werden.

Das Erfolgsrezept liegt darin, Anwendungsmöglichkeiten zu identifizieren und die Lösung auf möglichst viele von ihnen anzuwenden. Hierbei sollte auf Daten zurückgegriffen werden, die schon vorhanden sind. Mit modernen Data Preparation und AutoML Tools können Sie Ideen für Prototypen schnell entwickeln und dann entscheiden, ob sie weiter verfolgt werden sollen oder nicht. Wenn Ihre erste Iteration abgeschlossen ist, können Sie andere Ideen verfolgen, mehr Daten sammeln, weiter forschen oder eine bessere Version des Modells entwickeln.

Der iterative Prozess zum ML-Modell:

  1. Im ersten Schritt sollten Sie sich auf die Erörterung des fachlichen Problems sowie auf die Festlegung von Zielen konzentrieren.

  2. Nachdem dies abgeschlossen ist, sammeln Sie die dafür notwendigen Daten und analysieren diese. In diesem Schritt machen Sie sich mit den verfügbaren Datenquellen vertraut und identifizieren mögliche Datenqualitätsprobleme.

  3. Im Data Preparation Schritt verbessern Sie die Datenqualität, de-normalisieren Ihre Daten und überführen sie damit in eine flache Tabellenstruktur. Self-Service-DataPreparation-Tools beschleunigen diesen Prozess um ein vielfaches und ermöglichen durch visuelle Elemente und einer Entkopplung von spezifischen Programmier-/Skript-sprachen ein schnelles vorankommen.

  4. Im Schritt der Modellierung können Sie eine Variable wählen die Sie vorhersagen möchten. AutoML-Tools erzeugen auf Knopfdruck automatisch neue Features, trainieren hunderte Modelle und ordnen diese nach ihrer Genauigkeit.

  5. Mit Hilfe der Erkenntnisse aus den trainierten Modellen und Ihrer Kreativität gehen Sie noch einmal alle Schritte durch, versuchen dabei neue Daten mit ins Spiel zu bringen und testen die Auswirkungen indem Sie einfach neue Modelle erstellen und diese mit den vorherigen vergleichen.

  6. Nachdem Sie mit ein paar Iterationen unterschiedliche Modelle gebaut und diese genauer untersucht haben, wählen Sie ein Modell aus und fangen mit dessen Operationalisierung an. Dazu können Sie das Modell bspw. mit dem AutoML-Tool DataRobot ganz einfach per Knopfdruck deployen. Ein Hinweis an dieser Stelle: Das Deployment Ihres Modells ist meistens nicht das Ende Ihres Projektes. Machine Learning Modelle müssen kontinuierlich weiterentwickelt werden: Sobald mehr Daten zur Verfügung stehen, neue fachliche Fragestellungen entstehen oder sich die Randbedingungen ändern.

In dem folgenden Video wird der Prozess mit Trifacta, DataRobot und Tableau anhand der Erstellung eines "What-If-Dashboards" gezeigt:


Die Kombination von Mensch und Machine Learning führt zum Erfolg

AutoML funktioniert nicht ohne den Menschen. Fachliche Kenntnisse sind die notwendige Bedingung für Machine Learning: Es müssen die richtigen Fragen gestellt werden und die zugrundeliegenden Daten müssen sinnvoll ausgewählt werden. Zudem braucht es einen durchdachten Prozess zur Durchführung der Data Preparation. Nach dem Deployment sollte die Überprüfung sowie Anpassung der Modelle in den Händen von Menschen liegen. 


Gängige Use Cases


DataRobot wird derzeit in allen wichtigen Branchen benutzt um anspruchsvolle Probleme zu lösen. In unzähligen Anwendungen ist Machine Learning integriert und verbessert dort die Ergebnisse. Hier eine Aufzählung der wichtigsten Use Cases:


Finanzdienstleistungen

Vermögensberater können Algorithmen entwickeln, testen, modellieren und deployen um das Portfoliomanagement zu unterstützen oder bspw. neue Kunden zu akquirieren.


Banking und Investment

Banken benutzen Machine Learning um in allen Geschäftsbereichen Aufgaben wie Risikoanalyse, Betrugsprävention, Kundenbewegungen und das Marketing zu optimieren.


Pharma

In der Medikamentenentwicklung, der Forschung und in der Produktion wird Machine Learning benutzt um Prozesse zu beschleunigen und zu optimieren. Im Vertrieb kommen klassische kundenorientierte Anwendungen zum Einsatz: next best offer, cusomter churn, dynamic pricing, etc..


Gesundheitsversorgung

Unternehmen in dieser Branche benutzen Machine Learning um Kostenfaktoren wie z.B. Wiederaufnahmeraten und Raumbelegungen zu optimieren.


Versicherungen

Versicherungen benutzen Machine Learning für Risikobewertung, Pricing, Betrugsaufdeckung, Direktmarketing und die Vorhersage von Ansprüchen gegenüber der Versicherung. Grundsätzlich ist jedes Versicherungsprodukt selbst ein Algorithmus der durch Machine Learning optimiert werden kann.


Energie, Versorger und Telekommunikation

Um Kunden besser zu versorgen wird Machine Learning dazu benutzt Kundenwanderungen und Wartungen vorherzusehen und Ressourcen anhand von Nutzungsverhalten und Nachfrageerwartungen einzuteilen. 


Sicherheitsdienste und Militär

Terrorangriffe vorherzusagen und zu verhindern ist eine der Hauptaufgaben für Polizei und Geheimdienste. Vorhersagende Modelle, die auf historischen Daten basieren, könnten dabei helfen Anschläge zu verhindern.


Vertrieb & Marketing

Machine Learning wird oft benutzt, um eingehende Leads zu bewerten, Probleme frühzeitig zu erkennen und dynamisches Pricing für ERPs, CRMs und andere Anwendungen zur Verfügung zu stellen.


IT

Cyber-Security, Insider Threats und Überwachungssysteme greifen auf Machine Learning zurück, um Nutzerverhalten zu verstehen und ungewöhnliches Verhalten zu erkennen.


Einzelhandel und Ecommerce

Machine Learning wird zum Up- und Cross-Selling, Dynamic Pricing, Betrugsprävention, zur Bestandsoptimierung und zur Personalisierung von Angeboten im Einzelhandel und Online benutzt.


Regierungen und Behörden

Machine Learning kann zur Optimierung von Behördengängen, Steuererklärungen, Betrugsprävention, Rechtspflege und zur Haushaltsplanung verwendet werden.


Get in Touch


Wir von DataSpark haben aus der Kombination von Tools, Rollen und Prozessen den Lean-AI-Ansatz entwickelt. Mit Lean-AI befähigen wir alle Unternehmen und deren Mitarbeiter, künstliche Intelligenz einfacher und schneller als bisher in der gesamten Organisation anzuwenden und wertbringend zu nutzen.

Hoch automatisierte Tools in Kombination mit unserer langjährigen Data Science-Expertise und praxiserprobten Vorgehensmodellen verkürzen den Weg von der Idee über den verwendbaren Prototypen bis zum produktiven Modell. Durch häufigere und schnellere Iterationen als bei konventionellen Data Science-Vorgehen minimieren wir Risiken und schaffen bereits im Prototyping nutzbaren Mehrwert.


Gerne zeige ich Ihnen Lean-AI live per Websession. Nehmen Sie dazu einfach hier Kontakt mit mir auf.


Ich freuen mich auf Sie.


Martin Kammerer von DataSpark GmbH & Co. KG.

bottom of page