This talk demonstrates how to increase the value of existing data by enriching it with information gained from additional sources. The first step is to search and extract structured data, such as data tables, from heterogeneous and distributed sources. Then the found tables have to be verified and fused with the existing data. The goal is that the found data can be reused by data mining tools and processed by an analyst or data scientist. In an ideal scenario, all important data is stored in a structured way and can be queried and retrieved without much effort. But in reality, business data are often stored in spreadsheets or presentation documents. Also the files are often distributed over local and cloud storage systems. There is a huge reservoir of open and publicly available data sources, which can add additional value to any business process. Part of this presentation will be a live demonstration of the underlying search engine which uses an index of half a million data tables from Wikipedia and the already available plug-ins for an existing data mining software. It will also show search and integrate data tables from large corpora, retrieve tables from popular sources such as Wikipedia or similar web pages, online spreadsheets and PDF documents. The relevance of extracted data can be evaluated by the user with a guided process that includes automatic matching of table structure and visual representation of potential matches.
Gerade in der deutschen Vorzeigebranche, dem Verarbeitenden Gewerbe mit dem internationalen Exportschlager Maschinen- und Anlagenbau, steht der Kundenservice unter enormen Druck. Komplexe Produkte, große Variantenvielfalt in den Maschinen und Anlagen, sowie der häufige Abgang von Organisations-inhärentem Wissen und die Notwendigkeit das Expertenwissen verfügbar zu machen und zu verteilen sowie der steigende internationale Wettbewerb setzen die Entscheider unter Druck.
Neue Produkte und Geschäftsmodelle sollen einerseits den ertragreichen Servicebereich der Industrieunternehmen weiter ausbauen. Gleichzeitig werden durch neue KI-basierten Verfahren, wie dem Predicitve Maintenance neue Geschäftsmodelle erst ermöglicht und Servicetechniker können aufgrund vorhandener Daten die Probleme der Maschinen und Anlagen immer schneller und effizienter lösen können. Hier greifen neue Verfahren der Künstlichen Intelligenz, die es Serviceorganisationen und den Servicetechnikern im Feld ermöglichen, Probleme noch schneller und effizienter aufgrund vorhandener Daten und Funktionalitäten zu lösen.
Empolis und AWS zeigen auf Basis der EMPOLIS Smart Cloud unter Verwendung von Amazon AI Services ein durchgängiges Beispiel, wie Service Techniker im Feldeinsatz mittels KI-Verfahren Servicefälle deutlich schneller und einfacher lösen können. Hierzu werden in einer Multi-Cloud Applikation Services von Empolis Smart Cloud mit verschiedensten AI Services von AWS (Amazon Rekognition, Amazon Lex, Amazon Polly, Amazon Transcribe) kombiniert, um vom Signal bis zur Problemerkennung einen durchgängigen Lösungsansatz aufzuzeigen.
Auch wenn die Künstliche Intelligenz Einzug in viele Bereiche des Lebens erhalten hat, besonders in Form von Neuronalen Netzen, so ist die Skepsis bei vielen immer noch hoch und prominente Beispiele haben gezeigt, dass der Vorbehalt nicht ungerechtfertigt ist. Obwohl regelmäßig neue Rekorde mit Neuronalen Netzen aufgestellt werden, gibt es Bereiche, wie z. B. die Medizin, wo die einfache Genauigkeit nicht ausreicht, um das nötige Vertrauen in die Technologie aufzubauen. Ein weiteres Beispiel ist der Bankensektor, wo die Erklärbarkeit zum Teil auch vorgeschrieben ist. Generell ist es notwendig, dass Entscheidungen begründet werden können, was bei vielen Verfahren nicht ohne weiteres möglich ist, da sie aufgrund der hohen Komplexität im wahrsten Sinne des Wortes eine Black Box darstellen. Die Verfahren liefern zwar oft gute Ergebnisse, aber es wird nicht erläutert, wie diese zustande kommen und warum. Warum es problematisch sein kann, dass lediglich die Genauigkeit als Metrik verwendet wird, zeigt ein einfaches Beispiel: Ein Klassifikator soll entscheiden, ob ein Pferd auf einem Bild ist. Die Genauigkeit sei 95%, allerdings ist auf allen Pferdebildern ein Copyright-Hinweis und eine Analyse der Funktion zeigt, dass das Neuronale Netz lediglich gelernt hat, den Hinweis zu erkennen. Diese und ähnliche Praxis-Beispiele sollen genutzt werden, um mittels gängiger Verfahren, wie z. B. Guided Backprop oder LIME zu zeigen, wie Neuronale Netze zu einer konkreten Entscheidung kommen. Es soll auch ein kurzer Überblick über den derzeitigen Stand der Technik gegeben werden. Die Erkenntnisse zeigen nicht nur, wie Vertrauen zur besseren Akzeptanz der Technologie führt, sondern auch, wie das Wissen eingesetzt werden kann, um Modelle gezielt zu verbessern, oder z. B. einen vorhandenen Bias zu erkennen. Abgerundet wird das Ganze durch eine Bewertung von Erklärbarkeit aus Sicht verschiedener Personen, die jeweils unterschiedliche Motivationen haben. Zum Beispiel bei Endnutzern, die bewerten möchten, wie Technologie ihre Entscheidungen und Weltsicht beeinflusst, aber auch auf Aspekte wie Datenschutz. Zum anderen gibt es professionelle Nutzer, wie z. B. Ärzte, bei denen Vertrauen durch Erklärbarkeit über persönliche Motivation weit hinaus geht und teilweise auch vorgeschrieben ist. Die gezeigten Beispiele und mögliche Heuristiken sollen dann in einem Praxis-Leitfaden vereint werden, der es erlaubt, selbst Analysen und Bewertungen von beliebigen Neuronalen Netzen durchzuführen.
Dieser Vortrag wird die KI-basierte Analyse von unstrukturierten Textdaten in den Mittelpunkt stellen, was eine der vier Kernkompetenzen von Neofonies und eine der nützlichsten KI-Methoden für den E-Commerce-Bereich ist. Um KI-Lösungen erfolgreich einsetzen zu können, müssen jedoch bestimmte Hindernisse beseitigt werden. Ein allgemeines Problem, insbesondere für Onlineshops jeglicher Art, sind Sprachen. Zwar gibt es zahlreiche Methoden und Werkzeuge, die häufig zur Analyse englischsprachiger Daten verwendet werden, andere Sprachen sind jedoch oft problematisch. Die meisten unserer Kunden, die hauptsächlich in Deutschland, Österreich und der Schweiz tätig sind, verfügen über eine große Menge deutscher Textdaten, die die Basis für ihre E-Commerce-Systeme bilden. Die deutsche Sprache ist komplexer als Englisch und stellt andere Herausforderungen bei der Textanalyse. Diese Herausforderungen werden derzeit von Experten auf diesem Gebiet angegangen, jedoch verfügen die Methoden noch nicht über die Qualität und Verfügbarkeit ihrer Kollegen in englischer Sprache. Unsere Referentin zeigt die praktischen Auswirkungen auf die Anwendung von AI und Natural Language Processing (NLP) im E-Commerce und die Vorteile der Verwendung der KI-basierten Textanalyse für das Kundenerlebnis sowie auf die verschiedenen Bereiche eines E-Commerce-Unternehmens. Insbesondere wird beispielhaft erläutert, wie die Analyse von Textdaten durch Natural Language Processing-Werkzeugen durchgeführt werden kann, wie Erkennung von benannten Entitäten und Disambiguierung, automatisiertes Markieren und Sentiment-Analyse.
Hierbei handelt es sich um Tools, die KI- und insbesondere maschinelle Lernmethoden verwenden, um sich explizit auf den Umgang mit komplexen Sprachdaten zu konzentrieren. Der Vortrag stellt Anwendungen vor, die von der Lösung von Optimierungsproblemen bis hin zu innovativen Konzepten reichen, die erst kürzlich durch AI möglich geworden sind, und stellt Anwendungsfälle vor zu inhaltsbasierten Empfehlungssystemen zur Personalisierung, Chatbots zur Verbesserung des Kundensupports, das Erstellen von Produktinformationen mit Informationen, die intelligente Suche sowie Opinion Mining. Die Implementierung dieser Lösungen kann zu einer Vielzahl von Verbesserungen führen, wie z. B. Beschleunigung der durchschnittlichen Bearbeitungszeit, finanzielle Entlastung, Automatisierung endlos wiederkehrender Aufgaben, höhere Verfügbarkeit, höhere Wettbewerbsfähigkeit und vor allem auch höhere Kundenzufriedenheit. Darüber hinaus wird die tägliche Arbeit dahingehend revolutioniert, dass durch diese Automatisierung Kreativität und Innovation freigesetzt werden. In Bezug auf das oben genannte, ist es unser Ziel zu zeigen, inwieweit KI-Lösungen bereits zahlreiche Möglichkeiten im Bereich des E-Commerce bieten und wo noch viel Potenzial ist.
Die Digitalisierung ist selbst bei modernen Produkt-Unternehmen im eCommerce noch nicht in allen Bereichen angekommen. Ein zentrales Problem bei vielen dieser Unternehmen ist die Qualität der Produktdaten. Eine mangelnde Qualität der Produkte zum Beispiel im Onlineshop führt zu einem negativen Shoppingerlebnis der Kunden, die heute eine Vielzahl an Filtern, Sortierungen und Suchmöglichkeiten erwarten. Die manuelle Pflege von Produktdaten ist nicht nur zeit- und kostenintensiv, sondern auch fehleranfällig, da der Mensch Produkteigenschaften sehr individuell betrachtet und pflegt. Produktbilder hingegen hat praktisch jedes dieser Unternehmen, da sich Produkte im Internet ohne Bilder nicht vermarkten lassen. Diese Bilder kann man anhand von AI analysieren und die gewonnenen Informationen in einem PIM (Product Information Management) persistieren. So kann man die Produktdatenpflege fast vollständig automatisieren und das Ergebnis im Online Frontend near-realtime verbessern. Auch die Kategorisierung von Produkten, sowohl auf Eingangs- als auch auf Ausgangsseite, stellt viele Unternehmen vor eine Herausforderung in der Automatisierung. Auch hier liefert AI die entscheidende Lösung. Neue Produkte im Sortiment werden mittels Bildanalyse in die richtige Einkaufskategorie sortiert, diese kann dann mitteln Mapping oder anhand der Bildanalyseergebnisse in den korrekten Vertriebskanal ausgegeben werden. Die Bilder selbst können durch AI geclustert werden, was gerade im Omnichannel eine große Rolle spielt. Da z. B. auf Marktplätzen in der Regel nur Freisteller erlaubt sind, können die entsprechenden Bilder bereits vor einem Datenfeed sortiert und gefiltert werden. Eine manuelle Auswahl ist nicht mehr notwendig. AI in der Bildanalyse erlaubt eine Verbesserung des gesamten Produktdaten-Workflows im modernen eCommerce.
Service-nahe Industrien suchen händeringend nach Kundenverstehern, Back-Office-Erledigern und Vorgangsabwicklern. Offensichtlich stehen wir mit Blick auf die kontroversen Debatten über die Auswirkungen von KI Systemen nicht gerade vor einer Welle der Arbeitslosigkeit. Die Digitalisierung hat schlicht dazu geführt, dass uns nicht in ausreichendem Maße qualifizierte Mitarbeiter zur Verfügung stehen. Die Bildungssysteme versagen, weil Sie noch zu sehr darauf ausgelegt sind, Menschen aus Bergbau oder Produktion für andere Traditionsberufe umzuschulen. Stattdessen bedarf es einer Offensive für die Berufe und Anforderungen einer Digitalen Gesellschaft. Wenn es uns gelingt, unsere Mitarbeiter in Service und Back Office mit ihren Fähigkeiten optimal durch Maschinen zu unterstützen, wird das zu besserer Produktivität, mehr Innovationskraft und höherer (Mitarbeiter-)Zufriedenheit führen. Dazu müssen wir allerdings bereit sein, mit alten Denkmustern zu brechen. Wir müssen damit aufhören Menschen und Maschinen als Rivalen zu sehen. Stattdessen sollten wir Neugier und Mut für neue Formen der Mensch-Maschine-Zusammenarbeit zulassen. Von diesen Arbeitsformen, die als „fehlende Mitte“ bezeichnet werden, möchte Andreas Klug in diesem Vortrag berichten. Und er möchte von den Praxisanwendungen berichten, mit denen bereits heute erfolgreich das Arbeitsumfeld von Menschen durch die Assistenz von intelligenten Systemen aufgewertet und vereinfacht wurde. Wer nämlich glaubt, dass Chatbots unsere Service-Mitarbeiter in den kommenden Jahren ersetzen werden, ist schlicht naiv. Nur durch die Zusammenarbeit von Mensch und Maschine können die jeweiligen Stärken der Partner optimal genutzt werden.
Das Geheimnis des erfolgreichen Digitalen Wandels steckt in der wichtigsten Einheit unserer sozioökonomischen Welt – in uns als Individuum an sich. Wir alle wollen Veränderung, nur verändern wollen wir uns nicht. Welche archaischen Muster dieses menschliche Verhalten auslösen und wie man sie effektiv verändert, um erfolgreich zu sein, erfahren Sie auf motivierende Art und Weise in den Vorträgen von Dr. Florian Ilgen. Der Speaker und Mentalist weiß, worauf es ankommt: Gerade heute kommt es uns so vor, als lebten wir inmitten einer explodierenden Komplexität. Aus diesem Grund ist es wichtiger denn je, mental agil zu sein. Florian Ilgen zeigt uns, warum wir dabei von Kindern lernen sollten und wie wir unsere Leidenschaft bewahrt, um den Wandel als Chance erfolgreich zu nutzen.
Das Thema der Optimierung von Produktionsprozessen durch KI-Methoden wurde von uns bereits auf der AI4U 2018 vorgestellt. Damals wurde auch auf das methodische Konzept der Verknüpfung von Prozesswissen und Daten durch Bayessche Netze eingegangen. Auf der kommenden AI4U wollen wir die Optimierung eines konkreten Produktionsprozesses im Detail beschreiben. Für Zuhörer des Vortrags vom letzten Jahr ergibt sich daraus ein tieferes Verständnis durch den Deep Dive, sowohl aus der Prozessperspektive als auch algorithmisch. Neue Zuhörer werden eingeführt in das Konzept der algorithmisch gestützten Optimierung von Produktionsprozessen, die Datenverfügbarkeit in der produzierenden Industrie und die Kombination von Modellwissen mit supervised machine learning durch Bayessche Netze. Im Vortrag wird beschrieben, wie ein konkreter Produktionsprozess, die Positionierung von Fahrzeugtüren, durch den Einsatz von machine learning optimiert wird. Bei dem vorliegenden Problem geht es nicht nur um predictive, sondern auch um prescriptive analytics. Das heißt es wird nicht nur Vorhersagen berechnet, sondern auch Handlungsempfehlungen. Im Vortrag wird zunächst das Problem der Türmontage eingeführt und erklärt, warum der aktuelle Prozess und Workflow noch viel Raum zur Optimierung lässt. Anschließend wird der neue Workflow aus der Prozessperspektive vorgestellt. Hierbei werden die konkreten Verbesserungen für den Herstellungsprozess hervorgehoben. Das Verfahren wird aktuell mit einem bayerischen Automobilhersteller erprobt und wurde aus dieser Perspektive daher auch auf der Insight@BMW Konferenz im Oktober 2018 vorgestellt. Im Weiteren wird im Vortrag die konkrete algorithmische Anwendung Bayes’scher Netze zur Optimierung der Türpositionierung erklärt. Die verfügbaren Messdaten werden erklärt und warum diese allein für die vorliegende Aufgabe nicht ausreichen. Anschließend werden das verfügbare Prozess-Knowhow beschrieben sowie die Vorgehensweise dieses in ein mathematisches Modell zu überführen. Schlussendlich wird die Zusammenführung der beiden Informationsquellen in einem Bayesschen Netz beschrieben und wie mit dem Netz Vorhersagen und Sollwerte berechnet werden. Den Abschluss des Vortrags bildet eine Zusammenfassung der Vor- und Nachteile des Verfahrens aus Sicht des Anwenders und aus Sicht des Entwicklers sowie ein Ausblick von geplanten und möglichen Weiterentwicklungen.
Die Notlage zur Entwicklung eines KI-Systems: Das KI-System zur Produkt- und Prozessoptimierung entstand aufgrund einer Problemstellung – einer zu hohen Auftragslage im Engineering, die von dem Team der Contech Software & Engineering GmbH nicht mehr allein bewältigt werden konnte. Dies gab den Anstoß für die Idee, die eigene Projekterfahrung und Vorgehensweise zu automatisieren, um damit die knapp verfügbare Zeit besser nutzen zu können. Damit wurde ein KI-System entwickelt, welches vollautomatisch und in Echtzeit Fehler, Ursachen, sowie Lösungen und Maßnahmen bei fehlerhaften Produkten und Prozessen ausgibt. Diese Automatisierung führt damit auch zu Zeit-, Ressourcen- und Kostenersparnissen und reduzierten Gewährleistungsrisiken. Die Funktionsweise des KI-Systems: Das Verfahren basiert auf einer speziellen Kombination von statistischen Methoden, (Parameter-)Modellen und dem einzigartigen, patentierten Algorithmus. Damit können bestehende Produktvalidierungs- und Prozesskurven und Einzelwerte für Robuste Produkte und stabile Prozesse analysiert werden. Mit Hilfe einer vorangehenden Teach-In-Phase bzw. Maschinenlern-Phase wird kurvenspezifisches Expertenwissen gespeichert. Aufbauend auf dieser Grundlage wird mittels des KI-Systems dann in Echtzeit und vollautomatisch die Unternehmensdaten analysiert und entsprechende Ursachen und Maßnahmen ausgegeben. Dazu enthält das KI-System auch ein Selbstlernmodul bei dem erfolgreiche Maßnahmen rückgemeldet werden können und diese Rückmeldung für weitere Analysen berücksichtigt wird. Mit dieser Funktionsweise wird das bestehende Expertenwissen im Hinblick auf den Produktionsverlauf gespeichert und automatisiert. Das vorhandene Expertenwissen steht damit auch für andere Mitarbeiter zur Verfügung und mit Hilfe des KI-Systems sind nun auch andere Mitarbeiter im Stande Fehler im Produktionsprozess zu erkennen und die gegebenen Maßnahmen zu treffen. Damit unterstützt das KI-System den jeweiligen Mitarbeiter bei seinen Entscheidungen. Jedoch kann es sein, dass das Expertenwissen, um Robuste Produkte und stabile Prozesse zu sichern, Lücken vorweist. So sind beispielsweise die Ursachen der Probleme nicht bekannt. Das Problem ist hier die fehlende Kenntnis über Wirkzusammenhänge von Komponenten, Baugruppen und Herstellprozessen, die u.a. zu erhöhten Ausschussraten führt. Das KI-System erweitert das Wissen bzw. die Kompetenz, indem unbekannte Wirkzusammenhänge aufgedeckt und damit alle wichtigen Einflussfaktoren ausgemacht werden. Durch das Wissen um Wirkzusammenhänge werden geringe Produktqualität und hohe Ausschussraten vermieden und damit wird ein Beitrag zur Ressourceneffizienz geleistet. Ohne dieses patentierte Verfahren ist es bis dato nicht möglich, Kurvenverläufe vollautomatisch zu analysieren, um Fehlerbilder verlässlich zu erkennen oder Kurvenverläufe und deren Charakteristika als multiple Einflussgrößen in komplexen Systemen und Wirkmechanismen zu analysieren und zu Vorhersagemodelle (Predictive Analytics/ Predictive Maintenance) verarbeiten zu können. Praxisbeispiele für die erfolgreiche Umsetzung des KI-Systems: In der Montage bei einer Serie von Verschraubungen kam es immer wieder zu hohen Fehlerraten und dementsprechend zu Nacharbeitskosten von über 1,2 Millionen Euro im Jahr und hohen Gewährleistungsrisiken bei sicherheitsrelevanten Verbindungen. Mit Hilfe des KI-Systems konnten die Nacharbeitskosten, sowie Gewährleistungsrisiken um mehr als 50 Prozent in 3-6 Monaten gesenkt werden. Auch bei Verschraubungen im Prototypenbau fand das KI-System Anwendung. So wurde beispielsweise die Verschraubungsauslegung, Montierbarkeit und Serientauglichkeit zu spät verifiziert. Mit Hilfe des KI-Systems konnte für eine frühzeitige Verifizierung der Verbindungen und der Herstellung eines robusten Designs in 4 Schritten gesorgt werden.
Darstellung einer interessanten Case Study der KLiNGEL Gruppe, zweitgrößter Distanzhändler Deutschlands. Die Herausforderung der Digitalisierung bei einem mittelständischen, europaweit tätigen Versandhändler. Neue IT-Architektur mit klaren Prozessen und einer einheitlichen Kundenkommunikation im Bereich Service Center. Einsatz neuer Machine-Learning-Algorithmen zur ganzheitlichen Einführung einer Plattform zur E-Mail-Bearbeitung. Gewinnung von Kundendaten aus unstrukturierten Informationen. Eine hoch skalierbare, ausfallsichere Architektur zum 24/7-Betrieb. Einfache Administration, Design und Test-Tools, die es ermöglichen, ohne Programmierung das über- und unüberwachte Learning zu verwenden. Text- und Dokumentzuordnung Einsatz von Textelementen/Abschnitten zur Festlegung der Dokumentklassen mittels Feature-Vergleich. Die eingesetzten Features sind fehlertolerant und sprachenunabhängig. Beim Kunden laufen mittlerweile zehn Länder mit 40 Marken-Land-Kombinationen und 76 Workflows in Produktion Auswertungen und Überwachungen durch mathematische Auswertungen analog Recall, Precision und Confidence Levels. Precison- und Recall-Graphen, die erstmals eine genaue präzise Analyse möglich machen. Geschwindigkeit: ca. 3 ms pro Dokument Visuelle Mustererkennung Pattern Matching im Gegensatz zu „Pixelvergleich“. Die Bilder werden in einzelne Teile „gespalten“ und diese einzelnen Features wiederum miteinander verglichen. Ohne OCR können somit in Millisekunden Sortieralgorithmen eingesetzt werden. Auflösungen spielen keine Rolle mehr, damit werden unterschiedliche Kanäle, Auflösungen, etc. mit denselben Algorithmen verarbeitet. Dokument Strukturierung / hierarchische Strukturierung Seiten- und Dokumentanalyse in Kombination mit einer hierarchischen Strukturierung bildet zum ersten Mal die komplette Organisationsstruktur ab. Eine seitenweise, abschnittsweise Klassifikation ermöglicht es, mit Hilfe von Subtrees eine präzise Zuordnung vorzunehmen, die individuell pro Organisationseinheit übersteuert werden kann. Ergebnisse: Durchgängig optimierte Prozesse ohne Informationschaos, da Inhalt als Merkmal genutzt wird. Manuelle Tätigkeiten werden reduziert, kann auf bestehende und neue Datenbestände angewendet werden.
In einem ersten Teil wird die Fragestellung eingeführt: Woran kann man automatisiert und skalierbar erkennen, wie gut oder schlecht es Firmen geht? Warum ist das in unterschiedlichsten Kontexten wichtig (Marktanalyse, Risikoanalyse, Leadqualifizierung im Sales, passgenaues Marketing, CRM, Trendbeobachtung, Erstellung von Reports und Vorstandsvorlagen)? Wie kann ein geeigneter Output Im zweiten Teil geht es um die unterschiedlichen Quellen für Informationen, die dazu herangezogen werden können. Neben den bekannten Newswire-Portalen wie Bloomberg oder LexisNexis werden neuartige Nachrichten-„Staubsauger“ wie Webhose.io vorgestellt. Relevante Informationen finden sich aber nicht nur auf traditionellen Nachrichtenseiten, sondern auch in Pressemitteilungen und auf den Homepages der einzelnen Firmen. Verfahren zum Crawling dieser Inhalte werden präsentiert. Auf diese Datenbasis wird eine vollständige linguistische Toolchain angewendet, mit den Tokenisierung, Part-of-Speech (POS)-Tagging, Erkennung der benannten Entitäten (named entity recognition), Dependenzparsing und schließlich Erkennen von Prädikaten und Argumenten. Die Ergebnisse dieser präzisen, aber bei weitem nicht für jede Äußerung vollständig abdeckenden linguistischen Analyse werden als Features für ein maschinelles Lernen herangezogen, um so ein selbstlernendes, robustes System der Nachrichtenanalyse zu schaffen. Für diese Art der Analyse liegen keine öffentlich verfügbaren Trainingsdaten für maschinelles Lernen vor, so dass das Bootstrapping mittels linguistischer Analyse zwingend ist. Das Übertragen der sprachabhängigen Ansatzes auf andere Sprachen, vor allem nicht-westliche Sprachen, mittels maschineller Übersetzung wird im nächsten Teil thematisiert. Hier werden konkret auch die Grenzen heutiger Systeme zur maschinellen Übersetzung aufgezeigt, wenn deren Output wiederum automatisiert analysiert werden soll. Das entwickelte System, das die Ergebnisse in einem Webdashboard visualisiert, wird im abschließenden Teil vorgestellt. Es werden konkrete Einsatzmöglichkeiten für verschiedene Personas und Anforderungen aufgezeigt.
Das von uns realisierte Projekt intelligente Windturbine bietet ein anschauliches und eindrückliches Beispiel über die Herausforderungen und Chancen von AI für Predictive Maintenance. Ausfälle und Wartungsarbeiten an den riesigen und oft schwer zugänglichen Windenenergieanlagen sind sehr kostenintensiv. Durch eine Vernetzung der Windenergieanlagen mit der Cloud ergeben sich daher sehr interessante Optimierungspotentiale, z.B. durch die Anwendung von Predictive Maintenance. Zur Erreichung dieses Ziels besteht die initiale Aufgabe darin die Anlagen zu vernetzen. Wir verwenden dieses Praxisbeispiel aus der Industrie zur Veranschaulichung der technischen Voraussetzungen für die Datenerhebung und den Einsatz fortgeschrittener Analysemethoden. Im Anschluss gehen wir auf die vielversprechenden Möglichkeiten von AI-Methoden für Predictive Maintenance ein. Dazu teilen wir unsere Erfahrungen zur Vernetzung der Windenergieanlagen mit der Cloud. Eines der Learnings aus dem Projekt ist, dass das Verarbeiten großer Datenmengen viele Fallstricke birgt. Durch geschickte Architekturentscheidungen sind diese aber lösbar. Damit wurden optimale Voraussetzungen für den Einsatz von AI-Methoden geschaffen. Wir stellen unsere Architektur, die es durch ihre Modularität erlaubt mit wenig Aufwand neue Berechnungsmodelle in die Plattform zu integrieren. Die Berechnungsmodelle können in C# oder Python implementiert sein. Es wird aufgezeigt welchen Einfluss ein Ingenieurs-Umfeld auf die Entwicklung von Berechnungsmodellen und AI-Methoden hat. Zusätzlich stellen wir Beispiele der eingesetzten Analysemethoden vor und zeigen Wege auf, wie durch direkten Zugriff auf produktive Daten die Entwicklung von neuen Algorithmen erleichtert wird. Abschließend geben wir einen Ausblick auf das enorme Potential von AI-Methoden für intelligente und optimierte Wartungsmethoden. Predictive Maintenance kann in Zukunft durch die Vernetzung von Maschinen mit der Cloud und mit Hilfe von AI die Industrie revolutionieren.
Dokumente stellen nach wie vor ein zentrales Element bei der Abwicklung von Geschäftsprozessen dar. Häufig ist die Verarbeitung kostenintensiv, fehleranfällig und die Automatisierung nur auf die Erfassung der Dokumente limitiert. Die eigentlich relevanten Prüfaufgaben bei Formularen wie zum Beispiel das Prüfen auf Vollständigkeit oder Korrektheit der Daten müssen von Sachbearbeitern durchgeführt werden. In diesem Vortag soll gezeigt werden wie mithilfe von Maschinellem Lernen Weiterverarbeitungsschritte von Dokumenten durch künstliche Intelligenz übernommen werden kann, die bisher nur von Menschen durchgeführt werden konnten. Hierfür werden zunächst kurz die Bildverarbeitungsverfahren vorgestellt und wie diese eingesetzt werden können. Focus liegt hierbei auf Faltungsnetzen (Convolutional Neuronal Nets), deren Funktionsweise, Aufbau und Training. Anschließend werden Projektarbeiten, im Speziellen der Abgleich von Signaturen vorgestellt und auf die notwendigen Schritte zur Entwicklung der Anwendung eingegangen. Hierbei werden Vorverarbeitungsschritte und Augmentierungen vorgestellt, die generell für das Trainieren von intelligenten Algorithmen auf Dokumenten relevant sind. Der Unterschriftenabgleich findet über ein siameses neuronales Netz statt, welches lernt Merkmale aus Unterschriften zu extrahieren, sodass für zwei Unterschriften entschieden werden kann, ob sie von derselben Person stammen. Zum Schluss wird eine Technologiebewertung von neuronalen Netzen in der Dokumentenverarbeitung vorgenommen und welche Auswirkungen dies auf den Datenhaushalt eines Unternehmens hat.
Bitte beachten: Die Teilnehmer benötigen einen eigenen Laptop.
Der Workshop ist auf maximal 20 Teilnehmer begrenzt.
Der Workshop ist auf maximal 32 Teilnehmer begrenzt. Ein eigener Laptop kann mitgebracht werden.