Programm

Expand All +
  • 24.06.2019 - Montag


  • 25.06.2019 - Dienstag


  • 26.06.2019 - Mittwoch


  • 09:15 - 10:15
    Basierend auf der Verfügbarkeit von Daten und entsprechender Rechenkapazität können immer mehr kognitive Aufgaben auf Computer übertragen werden, die selbstständig lernen, unser Verständnis zu verbessern, unsere Problemlösungskapazität zu erhöhen oder uns einfach helfen, uns an Zusammenhänge zu erinnern. Insbesondere Tiefe Neuronale Netze übertreffen die traditionellen KI-Methoden deutlich und finden so immer mehr Einsatzgebiete wo sie in die Entscheidungsfindung einbezogen werden oder sogar Entscheidungen selbstständig treffen. Für viele Bereiche, wie autonomes Fahren oder Kreditvergabe ist der Einsatz von solcher Netze aufgrund Ihrer „Black-Box“-Charakters jedoch äußerst kritisch und risikobehaftet, da es schwierig ist, zu interpretieren, wie oder warum die Modelle zu bestimmten Ergebnissen kommen. In dem Vortrag werden verschiedene Ansätze diskutiert und vorgestellt, die versuchen, die Entscheidungsfindung von Tiefen Neuronalen Netzen zu verstehen und zu erklären.
    Keynotes & Panel
    Where
    K3

  • 10:30 - 11:15
    With the increased availability of data sources it become an increasingly demanding task to find relevant data, that may enhance existing knowledge. Additional information can exist somewhere on the Web or inside the intranet of an organization and remain unused for the task at hand. The requirement is to exploit the various data reservoirs like cloud storage providers, online spreadsheets and non-trivial document formats such as HTML or PDF and discover and merge the most relevant results. The goal of the Data Search For Data Mining (DS4DM) project is to provide data search and data integration functionalities which enables analysts to find relevant data in potentially very large data corpora and to semi-automatically integrate the discovered data with existing local data. This talk demonstrates how to increase the value of existing data by enriching it with information gained from additional sources. The first step is to search and extract structured data, such as data tables, from heterogeneous and distributed sources. Then the found tables have to be verified and fused with the existing data. The goal is that the found data can be reused by data mining tools and processed by an analyst or data scientist. In an ideal scenario, all important data is stored in a structured way and can be queried and retrieved without much effort. But in reality, business data are often stored in spreadsheets or presentation documents. Also the files are often distributed over local and cloud storage systems. There is a huge reservoir of open and publicly available data sources, which can add additional value to any business process. Part of this presentation will be a live demonstration of the underlying search engine which uses an index of half a million data tables from Wikipedia and the already available plug-ins for an existing data mining software. It will also show search and integrate data tables from large corpora, retrieve tables from popular sources such as Wikipedia or similar web pages, online spreadsheets and PDF documents. The relevance of extracted data can be evaluated by the user with a guided process that includes automatic matching of table structure and visual representation of potential matches.
    Use Cases (Track 2)
    Where
    E218

  • 11:20 - 12:05
    Wir stellen ein Minimal Viable Product vor, der Gesichtserkennung mit einem Raspberry Pi Cluster verbindet und Besuchern von Messen einen interaktiven Besuch ermöglicht. Das Konzept der Stempelkarte bei Messeständen wird neu gedacht und statt eines physischen Stempels werden Besucher bei ihren Standbesuchern über Kameras erkannt und können während der Messe mit dem System interagieren. Besucher werden über eine Gewinnverlosung incentiviert, alle Messestände zu besuchen. In unserem Vortrag stellen wir die Technologie hinter der Gesichtserkennung und den Weg von den isolierten Technologien zu einem MVP über MQTT und Docker vor. Wir verbinden dadurch IoT mit KI und erklären dafür die Konstruktion von passender Hardware und die Auswertung der Daten mit Deep Learning Algorithmen. Die Zuhörer können sich in die Rolle der Messebesucher versetzen und den gesamten Prozess von der Registrierung bis hin zur Analyse ihrer Bewegungsprofile erleben.
    Use Cases (Track 2)
    Where
    E218

  • 13:05 - 13:50
    Dataiku worked on an e-business vacation retailer recommender system based on users’ previously visited products. We created a meta model on top of a classical recommender system that generated an increase of 7% in revenue during the A/B test. For this type of business though, the content of the image of a product is fundamental. So, the next step to increase the recommendation engine’s performance was adding information contained in the images using Artificial Intelligence. The key takeaway was the following: you don’t need a Deep Learning expert to solve image tagging problems. With labeled datasets and corresponding pre-trained neural networks available on the internet, you can use “transfer learning” and map your problem to an existing one. We used the information extracted from the images to recommend personalized products to the user, but also to address marketing issues such as : ‘’should I display a nice snowy mountain or a hotel bedroom for a ski vacation thumbnail ?’’
    Use Cases (Track 2)
    Where
    E218

  • 13:55 - 14:55
    Deep Learning currently has its greatest success in areas like image, video and natural language processing. Applications working with strongly structured data (like churn and response modelling or customer lifetime value) are still dominated by ensemble models. Neural networks used to have no really compelling advantages in these areas. Theoretically, so-called dense feed forward networks would have been best suited for these tasks. But this kind of network was so hard to train that its practical utility was very limited. This deep dive shows how to make dense feed forward networks fit for practical use. We will demonstrate why and how to introduce deep learning to new applications, especially classical marketing problems. For practitioners who have worked with other methods so far, the deep dive serves as a highly accelerated introduction. Deep Learning experts on the other hand may be interested to see how to solve the problem of exploding or vanishing gradients in a reliable way (which is even provably correct!). Code examples in PyTorch will make everything reproducible, and serve as an entry point when you later try these methods on your own data.
    Use Cases (Track 2)
    Where
    E218

  • 15:00 - 16:00
    Chatbots können Unternehmen dabei helfen, Kunden- und Mitarbeiterzufriedenheit zu erhöhen. Nach einem kurzen Blick auf die Frage, welchen Nutzen Chatbots in welchen Szenarien bieten, werden anhand eines praktischen Beispiels eine produktive Lösung demonstriert und dabei Design-Entscheidungen und gewählte Architektur, genauso wie der typische Projektablauf nachvollziehbar erläutert. Welche Fallstricke können bei einem Chatbot-Projekt lauern? Wie kann man einen Chatbot schnell und effektiv erstellen und – fast noch wichtiger – so gestalten, dass der laufende Aufwand möglichst gering bleibt? Worauf muss man achten, damit die Benutzererfahrung optimal ist und gleichzeitig das Unternehmensziel erreicht wird? Antworten auf diese Fragen liefert der praxisorientierte Vortrag, so dass die Teilnehmer bei ihren Chatbot-Projekten direkt von den Erfahrungen profitieren können.
    Use Cases (Track 2)
    Where
    E218

  • 16:20 - 17:05
    Große Unternehmen wie Amazon oder Alibaba verwenden Küstliche Intelligenz (KI) bekanntlich in allen Bereichen, um interne Prozesse zu optimieren und ihren Kunden ein verbessertes Einkaufserlebnis zu ermöglichen. Durch die fortschreitende Automatisierung ist KI für jedes Unternehmen im Bereich E-Commerce zu einem wesentlichen Erfolgsfaktor beim Aufbau von Wettbewerbsvorteilen gegenüber anderen Akteuren geworden. Der entscheidende Vorteil von KI liegt in ihrer Überlegenheit bei der Analyse von großen Datenmengen. Daraus resultieren außerordentliche Fähigkeiten bei der Mustererkennung und bei der Vorhersage, wie sich Kunden verhalten oder welche Vorlieben sie haben. Um diese Aufgaben zu bewerkstelligen, wird eine Vielzahl von Methoden angewandt, die von Expertensystemen bis zu maschinellem Lernen (und Deep Learning) reichen und unter dem Begriff ‘Künstliche Intelligenz’ zusammengefasst werden. Dieser Vortrag wird die KI-basierte Analyse von unstrukturierten Textdaten in den Mittelpunkt stellen, was eine der vier Kernkompetenzen von Neofonies und eine der nützlichsten KI-Methoden für den E-Commerce-Bereich ist. Um KI-Lösungen erfolgreich einsetzen zu können, müssen jedoch bestimmte Hindernisse beseitigt werden. Ein allgemeines Problem, insbesondere für Onlineshops jeglicher Art, sind Sprachen. Zwar gibt es zahlreiche Methoden und Werkzeuge, die häufig zur Analyse englischsprachiger Daten verwendet werden, andere Sprachen sind jedoch oft problematisch. Die meisten unserer Kunden, die hauptsächlich in Deutschland, Österreich und der Schweiz tätig sind, verfügen über eine große Menge deutscher Textdaten, die die Basis für ihre E-Commerce-Systeme bilden. Die deutsche Sprache ist komplexer als Englisch und stellt andere Herausforderungen bei der Textanalyse. Diese Herausforderungen werden derzeit von Experten auf diesem Gebiet angegangen, jedoch verfügen die Methoden noch nicht über die Qualität und Verfügbarkeit ihrer Kollegen in englischer Sprache. Unsere Referentin zeigt die praktischen Auswirkungen auf die Anwendung von AI und Natural Language Processing (NLP) im E-Commerce und die Vorteile der Verwendung der KI-basierten Textanalyse für das Kundenerlebnis sowie auf die verschiedenen Bereiche eines E-Commerce-Unternehmens. Insbesondere wird beispielhaft erläutert, wie die Analyse von Textdaten durch Natural Language Processing-Werkzeugen durchgeführt werden kann, wie Erkennung von benannten Entitäten und Disambiguierung, automatisiertes Markieren und Sentiment-Analyse. Hierbei handelt es sich um Tools, die KI- und insbesondere maschinelle Lernmethoden verwenden, um sich explizit auf den Umgang mit komplexen Sprachdaten zu konzentrieren. Der Vortrag stellt Anwendungen vor, die von der Lösung von Optimierungsproblemen bis hin zu innovativen Konzepten reichen, die erst kürzlich durch AI möglich geworden sind, und stellt Anwendungsfälle vor zu inhaltsbasierten Empfehlungssystemen zur Personalisierung, Chatbots zur Verbesserung des Kundensupports, das Erstellen von Produktinformationen mit Informationen, die intelligente Suche sowie Opinion Mining. Die Implementierung dieser Lösungen kann zu einer Vielzahl von Verbesserungen führen, wie z. B. Beschleunigung der durchschnittlichen Bearbeitungszeit, finanzielle Entlastung, Automatisierung endlos wiederkehrender Aufgaben, höhere Verfügbarkeit, höhere Wettbewerbsfähigkeit und vor allem auch höhere Kundenzufriedenheit. Darüber hinaus wird die tägliche Arbeit dahingehend revolutioniert, dass durch diese Automatisierung Kreativität und Innovation freigesetzt werden. In Bezug auf das oben genannte, ist es unser Ziel zu zeigen, inwieweit KI-Lösungen bereits zahlreiche Möglichkeiten im Bereich des E-Commerce bieten und wo noch viel Potenzial ist.
    Use Cases (Track 2)
    Where
    E218

  • 17:10 - 17:55
    Die Nutzung von AI erlaubt die Gewinnung von Produktdaten aus Bildern zur weiteren Verwendung im Omnichannel Commerce. Extrahierte Attribute können persistiert und für eine kanalspezifische Nutzung vorgehalten werden. Dazu gehören neben Produkteigenschaften auch die notwendige Kategorisierung im Eingangs- oder Ausgangskanal. Optimierte Produktdaten können ferner zur AI-basierten Erstellung von Produkttexten, sogar für voice-commerce optimierte Texte, herangezogen werden. Die Digitalisierung ist selbst bei modernen Produkt-Unternehmen im eCommerce noch nicht in allen Bereichen angekommen. Ein zentrales Problem bei vielen dieser Unternehmen ist die Qualität der Produktdaten. Eine mangelnde Qualität der Produkte zum Beispiel im Onlineshop führt zu einem negativen Shoppingerlebnis der Kunden, die heute eine Vielzahl an Filtern, Sortierungen und Suchmöglichkeiten erwarten. Die manuelle Pflege von Produktdaten ist nicht nur zeit- und kostenintensiv, sondern auch fehleranfällig, da der Mensch Produkteigenschaften sehr individuell betrachtet und pflegt. Produktbilder hingegen hat praktisch jedes dieser Unternehmen, da sich Produkte im Internet ohne Bilder nicht vermarkten lassen. Diese Bilder kann man anhand von AI analysieren und die gewonnenen Informationen in einem PIM (Product Information Management) persistieren. So kann man die Produktdatenpflege fast vollständig automatisieren und das Ergebnis im Online Frontend near-realtime verbessern. Auch die Kategorisierung von Produkten, sowohl auf Eingangs- als auch auf Ausgangsseite, stellt viele Unternehmen vor eine Herausforderung in der Automatisierung. Auch hier liefert AI die entscheidende Lösung. Neue Produkte im Sortiment werden mittels Bildanalyse in die richtige Einkaufskategorie sortiert, diese kann dann mitteln Mapping oder anhand der Bildanalyseergebnisse in den korrekten Vertriebskanal ausgegeben werden. Die Bilder selbst können durch AI geclustert werden, was gerade im Omnichannel eine große Rolle spielt. Da z. B. auf Marktplätzen in der Regel nur Freisteller erlaubt sind, können die entsprechenden Bilder bereits vor einem Datenfeed sortiert und gefiltert werden. Eine manuelle Auswahl ist nicht mehr notwendig. AI in der Bildanalyse erlaubt eine Verbesserung des gesamten Produktdaten-Workflows im modernen eCommerce.
    Use Cases (Track 2)
    Where
    E218

  • 18:00 - 18:45
    Bilderkennung und -verarbeitung ist in unzähligen Branchen heute bereits ein nicht mehr wegzudenkendes Instrument, um vorhandene Bilder zu klassifizieren, Abläufe zu überwachen und / oder auszuwerten. Die Anwendungsfälle sind schier unzählbar. In der Praxis gestaltet sich diese Verarbeitung allerdings meist sehr aufwendig und es bedarf Experten mit tiefem Wissen in Codierung und Deep Learning Methoden, die die Bilddaten taggen und entsprechende Modelle zur adäquaten Weiterverarbeitung der markierten Bilder erstellen. Der Vortrag gibt einen Überblick über die Funktionen und Leistungsfähigkeit aktueller GPU-Computer im AI Umfeld und stellt Lösungsansätze für Deep Learning Use Cases sowie aktuell verfügbare Werkzeuge zum einfachen Taggen von Videos und Bildern vor. Eines dieser Werkzeuge ist IBM Power AI Vision. Power AI Vision enthält ein intuitives Toolset, mit dem Fachverantwortliche schnell und einfach Vision-Modelle erstellen können, ohne dass sie dafür Fachwissen in Codierung oder Deep Learning benötigen. Wir geben eine kurze Einführung in die Komponenten von IBM Power AI im Allgemeinen (Hardware, Software, Architektur und Erweiterungsmöglichkeiten) sowie Power AI Vision im speziellen Fall der Bildverarbeitung. Die Use Cases reichen vom autonomen Fahren, über Drohnenerkennung, Videoüberwachung und Betrugserkennung bis hin zur Diagnostik von Krebszellen. Wir wollen auf einige dieser aktuellen und potentiellen Use Cases genauer eingehen und demonstrieren anhand eines ausgewählten Falls in einer Live Demo die praktische Handhabung und Funktionsweisen von Power AI Vision.
    Use Cases (Track 2)
    Where
    E218

  • 08:30 - 09:15
    In the domain of enterprise applications, organizations usually implement application performance monitoring (APM) software which creates a lot of structured and unstructured data from various system instances. In order to take advantage of this massive data collection, the research project between Fujitsu and the Otto-von-Guericke-University Magdeburg investigates the comparability and applicability of APM data to serve as an input for a domain-specific performance knowledge base. The research artefact is aimed at supporting decisions of capacity management and performance engineering activities using Advanced Analytics techniques such as optimization algorithms and prediction models.
    Keynotes & Panel
    Where
    Studio E/F

  • 09:20 - 10:05
    Der Einbau von KFZ-Türen ist ein komplexes Problem. Bei Positionierung einer Tür ist das Fahrzeug noch im Rohzustand (kein Lack, kein Fenster etc.). Die Einflüsse und Zusatzgewichte zwischen Positionierung und Endzustand verändern die Lage der Tür, welche aber definierten Qualitätsstandards genügen muss. Die Konsequenz ist ein hoher Nacharbeitsaufwand. In meinem Vortrag stelle ich ein zum Patent angemeldetes Verfahren vor, bei dem die Nacharbeit durch KI-Methoden deutlich reduziert wird. Das Verfahren wird aktuell bei einem Automobil-OEM erprobt. Der eingesetzte Algorithmus berechnet die optimalen Sollwerte (prescriptive analytics) und kommt mit verhältnismäßig wenig Daten aus. Dazu werden nicht nur die gemessenen Daten, sondern auch modelliertes Prozesswissen als Berechnungsgrundlage herangezogen. Dazu werden Bayes‘sche Netze mit Regressionsmethoden kombiniert, wodurch sich Daten und Prozesswissen informationstheoretisch korrekt verbinden lassen. Das Thema der Optimierung von Produktionsprozessen durch KI-Methoden wurde von uns bereits auf der AI4U 2018 vorgestellt. Damals wurde auch auf das methodische Konzept der Verknüpfung von Prozesswissen und Daten durch Bayessche Netze eingegangen. Auf der kommenden AI4U wollen wir die Optimierung eines konkreten Produktionsprozesses im Detail beschreiben. Für Zuhörer des Vortrags vom letzten Jahr ergibt sich daraus ein tieferes Verständnis durch den Deep Dive, sowohl aus der Prozessperspektive als auch algorithmisch. Neue Zuhörer werden eingeführt in das Konzept der algorithmisch gestützten Optimierung von Produktionsprozessen, die Datenverfügbarkeit in der produzierenden Industrie und die Kombination von Modellwissen mit supervised machine learning durch Bayessche Netze. Im Vortrag wird beschrieben, wie ein konkreter Produktionsprozess, die Positionierung von Fahrzeugtüren, durch den Einsatz von machine learning optimiert wird. Bei dem vorliegenden Problem geht es nicht nur um predictive, sondern auch um prescriptive analytics. Das heißt es wird nicht nur Vorhersagen berechnet, sondern auch Handlungsempfehlungen. Im Vortrag wird zunächst das Problem der Türmontage eingeführt und erklärt, warum der aktuelle Prozess und Workflow noch viel Raum zur Optimierung lässt. Anschließend wird der neue Workflow aus der Prozessperspektive vorgestellt. Hierbei werden die konkreten Verbesserungen für den Herstellungsprozess hervorgehoben. Das Verfahren wird aktuell mit einem bayerischen Automobilhersteller erprobt und wurde aus dieser Perspektive daher auch auf der Insight@BMW Konferenz im Oktober 2018 vorgestellt. Im Weiteren wird im Vortrag die konkrete algorithmische Anwendung Bayes’scher Netze zur Optimierung der Türpositionierung erklärt. Die verfügbaren Messdaten werden erklärt und warum diese allein für die vorliegende Aufgabe nicht ausreichen. Anschließend werden das verfügbare Prozess-Knowhow beschrieben sowie die Vorgehensweise dieses in ein mathematisches Modell zu überführen. Schlussendlich wird die Zusammenführung der beiden Informationsquellen in einem Bayesschen Netz beschrieben und wie mit dem Netz Vorhersagen und Sollwerte berechnet werden. Den Abschluss des Vortrags bildet eine Zusammenfassung der Vor- und Nachteile des Verfahrens aus Sicht des Anwenders und aus Sicht des Entwicklers sowie ein Ausblick von geplanten und möglichen Weiterentwicklungen.
    Use Cases (Track 2)
    Where
    E218

  • 10:25 - 11:10
    Answering the needs of customers is one of the core challenges of every business. Using AI and machine learning to tackle this problem has become popular in recent years and goedle.io has been building its own platform since 2015 to predict future user behavior. While we have focused on the gaming industry and education sector so far, the same ideas also apply to the B2B sector and commercial offers. Through the Data Pitch accelerator, we have the opportunity to work on data provided by a large corporate and to transfer our knowledge into a new domain. In this session, we will describe how AI and machine learning can be used to anticipate future customer needs. We will provide details on the data, the preprocessing pipeline, our technological approach of predicting customer needs, and how our solution is made available to the end-user.
    Use Cases (Track 2)
    Where
    E218

  • 11:15 - 12:00
    Einsatz einer Plattform für maschinelles Learning, um aus Daten Informationen für Entscheidungen zu gewinnen. Wie greifen tiefe Lernprozesse und Anwendungen in der Praxis? Semantische Technologien, Cognitive Computing und entscheidungsunterstützende Systeme helfen bei der Automatisierung der Kundenkommunikation im E-Commerce. Darstellung einer interessanten Case Study der KLiNGEL Gruppe, zweitgrößter Distanzhändler Deutschlands. Die Herausforderung der Digitalisierung bei einem mittelständischen, europaweit tätigen Versandhändler. Neue IT-Architektur mit klaren Prozessen und einer einheitlichen Kundenkommunikation im Bereich Service Center. Einsatz neuer Machine-Learning-Algorithmen zur ganzheitlichen Einführung einer Plattform zur E-Mail-Bearbeitung. Gewinnung von Kundendaten aus unstrukturierten Informationen. Eine hoch skalierbare, ausfallsichere Architektur zum 24/7-Betrieb. Einfache Administration, Design und Test-Tools, die es ermöglichen, ohne Programmierung das über- und unüberwachte Learning zu verwenden. Text- und Dokumentzuordnung Einsatz von Textelementen/Abschnitten zur Festlegung der Dokumentklassen mittels Feature-Vergleich. Die eingesetzten Features sind fehlertolerant und sprachenunabhängig.  Beim Kunden laufen mittlerweile zehn Länder mit 40 Marken-Land-Kombinationen und 76 Workflows in Produktion Auswertungen und Überwachungen durch mathematische Auswertungen analog Recall, Precision und Confidence Levels. Precison- und Recall-Graphen, die erstmals eine genaue präzise Analyse möglich machen. Geschwindigkeit: ca. 3 ms pro Dokument Visuelle Mustererkennung Pattern Matching im Gegensatz zu „Pixelvergleich“. Die Bilder werden in einzelne Teile „gespalten“ und diese einzelnen Features wiederum miteinander verglichen. Ohne OCR können somit in Millisekunden Sortieralgorithmen eingesetzt werden. Auflösungen spielen keine Rolle mehr, damit werden unterschiedliche Kanäle, Auflösungen, etc. mit denselben Algorithmen verarbeitet. Dokument Strukturierung / hierarchische Strukturierung Seiten- und Dokumentanalyse in Kombination mit einer hierarchischen Strukturierung bildet zum ersten Mal die komplette Organisationsstruktur ab. Eine seitenweise, abschnittsweise Klassifikation ermöglicht es, mit Hilfe von Subtrees eine präzise Zuordnung vorzunehmen, die individuell pro Organisationseinheit übersteuert werden kann. Ergebnisse: Durchgängig optimierte Prozesse ohne Informationschaos, da Inhalt als Merkmal genutzt wird. Manuelle Tätigkeiten werden reduziert, kann auf bestehende und neue Datenbestände angewendet werden.
    Use Cases (Track 2)
    Where
    E218

  • 12:15 - 13:00
    Mit der Finite-Elemente-Methode (FEM) werden Crash Situation in der Fahrzeugentwicklung simuliert. Die Parametrisierung von FE-Modellen und Simulationsberechnung ist mit hohen Aufwänden verbunden, weil nicht alle Effekte der Parameter-Sets auf die Simulationsergebnisse transparent sind. Die Parametrisierung der FE Modelle erfolgt zumeist in einem Try & Error Verfahren wobei mit zunehmender Arbeitserfahrung und Knowledge-Transfer unter den Ingenieuren die Parametrisierung wesentlich zielgerichteter wird. Somit ist trotzdem im Rahmen des Gesamtentwicklungsprozesses nicht klar welche Anforderungen zu welchen Änderungen an Design und Funktion führen. Hinzukommt, dass die Simulationsberechnung an sich auch auf High-Performance-Systemen langsam ist und mehrere Stunden an Berechnungszeit in Anspruch nehmen kann. Wenn das Simulationsergebnis nicht den Vorstellungen entspricht muss neu parametrisiert werden und die Parameter werden wieder in einem Try-Error Verfahren gesetzt. Dies führt zu n Simulationsiterationen und bindet wiederum viel Zeit und Ressourcen was letztendlich ein zügiges Release von neuen Fahrzeugmodellen signifikant verzögert. Dieser Prozess kann effektiver gestaltet werden mit einer Parametervorauswahl als Entscheidungsunterstützung, welche sich aus Daten Jahrzehnte langer Simulationen speist. Die Datenstruktur der vergangenen Simulationen ist jedoch nicht als Input für Machine Learning (ML) Methoden geeignet. Grob beschrieben wird bei der FEM das Bauteil, also das Fahrzeug, in endlich kleine viele Elemente unterteilt welches häufig als Raster in Visualisierungen dargestellt wird. Im Rahmen der Parametrisierung werden Lasten auf das Modell bestimmt und in die Simulation gegebenen. Das Simulationsergebnis ist die vollständig fertig berechnete Reaktion des Bauteils und spiegelt sich in der Veränderung oder nicht Veränderung der einzelnen Elemente wieder. Dieses Simulationsergebnis ist der Dateninput, welcher jedoch aus Knoten- und Kantendaten ohne dedizierte fachliche Beschreibung in einem unbestimmten Vektorraum besteht, welche lediglich für die Visualisierung in einem 3-D Raster nützlich ist. Um Wissen aus vergangenen Simulationen generieren zu können, müssen die Daten für die Anwendung von ML Methoden aufbereitet werden (Feature Engineering). Hierbei wird in erster Instanz der Raum in dem sich das Modell befindet ein gerastert, so dass konkrete Koordinaten erzeugt werden können und somit Veränderungen an den Bauteilen nach physischer Einwirkung nicht nur als Bild, sondern in Form von Differenzen in Datenformat verfolgt werden können. Das Ergebnis des Feature Engineerings ist ein Inputformat in tabellarischer Form welches für Machine Learning Methoden verwendet werden kann. Vorliegend wurde mit Decision Trees gearbeitet um bestimmte Parameterwerte auf bestimmte Simulationseffekte gruppieren zu können. Diese Decision Trees können für den Entwickler als Grundlage dienen um seine zukünftigen Parametrisierungen vorzunehmen oder neue interessante Parametrisierungen abzuleiten.
    Use Cases (Track 2)
    Where
    K3

  • 14:15 - 15:15
    Erfahrungen mit gängigen supervised KI-Verfahren haben gezeigt, dass diese in der Praxis nicht effizient eingesetzt werden können. Das Problem liegt im aufwendigen und zeitintensiven Antrainieren der Daten. Ein weiterer Aspekt, der die Nutzung behindert ist das starre Verhalten. Bei Änderungen von äußeren Faktoren, wie einem Präferenzwechsel von Themen, können diese KI Systeme nicht dynamisch reagieren. Sie müssen erneut manuell trainiert werden. In einer immer ständig weiter entwickelnden Gesellschaft und Wirtschaft, mit immer neu auftretenden Trends und Motiven stecken diese unbeweglichen KI-Verfahren in einer Sackgasse. Neuere unsuperviced Verfahren versuchen durch das Umgehen des manuellen Antrainierens diese Probleme zu lösen. Hierfür werden aber sehr große Datenmengen benötigt. Ein Fakt, der viele mittelständische Unternehmen von der Nutzung ausschließt und die Akzeptanz bis tief in die Gesellschaft verhindert. Die große Herausforderung für Entwickler von modernen KI-Lösungen liegt also darin dynamisch auch mit kleinen Datenmengen umgehen zu können. OMQ hat sich von Anfang an auf die Verarbeitung von kleinen Datenmengen spezialisiert. Das führt dazu, dass Eingangsbarrieren für die Einführungen des Systems nahezu eliminiert werden. Die Besonderheit des OMQ Systems ist, dass es sich um eine zentrale Einheit handelt. Die KI-basierte OMQ Kundenservice-Software beantworte Kundenanfragen automatisch in Echtzeit. Realisiert wird dies durch ein ganzheitliches System, dass in alle Kommunikationskanäle eingebunden ist. Als antwortendes Kontaktformular, dynamisches FAQ, selbstantwortendes E-Mail System, unterstützendes Ticketsystem und helfender Chat-Bot werden bis zu 80% der Kundenanfragen abgefangen. Wo Unternehmen sonst auf viele verschieden Insellösungen zurückgreifen, kann OMQ schnell und einfach in bestehende Systeme und Infrastrukturen integriert werden. Drei Eigenschaften bilden den entscheidenden Unterschied: Kern des Systems ist die intelligente OMQ Wissensdatenbank, die die Bedeutung und Intention von Kundenanfragen versteht. Realisiert wird dies durch die von OMQ entwickelte neuartige Technologie. Diese unterscheidet sich durch drei besondere Eigenschaften von anderen Technologien. 1. Selbst lernende Technologie Die erste Besonderheit ist, dass es sich bei OMQ um ein selbstlernendes System handelt. Es funktioniert ohne anlernen und antrainieren. Dabei werden automatisiert Texte von Kunden betrachtet und es wird untersucht, welche Nachbarschaften bestimmte Worte zueinander haben. Dazu werden Wortkonzepte gebildet, die zeigen wie die Kunden sich ausdrücken. Zusätzlich wird durch Tracking des Klick-Verhaltens der Mitarbeiter und der Kunden analysiert, welche Antwort dem Kunden geholfen hat. So wird das System mit jeder Anfrage besser. 2. Hybrides Lernen Supervised/Unsupervised Die zweite Eigenschaft der Technologie ist, dass es ein hybrides System ist, welches gleichzeitig Unsupervised und Supervised lernt. Unsupervised bedeutet, dass es wie oben beschrieben von blanken Daten des Userverhalten lernt. Superviesd hingegen bedeutet, dass es zusätzlich noch trainiert wird (bei OMQ selbstständig). Es entstehen immer wieder neue Wortkonzepte, die sich durch den Einfluss vom Kundenfeedback kontinuierlich verändern. So kann sich das System immer wieder neu trainieren und Worte zu anderen Konzepten zuordnen. Aufgrund der Wortkonzepte werden dann Fragenkonzepte gebildet, die sich ebenfalls stetig verbessern. 3. Fragen lernen voneinander Die dritte Eigenschaft ist, dass Fragen voneinander lernen. Ein großer Vorteil beim OMQ Verfahren ist, dass neue Fragen einfach in die Datenbank hinzugefügt werden können. Hierzu ist kein neues antrainieren notwendig. Es wird auf bereits vorhandene Konzepte zurückgegriffen. Das System ist so in der Lage automatisch Assoziationen zu bilden und kann kontinuierlich und dynamisch erweitert werden. So können immer mehr Fragen beantwortet werden. Stetige Weiterentwicklung durch Datenanalyse: Durch stundengenaue Reportings und automatisierte Analysen können Daten ausgewertet und Handlungsempfehlungen erstellt werden. Somit wird die Qualität des Kundenservice kontinuierlich erhöht. So können fehlende Themen gefunden werden und zu verbessernde Informationen werden identifiziert. Probleme und Trends werden so in Echtzeit entdeckt.
    Use Cases (Track 2)
    Where
    E218

  • 15:20 - 16:20
    Die Vernetzung elektronischer Geräte erobert den Konsumermarkt im Sturm, womit sich zunehmend auch die Potentiale vernetzter Maschinen in der Industrie zeigen. Zum Beispiel bei der Vernetzung von Windenergieanlagen werden einerseits die immensen Vorteile ersichtlich, andererseits aber auch die speziellen Herausforderungen und Anforderungen. Wir zeigen den technischen Weg in die Cloud, samt Stolpersteinen und wertvollen Erfahrungen. Das beinhaltet Themen wie die automatisierte und parallelisierte Datensammlung und -aufbereitung, sowie die automatisierte Ausführung unterschiedlicher Berechnungsmodelle. Wir berichten auch über Visualisierungen samt Möglichkeiten für Experten mit den aktuellen Daten neue Modelle für die Cloud zu entwickeln. Wir zeigen Beispiele der ausgeführten Analysen, sowie einen Ausblick und Review für spannende Möglichkeiten für AI für Predictive Maintenance. Das von uns realisierte Projekt intelligente Windturbine bietet ein anschauliches und eindrückliches Beispiel über die Herausforderungen und Chancen von AI für Predictive Maintenance. Ausfälle und Wartungsarbeiten an den riesigen und oft schwer zugänglichen Windenenergieanlagen sind sehr kostenintensiv. Durch eine Vernetzung der Windenergieanlagen mit der Cloud ergeben sich daher sehr interessante Optimierungspotentiale, z.B. durch die Anwendung von Predictive Maintenance. Zur Erreichung dieses Ziels besteht die initiale Aufgabe darin die Anlagen zu vernetzen. Wir verwenden dieses Praxisbeispiel aus der Industrie zur Veranschaulichung der technischen Voraussetzungen für die Datenerhebung und den Einsatz fortgeschrittener Analysemethoden. Im Anschluss gehen wir auf die vielversprechenden Möglichkeiten von AI-Methoden für Predictive Maintenance ein. Dazu teilen wir unsere Erfahrungen zur Vernetzung der Windenergieanlagen mit der Cloud. Eines der Learnings aus dem Projekt ist, dass das Verarbeiten großer Datenmengen viele Fallstricke birgt. Durch geschickte Architekturentscheidungen sind diese aber lösbar. Damit wurden optimale Voraussetzungen für den Einsatz von AI-Methoden geschaffen. Wir stellen unsere Architektur, die es durch ihre Modularität erlaubt mit wenig Aufwand neue Berechnungsmodelle in die Plattform zu integrieren. Die Berechnungsmodelle können in C# oder Python implementiert sein. Es wird aufgezeigt welchen Einfluss ein Ingenieurs-Umfeld auf die Entwicklung von Berechnungsmodellen und AI-Methoden hat. Zusätzlich stellen wir Beispiele der eingesetzten Analysemethoden vor und zeigen Wege auf, wie durch direkten Zugriff auf produktive Daten die Entwicklung von neuen Algorithmen erleichtert wird. Abschließend geben wir einen Ausblick auf das enorme Potential von AI-Methoden für intelligente und optimierte Wartungsmethoden. Predictive Maintenance kann in Zukunft durch die Vernetzung von Maschinen mit der Cloud und mit Hilfe von AI die Industrie revolutionieren.
    Use Cases (Track 2)
    Where
    E218

  • 16:50 - 17:35
    Im Büroalltag sind viele Sachbearbeiter damit beschäftigt, Vollständigkeit von Dokumenten zu prüfen. Sind alle Anträge ordnungsgemäß ausgefüllt und unterschrieben? Stimmen die Überschriften auf unterschiedlichen Antragsformularen tatsächlich überein? Wurde wie gefordert eine Kopie vom Personalausweis beigefügt? In diesem Vortag soll gezeigt werden, wie mithilfe von künstlicher Intelligenz ebensolche Prüfaufgaben automatisiert werden können. Hierfür werden zunächst relevante Bildverarbeitungsverfahren kurz erklärt. Anschließend stellen wir unsere Systeme zum Unterschriftenvergleich sowie zur Ausweiserkennung vor. Der Abgleich findet über ein „Siameses Neuronales Netz“ statt, welches lernt Merkmale aus Unterschriften zu extrahieren. Bei der Ausweiserkennung kommen Objektdetektionsverfahren basierend auf Convolutional Neuronal Nets zum Einsatz. Zum Schluss wird eine Technologiebewertung neuronaler Netze in der Dokumentenverarbeitung durchgeführt. Dokumente stellen nach wie vor ein zentrales Element bei der Abwicklung von Geschäftsprozessen dar. Häufig ist die Verarbeitung kostenintensiv, fehleranfällig und die Automatisierung nur auf die Erfassung der Dokumente limitiert. Die eigentlich relevanten Prüfaufgaben bei Formularen wie zum Beispiel das Prüfen auf Vollständigkeit oder Korrektheit der Daten müssen von Sachbearbeitern durchgeführt werden. In diesem Vortag soll gezeigt werden wie mithilfe von Maschinellem Lernen Weiterverarbeitungsschritte von Dokumenten durch künstliche Intelligenz übernommen werden kann, die bisher nur von Menschen durchgeführt werden konnten. Hierfür werden zunächst kurz die Bildverarbeitungsverfahren vorgestellt und wie diese eingesetzt werden können. Focus liegt hierbei auf Faltungsnetzen (Convolutional Neuronal Nets), deren Funktionsweise, Aufbau und Training. Anschließend werden Projektarbeiten, im Speziellen der Abgleich von Signaturen vorgestellt und auf die notwendigen Schritte zur Entwicklung der Anwendung eingegangen. Hierbei werden Vorverarbeitungsschritte und Augmentierungen vorgestellt, die generell für das Trainieren von intelligenten Algorithmen auf Dokumenten relevant sind. Der Unterschriftenabgleich findet über ein siameses neuronales Netz statt, welches lernt Merkmale aus Unterschriften zu extrahieren, sodass für zwei Unterschriften entschieden werden kann, ob sie von derselben Person stammen. Zum Schluss wird eine Technologiebewertung von neuronalen Netzen in der Dokumentenverarbeitung vorgenommen und welche Auswirkungen dies auf den Datenhaushalt eines Unternehmens hat.
    Use Cases (Track 2)
    Where
    E218

  • 17:40 - 18:30
    Mehr Informationen folgen in Kürze.
    Keynotes & Panel
    Where
    Studio E/F

  • 09:00 - 12:00
    In diesem Workshop werden Smileys am Rechner und auf Papier gemalt. Mit diesen Bildern trainieren wir ein im Workshop erstelltes neuronales Netzwerk. Das Netz kategorisiert mit der Zeit die Smileys immer besser. Die Teilnehmer lernen hier spielerisch, wie so ein neuronales Netz funktioniert und warum die Auswahl der richtigen Trainingsdaten so wichtig für eine gute Trefferrate ist. Außerdem erhalten die Teilnehmer hier ein praktischen Leitfaden zum schnellen Einstieg in die Programmierung von neuronalen Netzwerken. Bitte beachten: Die Teilnehmer benötigen einen eigenen Laptop. Der Workshop ist auf maximal 20 Teilnehmer begrenzt.
    Workshops
    Where
    E218

  • 12:15 - 13:15
    Since mid-2014, David Kriesel has downloaded more than 100,000 articles from SpiegelOnline, perhaps the largest opinion making mass media in the German-speaking world. He will tear this huge dataset apart with you, and he will be delivering funny, entertaining, surprising and even scary insights. This will be so colorful that everyone, techies and non-techies, will understand what DataScience actually is, and how it works.
    Keynotes & Panel
    Where
    Atrium 4

  • 14:45 - 17:45
    Um etwas zu tun, muss man es verstehen. Um etwas zu verstehen, muss man es erleben. Genau darum geht es in unserem Workshop - erleben Sie das Internet der Dinge. Sie werden sehen, wie einfach es ist, von uns vorbereitete Sensoren und Aktoren als IoT Devices anzusprechen. Sie erfahren hands-on, wie Sie unterschiedlichste Systeme und Schnittstellen über die Node-RED-Plattform integrieren können und wie einfach es ist, auch Ihr eignes Smartphone einzubinden. Unser Ziel ist es, auf unterhaltsame und spielerische Weise einen guten Einblick in die IoT-Welt zu geben und Sie dafür zu begeistern, selber gleich loszulegen. Denn nur wenn Sie anfangen, viele eigene Ideen umzusetzen, werden Sie die richtigen Ideen für Ihr Unternehmen finden. Der Workshop ist auf maximal 32 Teilnehmer begrenzt. Ein eigener Laptop kann mitgebracht werden.
    Workshops
    Where
    E218