PROGRAMM 2020

Bitte beachten Sie, dass wir uns aufgrund der Verschiebung aktuell in enger Abstimmung mit den Referenten/Innen der AI4U 2020 befinden. Nähere Informationen zum Programm finden Sie hier in Kürze. Bis dahin sind Änderungen vorbehalten.

Expand All +
  • 22.06.2020 - Montag


  • 23.06.2020 - Dienstag


  • 24.06.2020 - Mittwoch


  • Analytische Anwendungen sollen in der Regel Antworten auf mehrere Fragen finden. Die verschiedenen Zielgrößen zu ermitteln, erfordert häufig mehrstufige, sequenzielle Analysen mit unterschiedlichen Modellen. Was aber, wenn die Ergebnisse der ersten Analyse eine zu große Varianz aufweisen? Oder nicht alle Parameter, die eigentlich für die nachfolgende Analyse erforderlich wären, überhaupt erfasst und weitergegeben werden? Ein Beispiel dafür ist die Analyse von Gebäudeschäden anhand von Fotografien. Ein erstes Modell A erkennt auf mehreren Fotografien, welche Teile der Fassade betroffen und wie schwer diese beschädigt sind. Ein zweites Modell B soll ermitteln, wie und mit welchem Aufwand die Schäden behoben werden können. Diese Auswertung basiert auf dem vorher ermittelten Schweregrad und wird schnell zu einem Information Bottleneck: Unter Umständen fehlen auf den Fotografien notwendige Details, eine Schadensart erfordert bei unterschiedlichen Materialien eine eigene Behandlung, oder es sind mehrere Schadensarten gleichzeitig aufgetreten. Die Folge: Der Handlungsspielraum beim Verbessern der Modelle wird eingeschränkt, Fehlerraten steigen, die Operationalisierung und Verwaltung der Modelle wird deutlich aufwendiger und es entstehen zeitraubende Diskussionen zwischen Kooperationspartnern. Das Problem existiert auch für OCR-Schnittstellen, die Informationen über Kontext und Struktur eines Scans beim Übersetzen verlieren. Die Praxis zeigt: Solche Information Bottlenecks entstehen und dürfen keinesfalls vernachlässigt werden. Der Vortrag zeigt verschiedene Ausprägungen von Information Bottlenecks auf, bewertet diese und erläutert Methoden und Innovationen, diese zu vermeiden.
    Use Cases (Track 2)
    Where
    E 218

  • Was wäre, wenn eine Virtual-Reality-Brille in Echtzeit Ihre Umwelt in ein riesiges räumliches Gemälde verwandeln könnte und alles im Stil eines Kunstwerkes von z.B. Van Gogh erscheinen würde? Eine der vielen spannenden Entwicklungen im Bereich der künstlichen Intelligenz ist der sogenannte "Style Transfer". Darunter versteht man die Möglichkeit, eine Art Patchwork (vgl. Pastiche) aus zwei Bildern zu erzeugen. Ein Bild ist dabei die künstlerische Stilvorlage, während das andere den eigentlichen zu transformierenden Inhalt darstellt. Dem TNG Hardware-Hacking-Team ist es gelungen unter Anwendung von u.a. OpenCV und TensorFlow eine derartige Brille zu entwickeln. Mittels dieser erscheint die Umwelt dann im Stil von berühmten Malern wie z.B. Claude Monet oder Pablo Picasso. In diesem Vortrag erhalten Sie eine Einführung in die Welt des Realtime Style Transfers. Dabei wird insbesondere auf die Techniken im Bereich des Deep Learning eingegangen, die bei dieser Anwendung zum Einsatz kommen.
    Use Cases (Track 2)
    Where
    E 218

  • Seit den letzten Jahren erleben wir einen immer stärker steigenden Einsatz von Computer Vision in den verschiedensten Bereichen. Die Bandbreite an Anwendungsfällen scheint fast grenzenlos. In der praktischen Umsetzung sehen wir aber doch gewisse Schranken. Ein Hauptproblem ist, dass sich die meisten Computer Vision Modelle nur mithilfe von ausreichend Trainingsbildern trainieren lassen. Dabei zählt vor allem deren Varianz, das heißt: "zeigen meine Trainingsbilder eine möglichst große Bandbreite an Realität". Bei vielen potenziellen Anwendungsfällen liegt genau hier die Hürde, um die Idee zum Fliegen zu bringen. Dabei lässt sich die Hürde umgehen - und zwar natürlich mithilfe von AI. Im Vortrag sprechen wir zum einen darüber wie sich durch den Einsatz von GANs Trainingsbilder künstlich erzeugen lassen, zum anderen wie wir durch die Nutzung von CAD-Daten gänzlich auf das Sammeln von Bildern verzichten können. Durch GANs lassen sich bereits aus einer geringen Anzahl von Bildern fotorealistisch künstliche Bilder erzeugen, die eine große Bandbreite an Varianz abdecken. Dieser Prozess lässt sich in vielen Fällen sogar automatisieren. Dieser Prozess kann komplementär zur klassischen Image Augmentation genutzt werden, erzeugt aber eine andere Art von Varianz. Sollten zudem CAD-Daten des wiederzuerkennden Objekts vorhanden sein, geht das Ganze noch ein Stück weiter. Denn dann kann bereits ein Computer Vision - Modell trainiert werden, obwohl das Objekt womöglich noch gar nicht real existiert. Dabei kann man aus den 3D-Modellen bereits fotorealistische Bilder des Objekts erzeugen und damit ein Modell anlernen. Durch die Kombination des Renderings und von GANs lassen sich täuschend echte Abbildungen der Zielobjekte generieren. Sind die Abbildung so realistisch, dass ein Mensch sie nicht von echten unterscheiden kann, sind sie auch gutes Trainingsmaterial für die Computer Vision Modelle. Durch diese Technik lassen sich Anwendungsfälle abbilden, die bisher aufgrund zu geringem Bildmaterial unmöglich waren.
    Use Cases (Track 2)
    Where
    E 218

  • In Wissenschaft und Praxis herrscht Revolutionsstimmung. Sprachassistenten simulieren natürliche Gespräche, automatische Übersetzer gibt es mittlerweile in Googles Excel oder man schiebt gleich das ganze Word-Dokument in einen automatischen Übersetzer und bekommt den Text zurück als ob ein Dolmetscher involviert wäre. Dieser Eindruck drängt sich auf, aber vielleicht ist die Revolutionsstimmung auch nur eine Goldgräberstimmung. In unserer täglichen Arbeit versuchen wir automatisch potentielle Sprachprobleme in Texten aufzudecken - wie eine schlauere Rechtschreibprüfung. Wir arbeiten dabei bereits seit sechs Jahren mit Natural Language Processing (NLP) Techniken, insb. Lemmatization, Part-of-Speech Tagging, Syntax Parsing und Co-Reference-Resolution, und zuletzt stärker Topic Modelling. Weiterhin machen wir immer wieder Studien mit unterschiedlichsten Machine-Learning-Ansätzen. Das Herausfordernde in unserem Kontext: Mit den Ergebnissen unserer Analysen werden Menschen zum Teil auch kritisiert und gemessen und Sprache wird allgemein als etwas sehr persönliches wahrgenommen. Dadurch kommen zwei Faktoren ins Zentrum der Bewertung: Hohe Präzision und Erklärbarkeit. In diesem Vortrag möchte ich diese modernen Ansätze in der konkreten Anwendung aufzeigen und sowohl Chancen als auch die Probleme aus der Anwendung heraus diskutieren und reflektieren. Dabei wird auf Buzzwords garantiert verzichtet, stattdessen wollen wir uns anschauen, was die End-Nutzer dazu sagen. Wir schließen mit einer versöhnlichen Analyse wo und unter welchen Umstände aus unserer Erfahrung heraus NLP und Machine Learning sinnvoll anwendbar ist und wo nicht.
    Use Cases (Track 2)
    Where
    E 218

  • Die Plausibilisierung von Zählerständen ist für einen Netzbetreiber ein aufwändiger Massenprozess. Die KI Lösung für diesen Anwendungsfall verspricht ein sehr hohes Automatisierungspotenzial. Es wird die verwendete Methodik des KI-Fast-Prototypings vorgestellt. Die Präsentation gibt Einblicke in den Zyklus der ML-Implementierung bzgl. Prozessverständnis, Datenverständnis, Datenaufbereitung, Modellierung, Evaluation und Produktivsetzung. Die verwendeten Werkzeuge und Plattformen werden dargestellt, ebenso die KI-bezogenen Ergebnisse (Modellart, Metriken). Es werden die besonderen Herausforderungen einer hybriden Architektur aus on premise SAP System und MS Azure beschrieben und über die Erfahrungen berichtet, die bei der Einbindung der Organisation und der Gremien innerhalb des Konzerns gesammelt werden konnten. Zum Schluss wird auf den Stand der Produktivsetzung eingegangen und ein Ausblick auf weitere KI Use Cases gegeben.
    Use Cases (Track 2)
    Where
    E 218

  • pmOne has extensive know-how in data integration and analytics and is constantly faced with requirements such as connecting many data sources, data modeling and security. More and more use cases using new technologies such as the cloud, forecasting algorithms and artificial intelligence find various data sources for analytics already available combined with new sources to be explored and integrated. Existing approaches such as Extract-Transform-Load (ETL) do not keep up with ever larger amounts of data and agile / iterative project procedures, where around 80% of the effort goes into data provision and preparation. We therefore looked at different solutions such as Data Virtuality, Presto and Denodo. In this talk we share our observations related to these technologies. In particular, the expansion of existing analytical data with new sources in a logical data warehouse is a promising area of application for data science with virtualized data.
    Use Cases (Track 2)
    Where
    E 218

  • The INFORE project addresses the challenge of processing streams of large datasets and pave the way for real-time, interactive extreme-scale analytics and forecasting. Today, at an increasing rate, industrial and scientific institutions need to deal with massive data flows, streaming-in from a multitude of sources. For instance, maritime surveillance applications need to combine high-velocity data streams, including position data from thousands of ships across the world and acoustic signals of autonomous, unmanned vehicles. Life-Science simulation data and finance transaction data are another source of very fast and volatile data streams. Our work aims to simplify the design of complex process workflows . This allows subject experts to analyze large data streams and bridge the gap between data science and high performance computing. The proposed architecture is system agnostic and supports modern architectures, like Apache Flink, Kafka and Spark.
    Use Cases (Track 2)
    Where
    E 218

  • The adoption of the Internet of Things (IoT) in industry provides the opportunity to gather valuable data. Nevertheless, this amount of data must be analysed to identify patterns in the data, model behaviors of equipment and to enable prediction. In this talk, we present a concept for metadata representation that tackles some of the challenges posed by big data ecosystems to data interpretation and analysis. By combining big data technologies (e.g. Spark on Hadoop) with semantic approaches, the processing and analysis of large volumes of data coming from heterogeneous sources becomes reliable. The metadata representation approach is adopted for defining the structure and the relations (i.e., the connections) between the various data sources. This enables the development of a generic, reusable and responsive data analytics framework, which is ensuring data validity and trustful analytics results.
    Use Cases (Track 2)
    Where
    E 218

  • Die automatische Textzusammenfassung gehört zu den komplexesten Aufgaben in der Computerlinguistik. Neben der Fähigkeit die relevanten Daten zu erkennen, wird auch eine Dosis Kreativität und Flexibilität von den Modellen gefordert. Durch den konstanten Fortschritt im Bereich Deep Learning werden neue Möglichkeiten eröffnet, um die künstlich erfassten Textsynopsen zunehmend leserlicher zu machen, was dem Benutzer wesentlich größere Textsammlungen zugänglich macht. In diesem Vortrag möchten wir einen Umriss der Thematik darstellen, in dem wir die ausgewählten Problemstellungen in praktischer Hinsicht zusammen mit einem produktionsreifen Anwendungsfall beschreiben. Die Modelle für automatische Textzusammenfassung können mit einem tieferen semantikorientieren Blick in Textdaten den Führungskräften und den Projektleitern zu den Entscheidungsprozessen und Geschäftsverfahren verhelfen.
    Use Cases (Track 2)
    Where
    E 218

  • Am Markt hört man immer wieder, dass digitale Assistenten in den Augen ihrer Benutzer versagen, selbst wenn die Konversationen mit Ihnen inhaltlich korrekt abgelaufen sind. Viele Unterhaltungen fühlen sich künstlich an. Die Benutzer fühlen sich nicht abgeholt, nicht verstanden. Es gibt viele Lösungen für Chatbots und die Technik an sich – KI-basierte NLU/NLP/NLC – ist inzwischen hinreichend ausgereift, und trotzdem misslingen in der Praxis viele Dialoge. Woran liegt das? Den Chatbots fehlt die notwendige Sozialkompetenz. Conversational Analysis, ein Teilgebiet der Soziologie, beschäftigt sich seit Langem damit, wie Unterhaltungen zwischen Menschen ablaufen und wann diese erfolgreich sind. Davon können und sollten Conversational Designer lernen, damit ihre digitalen Assistenten die Benutzer erreichen, emotional abholen, die Dialoge funktionieren und Ihre Chatbots erfolgreich sind. Lernen Sie in diesem Vortrag, was den Unterschied macht.
    Use Cases (Track 2)
    Where
    E 218

  • The usage of voice assistants is increasing steadily. Most recent available voice assistants talk with non-emotional tone. However, with technology becoming more humanoid, this is about to change. In human-human-interaction, people often catch the emotion of other people. With the increasing use of voice assistants, the question arises whether people also catch the expressed emotion of voice assistants. From a marketing perspective, this is especially interesting, as emotions play an important role while shopping. For example, happy customers tend to engage more in impulsive buying. Against this background, we explore how the tone of a voice assistant impacts consumers’ shopping attitude and behavior. In this talk, we present a new deep learning model to synthesize speech with different emotional tones (e.g. happy, uninvolved). Listening tests with experts, university students, and crowd workers prove that people can perceive the synthesized emotional tones. Afterward, we show the findings from a lab experiment, where we ask different groups of participants to test a voice shop with different emotional tones and we measure their emotion, shopping attitude, and shopping behavior. The results reveal, that the tone of the voice assistant in the shop impacts consumers’ emotional valence and arousal which in turn impact their trust in the shop, their satisfaction with the shop and the bought products and their impulsiveness of buying.
    Use Cases (Track 2)
    Where
    E 218

  • Was hat der digitale Zwilling mit künstlicher Intelligenz zu tun? An digitale Zwillinge und an KI-Verfahren werden ähnliche Erwartungen herangetragen – wenn es z.B. darum geht, Störungen an Maschinen vorherzusagen oder Produktionsabläufe zu optimieren. Philosophie und eingesetzte Techniken sind dagegen sehr unterschiedlich und erschweren eine Vergleichbarkeit der Ansätze. Der Vortrag zeigt auf, wie sich digitale Zwillinge und KI-Verfahren verbinden lassen, sie voneinander profitieren können und neue Geschäftsmodell ermöglichen. Eine zentrale Rolle spielt dabei das Zusammenspiel zwischen Mensch und KI sowie die Integration isolierter KI-Leistungen in ein Gesamtmodell. Anschaulich gemacht wird die Zusammenarbeit von digitalem Zwilling und KI durch Projektbeispiele aus unterschiedlichen Industrien.
    Use Cases (Track 2)
    Where
    E 218

  • We present a machine learning algorithm able to analyse contracts and support lawyers during the legal decision making process. The developed algorithm estimates the legal effectiveness of certain contract clauses while providing the reason for its decision together with the relevant text passages. In the talk we discuss on the one hand high-level challenges related to the task, like the underlying decision process and the man-machine interface, and reveal, on the other hand, technical details of our solution such as the machine learning architecture used for the natural language processing of the contracts.
    Use Cases (Track 2)
    Where
    E 218

  • Mit Künstlicher Intelligenz verändern sich die Paradigmen der Mensch-Technik Interaktion grundlegend. Der Computer wandelt sich zunehmend vom Werkzeug zum Partner. Beispielsweise ähnelt die Interaktion mit digitalen Companion- oder Assistenzsystemen nicht mehr der Nutzung, sondern eher der Zusammenarbeit. Diese neuen Formen der Interaktion müssen mit Methoden der menschzentrierten Gestaltung entwickelt werden. Im Workshop werden zwei solche Methoden vorgestellt und erprobt, die für den Einsatz im KI-Kontext adaptiert wurden. Szenario Design kann eingesetzt werden, um die Ausgangssituation bzw. die Probleme mit dem aktuellen Stand der Technik zu beschreiben und nachfolgend auch die Vision der zukünftigen Nutzung mit der angestrebten KI-Anwendung konkret darzustellen. Der Vorteil: Szenarien lassen sich schnell und einfach erstellen und sind für verschiedenste Stakeholder leicht nachvollziehbar. Ein Szenario kann im Anschluss in einen Service Blueprint übertragen werden, wo nun auch auf die technischen Komponenten der KI-Anwendung eingegangen wird. Anhand eines Service Blueprints lassen sich noch ungeklärte Lücken im Konzept identifizieren. Zudem bildet er eine strukturierte Grundlage für die Entwicklung der KI-Anwendung. Voraussetzungen: Keine Voraussetzungen. Ggf. eigene KI-Anwendungsidee bzw. KI-Produktidee.
    Workshops Basic
    Where
    E 215

  • The Neural Ordinary Differential Equations paper by Chen et. al. was awarded as one of the 4 best papers at NeurIPS 2018. The core idea is to model a time-series by modelling its derivative with a neural network. In Julia you can readily apply this approach, also with stochastic, delayed and other differential equations. In this workshop you are going to implement such state-of-the-art models yourself - with ease, thanks to Julia. We will go over the theory behind neural differential equations, why Julia is especially apt for this, and experience hands-on its power for predicting time-series. Looking forward to see you all! Prerequisites: No prerequisites. Everyone is highly welcome. If you want to join the hands-on part, just bring your own laptop with junolab.org installed.
    Workshops Advanced
    Where
    E 216

  • The rise of Artificial Neuronal Networks (ANNs) as the majorly utilized AI technology seems unstoppable: Machines are now able to classify images in super-human speed, beat master players in the ancient Chinese game “Go” and the complex strategy game StarCraft 2. But there is an important question increasingly overshadowing the rise of ANNs: How do they work and come to their decisions? An example from Mount Sinai Hospital drastically shows why it is so crucial to answer this question: In 2015, researchers developed and trained an ANN with a huge set of patient records. It can predict the onset of schizophrenia extremely well. As this is usually very hard to diagnose, medical experts wanted to understand the prediction. But “Deep Patient” is so complex that not even its own creators can understand its decisions, which is extremely unsettling. This is why we’d like to motivate peers to make the coming decade the era of Explainable AI (XAI). Prerequisites: Artificial Neuronal Networks, Statistical theory, Mathematical understanding
    Workshops Advanced
    Where
    E 216

  • Alexa und Siri zeigen wie gut Spracherkennung für Deutsch funktionieren kann. Die großen Cloud-Anbieter haben alle ein kommerzielles Speech-to-Text API im Angebot, über das sich deren Dienste direkt einbinden lasen. Jedoch verbietet sich der Einsatz von US-Cloud-Diensten in manchen Geschäftsbereichen aus Gründen der Verschwiegenheit, der Datenschutzes oder anderen Gründen. Zahlreiche open-source Projekte bieten Speech-to-Text Funktionalität an und erlauben es die Verarbeitung selbst zu hosten oder offline zu betreiben. Meist unterstützen diese open-source Projekte aufgrund ihrer Projekthistorie Englisch am Besten. Deutsch und andere Sprachen werden auch unterstützt, allerdings weniger gut als Englisch. In diesem hands-on Workshop verwenden wir vorab trainierte Modelle und machen mit den Teilnehmern einen Schnelldurchlauf durch die populären Frameworks SpaCy, NLTK, Glove Word, BERT mit speziellem Fokus auf die Verarbeitung von deutscher Sprache. Prerequisites: laptop, Python installed (from anaconda.com)
    Workshops Basic
    Where
    E 215