hamburg-ai-gathering-4

Am 28.03.2018 versammelte sich die Hamburger A.I. Community zum ihrem vierten Gathering im Mindspace. Wie gewohnt begrüßte Host Steve Emecz (CCO bei collectAI) die Teilnehmer mit ein paar einleitenden Worten, bevor die Speaker des Abends zur Tat schritten:

Vortrag #1 – „Experiences as an Early Etage Investor in AI“

Speaker: Stephan Uhrenbacher, Founder & CEO bei FLIO

Nachdem er Unternehmen wie Qype, 9flats.com und avocadostore.de gründete, agiert Stephan Uhrenbacher mittlerweile u.a. als Investor. In den letzten Jahren hat er nach eigenen Angaben 200 Startups aus dem Bereich der künstlichen Intelligenz besucht und lediglich in einen Bruchteil davon investiert. Seit Mitte 2016 fokussiert er seine Investments ebenfalls auf KI-Startups und richtet dabei ein besonderes Augenmerk auf den Kanadischen Markt (inbesondere auf Toronto).

In seinem Vortrag berichtete er von aufgerufenen Bewertungen in astronomischer Höhe, ging auf den Hype Cycle von 2017 ein und beleuchtete die Kanadische KI-Szene aus der Investment-Perspektive:

  • Viele Machine Learning Algorithmen wurden vor 20 Jahren an der University of Waterloo entwickelt (Geoffrey Hinton)
  • Lebhafte Startup-Szene in Waterloo, Toronto und Montreal
  • Ansässiges Creative Destruction Lab
  • Geringer aber wachsender Wettbewerb
  • Niedrige Bewertungen (noch)
  • Intakte Exit-Kanäle in die USA

Uhrenbacher vergleicht die derzeitige Kanadische Startup-Szene mit der Deutschen Szene vor den Samwer-Brüdern. Am Ende stellte er zudem einige seiner Investments vor:

  • Kyndi – KI-Services mit nachvollziehbaren Entscheidungen
  • Plantiga – Intelligente Schuh-Einlagen für Sportler und Therapie-Zwecke
  • Knote – Textanalyse-KI, die auch aus komplexen Texten Informationen extrahiert
  • ELUCID LABS – Hautkrebs- und Hautkrankheiten-Erkennung per digitaler Biopsie
  • GBatteries – Innovative Ladetechnik für Elektroautos
  • Wondereur – Price-Prediction für Kunstwerke
  • Ingu Solutions – Inspektions-Sensoren für Öl- und Gas-Pipelines
  • DarwinAI – Automatische Generierung hoch optimierter neuronaler Netzwerke und erklärbares Deep Learning

Vortrag #2 – „Managing Uncertainty in Time Series Forecasts using Probabilistic Programming“

Speaker: Florian Müller, Data Scientist bei Tchibo

Zeitreihenprognosen spielen eine wichtige Rolle in vielen Bereichen eines Unternehmens. Sie werden beispielsweise zur Vorhersage von Order-Volumen im E-Commerce genutzt. Florian Müller sprach in diesem Vortrag darüber, wie man mit Unsicherheiten umgehen kann, die eine solche Prognose unvorhersehbar beeinflussen können.

In diesem Zuge wird auch Prophet vorgestellt. Dabei handelt es sich um ein Verfahren zur Vorhersage von Zeitreihendaten. Es basiert auf einem additiven Modell, in dem nichtlineare Trends mit der jährlichen und wöchentlichen Saisonalität und Ferien kombiniert werden. Es funktioniert am besten mit täglichen Periodizitätsdaten mit historischen Daten von mindestens einem Jahr. Prophet ist widerstandsfähig gegenüber fehlenden Daten, Trendverschiebungen und großen Ausreißern.

Vortrag #3 – „Understanding Consumer Journeys with RNNs“

Speaker: Matthias Rettenmeier, Chief Data Scientist bei Zalando adtech lab

Wie können die Nutzer des Zalando-Webshops besser mit den darauf vorhandenen Marken verbunden werden? Die Frage bildet die Ausgangsbasis für den Vortrag des CDS des Zalando adtech lab Matthias Rettenmeier. Sein Lösungsansatz besteht aus einem Konstrukt von Recurrent Neural Networks (Rekurrente Netze). Diese werden in Phase 1 zunächst in einem „Basic-Model“ arrangiert und verbinden Nutzer-Aktionen mit Brand-Sales einer einzelnen Marke.

Um eine ganzheitliche Betrachtung der Zalando-Platform zu gewähren, reicht das Basic Model jedoch nicht aus, weshalb es in Phase 2 zu einem Multi Brand Model erweitert wurde. Da es jedoch auch Warenkörbe mit mehreren Brands gibt, musste in Phase 3 ein Cross Brand Model entwickelt werden, dass diesen Case abbilden kann.

Zugehöriges Paper mit einer detaillierter Beschreibung der Herangehensweise: Understanding Consumer Behavior with Recurrent Neural Networks – Tobias Lang, Matthias Rettenmeier (PDF)

AI-Challenge – „Contract Information Extraction“

Speaker: Jan Erik Herrmann, Machine Learning Engineer bei Lufthansa Global Business Services

Beim vierten Hamburg AI Gathering wurde erstmals ein neues Format – die „AI Challenge“ – eingeführt. Die Idee: eine konkrete Problemstellung aus dem Geschäftsalltag wird dem Publikum in einer kurzen Präsentation vorgestellt, um im Anschluss von ebendiesem Lösungsansätze zu erhalten.

Die erste Herausforderung stellte Jan-Erik Herrmann: Die Lufthansa Global Business Services steht vor dem Problem, Strafregeln aus 2.300 eingescannten Verträgen mit Zulieferern extrahieren zu müssen. Die Besonderheit besteht darin, dass die Formulierungen nicht einheitlich sind und teilweise ähnliche Formulierungen auch verwendet werden, obwohl es sich nicht um eine Strafregel handelt.


Das nächste Hamburg AI Gathering findet am 27.06.2018 statt – Details dazu findest du auf unserer KI-Eventübersicht.

ibm-entwickler-workshop

Am 13.02.2018 fand der Entwickler Workshop „Watson Services auf IBM Cloud“ am IBM Hauptsitz in Ehningen bei Stuttgart statt. Ca. 20 Interessierte hatten sich zum Workshop eingefunden, darunter auch eine erfreulich hohe Anzahl von Entwicklerinnen (25% !). Der Workshop wurde geleitet von den IBMern Beate Melcher und Klaus-Peter Schlotter. Nach einer kurzen Übersicht über den Aufbau der IBM Bluemix Plattform und die darüber verfügbaren Watson-Services ging es auch schon weiter zum praktischen Teil.

Auf der öffentlich verfügbaren Watson Workshop Homepage werden vier verschiedene Labs mit ausführlicher Anleitung angeboten, aus denen sich jeder etwas Interessantes heraussuchen und dann umsetzen konnte. Das IBM Team stand bei Problemen mit Rat und Tat zur Seite. Bei den meisten Labs wird eine Kombination verschiedener Watson-Services verwendet.

Ich entschied mich für Lab 1 – Image Analysis (PDF). In diesem Lab werden drei verschiedene Watson Services miteinander kombiniert:

  1. Watson Visual Recognition,
  2. Watson Language Translator und
  3. Watson Text-To-Speech.

Nach dem Konfigurieren der Services werden diese in einer Node.js App zusammengeführt und ermöglichen dann folgenden Workflow:

  • Man kann über einen Button ein Bild hochladen.
  • Watson Visual Recognition erkennt dann, was auf diesem Bild zu sehen ist, und gibt das Ergebnis sowohl auf Englisch als auch auf Deutsch zurück (übersetzt mit dem Watson Language Translator).
  • Per Klick auf einen Lautsprecher-Button kann man sich das deutsche Ergebnis dann vorlesen lassen.

Hier ein Screenshot der fertigen App mit einem Beispiel-Foto:

beach-bildanalyse

Wer sich für die Watson Services auf IBM Bluemix interessiert, kann zur kostenlosen Nutzung dieser Dienste Bluemix-Credits im Wert von 750 Euro bekommen, indem man ein Embedded Service Agreement mit IBM abschließt (ohne weitere Verpflichtungen). Die meisten Watson Services gibt es unabhängig davon auch in einer kostenlosen Lite-Version, die lediglich in der Menge der API-Anfragen begrenzt ist.

Alles in allem war der Workshop interessant und die oben verlinkten Labs sind sehr gut beschrieben, d.h. man kann sie sicher auch selbständig gut durchführen.

Zusammen mit ein paar anderen Entwicklern vor Ort macht es natürlich mehr Spaß ;-)

hamburg-ai-gathering

Zum dritten mal fand am 17. Januar 2018 das Hamburg AI Gathering statt. Rund 170 Teilnehmer tummelten sich im Mindspace – ungefähr die Hälfte von ihnen identifizierte sich durch Handzeichen als Entwickler. Nach einer kurzen Begrüßung von Host Steve Emecz (CCO bei collectAI) starteten die Vorträge der 3 Speaker …

Vortrag #1 – „Watson Discovery“

Speaker: Dr. Dirk Michelsen, Managing Consultant bei IBM Germany

Im ersten Vortrag stellte Dr. Dirk Michelsen zunächst die IBM Cloud und die dazugehörenden IBM Watson Services kurz vor.

Einen Überblick darüber, welche Watson Services bereits die deutsche Sprache unterstützen, bekommst du auf unserer Übersichtsseite: IBM Watson Services – Verfügbare Sprachen.

Slide 1 - Watson Services

Darauf folgte eine ausführlichere Vorstellung von Watson Discovery. Mit diesem Service lassen sich vorhandene Informationen aus verschiedenen Quellen (z.B. PDF, Word, HTML etc.) automatisiert in von Watson Natural Language verarbeitbare JSON Daten umwandeln, dann mit Watson NLU annotieren und als über die API durchsuchbaren Index speichern.

Um die Möglichkeiten zu demonstrieren, die eine Datenverarbeitung mit Watson Discovery bietet, zeigte Michelsen einige Use Cases:

Vortrag #2 – „Sparse Data – Don’t mind the Gap“

Speaker: Daniel Pape, Senior Data Scientist bei codecentric AG

Der zweite Vortrag handelte vom Thema Sparsity (engl., deutsch in etwa „Seltenheit“). Diese beschreibt das Problem, dass oftmals nicht genügend Daten oder nur Daten zu geringer Qualität vorhanden sind und dadurch der Einsatz von Systemen mit künstlicher Intelligenz erschwert oder verhindert wird.

Als Fallstudie diente das Thema Ad Targeting, bei dem sich alles um die zentrale Frage dreht, welchem Website-User zu welchem Zeitpunkt welche Anzeige ausgespielt wird. Konkret wurde in diesem Fall eine künstliche Intelligenz dazu eingesetzt, die Aussteuerung der Anzeigen auf Basis des Nutzerverhaltens zu optimieren.

Slide 2 - Sparsity

Die Ausgangslage:

  • Viele Möglichkeiten (verschiedene Anzeigen)
  • Wenige Events (Nutzerverhalten)
  • Lange Beobachtungszeiträume
  • Wenige bekannte Werte

Die Knappheit der Daten rührt in diesem Fall daher, dass es nur eine begrenzte Anzahl an Werbeplätzen gibt und dass nur ein sehr geringer Teil der Nutzer auf die Anzeigen klickt. Pape präsentierte als Lösung für dieses Problem folgenden Ansatz:

Data Readiness Levels

Neil D. Lawrence, Machine Learning Professor an der University of Sheffield, entwickelte mit den Data Readiness Levels einen Ansatz, um Daten anhand bestimmter Merkmale in mehrere Qualitätsgruppen (Band A bis C) zu unterteilen und sie so nutzbar machen.

Data readiness levels are designed to deal with a challenge for human cognitive information processing. It’s difficult for us to reason about concepts when we haven’t developed a language to describe them. The idea of data readiness levels is to correct this issue and make it easier for us to reason about the state of our data.

The challenges of data quality arise before modeling even starts. Both questions and data are badly characterized. This is particularly true in the era of Big Data, where one gains the impression that the depth of data-discussion in many decision making forums is of the form “We have a Big Data problem, do you have a Big Data solution?”, “Yes, I have a Big Data solution.” Of course in practice it also turns out to be a solution that requires Big Money to pay for because no one bothered to scope the nature of the problem, the data, or the solution.

Auszug aus dem Paper „Data Readiness Levels“ (PDF) von Neil D. Lawrence

  • Gruppe C: In Gruppe C geht es um die Zugänglichkeit der Daten. In welchem Format liegen sie vor? Sind sie maschinenlesbar? Gibt es rechtliche Einschränkungen, die der Verwendung im Wege stehen?
  • Gruppe B: In Gruppe B prüft man die Daten auf Genauigkeit und die Repräsentation der Daten. Wie geht man mit fehlenden Datensätze um? Gibt es Kalkulationsfehler aus vorgelagerten Analyse-Schritten? Herrscht eine Verzerrung der Daten vor?
  • Gruppe A: Daten in dieser Klasse sind machinenlesbar und können genutzt werden, um erste Ergebnisse zu erzielen. Sie qualifizieren sich für weitere Maßnahmen, um sie anzureichern (z.B. Annotation).

Laut Lawrence können nicht nur Datensets der obersten Ebene, sondern auch die darunter liegenden Subsets jeweils einer Gruppe zugeordnet werden. Das Ergebnis ist eine Gruppierung unvollständiger Datensätze, um so das Problem der Datenknappheit zu umgehen.

Nachfolgend noch ein Buchtipp aus dem Vortrag:

Vortrag #3 – „Make Data visual“

Speaker: Christo Zonnev, CTO bei Interone GmbH

Die interaktive Visualisierung von Daten ist normalerweise mit großem Aufwand verbunden. Als Lösung für diese zeitraubende Arbeit präsentierte Christo Zonnev von Interone die Brunel Library, mit der ohne große Vorkenntnisse in kürzester Zeit statische und interaktive Visualisierungen erstellt werden können.

Brunel definiert eine Sprache, die interaktive Datenvisualisierungen basierend auf Tabellendaten definiert. Die Sprache eignet sich sowohl für Datenwissenschaftler als auch für Geschäftsanwender. Das System interpretiert die Sprache und erstellt Visualisierungen unter Verwendung der vom Benutzer gewählten vorhandenen Visualisierungstechnologien auf niedrigerer Ebene, die typischerweise von Anwendungstechnikern wie RAVE oder D3 verwendet werden.


Das nächste Hamburg AI Gathering findet am 28.03.2018 statt – Details dazu findest du auf unserer KI-Eventübersicht.

aws-ai-bootcamp-17

Am 14. September fand in Bochum das eintägige AWS AI Bootcamp statt. Die Voraussetzungen zur Teilnahme zielten auf Entwickler mit ersten Erfahrungen im Bereich Maschinelles Lernen und Optimierungs-Algorithmen, doch die vielversprechende Agenda lockte auch viele Neulinge und Nicht-Developer an.

Weiterlesen