Programm Details

Donnerstag, 01.01.1970   |   10:00 - 17:00 Uhr   |    Mo 1

-- AUSGEBUCHT -- Thematisch Alternative Mo 3 -- Architektur-Retreat

Dieses Tutorial ist leider schon ausgebucht.
Thematisch bietet sich das Tutorial Mo 3 "Die 7 Schritte zum Software-Retrofit – Hard- und Soft Skills Hand in Hand" als Alternative an.
———————————————————————————————————— Architektur ist eher ein trockenes, theoretisches Thema. Nicht bei diesem Workshop! Wir werden ganz praktisch Architekturen entwerfen, kommunizieren und verbessern. So lernen wir, worauf es wirklich ankommt. In mehreren Iterationen lernen wir Konzepte kennen, mit denen die Qualität eines Software-Projekts verbessert werden kann. Maximale Teilnehmerzahl: 24

Zielpublikum: Architekten, Software-Entwickler, technische Projektleiter
Voraussetzungen: Wissen über Software-Entwicklung, Verständnis für Architektur
Schwierigkeitsgrad: Anfänger



Martin Heider
infomar software

Eberhard Wolff
innoQ Deutschland GmbH
Fellow

Peter Kern
DATEV eG
Software Architect

Victor Sauermann
GfK
Lead Architect

Robin Timmermann
DATEV eG
Lead Architect

Donnerstag, 01.01.1970   |   09:00 - 16:00 Uhr   |    Fr 5

Coole Web-Apps mit Angular 2, TypeScript und Spring Boot

In diesem Workshop werden wir eine kleine, aber vollständige Webapplikation entwickeln. Der Clientteil basiert auf Angular 2, TypeScript und ein wenig Bootstrap. Der Serverteil basiert auf Spring Boot, verwenden werden wir außerdem Spring Data/REST/HATEOAS. Wir werden also RESTful Web Services entwickeln, die um Hypermedia angereichert sind. Dabei wird Kai Tödter die Grundlagen von Spring Boot und den verwendeten Frameworks erklären und auch die generellen Prinzipien von REST und HATEOAS (Hypermedia as the Engine of Application State, ein wichtiges REST-Architekturprinzip). Für die Cliententwicklung gibt Kai eine kurze Einführung in Angular 2, TypeScript und die gängigen JavaScript-Entwicklungstools wie npm, webpack, Jasmine etc. Maximale Teilnehmerzahl: 40 Benötigt wird ein eigener Laptop mit installierter Oracle Virtual Box.
Ich stelle dann vor dem Workshop eine VM bereit.

Zielpublikum
: Architekten, Entwickler
Voraussetzungen: Java-Kenntnisse
Schwierigkeitsgrad: Fortgeschritten



Kai Tödter
Siemens AG
Senior System Software Architect

Donnerstag, 01.01.1970   |   09:00 - 16:00 Uhr   |    Fr 4

Vom Scrum Master zum Agilen Coach

Das Tutorial zeigt den Entwicklungspfad eines agilen Coaches auf.
Der erste Schritt ist oft die praktische Erfahrung als Scrum Master oder Team Facilitator.
Als Scrum Master lerne ich neue Praktiken und gewinne ein tieferes Verständnis der agilen Prinzipien. Ich lerne, meine Stärken zu stärken und an meinen schwächeren Skills zu arbeiten.
Mit der Zeit kommen neue Aufgabenbereiche hinzu:
- andere Scrum Master zu unterstützen
- Product Owner effektiv zu coachen
- Multi-Team Coaching
- in der Organisation eine nachhaltige Transition zu Agile zu treiben
In der Session erarbeiten die Teilnehmer neben einem Überblick über mögliche Entwicklungspfade die Grundlagen für die eigene Planung ihrer Skills-Entwicklung.

Zielpublikum: Coaches
Voraussetzungen: Erfahrung als Team Facilitator oder Scrum Master
Schwierigkeitsgrad: Fortgeschritten



Christoph Mathis

improuv GmbH, Agiler Coach, Mentor, Trainer

Donnerstag, 01.01.1970   |   09:00 - 16:00 Uhr   |    Fr 3

Systematische Entwicklung mit funktionaler Programmierung

Der Workshop ist eine Einführung in die funktionale Programmierung mit Fokus auf der systematischen Konstruktion von zuverlässigen Programmen. Die systematische Konstruktion leitet aus einer Datenanalyse große Teile des Codes her, dessen Korrektheit von vornherein feststeht. Die funktionale Programmierung erlaubt außerdem die Formulierung allgemeiner Programmeigenschaften und die automatische Herleitung von Tests, was die Zuverlässigkeit der Software zusätzlich absichert.
Alle Beispiele werden in Racket programmiert. Die erlernten Techniken können auf alle funktionalen Sprachen und - mit Abstrichen - auch auf konventionelle OO-Sprachen übertragen werden. Bitte bringen Sie ihren eigenen Laptop mit, wenn Sie den Workshop am Rechner mitverfolgen wollen.
Sie sollten sich Racket vor dem Workshop (kostenlos) herunterladen und installieren:
http://racket-lang.org/

Zielpublikum: Architekten, Entwickler, Entscheider
Voraussetzungen: Erfahrung in objektorientierter Programmierung in einer beliebigen OO-Sprache
Schwierigkeitsgrad: Fortgeschritten

Extended Abstract
Die funktionale Programmierung ist die Programmiertechnik der Zukunft: kürzere und zuverlässige Programme, deklarative Programmierung, eingebettete domänenspezifischen Sprachen, einfache Ausnutzung von Parallelität. Der Workshop ist eine Turbo-Einführung in die funktionale Programmierung.
Dazu fangen wir im Workshop mit den Grundprinzipien des Programmierens an und arbeiten uns schnell zu fortgeschrittenen Techniken vor. Im Vordergrund stehen die systematische Konstruktion von korrekten Programmen und speziell die Datenmodellierung. Dies unterstützen funktionale Programmiersprachen besonders gut - der systematische Einsatz von Abstraktion führt uns dann automatisch zu Funktionen höherer Ordnung und anderen FP-typischen Techniken. Wir formulieren außerdem allgemeingültige Eigenschaften von Programmen als Code und zeigen, wie daraus automatisch Tests mit hervorragenden Abdeckungseigenschaften werden.
Die erlernten Techniken können auf alle funktionalen Sprachen und - mit Abstrichen - auch auf konventionelle OO-Sprachen übertragen werden.
Für den Workshop wird die Programmierumgebung Racket benutzt. Teilnehmer, die den Workshop am eigenen Rechner mitverfolgen wollen, sollten sich Racket vor dem Workshop (kostenlos) herunterladen und installieren:



Michael Sperber
Active Group GmbH
CEO

Donnerstag, 01.01.1970   |   18:30 - 20:00 Uhr   |    Ndo 3

Das Übel der lokalen Optimierung

Einer erfolgreichen agilen Transition stehen in Organisationen an jeder Ecke zahllose lokale Optimierungen entgegen. Typische Beispiele sind Spezialistentum, jährliche Performance-Reviews, zentrale Abteilungen für Einkauf oder Recruiting, zu klein geschnittene Produktdefinitionen, zu viele Teams, zu viele Product Owner, zu viele Führungskräfte, Code Ownership und viele mehr.
Diese interaktive Session zeigt auf, welche lokalen Optimierungen typischerweise zu finden sind, warum sie problematisch sind und wie wir sie auflösen können.

Zielpublikum
: Projektleiter, Manager, Entscheider
Voraussetzungen: Projekterfahrung, Entwicklungserfahrung, Organisationserfahrung
Schwierigkeitsgrad: Fortgeschritten Extended Abstract
Einer erfolgreichen agilen Transition stehen in Organisationen an jeder Ecke zahllose lokale Optimierungen entgegen. Typische Beispiele sind Spezialistentum, jährliche Performance-Reviews, zentrale Abteilungen für Einkauf oder Recruiting, zu klein geschnittene Produktdefinitionen, zu viele Teams, zu viele Product Owner, zu viele Führungskräfte, Code Ownership und viele mehr.
Diese Session zeigt auf, welche lokalen Optimierungen typischerweise zu finden sind, warum sie problematisch sind und wie wir sie auflösen können.
Die Identifikation dieser lokalen Optimierungen ist sehr oft kontraintuitiv zu dem, was in klassischen Organisationen als "best practice" oder als "am effizientesten" betrachtet wird. Mit Hilfe von systemischer Modellierung gelingt es häufig sehr leicht, die Auswirkungen solcher lokalen Optimierungen darzustellen, sodass entsprechende Gegenmaßnahmen getroffen werden können.



Marc Bless

agilecoach.de, Coach und Berater

Donnerstag, 01.01.1970   |   18:30 - 20:00 Uhr   |    Ndo 2

Microservices sind ganz anders als man denkt!

„Microservices sind SOA - nur richtig“, so hört man oft. Schließlich sollen Systeme wie bei SOA in Dienste aufgeteilt werden. Das scheint auch zunächst zu stimmen - erst auf den zweiten Blick wird klar, welche Details bei Microservices anders sind. Mittlerweile liegen außerdem genügend Erfahrungen über die wesentlichen Herausforderungen bei Microservices vor. So zeigt der Vortrag, welche Details bei Microservices in der Praxis wirklich relevant sind. Zielpublikum: Architekten, Entwickler, Projektleiter
Voraussetzungen: Kenntnisse in Software Design sowie Agiler Entwicklung
Schwierigkeitsgrad: Fortgeschritten



Eberhard Wolff
innoQ Deutschland GmbH
Fellow

Donnerstag, 01.01.1970   |   18:30 - 20:00 Uhr   |    Ndo 1

Moderne Programmierung durch Spracherweiterung und DSLs

Programmieren heißt unter anderem, Abstraktionen zu schaffen, um ein Problem effizient zu adressieren. Programmiersprachen stellen dazu die Mittel zur Verfügung, je nach Sprache sind diese für eine bestimmte Problemklasse unterschiedlich gut geeignet. Alternativ kann man die Sprache selbst an die Problemklasse anpassen, mit Vorteilen bzgl. der Analysierbarkeit des Codes, der Qualität von Fehlermeldungen, möglichen Optimierungen, sowie der Syntax. In diesem Vortrag erläutere ich diese Alternative anhand von Beispielen aus der Praxis.

Zielpublikum
: Entwickler, vor allem Frameworkentwickler
Voraussetzungen: OO-Programmierung, Funktionale Programmierung, Modellierung
Schwierigkeitsgrad: Anfänger



Markus Völter
Independent/itemis
itemis, independent consultant and coach

Donnerstag, 01.01.1970   |   17:00 - 18:00 Uhr   |    Do 4.4

Agile Transformation – jetzt aber mal wirklich 😉

Bei der Mehrzahl der agilen Transformationen werden Effizienz und Effektivität miteinander verwechselt, weshalb sie lediglich lokale Optimierungen fördern, über kurz oder lang zum Stillstand kommen oder sogar komplett fehlschlagen.
Zudem haben meine Kollegen und ich die Erfahrung gemacht, dass die Mitarbeiter von Organisationen zu Beginn und während der Transformation oft nicht verstehen, was mit "agile" gemeint ist, und versuchen, sich das neue anhand ihrer bisherigen Arbeitsweise und Organisationsstruktur zu erklären. Zielpublikum: C-Level, Manager, Projektleiter, operative Mitarbeiter
Voraussetzungen: Grundkenntnisse agiler Arbeitsweisen
Schwierigkeitsgrad: Anfänger



Sylvius Gerber
Veraenderungskraft
Co-Organisator

Donnerstag, 01.01.1970   |   10:00 - 17:00 Uhr   |    Mo 2

-- AUSGEBUCHT -- Thematisch Alternative Fr 5 -- Entwicklung von Microservices mit Spring Boot, Spring Cloud, Netflix OSS und Docker

Dieses Tutorial ist leider schon ausgebucht.
Thematisch bietet sich das Tutorial Fr 5 "Coole Web-Apps mit Angular 2, TypeScript und Spring Boot " am Freitag den 3. Februar als Alternative an.
—————————————————————————————————————————— In diesem Workshop erarbeiten wir theoretisch und praktisch ein Set von kollaborierenden Microservices mit Spring Cloud, Netflix OSS und Docker. Spring Cloud ist eine Sammlung von Tools, welche Lösungen zu Standardproblemen liefert, welche beim Umsetzen von verteilten Systemen auftreten. Die Bausteine von Spring Cloud sind Spring Boot und das Spring Framework.
Zuerst werden Spring Boot und REST-Services sowie das Thema Deployment und Betrieb betrachtet. Anschließend werden verschiedene Subprojekte von Spring Cloud und deren Verwendung vertieft. Darunter befinden sich z.B. Tools für die Probleme:
- Konfigurationsmanagement
- Service Discovery
- Circuit Breakers
- Verteilte Sessions
- Resilience und Hochverfügbarkeit
Mit Docker wird aufgezeigt, wie man für jeden Microservice einen Container baut und einen ganzen Microservice Cluster orchestrieren kann. Maximale Teilnehmerzahl: 20 Benötigt wird ein eigener Laptop. 

Zielpublikum: Architekten, Entwickler
Voraussetzungen: Java-, Maven- und Spring-Kenntnisse
Schwierigkeitsgrad: Fortgeschritten



Patrick Baumgartner
42talents
Software Craftsman, Trainer und Coach

Raphael Ackermann
42talents
Software Craftsman

Donnerstag, 01.01.1970   |   17:00 - 18:00 Uhr   |    Do 3.4

Software-Entwicklung ohne Abhängigkeiten

Abhängigkeiten sind das Grundübel der Software-Entwicklung. Sie erschweren das Testen, auch wenn Mock-Frameworks prinzipiell die technische Voraussetzung für die Testbarkeit schaffen. Sie erschweren die Wandelbarkeit, trotz Inversion of Control und Dependency Injection. Wie wäre es, ganz ohne Abhängigkeiten auszukommen? Geht das überhaupt und wenn ja, wie? Im Vortrag erläutert Stefan Lieser die beiden Grundstrukturen von Abhängigkeiten und leitet daraus Prinzipien ab, mit denen Abhängigkeiten ihren Schrecken verlieren. Die Trennung der Aspekte Integration vs. Operation vereinfacht das Testen, sorgt für bessere Lesbarkeit und dient damit der Wandelbarkeit von Software. Die Prinzipien IOSP und PoMO lassen sich auf Methoden und Klassen anwenden, aber auch auf Projekte und Komponenten.

Zielpublikum: Entwickler
Voraussetzungen: C#/Java-Grundkenntnisse
Schwierigkeitsgrad: Fortgeschritten



Stefan Lieser


Donnerstag, 01.01.1970   |   17:00 - 18:00 Uhr   |    Do 2.4

Don’t Break the Web: Scaling-up JavaScript for the Next 30 Years

As Brendan Eich created JavaScript during 10 days in 1995 he wasn’t expecting it to become the most widely used programming language. But it became the web’s native language and is now poised to be dominant for the emerging Ambient Computing Era. ECMAScript 2015 is the culmination of a 10 year effort to improve and strengthen JavaScript for this role. This talk explores the details of transforming JavaScript into a “better language” without breaking millions of unmaintained web pages that depend upon legacy JavaScript code.

Target Audience: Architects, Developers, Project Leader
Prerequisites: Project Experience
Level: Practicing

Extended Abstract
As Brendan Eich created JavaScript during ten days in May 1995 he was not expecting it to become the world’s most widely used programming language. Yet that is exactly what happened. JavaScript became the web’s native language and now poised to be a dominant programming language for the rapidly emerging Ambient Computing Era. ECMAScript 2015 language specification is the culmination of a ten year effort to improve and strengthen JavaScript for this unexpected role. This talk will explore some of the details of what it took to transform JavaScript into a “better language” without breaking millions of unmaintained web pages that depend upon legacy JavaScript code.



Allen Wirfs-Brock
Wirfs-Brock Assoc.

Donnerstag, 01.01.1970   |   10:00 - 13:00 Uhr   |    Mo 4

So meistern Sie die globale Herausforderung: Sieben Erfolgsfaktoren für verteilte Software-Projekte

Software wird heutzutage zunehmend global entwickelt - in Teams, die über verschiedene Standorte und Länder verteilt sind. Kostenvorteile, die Verfügbarkeit von Fachkräften und die Nähe zum Markt und Kunden sind nur einige Gründe dafür. Doch die geografische Verteilung, verschiedene Zeitzonen, Kulturen und Sprachen erschweren die Zusammenarbeit und führen oft zu Qualitätsproblemen, Terminverzug und Kostenüberschreitungen. In diesem Tutorial werden Herausforderungen und Lösungskonzepte dargestellt und durch interaktive Übungen erfahrbar gemacht.

Zielpublikum: Architekten, Entwickler, technische Projektleiter
Voraussetzungen: keine, aber Projekterfahrung hilfreich
Schwierigkeitsgrad: Fortgeschritten



Christian Lescher
Siemens AG
Manager Produktivität

Donnerstag, 01.01.1970   |   10:00 - 13:00 Uhr   |    Mo 5

Go-Programmierung für Java-Entwickler

Die Programmiersprache Go ist eine einfache, typsichere Programmiersprache, die 2009 von Google als Open-Source-Software veröffentlicht wurde. Go kompiliert direkt zu ausführbaren Dateien, hat einen eingebauten Garbage-Collector und bringt Unterstützung für Multi-Threading mit.
Besonders bei systemnahen, verteilten Server-Anwendungen erfreut sich Go wachsender Beliebtheit. Beispiele für erfolgreiche Go-Projekte sind Docker, Kubernetes und Prometheus-Monitoring.
Der Workshop richtet sich an Java-Entwickler, die Go ausprobieren möchten. Benötigt wird ein eigener Laptop.

Zielpublikum: Entwickler
Voraussetzungen: Java-Kenntnisse
Schwierigkeitsgrad: Anfänger



Fabian Stäber
ConSol Software GmbH
Software-Entwickler, R&D-Leiter, Consultant und Architekt

Donnerstag, 01.01.1970   |   17:00 - 18:00 Uhr   |    Do 1.4

Case Study: How to move from a Monolith to Cloud, Containers and Microservices

This session shows a case study about successfully moving from a complex monolith system to a cloud-native architecture. The session will describe the challenges, the step-by-step procedure to move to the new cloud-native microservices architecture, how to build flexible business and integration microservices, and why containers such as Docker play a key role in this scenario. A live demo shows how containers, PaaS cloud platforms and cluster managers are used to implement, deploy and scale cloud-native microservices in a vendor-agnostic way.

Target Audience: Architects, Developers, Project Leader, Manager, Decision Makers
Prerequisites: basic knowledge about cloud and containers helpful but not necessary
Level: Introductory

Extended Abstract
This session shows a case study about successfully moving from a very complex monolith system to a cloud-native architecture. The architecture leverages containers and Microservices to solve issues such as high efforts for extending the system, and a very slow deployment process. The old system included a few huge Java applications and a complex integration middleware deployment.
The new architecture allows flexible development, deployment and operations of business and integration services. Besides, it is vendor-agnostic so that you can leverage on-premise hardware, different public cloud infrastructures, and cloud-native PaaS platforms.
The session will describe the challenges of the existing monolith system, the step-by-step procedure to move to the new cloud-native Microservices architecture, and why containers such as Docker play a key role in this scenario.
A live demo shows how container solutions such as Docker, PaaS cloud platforms such as CloudFoundry, cluster managers such as Kubernetes or Mesos, and different programming languages are used to implement, deploy and scale cloud-native Microservices in a vendor-agnostic way.



Kai Wähner
Confluent
Technical Lead

Donnerstag, 01.01.1970   |   10:00 - 13:00 Uhr   |    Mo 7

-- AUSGEBUCHT -- Kanban in der Praxis

Kanban ist mehr als nur ein paar Haftnotizen an der Wand und auch mehr als eine Methode, um die Produktivität nur eines einzelnen Teams zu steigern. Kanban dreht sich um Risiko, Liegezeiten, Durchlaufzeiten, parallele Arbeit und Durchsatz – es nimmt die Arbeit in den Fokus, statt den Arbeiter zu mehr Produktivität anzutreiben. Dabei werden systematische Änderungen durchgeführt, die den Fluss der Arbeit verbessern. In diesem Workshop lernen Sie, wie ein virtuelles Kanban-System funktioniert, welche Stellhebel und Metriken Sie nutzen können. Maximale Teilnehmerzahl: 40

Zielpublikum: Projektleiter, Manager, Entscheider
Voraussetzungen: Idee über IT-Projekte
Schwierigkeitsgrad: Anfänger Extended Abstract
Dieses Tutorial zeigt anhand einer hand-on Simulation wie Kanban funktioniert – unabhängig von der Skalierungstiefe. Die Teilnehmer simulieren auf einem Kanban-Board den Fluss der Arbeit, gehen mit Blockaden und Problemen um, und lernen den Betrieb eines WIP-limitierten Arbeitssystems. Sie reflektieren dabei über die Anwendbarkeit im eigenen Arbeitskontext und lernen erste Tricks, um mit dem System erfolgreich zu sein.



Florian Eisenberg

selbstständiger Berater und Trainer

Donnerstag, 01.01.1970   |   18:30 - 20:00 Uhr   |    Ndo 5

Pecha Kucha All Night Long!

Pecha Kucha erlaubt jedem Sprecher gerade mal 6 Minuten und 40 Sekunden. In dieser Zeit kann er mit exakt 20 Bildern, die genau 20 Sekunden eingeblendet werden, seine Idee – im wahrsten Sinne des Wortes – auf den Punkt bringen. Für die Zuhörer bedeutet dies: kein zeitraubendes „Gelaber“, dafür aber knackige und unterhaltsame Informationen.

Zielpublikum: Alle
Voraussetzungen: keine
Schwierigkeitsgrad: Anfänger Sie lernen:
Viele Anregungen zu verschiedenen Themen in sehr kurzer Zeit 🙂 Programm:
  1. David Farley: Putting some ‘Engineering’ into ‘Software Engineering’
  2. Michael Sperber: Monads for the Working Programmer
  3. Marc Bless & Ralf Kruse: NIP - Nothing in Progress
  4. Clare Sudbery: Test-Driven Imagination
  5. Holger Koschek & Rolf Dräther: Agile Jukebox – destilliert!
  6. Michael Mah: What Self-Organizing Agile and Software Teams Can Learn from Eco-Pirates
  7. Olaf Lewitz: Physics of Attachment
  8. Stuart Fish: Scaling Monkeys, Romans and Agile
  9. Dietmar & Melanie Wohnert: Agile Your Mind




Martin Heider
infomar software

Olaf Lewitz
TrustTemenos Academy
Founder and Agile Coach

Holger Koschek

selbstständiger Berater, Trainer und Coach

Michael Mah

QSM Associates Inc., Managing Partner

Christine Neidhardt
ecomenta
Coach

Melanie Wohnert
Think Y
Inspiratorin

Marc Bless

agilecoach.de, Coach und Berater

Rolf Dräther
HAPPYCENTRIC
selbstständiger Berater, Trainer und Coach

Michael Sperber
Active Group GmbH
CEO

Ralf Kruse
IT Warehouse, Germany

Stuart Fish
improuv GmbH
Gesellschafter, Agiler Coach & Berater

Clare Sudbery
Thoughtworks
Senior Consultant Developer

Dave Farley
Continuous Delivery Ltd

Dietmar Wohnert
Think Y
Trainer und Coach

Donnerstag, 01.01.1970   |   14:00 - 17:00 Uhr   |    Mo 8

Selbstorganisation to go – Werkzeuge für bessere Teams

Internet of Things, Industrie 4.0, DevOps, Agilität, verteiltes Arbeiten - neue Arbeitsformen erfordern neue Teamstrukturen und Werkzeuge. In diesem Workshop erhalten Sie Einblicke in die Herausforderungen, denen sich Teams und Führungskräfte in der neuen Arbeitswelt stellen müssen, welche Prinzipien und Haltungen wichtig sind, lernen Werkzeuge moderner Führung auf Augenhöhe kennen, Stärken im Team zu stärken, mit dem konstanten Wandel umzugehen und Komplexität zu beherrschen, und wenden diese Werkzeuge direkt in der eigenen Praxis an.

Zielpublikum: Projekt-/Team-/Abteilungsleiter, Teammitglieder
Voraussetzungen: Interesse an Werkzeugen für selbstorganisierte, heterogene Teams (z.B. agile Teams, DevOps)
Schwierigkeitsgrad: Anfänger Extended Abstract
Internet of Things, Industrie 4.0, DevOps, Agilität, verteiltes Arbeiten ... - neue Arbeitsformen erfordern neue Teamstrukturen und Werkzeuge. In diesem Workshop erhalten Sie Einblicke in die Herausforderungen, denen sich Teams und deren Führungskräfte in der neuen Arbeitswelt stellen müssen. Wir arbeiten gemeinsam heraus, welche Prinzipien und Haltungen wichtig sind, um diesen Herausforderungen zu begegnen. Sie lernen Werkzeuge moderner Führung auf Augenhöhe kennen, um Stärken im Team zu stärken, mit dem konstanten Wandel umzugehen und Komplexität zu beherrschen. Damit das Ganze nicht esoterisch und theoretisch wird, wenden Sie die erlernten Werkzeuge direkt auf die eigene Praxis an.



Kim Nena Duggen
oose Innovative Informatik eG
Vorstand, Trainerin, Beraterin

Andrea Grass
oose Innovative Informatik eG
Trainerin und Agile Coach

Donnerstag, 01.01.1970   |   17:00 - 18:00 Uhr   |    Do 5.4

Containerized End-2-End Testing – automate it!

Setting up unit- and integration tests are tasks which developers have learned to deal. But testing UIs from the perspective of an end user is mostly still a challenge. The key question usually to answer is: How it is possible to make these end-2-end tests stable, scalable and reproducible? The upcoming container technologies bring the hope of managing and automating your UI tests as easily as your container deployment. A live demo will show how it is possible to test and monitor a web- or a rich-client application in a containerized Linux UI.

Target Audience: Architects, Developers, Tester, DevOps, Monitoring Teams
Prerequisites: none
Level: Practicing

Extended Abstract
The end-2-end test example will be demonstrated by the open source tools "Docker" and "Sakuli". The demo shows how to do a blackbox UI test of a complex application, which is build on purpose of the current microservice pattern. The results will be interpreted and visualized in the Jenkins CI build pipeline and we will take a look into the UI activity of the testing container during the test execution.
In an alternative scenario the previous build end-2-end tests will be executed with the objective to forward there results to a monitoring system like OMD Nagios. This use case makes it possible to continuously measure the runtime of different test execution steps and create alerts on broken thresholds. This approach enables a new perspective of monitoring. It is now possible to check constantly if the functionality of an application, like the user login or the search engine is up and running - not just the sever healthy state.



Tobias Schneck
ConSol Munich
Software Developer

Donnerstag, 01.01.1970   |   17:00 - 18:00 Uhr   |    Do 6.4

Cargo-Kulte in der IT

Im Zweiten Weltkrieg wunderten sich Melanesier, dass immer dann, wenn die Fremden (Amerikaner im Krieg gegen Japan) auf einen Turm ("Tower") stiegen und beteten, deren Vorfahren Flugzeuge voll beladen mit Essen schickten. Da bauten sie Türme und beteten auch ... Cargo-Kulte entstehen, wenn man beobachtete Rahmenbedingungen richtig steckt, aber das wesentlich Erhoffte nicht geschieht, weil etwas Zentrales nicht verstanden wurde. Wir schauen uns einmal Heilslehren rund um die IT an. Details matter!

Zielpublikum: Everyone
Voraussetzungen: Clear Mind
Schwierigkeitsgrad: Fortgeschritten

Extended Abstract
Im Zweiten Weltkrieg wunderten sich Melanesier, dass immer dann, wenn die Fremden (Amerikaner im Krieg gegen Japan) auf einen Turm ("Tower") stiegen und beteten, deren Vorfahren Flugzeuge voll beladen mit Essen schickten. Da bauten sie Türme und beteten auch ... Cargo-Kulte entstehen, wenn man beobachtete Rahmenbedingungen richtig steckt, aber das wesentlich Erhoffte nicht geschieht, weil etwas Zentrales nicht verstanden wurde. Wir schauen uns einmal Heilslehren rund um die IT an. Wie sie Türme und Landebahnen bauen und auf ihre Erlösung warten, wobei Berater ihre Händchen halten. Details matter! Weil die Details so oft (absichtlich? aus Dummheit? aus Business-Gründen?) lieber erst angeschaut werden, wenn sie mit uns ernst machen, "kommen die Glücksgötter oft nie".



Gunter Dueck
omnisophie.com
Freischaffend als Schriftsteller und Speaker

Donnerstag, 01.01.1970   |   17:00 - 18:00 Uhr   |    Do 7.4

Von der Idee bis zur Produktauslieferung – umfassende agile Software-Entwicklung, die alle involviert

Eine Kernidee von Scrum ist es, die Zeit zwischen Idee und Auslieferung zu minimieren, um schnelles Feedback des Anwenders zu erhalten. Das klingt in der Theorie gut. In der Praxis stellen wir fest, dass die lead-time einer Idee aber maßgeblich durch Wartezeiten von außerhalb des Scrum-Teams bestimmt wird: Wir warten auf Feedback des Fachanwenders oder auf ein Deployment des neuen Software-Inkrements auf das Testsystem. Deshalb ist es wichtig, sich Gedanken um einen Prozess zu machen, der alle Stakeholder integriert: "get everyone involved!"

Zielpublikum: CTO, Entscheider, Scrum Master, DevTeam Member, Everybody involved in Software Development
Voraussetzungen: Grundkenntnisse in Scrum/Agile
Schwierigkeitsgrad: Fortgeschritten


Extended Abstract

Scrum hat uns gelehrt, dass ein iterativer Umgang mit Anforderungen und das inkrementelle Fertigstellen der Software gut funktionieren. Wir haben ein Entwicklerteam, das zusammen mit dem Produkt Owner das Produkt entwickelt. Fertig. Doch jenseits der eigentlichen Entwicklung gibt es noch viel mehr Aufgaben und Beteiligte. Ob es ganz zu Beginn ein Ideenmanagement ist oder ob wir uns Gedanken über Bereitstellung und Betrieb der Software machen (Stichwort DevOps). Diese Schnittstellen zu Beteiligten außerhalb des Scrum-Teams sind meist ungeregelt und bestimmen den Großteil der kompletten Durchlaufzeit einer Idee zum Produkt.
Deshalb wollen wir in diesem Vortrag versuchen, alle Komponenten eines umfassenden Software-Entwicklungsprozesses darzustellen. Kernelemente von Scrum, wie die Zeit zwischen Idee und Auslieferung zu minimieren und die Zusammenarbeit von Menschen zu fördern, stehen dabei im Mittelpunkt. Jedes Entwicklungsteam ist selbst verantwortlich, diesen Prozess mit Leben zu füllen und zu überlegen, welche Methode und welches Tool im jeweiligen Kontext angebracht ist. Wir berichten dabei auch aus dem Arbeitsalltag der Entwicklungsteams bei //SEIBERT/MEDIA, um theoretische Betrachtungen mit praktischen Beispielen zu verdeutlichen. Dabei kommt natürlich der Alltime-Klassiker alle Diskussionen unter agilen Teams nicht zu kurz: „Papier oder Software?“



Joachim Seibert
//SEIBERT/MEDIA GmbH
Geschäftsführer

Armin Meyer
SEIBERT/MEDIA GmbH

Donnerstag, 01.01.1970   |   14:00 - 17:00 Uhr   |    Mo 9

Everything you always wanted to know about pair programming but were afraid to ask

In a way, pair programming is like riding a bicycle. You can read a book about it, you can watch videos of people doing it, but you really learn it by doing it.
This workshop will give people a chance to not only experience pair programming, but examine that experience in depth and see how their practice can be improved.
The "promiscuous pairing" technique will be used, followed by an extended feedback session where participants will analyse the strengths of pairing, and look at how they can improve interactions with their partners. Participants should bring along their own laptop.

Target Audience: Anyone who wants to experience pairing. Beginners, and also those wanting to improve their practice.
Prerequisites: The ability to write code. You will probably use new languages, but help will be available.
Level: Introductory



Clare Sudbery
Thoughtworks
Senior Consultant Developer

Yves Hanoulle
paircoaching
Creative Collaboration Agent

Donnerstag, 01.01.1970   |   17:00 - 18:00 Uhr   |    Do 8.4

Blockchain – Wie die Bitcoin-Technologie den öffentlichen Sektor verändern kann

Blockchain ist eine moderne Technologie, die in letzter Zeit viel Aufmerksamkeit von Firmen, Start-ups und Investoren genossen hat. Was aber ist eigentlich Blockchain? Diese Frage sowie die Anwendungen von Blockchain für den öffentlichen Sektor in Deutschland wollen wir in unserer Präsentation erläutern. Wir bewerten den aktuellen Hype kritisch und veranschaulichen unsere Rechercheergebnisse mit Hilfe eines prototypisch umgesetzten Anwendungsfalls.

Zielpublikum
: Blockchain-Interessierte, Business Analysten und Personen aus dem öffentlichen Sektor
Voraussetzungen: Grundkenntnisse zu verteilten Netzen
Schwierigkeitsgrad: Anfänger


Extended Abstract
Misstrauen in die Validität von elektronisch eingereichten Daten gekoppelt mit der Angst vor Korruption und Betrug bringt den Ausbau des E-Government-Angebotes zum Stocken. Fehlendes Vertrauen zwischen Privatpersonen und öffentlicher Verwaltung muss von vertrauenswürdigen dritten Parteien (z.B. Notare) erzeugt werden. Mit komplexen, teil-automatisierten Prozeduren regeln diese vermittelnden Instanzen den Austausch von Millionen Datensätzen täglich. Geografische Grenzen, verschiedene Standards, Uneinigkeiten und teure Datenzentren verursachen hohe Transaktionskosten, langsame Durchlaufzeiten und haben zu unzähligen Fällen von Betrug und Missbrauch geführt. Die dadurch entstehenden Kosten und Schäden belaufen sich auf mehrere Milliarden Euro jährlich.
Blockchain-Technologien haben das Potenzial, diese eingefahrenen und doch immer noch angreifbaren Muster zu durchbrechen und einer neuen Generation von Anwendungen, die auf den Einsatz von vertrauenswürdigen dritten Parteien verzichten können, den Weg zu ebnen. Zusammengefasst ist die Blockchain ein verteiltes, redundantes Verzeichnis, in dem alle Aktivitäten (Transaktionen, versendete Dokumente etc.) nachvollziehbar und fälschungssicher festgehalten werden. Änderungen und neue Einträge werden in chronologischer Reihenfolge in Blöcke einsortiert, die miteinander verlinkt werden. Diese Verbindung der Blöcke mit kryptografischen Verschlüsselungsmethoden und dem im Netzwerk festgelegten Konsensmechanismus machen Blockchain-Technologien manipulationsresistent und beseitigen die Notwendigkeit von vertrauenswürdigen dritten Parteien. Dadurch werden Prozesse schneller und kostengünstiger abgewickelt. Die Kryptowährung Bitcoin ist das wohl bekannteste Beispiel einer auf Blockchain aufbauenden Technologie. Sie demonstriert jedoch lediglich eine von vielen Nutzungsmöglichkeiten.
In diesem Beitrag werden aktuelle Problemstellungen im öffentlichen Sektor beleuchtet und es wird gezeigt, wie diese mit dem Einsatz von Blockchain-Technologien gelöst werden können:
1. Bürgertresor: Prozesse zwischen öffentlichen Einrichtungen und Bürgern sind häufig komplex, langatmig und haben einen hohen Optimierungsbedarf. Ein Bürgertresor auf Basis von Blockchain führt zur Arbeitsentlastung beider Seiten, durch direkte und somit schnelle Validierung von Dokumenten zwischen Ämtern. Zudem kann die Blockchain Situationen unterstützen, die Nachweise (z.B. Geburtszertifikat, Anmeldebestätigung) von Bürgern erfordern. Dies kann durch das Hinterlegen von Dokument-Hashwerten auf der Blockchain erreicht werden. Bürger können Behörden individuell Zugriff auf bestimmte Dokumente oder Datensätze genehmigen, um diese zu validieren.
2. Digitale Wahlen: In Ländern, in denen das demokratische Grundrecht zu wählen durch physische Barrieren eingeschränkt und Wahlergebnisse manipuliert bzw. Wahlformalien nicht eingehalten werden, ist die Transparenz von Wahlen häufig nicht gewährleistet. Auch in Staaten mit geringer Korruptionsrate stellen Wahlen einen kostenintensiven Organisationsaufwand dar. Mit Hilfe der Blockchain kann dieser Prozess schneller, preiswerter und transparenter gemacht werden. Lösung hierbei ist das Senden von Wahlstimmen, in Form von Tokens, an eine Kandidaten-„Wahlurne“ (digitale Adresse). Die dort angekommenen Tokens stellen die Summe der, für diesen Kandidaten abgegebenen, Stimmen dar.
Blockchain ist eine moderne Technologie, die sehr viel Aufmerksamkeit von Firmen und Investoren auf sich gezogen hat, aber in einigen Aspekten wie Skalierbarkeit, Usability und Software-Qualität derzeit noch unausgereift ist. Capgemini investiert in die Entwicklung von Anwendungsfällen für unterschiedlichste Industrien, um den Einsatz von Blockchain-Technologien praxistauglich zu gestalten. Dazu gehört u.a. zu erkennen, wofür genau sich der Einsatz dieser Technologie eignet und wofür nicht. In diesem Beitrag werden Blockchain-Technologien allgemein erläutern und der aktuellen Hype kritisch bewertet. Zur Veranschaulichung der Forschungsergebnisse im öffentlichen Sektor wird ein prototypisch umgesetzter Anwendungsfall vorgeführt.



Carmen Eisenacher
Capgemini

Phillip Pham
Capgemini

Christof Tinnes
Capgemini
Software Engineer

Donnerstag, 01.01.1970   |   14:00 - 17:00 Uhr   |    Mo 10

DevOps Kickstarter: Das DevOps-Tutorial.

In diesem Tutorial werden Sie DevOps verstehen und lernen. Dabei gehen wir auf die wesentlichen Eckpfeiler ein und besprechen den aktuellen Stand der Wissenschaft. Grundsätzliche Konzepte und technische Einschübe halten sich die Balance: Sie bekommen also beides: einen fundierten Überblick mit zahlreichen Start- und Justierungshinweisen sowie technische Details, um die praxiserprobten Konzepte zu verdeutlichen. Achtung: Es wird ein großer Schwerpunkt auf Interaktivität gelegt.

Zielpublikum: Entwickler, Architekten, Tester, QA, Entscheider
Voraussetzungen: Neugierde.
Schwierigkeitsgrad: Anfänger



Michael Hüttermann

Freiberuflicher Delivery Engineer

Donnerstag, 01.01.1970   |   14:00 - 17:00 Uhr   |    Mo 11

PlayingLean – Discover the LeanStartup principles in an entertaining way

The game simulates the launch of a new software product in a competitive and challenging market situation in an entertaining way. It helps to understand the importance of Minimal viable products and why you have to watch out of Technical debt.
Although LeanStartup focuses on Start up companies more and more big players (a.o. General Electric, Rabobank, ING Group) using the methodology to bring Innovation and Intrapreneurship back in the heart of the organization. Maximum number of participants: 12

Target Audience: Project Leader, Manager, Decision Makers, Change Managers, Coaches
Prerequisites: Openness for gamification, English (as the session is hold in English)
Level: Introductory Extended Abstract
In addition to being an educational board game for change makers who need to teach others about the Lean Startup methodology, Playing Lean uses classic game mechanics to ignite the competitive spirit.
The concept has taken inspiration from Eric Ries' bestseller: "The Lean Startup", and has been developed in collaboration with Ash Maurya, the author of the internationally known and applied "Running Lean" and "Scaling Lean" books.



Sven Dill

Certified Agile Lean Coach

Wim Bollen

Lean-agile expert/coach and kanban coaching professional

Donnerstag, 01.01.1970   |   09:00 - 10:30 Uhr   |    Di 1.1

Cloud Computing Patterns: Case Study and Discussion

Cloud computing demands new IT architectures as well as a change in development- and organizational processes. In this session, the move of an existing application, its development, and operation to a cloud environment is covered. The presented content focuses on the experienced challenges regarding architectural, technological and organizational aspects. Please provide your own architectures and use cases for a joint discussion how to adjust your applications for the cloud! Target Audience: Architects, Developers, Operators
Prerequisites: Submit information about your own applications for discussion: oop2017@cloudcomputingpatterns.org
Level: Practicing



Christoph Fehling
Daimler AG
Continuous Delivery & Operations Control

Donnerstag, 01.01.1970   |   14:30 - 15:30 Uhr   |    Do 8.3

„Software is eating the World” - Wen braucht man eigentlich, um erfolgreiche Software-Ökosysteme zu bauen?

Software revolutioniert fast jede Art von Business durch neuartige Ökosysteme. Die Erstellung erfordert Kompetenzen, die weit über das klassische Systems- und Software-Engineering hinausgehen. Zentrale Herausforderungen sind höhere Komplexität bei kürzerer Time-To-Market, geteilte Verantwortung und Kontrolle über mehrere Unternehmen und Domänen hinweg sowie die immer höher werden Anforderungen an Sicherheit, User Experience, und andere Qualitäten. Wir charakterisieren Softwareökosysteme und zeigen notwendige Kompetenzen, um diese zu bauen.

Zielpublikum
: Manager, Architekten, Projektleiter
Voraussetzungen: Interesse an Digitaler Transformation und Software-Ökosystemen
Schwierigkeitsgrad: Anfänger

Extended Abstract

Software revolutioniert die Welt und fast jede Art von Business durch Digitalisierung und neuartige Ökosysteme. Wir zeigen anhand von Marc Andreesens Artikel „Why software is eating the world“, welche Branchen in welcher Weise revolutioniert werden und dass das zunehmend auch domänenübergreifend passiert. Mittlerweile fasst der Begriff „Digitale Transformation“ diesen Trend zusammen und wir beobachten Softwareökosysteme als „Königsdisziplin“ darin: Viele Firmen tragen zu ihrem und dem gemeinsamen Vorteil Software bei und betreiben ein Netzwerk von Geschäftsbeziehungen, z.B. alles rund um Apple oder Google Apps, aber zunehmend auch in Branchen wie Energie, Landwirtschaft und Mobilität.
Die Erstellung solcher Systeme erfordert Kompetenzen, die weit über das klassische Systems- und Software-Engineering hinausgehen. Zentrale Herausforderungen dabei sind domänenübergreifendes Arbeiten, immer höhere Komplexität bei trotzdem geforderter kürzerer Time-To-Market, geteilte Verantwortung und Kontrolle über mehrere Unternehmen hinweg sowie die immer höher werden Anforderungen an Sicherheit, User Experience und andere Qualitäten. Wir stellen in diesem Vortrag die Charakteristiken von Softwareökosystemen vor und welche Kompetenzen notwendig sind, um diese zu bauen.
In den letzten Jahren haben wir mit mehreren Firmen zusammengearbeitet und an der Initiierung von Ökosystemen mitgewirkt und dabei viele Erfahrungen gesammelt.
Wir identifizieren beispielhafte Rollen und Charaktere und deren Kompetenzen und Eigenschaften, die wir aus unseren Projekterfahrungen gesammelt haben.
Wir stellen pointiert und humoristisch das „Team Ecosystem“ vor, das die Grundeigenschaften mitbringt, um erfolgreich ein Softwareökosystem zu initiieren und groß zu machen.
Während schon Marc Andreesen festgestellt hat, dass die Digitalisierung des Business vor allem in den USA gut gedeiht, zeigt sich in der Zwischenzeit immer mehr, dass auch Firmen in Europa und Deutschland diesem Trend folgen und ihr Geschäft entsprechend weiterentwickeln müssen.



Matthias Naab
Fraunhofer IESE
Softwarearchitekt

Marcus Trapp
Fraunhofer IESE
Leiter der Abteilung "User Experience & Requirements Engineering"

Donnerstag, 01.01.1970   |   09:00 - 10:30 Uhr   |    Di 2.1

Systematischer Entwurf von Software-Architekturen

Den Wald vor lauter Bäumen nicht zu sehen, gilt für Softwarearchitekten als No-go. Andererseits gibt es viele Architekturen, die sich in der Praxis mangels Detailsicht nicht oder nur eingeschränkt bewähren. Ziel des Vortrages ist es daher, die Systematik der Architekturerstellung zu beleuchten. Wann ist eine hohe Flughöhe und wann eine Sicht auf die Details notwendig. Und wie sollten Architekten und Entwickler verfahren, wenn sie einer Vielzahl von Details gegenüber stehen. Der Vortrag illustriert die Thematik anhand bewährter Architekturmethodiken.

Zielpublikum: Architekten, Entwickler, Entscheider
Voraussetzungen: Praktische Erfahrung in Software Engineering
Schwierigkeitsgrad: Fortgeschritten



Michael Stal
Siemens AG
Principal Engineer

Donnerstag, 01.01.1970   |   09:00 - 09:45 Uhr   |    Di 3.1-1

Rise of the Machines – Automatisierung der Software-Entwicklung

Wenn wir über Automatisierung in der Software-Entwicklung sprechen, denken wir direkt an automatisierte Builds und Deployments.
Führende Entwickler automatisieren allerdings viel mehr. Sie setzen „Roboter“ ein zum Monitoring von Produktivsystemen, bei Code Reviews, zur Überwachung der Codequalität, zum automatischen Mergen, zum Aufsetzen von Laptops – ja sogar für Daily Standups.
Automatisierung bewahrt davor, das Gleiche zweimal zu tun, hilft uns besser zusammenzuarbeiten, reduziert Fehler und gibt uns mehr Zeit zum Programmieren.

Zielpublikum: Entwickler, technische Projektleiter, Build-Ingenieure
Voraussetzungen: Continuous Integration / Delivery Wissen
Schwierigkeitsgrad: Fortgeschritten



Sven Peters

Software-Geek

Donnerstag, 01.01.1970   |   14:30 - 15:30 Uhr   |    Do 7.3

60 Minuten Disziplin

„Scrum ist leicht erklärt, aber schwer zu leben“. Die Realität in agilen Projekten bestätigt diese Aussage vielfach. Warum ist das so? Reicht das agile Wertesystem nicht aus, um mit den agilen Vorgehensweisen das Richtige richtig zu tun? Vielleicht geht’s mit: Disziplin!
Wir wollen einen anderen Blick auf Disziplin vermitteln, sie aus der „Gehorsams-Ecke“ holen, mit Kreativität verbinden und die Teilnehmer und deren Teams ermutigen, über diesen vergessenen Wert nachzudenken und mit seiner Hilfe erfolgreicher zu werden.

Zielpublikum
: Alle – vor allem jene, die glauben, bereits diszipliniert zu arbeiten
Schwierigkeitsgrad: Anfänger


Extended Abstract

„Scrum ist leicht erklärt, aber schwer zu leben“, so heißt es. Die Realität in agilen Projekten – auch in jenen, die nicht nach Scrum arbeiten – bestätigt diese Aussage vielfach:
• Der User Story „Als Rolle möchte ich Funktion, um Motivation/Nutzen“ fehlt immer wieder der dritte, entscheidende (aber schwer zu formulierende) Teil.
• Das Team soll selbstorganisiert arbeiten und doch „regiert“ jemand ein ums andere Mal von außen hinein.
• Die Definitions of Ready/Done sind mustergültig erstellt, werden jedoch nicht bei jeder User Story konsequent überprüft.
• Ein festgelegtes WIP-Limit wird immer wieder verletzt.
• Die Velocity soll bestimmt werden, aber die Basisdaten werden nicht konsequent gemessen und notiert.
Warum ist das so? Reicht das agile Wertesystem nicht aus, um die wohlüberlegten und nachweislich funktionierenden agilen Vorgehensweisen erfolgreich zu nutzen? Was brauchen die Teams, um noch erfolgreicher Produkte zu entwickeln, sprich: das Richtige richtig zu machen?
Wir glauben, dass der agile Werkzeugkasten, gefüllt mit Konzepten, Prinzipien und Praktiken, seine Wirksamkeit nur dann voll entfalten kann, wenn er diszipliniert genutzt wird.
Leider hat das Wort „Disziplin“ in unserer Kultur einen schweren Stand. Es wird oft im Widerspruch zur Kreativität gesehen. Wir wollen eine Lanze brechen für eine Tugend, die hilfreich wird, sobald man sie nicht zum Selbstzweck lebt. Und wir sind nicht allein. Bei unseren Recherchen sind uns viele disziplinierte Menschen aus verschiedenen Domänen (oder Disziplinen?) begegnet, die dieser Tugend einen Teil ihres Erfolges verdanken.
Genau besehen enthält der agile Werkzeugkasten sogar schon einige passende Tools, beispielsweise die Timebox. Aber wie können wir uns gegenseitig dabei helfen, noch disziplinierter zu sein, wo es für uns von Vorteil ist? Und wie können wir dabei sogar noch Freude haben? Einige Ideen wollen wir in dieser Session präsentieren, aber vor allem Teams dazu ermuntern, selber über den vergessenen Wert Disziplin nachzudenken und Wege zu finden, diesen sinnstiftend in den Projektalltag zu integrieren.



Holger Koschek

selbstständiger Berater, Trainer und Coach

Rolf Dräther
HAPPYCENTRIC
selbstständiger Berater, Trainer und Coach

Donnerstag, 01.01.1970   |   14:30 - 15:30 Uhr   |    Do 6.3

Selbstorganisierte Teams? Eine Bestandsaufnahme aus dem größten Unternehmen der Welt

Bei der Entwicklung komplexer Produkte erlebt Selbstorganisation gerade in IT-Unternehmen einen Hype. Leider ist bei größeren Unternehmen die Skepsis noch immer hoch und viele Fragen unbeantwortet:
Was steckt hinter dem Erfolg der agilen Management-Methoden? Wo liegen potenzielle Konflikte und Stolperfallen? Welche Rolle haben Manager? Wie kann ein Change erfolgreich funktionieren?
Auf der Suche nach Antworten laden wir Sie ein auf eine sehr kurzweilige Zeitreise durch das größte und älteste Unternehmens der Welt: die Menschheitsgeschichte.

Zielpublikum: Projektleiter, Produktmanager, Führungskräfte, Manager
Voraussetzungen: keine
Schwierigkeitsgrad: Fortgeschritten

Extended Abstract
Geht es um die Entwicklung komplexer Produkte erleben Selbstorganisation und agiles Management gerade bei Start-ups und kleinen Unternehmen der Software-Branche einen regelrechten Hype.
Zahlreiche Erfolgsstorys zeugen von starken Zugewinnen an Effizienz und Innovationskraft.
Neugierig schielen auch immer mehr größere Unternehmen nach diesen modernen Managementmethoden. Doch die Skepsis ist immer noch recht hoch, viele Fragen bleiben unbeantwortet:
  • Was genau steckt hinter dem Erfolg der agilen Management-Methoden?
  • Ist der Scale-up eins zu eins möglich, oder erfordert die größere Mitarbeiterzahl nicht auch eine
    gewisse Anpassung?
  • Wo liegen potentielle Konfliktherde und Stolperfallen?
  • Welche neue Rolle nimmt das Management ein?
  • Was sind Voraussetzungen für einen erfolgreichen Change?
Belastbare Erfahrungswerte sind diesbezüglich dünn gesät.
Auf der Suche nach Antworten laden wir Sie ein auf eine sehr kurzweilige Zeitreise durch das größte und älteste Unternehmens der Welt: die Menschheitsgeschichte.
Wir nehmen hierbei markante Ereignisse aus der biblischen Geschichte unter die Lupe, um die gegenseitige Abhängigkeit und die fragilen Wechselwirkungen zwischen
  1. dem Führungsverhalten des „CEOs“,
  2. dem Verhalten, der Performance und dem Organisationsgeschick des „Teams“ sowie
  3. den allgemeinen Randbedingungen, unter denen „gearbeitet und entwickelt“ wurde, herauszuarbeiten.
Die Bibelgeschichte selbst dient dabei lediglich als anschauliche und nette Analogie; der Vortrag ist vollkommen religionsneutral. 
Freuen Sie sich auf interessante Erkenntnisse zu und einen spannenden Austausch über eine nachhaltige Einführung von Selbstorganisation und Agilität in größeren Unternehmen!



Melanie Wohnert
Think Y
Inspiratorin

Dietmar Wohnert
Think Y
Trainer und Coach

Donnerstag, 01.01.1970   |   14:30 - 15:30 Uhr   |    Do 5.3

Test Architect – A Key Role defined by Siemens

This presentation introduces the new key role "Test Architect" and provides practical guidance on the needed strategies, tactics, and practices:
- Why do we need a Test Architect?
- What are the responsibilities and tasks of a Test Architect?
- How can a Test Architect provide value and create impact on the business?

Target Audience
: Test Architects, Test Managers, Test Engineers, Architects, Developers, Product Owners, Managers
Prerequisites: Basic knowledge about testing and quality engineering
Level: Practicing

Extended Abstract

Imagine that you build a system with 10 million lines of code. To be successful this system should have a good architecture, and for that you need good software architects - agreed.
Next, to do good testing for 10 million lines of code you also need to build an appropriate test system, though not by spaghetti coding but with a well designed, sustainable test architecture and by applying innovative software and test technologies.
But, who is responsible and in charge to make this happen? Typically neither the test manager nor the testers will do this; therefore we need to create a new role at eye level with the software/systems architects: the Test Architect is born. To implement and establish this key role we have developed a unique expert training program for Test Architects at Siemens to meet the diverse challenges of shorter time-to-market, increasing complexity, and more agility while keeping quality and other key system properties high.
This presentation introduces the new key role "Test Architect" and provides practical guidance on the needed strategies, tactics, and practices:
- Why do we need a Test Architect?
- What are the responsibilities and tasks of a Test Architect?
- How can a Test Architect provide value and create impact on the business?
Attend this presentation and do not only learn what a Test Architect is all about and why we at Siemens are driving this heavily with our unique expert training program but be able to use the corresponding strategies, tactics, and practices in your projects as a major lever to design, implement, execute, and sustain your specific approach for better testing.



Peter Zimmerer
Siemens AG
Principal Engineer

Donnerstag, 01.01.1970   |   09:00 - 10:30 Uhr   |    Di 4.1

How to grow your organization resilience and anti-fragility

In an ever changing market organizations needs to survive through the adoption of more light and flexible governance structures. Culture plays a fundamental role when it comes to allowing more autonomy and decentralization, both in terms of ownership and responsibility. Resilience is the capability of an organization to readapt very rapidly to changes without loosing the capability to deliver value. Antifragility is the capability of an organization to learn from its own mistakes and improve. Is your organization ready for the next decade?

Target Audience: Agile Transition Leader, Coaches, Decision Makers, Project Leaders
Prerequisites: Understanding of Agile, Complexity thinking, Organizational Design, Market Awareness
Level: Practicing Extended Abstract
Bringing agility to an organizational level requires a set of new skills and practices to emerge. While we have plenty of example on how agility can impact teams performance, by adopting well proven practices, there is still a lot of uncertainty in what to bring to an organizational level. Inspecting and adapting as an organization requires different structures and a more strategic approach, if we want to maximize the learning effect. Chaotic and uncontrolled experimentation and local adaptations can rapidly tear an organization apart. Focus on value and customers are important to set a common direction, but to roll out a shared strategy we need a solid and coherent cultural context, or the strategy will fail. Explicitly measuring and designing culture is a key enabler towards agility and can provide incredible advantages to an organization development. Understanding how to lead such change and enabling people to participate in creating rapid value, is the one thing that might save your company in the rough waters of today's market ... Are you ready for the challenge?



Andrea Tomasini
agile42
Mitgründer

Donnerstag, 01.01.1970   |   09:00 - 10:30 Uhr   |    Di 5.1

Product Thinking mit dem Product Field

Produktinnovation ist komplex. Einfache Rezepte und lineare Prozesse werden ihr nicht gerecht – sie führen zu Fehleinschätzungen, Misserfolgen und Frustration. Dagegen behandelt Product Thinking Produktinnovation als komplexes System und maximiert ihre nachhaltige Wirkung für alle Stakeholder. Dabei hilft das Product Field: ein kognitives Medium, mit dem Teams und Unternehmen bessere Produkte entwickeln und ihre Innovationsfähigkeit erhöhen. Der Vortrag stellt Product Thinking und Product Field als Tools für den eigenen Projektalltag vor.

Zielpublikum: UX-Designer, Lead Engineers, Produktmanager, Entscheider
Voraussetzungen: Erfahrung in der Produktentwicklung
Schwierigkeitsgrad: Fortgeschritten Extended Abstract
Das Product Field bildet die holistische Perspektive des Product Thinking in ein Vokabular und einen Canvas ab, die Teams und Unternehmen helfen, ein gemeinsames Verständnis von Produktinnovation zu entwickeln. Auf dessen Basis entsteht kollaborativ ein geteiltes Bild der jeweiligen Situation, werden Kohärenz und Machbarkeit des Vorhabens überprüfbar, und können die Beteiligten systematisch Herausforderungen und Lösungsmöglichkeiten evaluieren. Damit ist das Product Field ein Leitfaden und Werkzeugkoffer für Produktentwicklung, der die Komplexität der Aufgabe nicht nur ernst nimmt, sondern gemeinsam bearbeitbar macht.
In der Session werden Product Thinking und Product Field vorgestellt, an einem konkreten Beispiel erläutert und mit Erfahrungen aus dem Einsatz bei Unternehmen wie dpa, next media accelerator, ARD und Otto illustriert. Ein interaktiver Teil rundet die Vorstellung ab.
Als Ergänzung und möglicher Rahmen für bewährte Methoden wie Agile Entwicklung, Design Thinking und Lean Start-up bieten Product Thinking und Product Field eine neue und wertvolle Kontextualisierung für viele Einzelthemen des Konferenz-Tracks. Das frühe Entwicklungsstadium der Methodologie bietet den Teilnehmern zudem die Möglichkeit, ihre weitere Entwicklung mit Input und Feedback zu beeinflussen und als Early Adopter Wettbewerbsvorteile zu generieren. Gleichzeitig knüpft der Vortrag an weit verbreitete Erfahrungen aus dem Projekt- und Produktentwicklungsalltag an.



Wolfgang Wopperer-Beholz
mindmatters GmbH & Co. KG
Geschäftsführender Gesellschafter

Tim Schurig
mindmatters GmbH & Co. KG
Product Coaching und Facilitation

Donnerstag, 01.01.1970   |   09:00 - 10:30 Uhr   |    Di 6.1

Speed, Data and Ecosystems: Excelling in a Software Driven World

The future of software engineering is centered around three main developments: Speed, Data and Ecosystems. The talk addresses these three main developments, provides numerous examples from the Nordic and international industry and outlines the next steps that industry and academia need to engage in to remain competitive. Target Audience: Managers, decision makers, architects
Prerequisites: none
Level: Practicing Extended Abstract
The future of software engineering is centered around three main developments: Speed, Data and Ecosystems. The focus on speed is concerned with the constantly increasing rate of deploying new software in the field. This continuous integration and deployment is no longer only the purview of internet companies but is also increasingly deployed in embedded systems. Second, data is concerned with the vast amounts of information collected from systems deployed in the field and the behavior of the users of these systems. The software-intensive systems industry needs to significantly improve its ability to exploit the value present in that data. Finally, ecosystems are concerned with the transition in many companies from doing everything in-house to strategic use of innovation partners and commodity providing partners. The keynote addresses these three main developments, provides numerous examples from the Nordic and international industry and outlines the next steps that industry and academia need to engage in to remain competitive.



Jan Bosch

co-director of the software research center

Donnerstag, 01.01.1970   |   09:00 - 09:45 Uhr   |    Di 7.1-1

Clojure-Web-Applikationen für Beginner

Clojure ist eine JVM-Sprache, die das Unmögliche möglich macht: ein tatsächlich in der Praxis von normalsterblichen Entwicklern einsetzbares Lisp.
Neben den Grundlagen von Clojure werden Sie in dieser Session auch lernen, wie man hiermit Web-Anwendungen umsetzen kann. Wenn Sie sich hierbei nicht von den Lisp-typischen Klammern abschrecken lassen, werden Sie schnell sehen, dass der Einsatz einer rein funktionalen Programmiersprache sehr gut zum statuslosen Ansatz von HTTP passt. Zielpublikum: Entwickler
Voraussetzungen: Grundlagen der funktionalen Programmierung und Webentwicklung
Schwierigkeitsgrad: Anfänger



Michael Vitz
innoQ
Consultant

Donnerstag, 01.01.1970   |   09:00 - 10:30 Uhr   |    Di 8.1

Wie eine Organisation „Veränderung“ lernt

Es ist an der Zeit, dass das „Veränderungsprojekt“ stirbt. „Projekt“ suggeriert, dass es ein Ende gäbe und wir danach endlich wieder in Ruhe arbeiten können. Wir alle wissen, dass das nicht stimmt.
Wichtiger ist daher, als Organisation zu lernen, kontinuierliche Veränderung als Realität anzunehmen und konstruktiv zu gestalten.
Sie nehmen aus diesem interaktiven Vortrag mit, wie Unternehmen mit kontinuierlicher Veränderung erfolgreich sind, und lernen die Werkzeuge kennen, mit denen eine Organisation veränderungsbereiter und -kompetenter wird. Zielpublikum: Alle, die in sinngebenden Organisationen arbeiten möchten
Voraussetzungen: Erfahrung mit nicht-erfolgreichen oder erfolgreichen Veränderungen
Schwierigkeitsgrad: Fortgeschritten Extended Abstract
Es ist an der Zeit, dass das „Veränderungsprojekt“ stirbt. „Projekt“ suggeriert, dass es ein Ende gibt, wo dann alles klar ist und wir endlich wieder in Ruhe arbeiten können. Gerade groß angelegte Veränderungsprojekte bieten oft dieses Heilsversprechen: Jetzt noch mal Zähne zusammenbeißen und dann wird alles gut und ruhig für die nächsten Jahre. Wir alle wissen, dass dies nicht stimmt.
Wichtiger ist daher, als Organisation zu lernen, kontinuierliche Veränderung als Realität anzunehmen und konstruktiv zu gestalten.
Sie nehmen aus diesem interaktiven Vortrag mit, wie Unternehmen mit kontinuierlicher Veränderung erfolgreich sind, und lernen die Werkzeuge kennen, mit denen eine Organisation veränderungsbereiter und -kompetenter wird.
Die Werkzeuge kommen aus teils ungewöhnlichen Bereichen wie Achtsamkeit, Theorie U, Aufstellungsarbeit, Retrospektivenmethodik und gehirnfreundliches Lernen und werden über ein Kanban-Board zur Veränderung in Unternehmen in Beziehung gesetzt.



Markus Wittwer
Collaboration Consulting
Agiler Coach

Donnerstag, 01.01.1970   |   14:00 - 14:45 Uhr   |    Di 1.2

Microservices – Integration der Benutzeroberfläche

Die Grundidee von Microservices besteht darin, kleine und unabhängige Services zu einem Gesamtsystem zu verbinden, um die einzelnen Services getrennt entwickeln, testen und deployen zu können. Das bedeutet aber auch, dass wir die zugehörige Benutzeroberfläche ebenfalls aufteilen müssen, um sie auf die gleiche Art und Weise austauschbar zu machen.
Die Session zeigt verschiedene Ansätze, wie sich dieses Problem in der Praxis lösen lässt.

Zielpublikum: Architekten, Entwickler, Projektleiter, Manager, Entscheider
Voraussetzungen: Java-Kenntnisse
Schwierigkeitsgrad: Anfänger Extended Abstract
Der Trend in der Software-Entwicklung geht weg von Monolithen hin zu Anwendungen, die aus mehreren unabhängigen Einheiten bestehen. Jede dieser Einheiten ist für sich betrachtet leichter zu testen und zu deployen. Daher ist ein solches System auch besser für Continuous Delivery geeignet. Damit einher gehen allerdings einige neue Fragestellungen, die unabhängig vom konkreten technischen Konzept immer die gleichen sind. Zum Beispiel stellt sich die Frage, wie die einzelnen Einheiten in einem gemeinsamen User-Interface vereint werden können, da die interne Struktur der Anwendung dem Benutzer möglichst verborgen bleiben sollte. Für diese Fragestellung gibt es mehrere konkrete Lösungsansätze, die im Vortrag vorgestellt werden. Es werden die verschiedenen Ansätze miteinander verglichen und deren Vor- und Nachteile erläutert. Beispielsweise lassen sich verschiedene Teile einer Webanwendung mittels "BigPipe" sehr effektiv zu einer gemeinsamen Seite vereinigen. Allerdings erfordert diese Implementierungsvariante einen deutlichen Entwicklungsmehraufwand auf Serverseite und ist daher nicht in allen Anwendungsfällen die bevorzugte Wahl.



Thorsten Maier
Orientation in Objects GmbH
Trainer, Berater, Entwickler

Donnerstag, 01.01.1970   |   14:00 - 14:45 Uhr   |    Di 2.2

Schatten-IT: Chancen und Risiken der unbekannten IT

Schatten-IT bezeichnet die IT, die oft in den Fachabteilungen parallel zur offiziellen IT ohne das Wissen der Verantwortlichen existiert. Sie ist somit weder technisch noch strategisch in das Management eines Unternehmens eingebunden. Verantwortliche sollten den Nutzen dieser Lösungen wahren, aber die damit verbundenen Risiken minimieren. Neben den Risiken zeigt dieser Vortrag Methoden und Tipps aus der Praxis zum Umgang mit diesem Phänomen.

Zielpublikum: Entscheider, Entwickler, Projektleiter, Manager, Architekten
Voraussetzungen: Projekterfahrung
Schwierigkeitsgrad: Fortgeschritten



Thomas Ronzon
w3logistics AG
Senior Softwareentwickler

Donnerstag, 01.01.1970   |   14:00 - 14:45 Uhr   |    Di 3.2

Beschleunigen Sie die Digitale Transformation in Ihrem Unternehmen durch eine „API First“-Strategie

Die digitale Transformation ermöglicht völlig neue Geschäftsmodelle und Einnahmequellen. Im Zeitalter der Vernetzung durch Mobile, Social, Cloud, Big Data und das Internet der Dinge basieren neue Geschäftsmodelle auf der schnellen Verfügbarkeit immer größerer Datenmengen, auf die über Unternehmensgrenzen hinweg immer mehr Umgebungen und Endbenutzer zugreifen.
Erfahren Sie, wie unter anderem BMW und Unicredit diese Herausforderung mithilfe eines „API First“-Ansatzes zu ihrem Vorteil gemacht haben.

Zielpublikum: Software Architekten, IT-Leiter, Verantwortliche für IT Security, Mobile, Cloud, IT Integration
Voraussetzungen: No technical prerequisites
Schwierigkeitsgrad: Anfänger Extended Abstract
Die digitale Transformation bildet die Grundlage für vollkommen neue Geschäftsmodelle für Unternehmen. Außerdem ermöglicht sie die Gründung neuartiger Unternehmen mit innovativen Geschäftsmodellen und bisher unbekannten Umsatzmöglichkeiten.
Analysten sagen voraus, dass es bis 2020 mehr als 20 Milliarden Connected Devices geben wird. Hier entsteht ein riesiges neues Ökosystem. In dieser hochvernetzten Zeit von Mobile, Social, Cloud, Big Data und dem Internet der Dinge werden zukünftige Geschäftsmodelle von der Verfügbarkeit immer größerer Datenmengen abhängig sein. Diese müssen über Unternehmensgrenzen hinaus immer zahlreicheren Systemen zur Verfügung gestellt werden. Außerdem müssen diese Daten Kunden und auch Mitarbeitern zugänglich und für sie nutzbar sein. Das Kundenerlebnis wird immer zentraler für den Geschäftserfolg und zukünftiges Unternehmenswachstum.
Diese Veränderungen des Marktes und der Kundenerwartungen sind eine große Herausforderung für viele Großunternehmen. Was ist der beste Ansatz, um mit den aktuellen Anforderungen der Cloud und der wachsenden Anzahl von APIs und Microservices umzugehen?
Ein „API First“-Ansatz hilft bei der Bewältigung dieser Herausforderung. Hierbei ermöglichen APIs die einfache Verbindung mit Legacy-Anwendungen, Cloud-Anwendungen und Partnern. Dadurch können vorhandene Daten und Services schnell in neue Geschäftsprozesse integriert und zu neuen Services kombiniert werden. Gleichzeitig sind APIs der Standard für die Kommunikation zu Mobile Apps, IoT und neuen B2B-Prozessen. Dadurch sind sie das Eintrittstor für Unternehmen, die Geschäftsmodelle auf diesen neuen Plattformen anbieten wollen.
Digitale Vorreiter sind die Unternehmen, die diese Herausforderung in einen Vorteil verwandelt haben, indem sie API-Management als Basis für neue digitale Plattformen nutzen. In diesem Vortrag erfahren Sie, welche Vorteile die Nutzung einer API Management Platform bietet, welchen Reifegrad Unternehmen anstreben müssen und wie Unternehmen die digitale Transformation erfolgreich vorangetrieben haben. So entwickelte zum Beispiel BMW, basierend auf APIs, zahlreiche innovative Dienste für Connected Vehicles. Unicredit nutzte einen Hackathon zur Generierung neuer Ideen, und verbesserte so die Einführung von Mobile-Banking-Lösungen.



Philipp Schöne
Axway
Produktmanager

Donnerstag, 01.01.1970   |   14:00 - 14:45 Uhr   |    Di 4.2

'Mount Corporate' und andere Geschichten aus der Praxis agiler Transformationsprozesse

Agile Prozesse sind ihrer Natur nach empirisch! Also sollten wir aus Erfahrungen lernen: Diese Präsentation befasst sich mit realen Beispielen aus dem Alltag agiler Transformationsprozesse. Gemeinsam wird eine strukturelle Situationsanalyse der jeweiligen Gegebenheiten durchgeführt. Im Anschluss stelle ich einige selbst entwickelte Modelle vor, die das Verständnis und die Analyse dieser Fallbeispiele erleichtern.

Zielpublikum: Entwickler, Projektleiter, Manager, Entscheider
Voraussetzungen: keine
Schwierigkeitsgrad: Fortgeschritten



Pierluigi Pugliese
Connexxo GmbH
Coach and Consultant

Donnerstag, 01.01.1970   |   14:00 - 14:45 Uhr   |    Di 5.2

Requirements Engineering und Backlog-Management für agile Produktlinienentwicklung

Wie kann man den Nutzen von agiler Entwicklung und Produktlinientechnik kombinieren? Durch Anwendung des Orthogonal Variability Model: Beim Requirements Engineering werden für komplexe Features Variationspunkte mit Variantenmengen definiert. Variable Requirements werden dann den Variantenmengen zugeordnet. Für jedes Team-Backlog wird in einer Variantenkonfiguration eine Variantenmenge festgelegt. Darüber werden die variablen Requirements bei der agilen Planung an ein Team gebunden. Die Konzepte werden am Metamodell und am Beispiel erläutert.

Zielpublikum: Requirements Engineers, Architekten, Product Owner
Voraussetzungen: Fachkenntnisse Requirements Engineering, agiles Projektmanagement
Schwierigkeitsgrad: Experte



Ursula Meseberg

microTOOL GmbH, Mitbegründerin und Geschäftsführerin für Produktmanagement

Donnerstag, 01.01.1970   |   14:30 - 15:30 Uhr   |    Do 4.3

Agile Transition – jenseits der methodischen Glaubenskriege

Seit Jahren fechten die agilen Methodenschulen einen Glaubenskrieg, welches Skalierungsverfahren am besten geeignet ist. Jetzt ist endlich Schluss damit. Wir berichten aus einem gemeinsamen erfolgreichen Agile Transition Projekt, in dem wir erfolgreich das Beste aus den Erfahrungen der unterschiedlichen Ansätze angewendet haben. Von einem Projekt, in dem jeder von uns sehr viel gelernt hat und der Mut des Kunden, Brücken zu schlagen, nicht nur seine Transition weit voran gebracht hat. Zielpublikum: Manager, Change Agents
Voraussetzungen: Verständnis agiler Entwicklung, Scrum
Schwierigkeitsgrad: Fortgeschritten



Johannes Mainusch
kommitment GmbH & Co. KG
Agile Manager

Thorsten Janning
KEGON AG
Management-Berater

Stefan Roock
it-agile GmbH
Coach, Trainer und Teammitglied für agile Ansätze wie Scrum, Kanban und XP

Donnerstag, 01.01.1970   |   14:00 - 14:45 Uhr   |    Di 6.2

LeAgile Management Framework for IT – Business 4.0 Chancen nutzen und Herausforderungen meistern

Das „LeAgile Management Framework for IT“ ermöglicht eine praxisorientierte Strukturierung und Anwendung bewährter Vorgehensmodelle zur interdisziplinären Entwicklung von IT-Lösungen und gibt Organisationen und Teams die Möglichkeit, schlanke, selbstorganisierte und agile Arbeitsweisen, sowie Industriestandards und Normen sinnvoll und wirksam miteinander zu verbinden. Aufbauend auf den Prinzipien des Lean Managements und agiler Methoden stellt LeAgile eine ganzheitliche Sicht auf die IT u.a. für die Umsetzung digitaler Geschäftsmodelle dar.

Zielpublikum: Manager, Entscheider, Enterprise-Architekten, Projektmanager, Programmmanager, CIOs
Voraussetzungen: Lean Management, agile Methoden
Schwierigkeitsgrad: Fortgeschritten Extended Abstract
Der Vortrag verfolgt das Ziel, einen Überblick über die Fülle an verfügbaren Vorgehensmodellen und Methoden herzustellen und Orientierung dazu zu geben, wie eine Auswahl dieser sinnvoll und wirksam miteinander verbunden werden kann.
Da es nicht das eine Universalmodell gibt, stellt sich die Frage, wie man aus der Vielzahl der beworbenen Angebote das für den jeweiligen Bedarf passende identifiziert und mit anderen verbindet. Hierbei betrachtet der Vortrag den gesamten Zyklus einer IT-Entwicklung, ausgehend von der Unternehmens- und IT-Strategie über die Bebauung und die Realisierung bis hin zum Betrieb, nach den Prinzipien des Lean Managements und agiler Vorgehensweisen. Durch die Nutzung des LeAgile Management Framework für IT versetzen sich Unternehmen in die Lage, auf die Einflüsse und Anforderungen der Entwicklungen aus Business 4.0, also der digitalen Transformation, unmittelbar, vorausschauend und wirksam zu handeln.
Das Modell findet bereits praktische Anwendung und wird Anfang 2017 in einer Veröffentlichung vollständig beschrieben und umfassend zugänglich gemacht. Das vorab erschienene Fachposter der Zeitschrift OBJEKTspektrum enthält bereits eine grafische Darstellung des Frameworks.



Andreas Slogar

IT-Manager

Donnerstag, 01.01.1970   |   14:30 - 15:30 Uhr   |    Do 3.3

Creating An Incremental Architecture For Your System: What, Why and How

We know big design upfront is a bad idea — we don't have all the information to design the system at the very start, requirements often change and customers want something now. No upfront design can be just as bad — the code can become tangled pretty quickly, and system qualities like scalability, security, latency, etc., can be very difficult, if not impossible, to retrofit.
In this talk Giovanni Asproni shows how to create a software architecture with just the right amount of design that can be incrementally evolved and delivered as the system changes.

Target Audience: Architects, Programmers, Testers, Managers
Prerequisites: none
Level: Practicing



Giovanni Asproni
Asprotunity Ltd

Donnerstag, 01.01.1970   |   14:00 - 14:45 Uhr   |    Di 7.2

Parallele Code Smells: Eine Top 10 Liste

Code Smells ist ein verbreitetes Mittel im Software Engineering, um tiefer liegende Design-Schwächen zu identifizieren. Bis jetzt wurde dieser Ansatz jedoch kaum auf die Parallelisierung und Nebenläufigkeit angewendet, obschon hier besonders heimtückische Gefahren lauern.
Dieser Vortrag präsentiert eine über die Jahre zusammengestellte Sammlung von Code Smells mit Fokus auf Nebenläufigkeit und Parallelisierung. Am Beispiel von .NET und Java werden die parallelen Code Smells mit ihren Grundursachen und indizierten Behandlungen diskutiert.

Zielpublikum: Entwickler, Architekten
Voraussetzungen: Nebenläufige, parallele Programmierung, Java, .NET
Schwierigkeitsgrad: Fortgeschritten Extended Abstract
Der Begriff „Code Smells” bezeichnet Symptome von tiefer liegenden Software-Design-Schwächen oder Fehlern. Bis jetzt wurde dieser Ansatz jedoch kaum auf die Parallelisierung und Nebenläufigkeit angewendet, obschon hier besonders heikle Fehler auftreten können.
Dieser Vortrag präsentiert eine Sammlung von Code Smells mit Fokus Nebenläufigkeit und Parallelisierung. Die Sammlung ist im Verlaufe der letzten Jahre aus durchgeführten Software-Beratungen und Reviews entstanden. Am Beispiel von .NET und Java wird in diesem Vortrag eine Hit-Liste von parallelen Code Smells vorgestellt. Zu jedem Smell wird jeweils die Grundursache untersucht sowie indizierte Behandlungen aufgezeigt.
Lernziele:
- Prominente Code Smells kennenlernen, welche auf grundlegende Nebenläufigkeits- und Parallelitätsprobleme in der Software hindeuten.
- Wissen, welche Redesign- und Refactoring-Techniken die Grundprobleme der parallelen Code Smells eliminieren können.
- Die Wichtigkeit erkennen, in Software-Projekten auch nach parallelen Smells Ausschau zu halten und die Entwickler darauf zu sensibilisieren.
Vorgehen:
- Vortrag mit Zwischendemonstrationen in Programmcode
- Agenda:
o Motivation und Hintergrund der parallelen Code Smell Sammlung
o Rückblick: Archetypen von Nebenläufigkeits-/Parallelitätsfehler
o Vorstellung der verschiedenen Smells, der Ursachen und Kuren:
1. Partly synchronized classes
2. Nested locking through method calls
3. Try-and-fail resource acquisition
4. Use of explicit threads
5. Thread pool task dependencies
6. Fire-and-forget launches
7. Long asynchronous continuations
8. Monitor single wait / single signal
9. Volatile fences or atomic instructions
10. Finalizers accessing shared state
o Zusammenfassung und Schlussfolgerung
- Die Code Smells werden anhand von Programmcode illustriert.
Zielgruppe:
- Software-Entwickler und -Architekten sowie Projektleiter mit einem starken technischen Flair.
- Voraussetzung: Grundverständnis der nebenläufigen/parallelen Programmierung ist empfohlen.
- Stufen: Grundlagen



Luc Bläser
Hochschule für Technik Rapperswil (HSR)
Professor für Informatik

Donnerstag, 01.01.1970   |   14:00 - 14:45 Uhr   |    Di 8.2

Getting Up Close and Personal with Your Users and Stakeholders

Most agile teams may proudly claim that they're cross-functional – often mentioning how the developers also test and how the designer sometimes makes small changes to the code on his own. However, the odds are that most of those teams could do much more. In this talk you will learn how a team can benefit from incorporating a broad set of responsibilities ranging from the usual design/code/test to not so common activities for a team to take over, such as infrastructure, marketing, public relations, social media presence, and customer support.

Target Audience: Members and managers of Agile teams
Prerequisites: Basic knowledge of agile development
Level: Practicing Extended Abstract
Most of the development teams I've seen or been part of have been really small. Yet, most of them have also been very cross-functional making the team capable of doing pretty much anything and everything there is to do about designing, building and shipping software. However, one particular team has struck me as an exceptionally satisfying team to be part of and reignited my drive to go out and share with the community what I’ve seen (I used to tour many, many agile conferences every year since 2005 but more or less stopped a couple of years ago).
In that one inspiring team we took the concept of being "cross-functional" to a new extreme. We didn't only design and build our awesome online radio application squarely within our small team room. (The service in question is called “radiot.fi” and it’s a joint venture between the Finnish national broadcasting company and the association of commercial radio broadcasters in Finland.) We also took on tasks and responsibilities normally taken up by our clients or their marketing department, or a separate project management role.
With a team of 3-4 engineers we would go out to meet the radio channels we were integrating with and help them produce good-looking image assets. We would draft press releases on behalf of our client and we managed the various social media outlets for the online radio application. We managed our budget and burn rate ourselves, and visualised key business metrics such as average session length (of listening to radio via our app) and total minutes of radio content being consumed in a rolling 30-day window.
Doing all of that brought us so close to the core business of running the online radio service that we felt like we’re running our own company here. We were committed – and connected – to the business. However, perhaps the most important sense of connectedness was towards our end users – the people who listened to their favourite radio channels through our app. Striving to be as connected with our users as we possibly can, we set out to build simple feedback channels right into the software itself as well as analytics to tell us whether our users are becoming more engaged. We also put a stake in the ground and decided to channel all customer feedback through our development team rather than let our customer respond to them.
We read and responded to every single email received, directly from our own email accounts. We wanted our users to know that we are listening and responding so we also kept record of the feedback and reached out to the individuals who’d asked for a feature or complained about a glitch as we made progress and fixed those issues or implemented those features. (Also, one of the main prioritisation factors was in fact the number of feedback messages mentioning a given feature or issue.)
In this talk, I’d like to present the Radiot.fi team’s practices as a case study type of narrative and a source of inspiration, and invite the audience to brainstorm other practices for getting “up close and personal” with 1) their customers or business sponsors and 2) their end users.
The resulting connectedness towards all directions was so powerful for us that I'd love to see the practice spread to more and more teams out there.



Lasse Koskela


Donnerstag, 01.01.1970   |   14:30 - 15:30 Uhr   |    Do 1.3

Keine moderne Architektur ohne DevOps

DevOps begann als eine Grassroots-Bewegung, entstanden aus dem Konflikt zwischen Entwicklungs- und Betriebsteams. Inzwischen zeigt sich, dass DevOps, zusammen mit Cloud-Computing, der Schlüssel zu neuen IT-Landschaften ist. In dieser Präsentation beschreibt Erik seine Sicht auf das Dreiecksverhältnis zwischen organisatorischer Struktur, modernen Architekturen und Software im Betrieb. Es geht um Conway's Law, Microservices und Architekturmuster wie Backend-for-Frontends, API Gateway und Data Lake, betrachtet aus der Praxis Perspektive. Zielpublikum: Architekten, Entwickler, Projektleiter, Betrieb (Operations)
Voraussetzungen: basic experience with software architecture
Schwierigkeitsgrad: Fortgeschritten Extended Abstract
DevOps begann als eine Grassroots-Bewegung, entstanden aus dem alten Konflikt zwischen Entwicklungs- und Betriebsteams, der durch immer agiler werdende Entwicklung weiter verstärkt wurde. Inzwischen zeigt sich, dass DevOps, zusammen mit Cloud-Computing, der Schlüssel zu neuen IT-Landschaften war.
In dieser Präsentation beschreibt Erik seine Sicht auf das Dreiecksverhältnis zwischen organisatorischer Struktur, modernen Architekturen und Software im Betrieb. Es geht um Conway's Law, Microservices und Architekturmuster wie Backend-for-Frontends (BFF), API Gateway und Data Lake. Das Bild wird vervollständigt mit praktischen Erfahrungen zu diesen Themen aus verschiedenen Projekten, an denen Erik als Berater tatkräftig beteiligt war.



Erik Dörnenburg

Head of Technology Europe, ThoughtWorks

Donnerstag, 01.01.1970   |   16:15 - 17:15 Uhr   |    Di 1.3

The Seven (More) Deadly Sins of Microservices

All is not completely rosy in microservice-land. It is often a sign of an architectural approach’s maturity that in addition to the emergence of well established principles and practices, that anti-patterns also begin to be identified and classified. In this talk we introduce the 2016 edition of the seven deadly sins that if left unchecked could easily ruin your next microservices project … Target Audience: Developer, Architect
Prerequisites: Basic understanding of microservice principles
Level: Practicing Extended Abstract
This talk will take a tour of some of the nastiest anti-patterns in microservices, giving you the tools to not only avoid but also slay these demons before they tie up your project in their own special brand of hell.
Topics covered include: Pride - selfishly ignoring the new requirements for testing; Envy - introducing inappropriate intimacy within services by creating a shared domain model, or using data stores incorrectly; Wrath - failing to deal with the inevitable bad things that occur within a distributed system, from both the perspective of technology and the organisation; Sloth - getting lazy with the non-functional requirements; and Lust - embracing the latest and greatest technology without evaluating the operational impact incurred by these choices.



Daniel Bryant
Open Credo
Chief Scientist

Donnerstag, 01.01.1970   |   11:00 - 11:45 Uhr   |    Do 1.2

Architektur skalieren @ Zalando

Zalando hat vor zwei Jahren Radical Agility eingeführt: ein Organisationskonzept, das auf Teamautonomie setzt. Es stellt sich die Frage, wie Architekturarbeit in so einem Umfeld funktioniert.
Dieser Talk zeigt, wie Zalando SE mit Architekturprinzipien und Gilden ein einheitliches Architekturbild der Services sicherstellt. Dabei gehe ich auf organisatorische Besonderheiten und die wichtigsten Guidelines ein, die wir für unsere Entwicklungsarbeit nutzen, und gebe einen kleinen Einblick in spannende technische Herausforderungen, denen wir uns stellen.

Zielpublikum
: Architekten, Entwickler
Voraussetzungen: Keine Vorkenntnisse erforderlich
Schwierigkeitsgrad: Fortgeschritten



Felix Müller
Zalando SE
Architekt

Donnerstag, 01.01.1970   |   16:15 - 17:15 Uhr   |    Di 2.3

Schliemanns Erben – Systemlandschaften wirkungsvoll (nach-)dokumentieren

Software-Systeme wachsen historisch. Für System-Landschaften gilt es erst recht. IT-Trendwellen schwappen über Unternehmen und hinterlassen ihre Spuren. Geglückte Würfe ebenso wie gescheiterte Initiativen. Oft wird das Wissen darum nur mündlich weitergegeben. Die Konsequenz: langwierige und lückenhafte Einarbeitung, Unsicherheiten bei Änderungen und Neuentwicklungen. Lernen Sie bestehende Systemlandschaften zu kartografieren und es allen Beteiligten leichter zu machen, sich zurechtzufinden und informierte Entscheidungen zu treffen.

Zielpublikum: Architekten, Entwickler, Projektleiter
Voraussetzungen: Projekterfahrung in der Software-Entwicklung
Schwierigkeitsgrad: Anfänger Extended Abstract
Software-Systeme wachsen historisch. Das gilt nicht als Idealzustand, aber so ist die Realität nun mal. Für System-Landschaften gilt es erst recht. IT-Trendwellen schwappen über Unternehmen und hinterlassen ihre Spuren in den Anwendungen. Geglückte Würfe ebenso wie gescheiterte Initiativen. (De-)Zentralisierung, Objektorientierung, SOA, Standardisierung, Cloud… Manche Unternehmen haben Vermächtnisse (engl. Legacy) aus drei Jahrzehnten im Betrieb. In vielen Fällen wird das Wissen darum nur mündlich weitergegeben. Die Konsequenz: langwierige und lückenhafte Einarbeitung, Unsicherheiten bei Änderungen und Neuentwicklungen. Im Extremfall führt dies zu geringem Vertrauen bei Entscheidern. Dabei ist der Aufwand, das Wesentliche fest und aktuell zu halten, gar nicht groß. In dieser Session zeige ich, wie man bestehende Systemlandschaften kartografiert und es allen Beteiligten leichter macht, sich zurechtzufinden und informierte Entscheidungen zu treffen. Mit Anlehnung an Methoden wie arc42 (das initial nur auf Einzelsysteme passt), Beispielen aus echten Ausgrabungen, aber ohne C14.



Stefan Zörner
embarc Software Consulting GmbH
Berater und Geschäftsführer

Donnerstag, 01.01.1970   |   16:15 - 17:15 Uhr   |    Di 3.3

Von der Datenbank zur dezentralen Anwendung

Auf Blockchain basierende Technologien haben sich in den letzten Jahren rasant entwickelt. Decentralized Applications (Dapps) gelten als die Basis dieser Entwicklung. Sie stellen ein neues Modell für die Entwicklung massiv skalierbarer und potenziell gewinnbringender Apps dar. Ihre Vorteile sind: Immutability, Corruption proof, Resistance to collusion, Cryptographic Security, Zero Downtime und Zero Sign-on. Der Vortrag erläutert die Architektur und die Einsatzgebiete dezentraler Anwendungen.

Zielpublikum: Architekten, Entwickler, IT-Berater, Entscheider
Voraussetzungen: keine
Schwierigkeitsgrad: Anfänger



Marcus Klüsener
ITech Progress GmbH
Softwareentwickler und IT-Berater

Donnerstag, 01.01.1970   |   16:15 - 17:15 Uhr   |    Di 4.3

Einführung von skalierter agiler Entwicklung in der Embedded Entwicklung bei einem großen Automobilhersteller

Erfahrungsbericht über die Einführung von skalierter agiler Entwicklung für Embedded Fahrzeug-Software aus Sicht des begleitenden Agilen Coachs und deren weiterer Skalierung. Welche Lernkurve muss ein Unternehmen durchlaufen? Was sind typische Verhaltensmuster, worauf man achten muss, um diese zu vermeiden?
  • Motivations-Faktoren für die Einführung?
  • Wie und womit wurde begonnen?
  • Die größten Herausforderungen
  • Die Rolle des Managements
Welcher Skalierungsansatz wurde letztendlich vom Unternehmen gewählt und welche Rolle spielen dabei die Skalierungs-Frameworks, insbesondere SAFe und LeSS?Wie weit ist aktuell die „Agile Adoption“ fortgeschritten, wie war die Evolution, wo steht man, was hat man gelernt? Zielpublikum: Entwickler, Scrum Master & Agilisten, Architekten, Manager, Entscheider
Voraussetzungen: Grundkenntnisse agile Methoden
Schwierigkeitsgrad: Fortgeschritten Extended Abstract
Erfahrungsbericht über die Einführung von skalierter agiler Entwicklung für embedded Fahrzeug-Software aus Sicht des begleitenden Agilen Coachs und deren weiterer Skalierung. Dabei wird sowohl über Erfolgsfaktoren als auch Herausforderungen berichtet.  Welche Lernkurve muss ein Unternehmen durchlaufen? Was sind typische Verhaltensmuster, worauf man achten muss, um diese zu vermeiden?
Einige der weiteren Fragen, die beantwortet werden sollen:
Was sind die größten Motivations-Faktoren für die Einführung? Wie und womit wurde begonnen? Was waren und was sind die größten Herausforderungen? Welche Rolle spielt das Management?
Anschließend wird das Thema Skalierung genauer betrachtet. Wie wurde vorgegangen? Was waren Schlüsselfaktoren? Welche Rolle spielten und spielen vorhandene Skalierungsframeworks wie LeSS und SAFe. Was sind die konkreten unmittelbaren und mittelbaren organisatorischen Auswirkungen, wenn man sich an den jeweiligen Frameworks orientiert und was waren die Auswirkungen vor Ort?
Abschließend wird die Evolution der "Agile Adoption" betrachtet, wo man sich befindet und was typische nächste Schritte sind, sowie welche Learnings gezogen werden können.




Nils Bernert

Valtech, Agile Coach & Senior Consultant

Donnerstag, 01.01.1970   |   16:15 - 17:15 Uhr   |    Di 6.3

Schnelles Wachstum von 0 auf 25 Scrum-Teams – Was macht das mit Führungs- und Unternehmenskultur?

Wir geben einen Erfahrungsbericht, was wir als agile IT-Organisation innerhalb eines Einzelhandelskonzerns in 2 Jahren schnellem Aufbau-Wachstum erleben und lernen durften. Besonders gehen wir auf unsere in hohem Maße von Selbstorganisation geprägte agile Produktentwicklung und die Rolle des Managements auf dem bisherigen Weg ein. Wir erläutern die Herausforderungen, die sich uns stellten, und beleuchten diese jeweils aus der Perspektive der Mitarbeiter und des Managements. Die größten Don'ts und Fehlschläge stellen wir zur Diskussion vor.

Zielpublikum: Scrum Master, Scrum-Team-Mitglieder, Führungskräfte, jeder, der in agiler Skalierung interessiert ist
Voraussetzungen: Scrum-Kenntnisse, grundlegendes Verständnis von Skalierungsframeworks
Schwierigkeitsgrad: Experte Extended Abstract
Die Zielgruppe dieser Session sind erfahrene Scrum Master und agile Coaches, sowie jeder, der als laterale oder disziplinarische Führungskraft in einer agilen IT-Organisation arbeitet. Um die Session vollumfänglich zu verstehen, sollten die Teilnehmer wissen, wie agile Produktentwicklung funktioniert, und welche grundlegenden Arten es gibt, Scrum-Teams zu skalieren



Oliver Zilken
REWE digital
agiler Team Coach

Jens Maser
Leiter Projektmanagement im Bereich Technologie
REWE Digital

Donnerstag, 01.01.1970   |   16:15 - 17:15 Uhr   |    Di 7.3

Everything-as-code. Polyglotte Software-Entwicklung in der Praxis.

Als zeitgemäßer Entwickler muss man eine Vielzahl an Sprachen sicher beherrschen. Wir definieren unsere Entwicklungsumgebung mit Gradle, wir bauen unsere Software in Java, Kotlin oder sogar JavaScript. Wir verwenden Groovy und Scala, um unsere Software zu testen. Die Build-Pipeline wird per DSL und JSON definiert. Mit YAML und Python beschreiben wir die Infrastruktur und das Deployment unserer Anwendungen. Die Dokumentation unserer Architekturen erledigen wir mit AsciiDoc und JRuby. Willkommen in Babel! Hallo Software-Industrialisierung!

Zielpublikum: Architekten, Entwickler, Projektleiter
Voraussetzungen: Grundlegende Programmierkenntnisse
Schwierigkeitsgrad: Fortgeschritten Extended Abstract
Use the right tool for the job! Das ist das Motto dieser Session. Jede Sprache hat Stärken in einer bestimmten Domäne. Diese Stärken gilt es zu nutzen. Aber einfach blind jede gerade angesagte Sprache einzusetzen, ist sicher nicht die Lösung. Genau das versuchen wir mit dieser Session zu vermitteln. Stattdessen braucht es eine gut integrierte und abgestimmte Tool-Chain. Wir berichten aus der Praxis: what worked for us and what did not.



Mario-Leander Reimer
QAware GmbH
Cheftechnologe

Donnerstag, 01.01.1970   |   16:15 - 17:15 Uhr   |    Di8.3

Quality from the PO perspective – from 6 weeks to one-day release phases

In this talk, I’ll share what I’ve learned about quality, release times and quick feedback from being a product owner. For the last 7 years, I’ve been PO for an open source product. In that time, we’ve moved from painful and non-agile 6-week test phases to sprint (beta) releases every three weeks, with the option of an official release when I want one – with release times of one day. This is a story about techniques, transparency, testing and trust, with the extra spice of dealing with the quality wishes of different stakeholder groups. Target Audience: Product Owners, Testers, Developers in Agile Teams
Prerequisites: Basics of agile and scrum
Level: Practicing Extended Abstract
In this talk, I want to share what I’ve learned about quality, release times and quick customer feedback from being a product owner.
For the last 7 years, I’ve been PO for an open source product. In that time, we’ve moved from painful and non-agile 6-week test phases to sprint (beta) releases every three weeks, with the option of an official release when I want one – with release times of one day. This is a story about techniques, transparency, testing and trust, with the extra spice of dealing with the quality wishes of different stakeholder groups.
During the talk, I’ll cover:
  • Introductions: my stakeholders and their quality desires
    -  Specific quality hurdles when working in open source 
    -  Opportunities for feedback that open source projects can benefit from
    -  My aims as a PO for releasing new versions
    -  How it all started: our long and painful (and not particularly effective) release phases
  • How we moved to continuous internal delivery to improve our feedback cycles (continuous integration, daily dog fooding, more automation)
    -  Our attempt at traditional “release candidates” and why I found it too heavyweight
  • Why we could choose to release beta releases, and how this helped our trust and feedback cycles.
    -  This includes a philosophy of “let it go!” – knowing (or even trusting) that nothing too major will make it into the beta release, and that we can release fixes quickly if necessary.
    -  The difference between a beta release and an official release, and how we started using feature branches
  • Our one “0 day” release and the move back to “1 day releases”
  • What’s still to do
Join me on this journey to hear what’s worked, what hasn’t, and what steps can be taken to move towards more frequent releases for a happy PO and customers!



Alexandra Schladebeck
Bredex GmbH
team leader, consultant, software tester and product owner

Donnerstag, 01.01.1970   |   17:45 - 18:45 Uhr   |    Di 1.4

Nutzen und Herausforderungen moderner Architektur am Beispiel des GALERIA Kaufhof Online-Shops

Self-contained Systems, Microservices, REST, Continuous Delivery, DevOps - das alles gilt als modern und spannend, aber warum genau entscheiden wir uns eigentlich dafür?
Am Beispiel des aktuellen GALERIA Kaufhof eShops zeigt dieser Vortrag auf, wie man ausgehend von den Zielen moderner Produktentwicklung fast zwangsläufig bei den oben genannten Paradigmen landet.
Neben dieser Ableitung berichtet der Vortrag zudem über die konkreten "lessons learned" mit den genannten Ansätzen im Rahmen eines realen Großprojekts mit relevantem Businesscase.

Zielpublikum: Architekten, Projektleiter, Manager, Entscheider
Voraussetzungen: Software-Architektur und -Design, Agile Methoden
Schwierigkeitsgrad: Anfänger



Manuel Kiessling
GALERIA Kaufhof GmbH
Software-Architekt und -Entwickler, Linux-Administrator, Agilist, Buchautor

Donnerstag, 01.01.1970   |   17:45 - 18:45 Uhr   |    Di 2.4

Software Architects Are Dead! Long Live Software Architects!

In an ideal world, agile teams do all design work collectively, microservices allow a system's architecture to emerge. The crowd is king. Software architects are dead, really dead! But a system must handle millions of events fast. Users expect Martini availability — any time, any place, anywhere! The crowd is puzzled, really puzzled. Long live software architects!
This talk outlines the new role and responsibilities of architecture and architects in the face of IoT, the cloud and the ongoing digitization and digitalization of business.

Target Audience: Architects, Developers, Project Leads
Prerequisites: Software design and development experience
Level: Practicing Extended Abstract
Who needs software architects? In an ideal world, agile teams do all design work collectively. Microservice architectures allow services and apps to be developed and operated independently of one another by small teams. Technologies like PowerApps and IFTTT enable non-software professionals to connect these apps to other apps and services. The system’s architecture is defined emergently by the ecosystem. The crowd is king. Software architects are dead, really dead!
But the devil is in the detail. Services, apps and infrastructure need to be developed and deployed efficiently at global scale. They must be able to integrate and interoperate with other services and apps, whether known, partly known or unknown. Yet they must be resilient in the face of failure or a misbehaving environment. The entire IoT system must handle millions of events in a short period of time and provide a consistent and competitive user experience. Users simply expect the system to work with Martini availability — any time, any place, anywhere! That’s a challenge. The crowd is puzzled, really puzzled. Long live software architects!
Obviously the role and meaning of architecture, and therefore the role and responsibilities of architects, have evolved during the rise of the Internet of Things and the technologies on which it is built. With the availability of cloud computing, big data, apps, microservices and open-source software for many computational domains, aspects that were an architectural decision in the past are now a minor detail because they are provided out-of-the-box. Agility empowered developers to take responsibility for their code and to cultivate an architecture for their system that emerges over time. There is no need for a nominated architect in such power teams.
On the other hand, what was a detail in the past can become a development bottleneck in the digital age. Communication in the IoT is remote, which requires an explicit design between the things. Service interfaces, service interactions, and service integration are no longer centrally coordinated, but matter when plugging services together to an entire system. Security and resilience are more important quality attributes in system design than they were in the past. The evolvability of a software regarding new technologies and market demands is essential to keep pace in an agile software business. Digital natives expect user experience, not just a GUI. With DevOps, the quality of the code, the choice of tools, and the structure of teams are all things that can dominate or reduce cost and enable agility. There is an endless list of novel architectural aspects to consider in the IoT world.
Architecture concerns many things, including the significant decisions that shape a system. These decisions can be few, but they matter, and they may change with time. Sometimes you can see the architecture in a PowerPoint diagram or a slogan, but most often you see it in the code and the config. Architecture involves organisation, prioritisation and evaluation — which details are the significant ones, which are not? And this changes with time, which means the concerns of architecture are ongoing and need to be integrated into the process.
This talk outlines the new role and responsibilities of architecture and architects in the face of IoT, the cloud and the ongoing digitization and digitalization of many non-software domains.
Topics covered include:
Prologue
* Who needs an architect? On the role of architecture and architects (in agility) and why it is important
* How modern software technology, new architecture styles, and the IoT impact the role of software architects
The Story
* The fall of Architectus Reloadus -- reflections on an architect profile of the Pre-Agile era, and why it is threatened by extinction. Basis for the reflection is the characterization of Architectus Reloadus in Martin Fowler’s paper (Who Needs an Architect?)
* Architectus Oryzus -- reflections on the predominant architect species of today, and why Architectus Oryzus is not fully fit for the future. Basis for the reflection is the characterization of Architectus Oryzus in Martin Fowler’s paper (Who Needs an Architect?) and its mapping to the Digitalized, IoT world
* The rise of Architectus Digitus -- a discussion of a new species of architects in the Digital Age. Focus are in particular new and rediscovered architect responsibilities, for example, design for evolution and continuous change, design between things, end-to-end thinking, user experience, scalability, availability, security, and resilience.
Epilogue
* Software Architects are dead! Long Live Software Architects!



Kevlin Henney
Curbralan
Independent Consultant & Trainer

Frank Buschmann
Siemens AG, Corporate Technology
Senior Principal Engineer

Donnerstag, 01.01.1970   |   17:45 - 18:45 Uhr   |    Di 3.4

Integrative Datenmodellierung und Verarbeitung mit Graphdatenbanken am Beispiel der Panama Papers

Journalisten sind Autoren, keine Entwickler. Wie konnten 400 Journalisten, unterstützt von nur 3 Entwicklern über ein Jahr aus über 11 Mio. Dokumenten, die ihnen im Rahmen des Panama Papers Leaks zugespielt wurden, all die Schlüsse und Verbindungen ziehen, die zu den bekannten Enthüllungen über Offshore-Aktivitäten bekannter Persönlichkeiten führten?
Die Daten und Metadaten wurden in einem Graphmodell zusammengeführt. Gemeinsam konnten in Neo4j neue Erkenntnisse repräsentiert und visualisiert werden.
Wie das vor sich ging, möchte ich demonstrieren.

Zielpublikum: Entwickler, Fachanwender, Entscheider, Architekten
Voraussetzungen: keine
Schwierigkeitsgrad: Anfänger Extended Abstract
Bei der Betrachtung heutiger Herausforderung an die Datenverarbeitung wird meist nur das Volumen in Betracht gezogen. Die zunehmende Komplexität und Vernetzung der Informationen wird oft außer Acht gelassen.
Gerade dabei könnten Werkzeuge wie Graphdatenbanken helfen, für Fachanwender, Konzepter, Entwickler und Entscheider ein konsistentes Datenmodell durch alle Iterationen von Anforderungen, Design, Entwicklung zu nutzen.
Am Beispiel der Panama Papers möchte ich zeigen, wie das in einem nicht-technischen Team mit Hilfe von quelloffenen Tools wie Neo4j, Lucene und Apache Spark erfolgt ist. Wie wir vielerorts gelesen haben, war die Arbeit zur Zusammenführung isolierter Informationen sehr erfolgreich.
Ich habe diesen Vortrag schon mehrere Male gehalten, besonders die Hintergründe und der aktive Demo-Teil haben die Zuhörer begeistert und angeregt, diese Technologien auch für ihre Anwendungsfälle in Betracht zu ziehen.



Michael Hunger
Neo4j, Inc.
Director Developer Relations Engineering Neo4j

Donnerstag, 01.01.1970   |   11:00 - 11:45 Uhr   |    Do 2.2

The Rationale for Continuous Delivery

Many people working in software development spend their careers without seeing what good looks like. Our history is littered with inefficient processes creating poor quality output, too late to capitalise on the expected business value. How have we got to this state? How do we get past it? What does good really look like? Continuous Delivery changes the economics of software development, find out how and why.

Target Audience: Architects, Developers
Prerequisites: project experience
Level: Practicing



Dave Farley
Continuous Delivery Ltd

Donnerstag, 01.01.1970   |   17:45 - 18:45 Uhr   |    Di 4.4

Agile Software Engineering First! Organisationswandel nach dem Pull-Prinzip

Vor allem größere Organisationen scheitern daran, agile Prozesse wie z.B. Scrum in ihre Teams zu verankern.
Dabei sind die meisten Teammitglieder zu Beginn durchaus hoffnungsvoll, dass die agilen Prozesse ihr Leben im Legacy-Code inmitten von Bergen von Bugs deutlich verbessern werden.
Aber was wäre, wenn sie statt der Prozesse zuerst die Art, wie wir programmieren, ändern würden? Wenn sie zuerst agile Entwicklung praxisnah und auf ihren Alltag abgestimmt lernen könnten? Käme dann das Verlangen nach organisatorischem Wandel nicht von selbst? Zielpublikum: Entwickler, Manager, Entscheider, Projektleiter
Voraussetzungen: keine
Schwierigkeitsgrad: Anfänger



Tilmann Glaser
it-economics GmbH
Software Architekt

Donnerstag, 01.01.1970   |   11:00 - 11:45 Uhr   |    Do 3.2

Scrum professionell skalieren - warum mit Nexus?

Scrum bietet erfolgreiche Techniken, um am Ende einer Iteration ein einziges Done Increment zu liefern. Dazu werden die Abhängigkeiten innerhalb eines Teams aufgelöst. Die auf Scrum basierenden Frameworks zur Skalierung versuchen das Gleiche für mehr als ein Team. Ungelöste Abhängigkeiten sind Sprengsätze für die Intention, die Time-to-Market zu beschleunigen.
Der Vortrag schildert Nexus‘ Ansatz, sich dieser Herausforderung zu stellen und vergleicht ihn mit denen anderer Skalierungs-Frameworks.

Zielpublikum: Manager/innen, Entwickler/innen, Product Owner, Scrum Master
Voraussetzungen: Scrum Kenntnisse
Schwierigkeitsgrad: Fortgeschritten


Extended Abstract
Scrum hat verschiedene Artefakte, Meetings, Regeln und genau ein Ziel: Am Ende jedes Sprints ein „Done“, also alle Anforderungen erfüllendes, Inkrement zu liefern. Dabei enthalten alle Scrum Bestandteile verschiedene Ausgestaltungen der gleichen Kernidee: Abhängigkeiten innerhalb des Teams aufzulösen oder, wo das nicht möglich ist, konstruktiv zu managen. Die auf Scrum basierenden Frameworks zur Skalierung übertragen die Scrum Techniken auf Projekte mit mehr als einem Team. Damit wächst die Zahl der gegenseitigen Abhängigkeiten und mit ihr die Bedeutung der Fähigkeit, diese Art der Komplexität zu lösen. Denn die Abhängigkeiten sind einer der häufigsten Gründe dafür, warum die Produktivität trotz der Skalierung nicht steigt, zumindest nicht so wie angestrebt.
Scrum.org hat mit Nexus ein Framework entwickelt, das sich genau dieser Herausforderung annimmt: Nexus zielt darauf, Abhängigkeiten zu lösen, die zwischen mehreren Teams auftreten und integriert die Arbeit der einzelnen Teams. Der Grad dieser Integration wird jeden Tag überprüft und liefert die Inhalte für die tägliche Planung der Scrum Teams.
Unterstützung erhalten die Entwicklerteams dabei von einer Nexus-Besonderheit, dem Nexus Integrationsteam. Dieses Team trägt die Verantwortung dafür, dass am Ende des Sprints ein „Integrated Done Increment“ geliefert wird.
Der Vortrag illustriert diesen Ansatz und vergleicht ihn damit, wie andere verbreitete Frameworks an die Frage der Abhängigkeiten herangehen. Dreh- und Angelpunkt der Betrachtungen ist die Praxistauglichkeit des jeweiligen Konzepts.



Fahd Al-Fatish
andrena objects ag

Marion Gakstatter
andrena objects
Agile Coach

Donnerstag, 01.01.1970   |   17:45 - 18:45 Uhr   |    Di 5.4

PROGRAMMÄNDERUNG: RE@Agile (IREB) - Die Zukunft des Requirements Engineering im agilen Kontext

"Wir haben uns Zeit gelassen" - so könnte man den RE@AGILE Syllabus des IREB beschreiben der die Klüfte zwischen Requirements-Spezialisten und der agilen Entwicklung beheben, den RE Spezialisten eine Zukunftsperspektive und der agilen Entwicklung ein erprobtes Toolset an die Hand geben will. In vom IREB gewohnter Qualität werden die Sachverhalte beleuchtet, bewertet und in das rechte Licht gerückt. Der Vortrag stellt die Ergebnisse der agilen Arbeitsgruppe dar die RE@Agile entwickelt hat.

Zielpublikum: An RE und Agil Interessierte
Voraussetzungen: Neugier
Schwierigkeitsgrad: Anfänger Extended Abstract
Obwohl mehrere Studien zeigen, dass Requirements Engineering (RE) eine wichtige Disziplin für erfolgreiche Software-und Produktentwicklung ist, so wird RE oft als in Konflikt mit agilen Entwicklungsansätzen stehend wahrgenommen. RE beschäftigt sich mit der systematischen Erhebung und Dokumentation von Anforderungen während das agile Manifest die Wichtigkeit des Inkrements funktionierender Software über die umfangreiche Dokumentation hebt.
Mit dem Start des agilen Produktes RE@AGILE und der zugehörigen Zertifizierung kombiniert das IREB die beiden Sichtweisen von RE und Agile um das optimale Portfolio an Strategien, Prinzipien, Techniken und Tools aus beiden Disziplinen anbieten zu können.
RE@AGILE will dabei den offen gelebten Dogmatismus überwinden und die oft fast religiös geführten Kämpfe der Vergangenheit zwischen den Disziplinen sachlich befrieden und aufzeigen, dass es sich hierbei fast ausnahmslos um Missverständnisse sprachlicher Natur handelt welche durch Dialekte derselben Sprache hervorgerufen werden.
Nimmt man zum Beispiel den geläufigsten Vorwurf, dass RE eine vollständige vor Projektstart durchzuführende Anforderungserhebung fordert, der wird beim Lesen des zugehörigen Foundation Syllabus überrascht sein nichts davon zu finden. Sehr wohl finden sich derer "Fremdwörter" in einem Projektkontext wieder da sie durch die Vorhersagemodelle wie Anglizismen in die deutsche Sprache hineingebracht wurden.

Sie lernen:
  • Verstehen der vermeintlichen Unterschiede und Missverständnisse zwischen den Disziplinen Agile und RE
  • Erkennen des (Mehr-)Wertes der Synergiehebung bei der Kombination beider Disziplinen nach RE@AGILE
  • Erkennen der Perspektiven und Möglichkeiten für Agile und RE Arbeitende





Kim Lauenroth
adesso AG
Chief Requirements Engineer

Markus Meuten
Agile Experts CH
Scrum Coach und Trainer

Donnerstag, 01.01.1970   |   11:00 - 11:45 Uhr   |    Do 4.2

Transitionssteuerung mit Capabilities

Wenn Transitionen mehr als 20 oder 30 Teams an verschiedenen Standorten umfassen, wird es schwierig, den Fortschritt transparent zu machen und die nächsten Schritte zu planen. Oft wird dabei auf agile Praktiken geachtet, was aber „Cargo Cult“ fördert und keinen Bezug zu Geschäftszielen hat.
In der Transition, über die ich diesem Vortrag erzähle, sind wir daher einen anderen Weg gegangen. Aus der Kombination von Geschäftszielen, einem Change-Modell und Fähigkeiten agiler Teams wurde Transparenz geschaffen und die Transition gesteuert.

Zielpublikum: Senior Manager, Manager, Agile Coaches
Voraussetzungen: Kenntnisse über agile Vorgehen und Transitionen
Schwierigkeitsgrad: Fortgeschritten


Extended Abstract
Der Vortrag ist eine anonymisierte Case Study aus dem Halbleiterbereich mit über 3000 Beteiligten. Er beschreibt die Suche nach einer geeigneten Darstellung und wie der Durchbruch beim oberen Management gelang, als ein für alle Ebenen sinnvolles Modell gefunden war.
Nachdem der Management-Support für die Transition nach zwei Jahren wegbrach, ergab sich eine gute - wenn auch unfreiwillige - Validierung des Modells: Bei den Teams mit hohen Ratings hielt sich die agile Arbeitsweise trotz der wegbrechenden Unterstützung, die Teams mit niedrigen Ratings fielen in alte Arbeitsweisen zurück.
Die Case Study stößt bei Managern immer wieder auf hohes Interesse und ich würde sie erstmals öffentlich vorstellen.



Jens Coldewey
improuv GmbH
Principle Consultant

Donnerstag, 01.01.1970   |   17:45 - 18:45 Uhr   |    Di 6.4

Surprisability – Organisations that Rock when they are Rocked

“We rock when we’re rocked!” Mindful, successful, messy, elegant, free and full of joy.
A new aspiration for great organisations: able to grow from surprises, to rise strong from falling. Daring and brave, we surprise others.
This talk is about creating organisations that keep their competition awake at night while their people are enjoying making ever new waves.
Surprisability is a pragmatic, actionable and positive reframe of Taleb’s idea of anti-fragility. Target Audience: Managers, Leaders, Coaches, Learners, Developers, Project Leaders, Culture Hackers, Coaches.
Prerequisites: curiosity, experience working in and with organisations
Level: Practicing Extended Abstract
Surprisability has two faces: the first is our ability to grow from surprises, to rise strong from falling. This allows us to be daring and brave, and nurtures the second face: we surprise others. We predictably astonish markets, customers, partners and competitors.
Complexity is like a sea with waves. We can employ different strategies to deal with the waves: try staying out of their way to be safe and dry, surf them and nimbly jump on the next opportunity, or we can make them. This talk is about creating organisations that keep their competition awake at night while their people are enjoying making ever new waves.
Complex systems have three qualities that make predictive approaches not work:
- they are messy. We can never see/know all the details.
- they are situational. They can change more quickly than we can track it.
- they are contextual: Depending on our perspective the kind of "thing" we are looking at can change entirely.
These organisations need to grow five capabilities:
- Clarity of identity (we know who we are)
- Clarity of purpose (we know what we want)
- Clarity of reality (we know where we are and are not afraid to face what’s really going on)
- Courage in the face of uncertainty and ambiguity
- Agility - we want to challenge and improve the way we do things and experiment. We love learning.
I will explore these capabilities and give practical examples of how to grow our awareness and capacity as an organisation in each of them. There will be extensive room for interaction.



Olaf Lewitz
TrustTemenos Academy
Founder and Agile Coach

Donnerstag, 01.01.1970   |   11:00 - 11:45 Uhr   |    Do 5.2

Simulating APIs for Effective Testing: (Micro)Service Virtualisation in the 21st Century

As we work more with distributed systems, microservices and legacy services, we introduce a web of inter-service dependencies that cause us to face many challenges across our development and deployment pipeline. Resource consumption, deployment time, our testing feedback cycle, third party service flakiness and costing can cause problems. This talk addresses these issues by using some open source tooling to demonstrate how the technique of ‘API Simulation’ can be used to overcome these issues.

Target Audience: Developers, testers
Prerequisites: Only basic knowledge of programming, ops, CI/CD, automated tests, http
Level: Practicing


Extended Abstract

Currently the way in which teams test interaction with undeployed external services tends to be adhoc - sometimes teams use mocks which replace what should be the architectural boundary of your application, removing value from your tests. They also use sandbox environments, which can be flaky, costly or do not help you produce deterministic tests. I hope to demonstrate better practices, which involve using Hoverfly, a lightweight service virtualisation tool to quickly spin up and tear down virtual services. I want to emphasise how a virtual service should be a first class citizen, automatically built and published as an artefact alongside your actual services. And finally I wanted to address the problem of managing virtual service data by having a centralised repository to contain it. These concepts are not only relevant to microservices, but also to people who want to test against legacy services. It's also important to note that as part of an alternative to enterprise tooling, the open source solutions aim to move away from clunky desktop applications towards something more lightweight that can fit into more modernised development environments and pipelines.



Andrew Morgan
OpenCredo
Consultant

Donnerstag, 01.01.1970   |   17:45 - 18:45 Uhr   |    Di 7.4

Why TypeScript is a Game Changer for Web Development

JavaScript has a big advantage: Reach. You can run JavaScript on the client and the server, on your phone, your PC and even on your smart watch. Unfortunately, JavaScript has disadvantages when it comes to larger project implemented by multiple developers. TypeScript was built to solve this problem by adding a language layer on top of JavaScript. In this demo-heavy session, Rainer Stropek (Microsoft Azure MVP, Microsoft Regional Director) introduces you to the TypeScript language.

Target Audience: Developers, Architects
Prerequisites: JavaScript
Level: Practicing Extended Abstract
JavaScript has a big advantage: Reach. You can run JavaScript on the client and the server, on your phone, your PC and even on your smart watch. Unfortunately, JavaScript has disadvantages when it comes to larger project implemented by multiple developers. TypeScript was built to solve this problem by adding a language layer on top of JavaScript. With TypeScript, you can create and add types where you need them. Compiler and IDE use them for compile-time type checking, IntelliSense, refactoring support, etc. In this demo-heavy session, Rainer Stropek (Microsoft Azure MVP, Microsoft Regional Director) introduces you to the TypeScript language. Rainer will start with the basics and work his way up to real-world examples using Node.js on the server and AngularJS on the client. This session requires basic JavaScript knowledge but no existing TypeScript experience.



Rainer Stropek

Unternehmer, Sprecher und Trainer

Donnerstag, 01.01.1970   |   17:45 - 18:45 Uhr   |    Di 8.4

Zwischenmenschliches Debugging – Kommunikations-„Überwachung” mal anders

Unser menschliches Gegenüber ist wie eine undokumentierte Thirdparty-Library: Wir müssen erst herausfinden, wie er/sie „tickt“, um zusammenarbeiten zu können. Und selbst bei bekannten Libraries gibt es immer wieder Überraschungen. Mit manchen Zeitgenossen geht Zusammenarbeiten besser, mit anderen weniger gut. Woran liegt das? Und was trage ich selbst dazu bei?
Wir debuggen einige Kommunikations-Antipatterns gemeinsam: Welche etablierten „Protokolle“ gibt es? Was führt zu Störungen? Und vor allem: Wie verhilft uns das zu besserer Kommunikation?

Zielpublikum: Architekten, Projektleiter, Entwickler, Manager
Voraussetzungen: Berufs-/Projekterfahrung ist von Vorteil
Schwierigkeitsgrad: Fortgeschritten Extended Abstract
Mit guter, wertschätzender Kommunikation beschäftigen wir uns oft erst ganz offen (z.B. in Form von Coaching oder Mediation), wenn sichtlich etwas schief gelaufen ist. Solches „Hotfixes" müssten nicht sein!
Details wie Sprache, Verhalten und Mindset sind hier besonders wichtig und grundsätzlich durch jeden Menschen - unabhängig von Hierarchiestufe und Rolle - wirkungsvoll umzusetzen.
Der Konferenzbeitrag soll dazu beitragen, dass „weiche" Themen wie menschliches Verhalten in unserem technischen Geschäft weiter Einzug halten. Dass sie selbstverständlich werden, denn sie bergen großes Potenzial für eine bessere - wertschätzende, offene und zielführende - Zusammenarbeit!



Cosima Laube
cosima-laube.de
Agile Software Engineer & Teamcoach

Donnerstag, 01.01.1970   |   09:00 - 09:45 Uhr   |    Mi 1.1-1

Serverlose Web-Architekturen mit der AWS Cloud Infrastruktur

Serverlose Cloud-Architekturen ermöglichen es, Anwendungen und (Micro-) Services zu bauen und zu betreiben, ohne eine dedizierte Infrastruktur verwalten zu müssen. Der Code wird natürlich noch auf Servern ausgeführt, aber das gesamte Server-Management wird vom Cloud-Anbieter übernommen. Dieser kümmert sich um Verfügbarkeit, Skalierung, Ressourcen-Management und die entsprechende Mutli-Tenancy-Fähigkeit der Systeme. Der Cloud-Benutzer kann sich nun voll und ganz auf die Ausführung und das Monitoring seiner Funktionen und Services konzentrieren.

Zielpublikum: Architekten, Entwickler, Manager, Entscheider, Operations, Betrieb
Voraussetzungen: Architekturkenntnisse, Projekterfahrung
Schwierigkeitsgrad: Anfänger Extended Abstract
Der Vortrag präsentiert Beispiele, wie zeitgemäße, aber serverlose Microservice-Cloud-Architekturen am Beispiel von Amazon Web Services schnell und agil aufgebaut und betrieben werden können. Er beleuchtet hierbei u.a. die Konzepte von AWS Lambda, Amazon API-Gateway und DynamoDB und zeigt eine funktionsfähige Anwendung, die auf diesen Konzepten basiert, ohne sich mit dem Server-Management beschäftigen zu müssen.



Niko Köbler

freiberuflicher Software-Architekt und Developer

Donnerstag, 01.01.1970   |   11:00 - 11:45 Uhr   |    Do 7.2

Retro Powers and their Dangers

Retrospectives are marvelous and always helpful! Aren't they? Ever had a team that did not love retrospectives? How comes? In this talk you will learn that retrospectives are probably not what you want. But also how they are eventually the best tool to get you where you want to be. We will discuss the good, the bad and the ugly of retrospectives with practical examples from the authors experience. We will learn what you should be aware of while planning and facilitating retrospectives and how to support the teams self-organization.

Target Audience
: Scrum Masters, Agile Coaches, Developers, Project Leaders, Managers
Prerequisites: none
Level: Practicing
Extended Abstract

In this talk, I'd like to start with the provocative hypothesis, that retrospectives are actually a bad thing. Why? Because they tend to take the responsibility for a *continuous* improvement process from the team. Ever heard this: "Oh, that would be a good point to mention in a retro."
But why waiting for a retrospective to improve stuff?
And still retrospectives might be the best way to get people on their way to understand and live this responsibility. How you might get there is the content of this talk.



Fabian Schiller
Agile Fab
Agile Coach, Scrum Master und Trainer

Donnerstag, 01.01.1970   |   09:00 - 10:30 Uhr   |    Mi 2.1

Architekturentscheidungen: Wie man vor lauter Wald noch die Bäume sehen kann

Architekturdokumentation versucht zumeist, ein komplettes und genaues Abbild der technischen Realität zu schaffen, vergisst dabei aber, dass sie nicht Maschinen, sondern Menschen adressiert. Diese wünschen sich allerdings eine logische Folge, Höhepunkte, Hintergründe und auch eine gute Geschichte! Dieser Vortrag illustriert anhand von vielen guten und schlechten Beispielen, wie man Architekturdokumentation auf den Punkt und an den Menschen bringt.

Zielpublikum: Entwickler, Architekten
Voraussetzungen: Projekterfahrung
Schwierigkeitsgrad: Fortgeschritten Extended Abstract
Wer liest schone gerne Architekturdokumentationen? Sie sind meist unverständlich, zu oberflächlich oder zu sehr im Detail, voller Abkürzungen, ohne Zusammenhang und dazu auch noch langweilig. Gleichzeitig ist Kommunikation in einer zunehmend komplexen Welt ein kritischer Aspekt. Architekten müssen lernen, besser zu kommunizieren!
Als Chefarchitekt eines internationalen Konzerns sieht der Referent täglich gute und hauptsächlich schlechte Architekturdokumente. Er hat daher über Jahre hinweg Leitfäden und Techniken entwickelt, um komplexe technische Zusammenhänge greifbar zu machen. Er ist auch dafür bekannt, schwierige Architekturen, wie z.B. asynchrone Messagingarchitekturen, leicht verständlich darzustellen.



Gregor Hohpe
Allianz SE
Chefarchitekt

Donnerstag, 01.01.1970   |   11:00 - 11:45 Uhr   |    Do 8.2

Industrial Data Space: Plattform für die digitale Transformation von Unternehmen

Der Vortrag präsentiert den "Industrial Data Space", eine unternehmensübergreifende Initiative unter Beteiligung der Fraunhofer-Gesellschaft mit dem Ziel der Entwicklung einer Plattform als Enabler für Datenorientierte Geschäftsmodelle und Big Data as a Service, um die digitale Souveränität über Daten und Dienste für Wirtschaft und Gesellschaft zu ermöglichen. Die Initiative wird getragen von der Anwendervereinigung IDS e.V. Als beispielhafte Use-Case-Szenarien werden Anwendungen aus Bereichen wie Logistik & Industrie 4.0 präsentiert.

Zielpublikum: Projektleiter, Architekten, Entwickler, Manager, Entscheider
Voraussetzungen: Grundkonzepte zu Daten-Analyse-Ansätzen
Schwierigkeitsgrad: Anfänger



Jan Jürjens
Fraunhofer Institut für Software- und Systemtechnik ISST
Entwicklungsgruppenleiter

Donnerstag, 01.01.1970   |   09:00 - 10:30 Uhr   |    Mi 4.1

Welcome to the Matrix: Creating an Organization that Embraces Agile

Traditional organizations focus on roles and controls. Team members frequently report to role-specific managers. This can lead to some dysfunctions and challenges when you're on an Agile team. After all, if we embrace the idea that Agile teams are self-organizing, setting their team's work priorities, and communicating openly, what happens when your manager gives you conflicting direction?

Target Audience: Manager, Project Leader, Decision Maker, Executive, Organizational Coach
Prerequisites: Basic knowledge of Agile/Scrum/Kanban
Level: Practicing Extended Abstract
This is a highly interactive session that engages the participants in discussion and activity. They share their organizational challenges, discuss them, explore ways to address them, and integrate what they learn from me during the session. It is both educational and engaging, and encourages them to consider ways that they can implement change.



Mike Leber
Agile Experts e.U.
Management Consultant, Agile Coach

Donnerstag, 01.01.1970   |   09:00 - 09:45 Uhr   |    Do 2.1-1

Software architecture as code

Ask somebody in the building industry to visually communicate the architecture of a building and you'll be presented with plans that reflect reality. In contrast, a software developer will likely present a confused mess of boxes and lines, created using a general purpose diagramming tool, that don't reflect the code. This session will look at why this happens, how architecturally-evident coding styles can help and how to use tooling and static analysis techniques to automate the generation of useful software architecture diagrams.

Target Audience
: Architects, Developers
Prerequisites: Some experience developing software
Level: Practicing


Extended Abstract
Ask somebody in the building industry to visually communicate the architecture of a building and you'll be presented with site plans, floor plans, elevation views, cross-section views and detail drawings. In contrast, ask a software developer to communicate the software architecture of a software system using diagrams and you'll likely get a confused mess of boxes and lines, created using a general purpose diagramming tool, that don't reflect the code. This session will look at why this happens and how to resolve the conflict between software architecture and code through the use of architecturally-evident coding styles. We'll also look at how to use tooling and static analysis techniques to automate the generation of useful software architecture diagrams.



Simon Brown

independent consultant

Donnerstag, 01.01.1970   |   09:00 - 09:45 Uhr   |    Mi 5.1-1

Fehlertolerante Systeme testen mit seiteneffektfreier Fehlerinjektion – Eine Fallstudie

Selbst wenn zufällige Fehler (HW) in voll funktionalen und in eingeschränkten Betriebsmodi auftreten, erledigt ein zuverlässiges System Aufgaben, für die es ausgelegt ist, korrekt und rechtzeitig. Im Mittelpunkt des Vortrags stehen Tests, die verlässliche Aussagen zum Verhalten des Systems schnell liefern, auch in kritischen, jedoch schwierig herzustellenden Situationen. Wenn das Zielsystem testbar gestaltet ist, dann kann ein passendes Testsystem Störungen stimulieren und Reaktionen beobachten, ohne testbedingte Seiteneffekte zu verursachen.

Zielpublikum: Tester, Architekten, Sicherheitsmanager, Produktmanager
Voraussetzungen: Kenntnisse über verteilte, zeitgesteuerte Systeme
Schwierigkeitsgrad: Fortgeschritten



Joachim Fröhlich
Siemens AG
ACM Senior und IEEE Member

Donnerstag, 01.01.1970   |   09:00 - 09:45 Uhr   |    Do 3.1-1

Hurra wir werden Agil – aber wie?

Agil ist klasse. Agile Praktiken, agile Prozesse, agile Organisation, agile Menschen. Aber was bedeutet Agilität wirklich? Wie wird man agil, oder geht das gar nicht, weil der Rahmen nicht passt? Diese Session klärt auf, was Agilität auf welcher Ebene bedeutet. Sie gibt Rat, wie sich ein Team und/oder eine Organisation entwickeln kann und wie bei der Führung oder den Mitarbeitern Bewusstsein geschaffen wird. Besonderes Augenmerk wird auf Hürden und Hindernisse gelegt und wie das Tal der Tränen (das kommen wird) überwunden werden kann.

Zielpublikum: Manager, Entscheider, Abteilungs-, Team und Bereichsleiter, Scrum Master, Product Owner
Voraussetzungen: Verständnis für Organisationen und kontinuierliche Verbesserung sowie Agilität
Schwierigkeitsgrad: Fortgeschritten


Extended Abstract

Ausgehend von den Grundlagen, für was das Manifest für Agile Softwareentwicklung gedacht war und ist wird beschrieben, wer welches Interesse an „Agilität“ im Unternehmen hat. Hierzu werden die unterschiedlichen Ebenen eines „klassischen“ Unternehmens dargestellt. Es wird verdeutlicht, dass das Thema Agil eine tiefgreifende Bedeutung und starke Konsequenzen hat.
Vom motivierten Individuum über das Team und das Thema Führung bis hin zur Unternehmensorganisation werden die Werte und Prinzipien beleuchtet und deren Bedeutung für den jeweiligen Kontext untersucht.
Im Weiteren wird gezeigt wie eine Transformation vonstattengehen kann. Dies wird untermauert mit Beispielen aus der eigenen HEC Unternehmenstransformation bzw. aus unseren Beratungserfahrungen.
Kritisch hinterfragt wird die Arbeit an einzelnen Menschen und die Arbeit am System. Weiterhin werden verschiedene Vorgehensweisen zur Transformation diskutiert.



Frank Düsterbeck
HEC GmbH
Agiler Berater

Donnerstag, 01.01.1970   |   09:00 - 09:45 Uhr   |    Mi 7.1-1

Dart für Java-Programmierer

Java findet dank Android in der App-Entwicklung unzählige Male Verwendung und ist nach wie vor die Nr. 1 im Enterprise - aber alt. Dart ist vergleichsweise neu. Und verspricht ebenfalls Programme für das Web, den Server und mobile Geräte. Wie leicht fällt gestandenen Java-Entwicklern der Einstieg in Dart? Welche Tools helfen bei der Entwicklung? Und wie mächtig und nutzungsfreundlich ist die zugehörige Bibliothek? Dieser Talk bietet einen kompakten Einstieg in Dart, stellt Stärken und Schwächen der Sprache vor und skizziert Einsatzszenarien.

Zielpublikum: Entwickler
Voraussetzungen: Java-Kenntnisse
Schwierigkeitsgrad: Fortgeschritten Extended Abstract
Java ist nach wie vor der Platzhirsch unter den Programmiersprachen, hat aber schon seit einiger Zeit den unschönen Ruf, das Erbe von Cobol anzutreten. Auch die Architektur für Unternehmensanwendungen ändert sich. Microservices verdrängen den Monolithen. Und damit auch Java? Wahrscheinlich nicht auf absehbare Zeit. Aber Entwickler sollten ein Auge auf Alternativen werfen. Dieser Talk soll Lust auf Neues machen. Mit viel Code zeigt ein erfahrener Java-Entwickler, Android-Programmierer und Buchautor, was cool an Dart ist und wie Java-Freaks schnell den Einstieg in Dart schaffen.



Thomas Künneth
MATHEMA Software GmbH
Senior Consultant

Donnerstag, 01.01.1970   |   09:00 - 09:45 Uhr   |    Do 5.1-1

Going the Agile Path Securely – Lektionen aus proaktiver Sicherheit in agiler Software-Entwicklung

In dieser Session werden wir neue Herausforderungen im Bereich Sicherheit durch die Einführung agiler Prozesse beleuchten. Wir beschreiben die notwendigen Schritte, um nicht nur Sicherheit in agilen Prozessen zu etablieren, sondern auch alle (in)direkt an der Entwicklung Beteiligten von den Entwicklern bis ins Management in diese Prozesse zu integrieren. Das Portfolio an Maßnahmen reicht von Trainings über Tools bis zu neuen Rollen, die ausgefüllt werden müssen. Schließlich nennen wir Ansätze, die sich als nicht zielführend erwiesen haben.

Zielpublikum: Entwickler, Projektleiter, Manager, Entscheidungsträger
Voraussetzungen: Projektmanagement-Erfahrung, Software-Entwicklungserfahrung
Schwierigkeitsgrad: Fortgeschritten



Bastian Braun
mgm security partners
Senior Consultant IT Security

Donnerstag, 01.01.1970   |   09:00 - 09:45 Uhr   |    Mi 8.1-1

Avatar – Telepräsenzrobotik mit Nao und Kinect

Mit Hilfe von humanoiden Robotern, VR-Brillen und 3D-Kameras zur Gestenerkennung kann man die Welt aus den Augen eines Roboters erleben und diesen berührungslos fernsteuern.
Das Hardware-Hacking-Team der TNG Technology Consulting GmbH hat ein Telepräsenzrobotik-System auf Basis eines NAO-Roboters, einer Oculus Rift und einer Kinect One implementiert, um damit eine immersive Outer-Body-Experience - ähnlich wie im Film „Avatar“ - zu ermöglichen.
Durch interaktive Demonstrationen wird u.a. die Programmierung des NAOs im Vortrag nähergebracht.

Zielpublikum: Entwickler, Entscheider, Manager
Voraussetzungen: Grundkenntnisse in der Programmierung
Schwierigkeitsgrad: Anfänger Extended Abstract
Mit Hilfe von humanoiden Robotern, Virtual-Reality-Brillen und 3D-Kamerasensoren zur Gestenerkennung kann man die Welt aus den Augen eines Roboters erleben und diesen berührungslos fernsteuern.
Das Hardware-Hacking-Team der TNG Technology Consulting GmbH hat ein Telepräsenzrobotik-System auf Basis eines NAO-Roboters, einer Oculus Rift und einer Kinect One implementiert, um damit eine immersive Outer-Body-Experience - ähnlich wie im Film „Avatar“ - zu ermöglichen.
Im Rahmen dieses Vortrags wird durch mehrere interaktive Live-Coding Beispiele die einfache Programmierung des Roboters mit Programmiersprachen wie Python oder Java nähergebracht.
Nach einer Live-Demonstration werden Sie durch den gesamten Programmablauf des Telepräsenzsystems geführt und auch die Herausforderungen kennenlernen, welche sich bei der Implementierung boten.
Die Sprecher geben einen Einblick in die Welt der Telerobotik und gehen neben einem kurzen historischen Abriss insbesondere auf aktuelle Trends und Anwendungsfälle ein.



Thomas Endres
TNG Technology Consulting GmbH

Martin Förtsch
TNG Technology Consulting GmbH
Software Consultant

Donnerstag, 01.01.1970   |   09:00 - 10:30 Uhr   |    Do 6.1

Agile Project Flow Management mit Kanban

Der Projektbegriff rückt in den Hintergrund, sobald es um agile Frameworks geht. Dennoch verfolgen vor allem größere Organisationen ihre Ziele mit Hilfe von Projekten. In diesem Workshop beleuchten wir den Status quo des Projektmanagements vor dem Hintergrund der dramatisch steigenden Umweltkomplexität und Unsicherheit. Wir führen in eine Form der Agilisierung von Projekten ein, die sich die Kanban-Methode zunutze macht und den Fokus auf Transparenz, Flow im System und laufende Verbesserung richtet.

Zielpublikum: Programm-/Projektleiter, Teamleiter, Entwicklungsleiter
Voraussetzungen: PM-Kenntnis vorausgesetzt, Kenntnis von bzw. Erfahrung mit agilen Methoden kann nützlich sein
Schwierigkeitsgrad: Fortgeschritten


Extended Abstract
Der Projektbegriff rückt in den Hintergrund, sobald es um agile Frameworks geht. In den Vordergrund rücken Produkte, Wertsteigerung für Kunden sowie der Herstellungsprozess. Und dennoch verfolgen vor allem größere Organisationen nach wie vor ihre Ziele mit Hilfe von Projekten.
In diesem Workshop beleuchten wir den Status quo des Projektmanagements vor dem Hintergrund der dramatisch steigenden Umweltkomplexität und Unsicherheit. Wir führen in eine Form der Agilisierung von Projekten ein, die sich die Kanban-Methode zunutze macht, dabei den Fokus auf Transparenz, den Werteflow im System und eine laufende Verbesserung richtet. Wir zeigen die Zusammenhänge eines komplexen Service-Netzwerks, das Verhalten komplexer Systeme und die Nutzung von Probabilistic Forecasting.



Mike Leber
Agile Experts e.U.
Management Consultant, Agile Coach

Donnerstag, 01.01.1970   |   11:00 - 11:45 Uhr   |    Mi 1.2

Service Discovery for machines and humans

Combining Continuous Deployment and a Microservice architecture brings new challenges to develop and operate your platform. A service discovery enables you to build a flexible system. Developers need to have an up to date view on the deployed services as well. A human readable registry with relevant information is needed.
I will outline what we solved with a Service Registry and what impact it had on our architecture. Furthermore I will show what we needed to give our developers to get an up to date view on the whole platform.

Target Audience: Architects, Developers
Prerequisites: Concept Microservices, Continuous Deployment
Level: Practicing Extended Abstract
In the last couple of years Continuous Deployment paved the way for delivering customer features very fast to production. Still the code was deployed often on the very same machines every time. If there is a problem or you need to scale fast there are very likely manual steps to fix things. Combining this with a fast growing number of microservices and it can get out of hand very quickly. This is where a Service Discovery can be of a great benefit. It solves the problem with a minimal impact on the rest of the system.
With lot’s of microservices running, developers facing the problem of knowing what are the capabilities of all these services, who is responsible if they have a question, where can I find more information about it, who talks to my service if I need to make an incompatible change? Usually you find lot’s of outdated information about that in the company wiki. So everybody ends up at digging through the code and commit logs. What needed here is what Martin Fowler called a ‘Humane Registry’. Automated up to date information about the services in a readable format for humans.
In this talk I will outline how and what we solved with a Service Registry and what impact it had on our architecture. Furthermore I will show what we needed to give our developers and architects to get an up to date view on the whole platform.



Oliver Wehrens
E-POST Development GmbH
Chief Architect

Donnerstag, 01.01.1970   |   09:00 - 10:30 Uhr   |    Do 7.1

Evolving organizations using applied systems thinking

Leaders are often talking about change. But often we do not get the change we wanted. Somehow we feel our culture is hitting back. A root cause is, that Complexity and Systems Thinking are hard to grasp and even harder to apply practically. In this workshop I will – based on my own experience being a senior transformational leader in a several 1000 people organization - introduce you to a Systems Thinking tool that can help you make your organizational evolution successful. Together we will try out the tool.

Target Audience: Manager, Decision Maker, Scrum Master, Leader, Coach
Prerequisites: Basic leadership experience
Level: Practicing




Hendrik Esser
Ericsson

Donnerstag, 01.01.1970   |   11:00 - 11:45 Uhr   |    Mi 2.2

Idee: Microservices und Legacy-Modernisierung

Microservices scheinen auf den ersten Blick ein geeignetes Architekturstilmittel bei der Modernisierung/Migration von Legacy-Anwendungen zu sein. Mit Spezifikationen wie OData bzw. pragmatischen Ansätzen wie z.B Swagger bieten sich fast 20 Jahre nach OMG CORBA neue Chancen für eine performante und praktikable Integration bzw. Verkapselung von Legacy-Modulen. Leider sind aber nicht alle Arten von Legacy als Microservice geeignet. Der Vortrag zeigt Potenziale, aber auch Schwierigkeiten dieses Ansatz auf.

Zielpublikum: Architekten, Projektleiter, Manager, Entscheider
Voraussetzungen: Projekterfahrung
Schwierigkeitsgrad: Anfänger



Christian Dedek
Orientation in Objects GmbH
CTO

Donnerstag, 01.01.1970   |   09:00 - 10:30 Uhr   |    Do 8.1

Architektur einer IT-Transformation: 37 Dinge, die ein Chefarchitekt gelernt hat

„Digital Disruptors“ fordern etablierte Konzerne durch ihre hohe Agilität, Freiheit von Legacy-Systemen und tiefem Verständnis für Einsatzmöglichkeiten digitaler Technologien heraus. IT-Architekten spielen eine Schlüsselrolle bei der Transformation traditioneller Unternehmen, weil sie wissen, wie man neue Technologien gewinnbringend einsetzt, benötigen allerdings auch exzellente organisatorische, politische und kommunikative Fähigkeiten. Dieser Vortrag erweitert den Horizont von Architekten, um die Digitale Transformation mitgestalten zu können

Zielpublikum: IT-Architekten in großen oder mittelständischen Unternehmen
Voraussetzungen: mehrjährige Erfahrung als IT-, Enterprise- oder Software-Architekt im Unternehmen
Schwierigkeitsgrad: Fortgeschritten



Gregor Hohpe
Allianz SE
Chefarchitekt

Donnerstag, 01.01.1970   |   11:00 - 11:45 Uhr   |    Mi 3.2

Test-Driven Development: that's not what we meant

Test-Driven Development (TDD) has been so successful that it's now unfashionable. But many developers complain that being required to write tests just gets in the way. That wasn't our experience when we first stumbled onto TDD a dozen years ago, so what went wrong? Were we fooling ourselves, or did the message get confused along the way?
In this talk, Steve revisits the basics, the essence of what makes TDD work. He describes some common difficulties and how they can be addressed by understanding the principles of TDD.

Target Audience: Experienced developers who have been struggling with TDD
Prerequisites: programming experience, preferably some TDD experience.
Level: Practicing



Steve Freeman
Zuhlke Engineering

Donnerstag, 01.01.1970   |   11:00 - 11:45 Uhr   |    Mi 4.2

Ein agiles Führungsteam unter der Lupe

13 selbstorganisierende Scrum-Teams und flache Hierarchien stellten unser Managementteam vor neue Herausforderungen. Welche Aufgaben haben sie nun genau? Wie arbeiten sie zusammen? Nach zwei gescheiterten Versuchen einer agilen Zusammenarbeit haben wir uns im Führungsteam für einen dritten Anlauf entschieden. Nicht immer ganz schmerzfrei. Wir erzählen, wie wir heute zusammenarbeiten und was wir auf dem Weg dahin erlebt und gelernt haben. Kommen Sie mit uns auf die Reise zu einem agilen Führungsteam, inkl. einer großen Portion Alphatier.

Zielpublikum: Manager, Entscheider, Agile Coaches, Scrum Master, Change Manager, Leader
Voraussetzungen: Kenntnisse von Scrum
Schwierigkeitsgrad: Anfänger Extended Abstract
Die große Veränderung in unserem Unternehmen ab Januar 2012: 13 Scrum-Teams, agile Planung, eigenverantwortliche und selbstorganisierende Teams, andere Rollen und flache Hierarchien. Dies stellte auch das Managementteam vor neue Herausforderungen. Welche Aufgaben haben die wenigen verbleibenden Business Unit-Leiter nun genau? Wie arbeiten sie zusammen? Nach zwei gescheiterten Versuchen einer agilen Zusammenarbeit haben wir uns im Führungsteam für einen dritten Anlauf entschieden. Nicht immer ganz schmerzfrei. Das daraus resultierende Tempo stellte allerdings die Zusammenarbeit mit den Führungsleuten aus den anderen Bereichen auf die Probe. Auch die Geschäftsleitung bekam dieses etwas andere Führungsteam zu spüren. Wir erzählen, wie wir heute zusammenarbeiten, was wir auf dem Weg dahin erlebt haben, welche Auswirkungen dies auf die Geschäftsleitung und die angrenzenden Bereiche hatte, was wir daraus gelernt haben und wie wir eine komplette Restrukturierung überstanden haben. Angereichert mit Tipps für jene, die es auch probieren möchten. Kommen Sie mit uns auf die Reise einer Teambildung von Führungsleuten, inkl. einer größeren Portion Alphatier.



Renate Willimann

Bison Schweiz AG, Head of Business Unit Development

Martin Talamona

SPF Consulting AG

Donnerstag, 01.01.1970   |   14:30 - 15:30 Uhr   |    Mi 1.3

Herausforderung „Multi-Channel Architecture”

Die Zeiten einfacher Web-Anwendungen sind gezählt. Moderne Unternehmen stehen heute vor der Aufgabe, unterschiedlichste Kanäle, wie Web, Desktop, Mobile oder 3rd Party Clients, parallel bedienen zu müssen. Und das mit einer Architektur. Wie aber sieht eine passende Architektur aus? Welche neuen Herausforderungen ergeben sich durch die zusätzlichen Kanäle? Und welche Auswirkungen hat dies auf Aspekte wie Security, Schnittstellendesign oder das Datenmodell? In der Session „öffnen“ wir eine Web-Anwendung und stellen uns den Herausforderungen.

Zielpublikum: Architekten, Entwickler, Projektleiter, Entscheider
Voraussetzungen: keine
Schwierigkeitsgrad: Anfänger


Extended Abstract
Oftmals wird "Multi-Channel" gleichgesetzt mit Responsive Design. Dies setzt allerdings voraus, dass jeder Channel mehr oder minder dieselben Use-Cases bedient. Ein echter Business-Mehrwert wird aber erst erreicht, wenn jeder Channel seine speziellen Eigenschaften ausspielt, was automatisch eine deutlich größere Flexibilität - auch auf Ebene der Architektur - verlangt. Genau hier setzt die Session an und zeigt, wie eine Architektur aufgebaut sein sollte, die deutlich mehr erlaubt als "nur" Responsive Design.



Lars Röwekamp
open knowledge GmbH
Gründer der open knowledge GmbH

Donnerstag, 01.01.1970   |   14:30 - 15:30 Uhr   |    Mi 2.3

Ereignisorientierung im App-Ökosystem – Architekturdetails als Garant für erfolgreiche Integration

Ereignisorientierung ist in vielen Aspekten für IoT-Systeme geeignet, weil reale Ereignisse verarbeitet werden. Die passende Architektur und Implementierung ist aber alles andere als offensichtlich und erfordert, dass sich Architekten und Entwickler gemeinsam um viele Details kümmern. Wir zeigen Lösungen für ein skalierbares und erweiterbares App-Ökosystem mit Logistikfokus: Error Handling, Schnittstellen, Daten- und Eventmodellierung mit Generierung von Entwickler-spezifischen Sichten, Einfluss auf die Clients und Umsetzung in AWS mit Reactor. Zielpublikum: Architekten, Entwickler, Projektleiter
Voraussetzungen: Projekterfahrung
Schwierigkeitsgrad: Fortgeschritten Extended Abstract
- Wir berichten aus der Entwicklung eines Produktivsystems: App-Ökosystem aus der Logistik-Domäne
- Logistik ist eine Domäne, in der sehr viele diskrete Ereignisse wie Paketübergaben passieren. Deshalb erscheint Ereignisorientierung als geeigneter Architekturstil
- Logistik ist auch eine Domäne, in der (schon länger) das IoT Einzug hält: z.B. durch Erkennung von Paketen, Ausstattung von Containern mit Sensorik, intelligenten Packstationen, …
- Wir hatten insbesondere Anforderungen aus dem Bereich Erweiterbarkeit der fachlichen Abläufe und schnelle Änderbarkeit: Ausprobieren von Geschäftsmodellen, neuen Funktionen, Interaktionskonzepte, …
- Wie Ereignisorientierte Architekturen im Detail aussehen sollten, lässt Architekten und Entwicklern großen Spielraum. Es gibt diverse Patterns und Frameworks, dennoch muss sehr viel konzipiert werden und vor allem sehr einheitlich über das System hinweg umgesetzt werden
- Wir zeigen unsere konkreten Lösungen rund um Event-Orientierung: Error Handling, synchrone Client-Schnittstelle vs. asynchrone Verarbeitung intern, CQRS-basierte Schnittstelle zwischen Backend und Clients, unterschiedliche Datenmodelle + Eventmodellierungen, starker Einfluss auf die Clientarchitektur, Umsetzung in der AWS Cloud, Verwendung des Frameworks Spring Reactor
- Um Details über zahlreiche Entwickler hinweg einheitlich umzusetzen, wurden mehrere Konzepte eingesetzt: vorgegebene Referenzimplementierungen zur Ereignisverarbeitung, einheitliche fachliche Modellierung in Enterprise Architect (Datenmodell + Eventdatenmodell + Eventfluss durch Eventprozessoren)
- Außerdem haben wir kleine Erweiterungen für Enterprise Architect geschrieben, um geeignete Sichten auf die Eventprozessoren und Events für einzelne Entwickler und ihre Aufgaben zu erzeugen
- Damit haben sowohl Entwickler im Backend als auch für 3 Clients (Android, iOS, Web) + Things-Entwickler gearbeitet und aufgrund der Detailtreue eine reibungslose Integration ermöglicht
- Obwohl insgesamt agil entwickelt wurde, hat sich die Investition in eine saubere Daten- und Eventmodellierung voll ausgezahlt
- Es hat sich gezeigt, dass die Abstimmung vieler Details zwischen Architekten und Entwicklern absolut nötig war und eine konsistente Umsetzung durch Tool-Unterstützung signifikant besser wurde
- Eine klare Trennung, wo unsere Konzepte zur Ereignisorientierung Architektur oder Detailed Design sind, ist eigentlich nicht trennscharf möglich



Matthias Naab
Fraunhofer IESE
Softwarearchitekt

Balthasar Weitzel
Fraunhofer IESE
Softwarearchitekt

Donnerstag, 01.01.1970   |   14:30 - 15:30 Uhr   |    Mi 3.3

User Experience und Enterprise-Software – Kein Widerspruch

Der Zweck heiligt die Mittel. Deshalb ist Enterprise-Software funktional und langweilig. Aber kommt es nur auf Funktionalität an oder sollte User Experience (UX) auch hier eine Rolle spielen? Was ist der Business Value von UX, einer Domäne, die sonst eher im B2C-Kontext eine große Rolle spielt? Wie integriere ich die Bedürfnisse der Nutzer? Was sind die spezifischen Stolpersteine? Und wie kann ich mit gezieltem iterativem Lo-Fi-Prototyping kostengünstig Probleme in der Enterprise-Software vorbeugen? Alle Antworten gibt es in dieser Session.

Zielpublikum: Manager, Entscheider, Projektleiter, Analysten und andere Usability-Interessierte
Voraussetzungen: Grundverständnis Usability/User Experience
Schwierigkeitsgrad: Anfänger

Extended Abstract
Das Thema Usability (UX) erlebt einen starken Aufschwung. Allerdings liegt der Fokus der Veröffentlichungen und Präsentationen fast ausschließlich auf Endkundenprodukten, weil diese schöne, einfache Beispiele liefern. Die Optimierung von Enterprise-Lösungen stellt hingegen eine komplexere Herausforderung dar. Der Führungs- und Managementebene wird mittlerweile bewusst, dass auch Enterprise-Lösungen profitieren können. Dieser Beitrag soll Ihnen die Problematik und mögliche Vorgehen und Vorteile einfach und vollständig nahebringen, gestützt durch ein Beispiel aus der beruflichen Praxis.



Stanislaw Traktovenko
Saxonia Systems AG

Donnerstag, 01.01.1970   |   11:00 - 11:45 Uhr   |    Mi 5.2

Haben wir das Richtige getestet? Oh Nein! Erfahrungen mit Test-Gap-Analyse in der Praxis

Bei langlebiger Software treten die meisten Fehler dort auf, wo viel geändert wurde. Test-Gap-Analyse (TGA) erkennt ungetestete Änderungen und erlaubt uns, Testaktivitäten darauf zu fokussieren.
Nach einer Einführung in Test-Gap-Analyse stellen wir die Erfahrungen vor, die wir in den letzten Jahren im Einsatz bei Kunden und der eigenen Entwicklung gesammelt haben. Wir gehen auf unterschiedliche Testphasen (u.a. Hotfix- & Release-Test) und Arten (u.a. Unit-, Integrations- & "Trampel"-Tests) ein und stellen Lessons Learned und Best Practices vor.

Zielpublikum: Test-Manager, Tester, Entwickler, Projektleiter, Leiter Anwendungsentwicklung.
Voraussetzungen: grundlegende Erfahrung im Testen von Software. Interesse an Optimierung von Test-Prozessen.
Schwierigkeitsgrad: Fortgeschritten Extended Abstract:
Bei langlebiger Software treten die meisten Fehler dort auf, wo viel geändert wurde. Wenn wir richtig testen wollen, müssen wir daher sicherstellen, dass keine wichtigen Änderungen ungetestet bleiben. Hierbei hilft uns die Test-Gap-Analyse, ein Analyseverfahren, das ungetestete Änderungen ermittelt.
Nach einer kurzen Einführung in die Test-Gap-Analyse stellen wir im Vortrag die Erfahrungen vor, die wir in den letzten Jahren im Einsatz bei Kunden und in der eigenen Entwicklung gesammelt haben und beantworten u.a. folgende Fragen: Wie lassen sich Hotfix-Tests absichern? Wie kann ich iterationsbegleitend ermitteln, wie gründlich ausgewählte kritische User Stories oder Change Requests getestet wurden? Wie stehen im Release-Test die Testabdeckungen von unterschiedlichen Teststufen (Unit-Test, Integrationstest, Akzeptanztest, User-Trampeltest usw.) zueinander und welche Änderungen wurden von keiner Teststufe geprüft?
Außerdem stellen wir Best Practices und nützliche KPIs im kontinuierlichen Einsatz vor und geben einen Ausblick zum Einsatz im Produktivbetrieb, der es erlaubt, zu ermitteln, ob alte und neue Features von Anwendern tatsächlich eingesetzt werden.



Elmar Juergens
CQSE GmbH und TU München
Gründer und Forscher

Dennis Pagano
CQSE GmbH
Berater

Donnerstag, 01.01.1970   |   14:30 - 15:30 Uhr   |    Mi 4.3

Lernen von Agilen Transformationen

Eine agile Transformation ist primär eine Veränderung. Jedoch weder eine statische, für die man einen Schalter umlegt, noch eine, bei der man ein Ziel erreicht. Eine agile Transformation ist vielmehr eine endlose Reise, die die Dynamik der Beteiligten und des gesamten Ökosystems berücksichtigen muss. In dieser Session möchte ich basierend auf meiner Erfahrung v.a. in Großunternehmen verschiedene Ansätze vorstellen und vergleichen. Die Session ist eine Mischung aus Erfahrungsberichten und der Ableitung konkreter Prinzipien und Vorgehensweisen.

Zielpublikum: Manager, Entscheider, Change Agents, Scrum Master, Product Owner
Voraussetzungen: keine
Schwierigkeitsgrad: Fortgeschritten
Extended Abstract
Eine agile Transformation ist vorrangig eine Veränderung. Allerdings keine statische, d.h. man kann nicht einfach einen Schalter umlegen. Weiterhin ist sie auch keine, bei der man ein Ziel erreicht. Eine agile Transformation ist vielmehr eine fortwährende Reise, die die Dynamik der Beteiligten und des gesamten Ökosystems berücksichtigen muss. D.h. jede agile Transformation startet an einer anderen Stelle, folgerichtig variieren auch die weiteren Schritte. Und dennoch gibt es konkrete Methoden und Tools, die einerseits helfen die Ist-Situation zu verstehen und andererseits die nächsten Schritte (oder vielmehr Experimente) abzuleiten.
In dieser Session möchte ich aus dem Nähkästchen plaudern und basierend auf meiner Erfahrung von diversen agilen Transformationen, v.a. in Großunternehmen, verschiedene Ansätze vorstellen und vergleichen. Die Session ist eine Mischung aus Erfahrungsberichten und der Ableitung konkreter Prinzipien und Vorgehensweisen.



Jutta Eckstein
IT communication
Beraterin und Trainerin

Donnerstag, 01.01.1970   |   11:00 - 11:45 Uhr   |    Mi 6.2

Zum Schulabschluss mit VoIP

Jeder hat das Recht auf Bildung. Das gilt auch für Jugendliche, denen aufgrund von Krankheit ein Besuch der Regelschule nicht möglich ist.
Die web-individualschule beschult zu Hause via Internet. Der Lernplan richtet sich nach Verfassung des Schülers. Der Lehrer fungiert als Bezugsperson und Lernmoderator, der Potenziale erkennt und freisetzt. Die 1:1-Beschulung findet über Videotelefonie und Instant Messaging statt. Ein Praxisbeispiel zur gesellschaftlichen Verbesserung durch IT - außerhalb der üblichen Einsatzbereiche. Zielpublikum: Teilnehmer mit Interesse an praktischer Anwendung von Technologie außerhalb üblicher Einsätze.
Voraussetzungen: Keine Vorkenntnisse erforderlich
Schwierigkeitsgrad: Anfänger



Sarah Lichtenberger
web-individualschule GmbH

Donnerstag, 01.01.1970   |   14:30 - 15:30 Uhr   |    Mi 5.3

Microservices – Segen für die Entwicklung, Herausforderung fürs Testing

Microservices erfüllen lang gehegte Wünsche für Fachbereich, Entwicklung und Deployment. Im Testing können sie zur Herausforderung werden: Wie werden übergreifende fachliche Prozesse sauber getestet, wenn Aufrufe lose gekoppelt sind? Wie geht man mit einer stark asynchronen Kommunikation um? Wie stellt man Fehlerbilder nach, wenn ein verteiltes Systems Debugging nahezu unmöglich macht? Im Vortag lernen Sie, wie Sie in einer intensiven Zusammenarbeit zwischen Entwicklung, Testing und Betrieb das Testen in einem verteilten System meistern. Marcus Adlwart und Sven Schirmer bringen im Vortrag Erfahrungen aus mehreren Kunden- und F&E-Projekten von MaibornWolff zusammen.

Zielpublikum: Testmanager, Tester, Architekten, Entwickler, Projektleiter
Voraussetzungen: Projekterfahrung, Testerfahrung, Entwicklungserfahrung
Schwierigkeitsgrad: Fortgeschritten




Sven Schirmer

MaibornWolff, Bereichsleiter Testmanagement

Marcus Adlwart
MaibornWolff

Donnerstag, 01.01.1970   |   14:30 - 15:30 Uhr   |    Mi 6.3

Neuro-diversity & software development: Why tech needs all kinds of minds & how we can support them

Even if you are unaware of it, it’s likely that there is someone on your team with a non-typical neurology. It even seems there is a higher propensity towards autism and aspergers in STEM careers. Turns out that is a good thing.
We will begin by looking at the research on diversity and success.
We will then consider different types of neuro-diversity - in particular the autistic / aspergers mind, with a particular view towards how that lends itself to developing software and how we might better support autists at work.

Target Audience: Everyone
Prerequisites: none
Level: Practicing



Sallyann Freudenberg
Independent
Agile Consultant and Trainer

Donnerstag, 01.01.1970   |   11:00 - 11:45 Uhr   |    Mi 7.2

Moderne Sprachen für moderne Probleme

Bei eingebetteten Systemen zählt C (und C++) seit Jahrzehnten als Mittel der Wahl. Gerade im Zeitalter der digitalen Transformation und des Internets der Dinge stehen Programmierer vor Herausforderungen, die neue Wege erfordern, um neue Probleme effizient und effektive zu lösen. Sprachen wie Go sind angetreten, um C/C++ Paroli zu bieten.
Der Vortrag beleuchtet Go und andere Sprachen aus dem Blickwinkel der Entwicklung von IoT-Lösungen. Welche Paradigmen sind dort erforderlich und wo bringen neue Sprachen Vorteile gegenüber C/C++.

Zielpublikum: Architekten, Entwickler
Voraussetzungen: Kenntnisse in C/C++ oder Java oder C#.
Schwierigkeitsgrad: Fortgeschritten Extended Abstract
Ich möchte Sprachen wie C/C++ mit neueren Sprachen wie Go, Rust, ... vergleichen. Das Ganze soll problemorientiert verfolgen. Es soll also kein generischer Vortrag mit einem Vergleich von Sprachfeatures sein. Welche Probleme tauchen in der Praxis der Embedded-Entwicklung von IoT-Lösungen wirklich auf. Wo stoßen bisherige Paradigmen an ihre Grenzen, und welche Vorteile und Nachteile bieten moderne Sprachen.
In meinem augenblicklichen Projekt (einem strategischen Projekt der Siemens AG im Rahmen der Digitalisierung) stellen sich genau diese Fragen. Wir haben eine Mixtur aus C/C++/Java/JavaScript/Go/Rust. Und wir fragen uns, ob moderne Ansätze wie die von Go/Rust in der konkreten Domäne eher hilfreich sind oder eher hinderlich. Dazu gibt es eine ganze Latte weiterer wichtiger Aspekte. Stehen auch die notwendigen Bibliotheken und Werkzeuge zur Verfügung? Gibt es eine Möglichkeit, die modernen Sprachen à la Go mit C/C++, Java oder JavaScript zu verbinden. Welche Werkzeuge werden angeboten, und welche Unterstützung leisten die Sprachschöpfer? Wie sollten solche modernen Sprachen in eine Organisation eingeführt werden?



Michael Stal
Siemens AG
Principal Engineer

Donnerstag, 01.01.1970   |   11:00 - 11:45 Uhr   |    Mi 8.2

Data Thinking – Was Unternehmen brauchen, um ihre neuen digitalen Ziele zu erreichen

Daten sind der neue Rohstoff, doch vielen Unternehmen fehlt das Know-how, um die Potenziale zu heben. Für die Erreichung ihrer digitalen Ziele brauchen sie ein neues Mindset und ein Vorgehen, das Lösungen entwickelt und entsprechende Ressourcen in die Organisation integriert. In seinem wegweisenden Vortrag „Data Thinking“ zeigt Senior Data Scientist Florian Dohmann, warum Daten, Technologie und Algorithmen dabei nur die Grundlage bilden und was Unternehmen können müssen, um eine Vorreiterrolle einzunehmen, anstatt nur auf den Markt zu reagieren. Zielpublikum: Entscheider, CEOs, COOs, CMOs, CTOs
Voraussetzungen: Offenheit für neue Denk- und Handlungsweisen, Digitale Ziele
Schwierigkeitsgrad: Anfänger Extended Abstract
In kürzester Zeit haben Technologie und Daten(-nutzung) die Welt gravierend verändert. Ob Einkaufsverhalten, Medizin, Kommunikation, Transport, Logistik oder Produktion: Überall entstehen neue digitale (Daten-)Realitäten. Tendenz stark steigend. Dieser digitale Wandel hat enormen Einfluss auf die Wirtschaft und damit auf Unternehmen aller Industrien und Größen.
Die meisten dieser Unternehmen sind vom Digitalisierungsdruck getrieben, statt Herr ihrer eigenen Digitalen Entwicklung zu sein. Sie wissen, dass sie handeln müssen, aber nicht, wie sie handeln sollen. Aus dem analogen Zeitalter kommend und geprägt, fehlen ihnen naturgemäß die Skills, Routinen und Erfahrungswerte.
Auch externe Berater aus klassischer Strategie- und Organisationsberatung helfen nur bedingt weiter. Zum einen kommen auch sie oft aus der analogen Zeit und folgen einer vergleichbar unzeitgemäßen Logik. Zum anderen blicken sie traditionell nur aus globaler Markt- und Business-Perspektive ("top-down“) auf ein Unternehmen – ohne spezifische Sicht ("bottom-up") und konkrete Projekt-/Praxiserfahrung ("hands-on") in und mit den Datenrealitäten.
Um die Digitale Entwicklung erfolgreich zu vollziehen und eine individuelle Strategie für die eigenen spezifischen Herausforderungen zu entwickeln, brauchen Unternehmen zeitgemäße Denk- und Handlungsweisen – das Data Thinking – und jemanden, der es ihnen nahebringt.



Florian Dohmann
The unbelievable Machine Company
Senior Data Scientist und Data Thinker

Donnerstag, 01.01.1970   |   14:30 - 15:30 Uhr   |    Mi 7.3

Declarative Thinking, Declarative Practice

Do this, do that. Coding from assembler to shell scripting, from the mainstream languages of the last century to the mainstream languages now, is dominated by an imperative style. Functional programming, mark-up languages, schemas, persistent data structures and more are all based around a more declarative approach to code, where instead of reasoning in terms of who does what to whom and what the consequences are, relationships and uses are described, and the flow of execution follows from how functions, data and other structures are composed.

Target Audience: Developers, Architects
Prerequisites: Experience of programming
Level: Introductory

Extended Abstract
Do this, do that. Coding from assembler to shell scripting, from the mainstream languages of the last century to the mainstream languages now, is dominated by an imperative style. From how we teach variables — they vary, right? — to how we talk about databases, we are constantly looking at state as a thing to be changed and programming languages are structured in terms of the mechanics of change — assignment, loops and how code can be threaded (cautiously) with concurrency.
Functional programming, mark-up languages, schemas, persistent data structures and more are all based around a more declarative approach to code, where instead of reasoning in terms of who does what to whom and what the consequences are, relationships and uses are described, and the flow of execution follows from how functions, data and other structures are composed. This talk will look at the differences between imperative and declarative approaches, offering lessons, habits and techniques that are applicable from requirements through to code and tests in mainstream languages.



Kevlin Henney
Curbralan
Independent Consultant & Trainer

Donnerstag, 01.01.1970   |   14:30 - 15:30 Uhr   |    Mi 8.3

Apply Big Data Analytics and Machine Learning in Real Time to Disrupt Business Models

The digital transformation is going forward due to Mobile, Cloud and Internet of Things. Disrupting business models use Big Data Analytics and Machine Learning. Large amounts of historical data are stored to find patterns, for example for predictive maintenance, fraud detection or cross-selling. These patterns can then be integrated into new transactions in real time to increase revenue or reduce risks. This session shows success stories from different industries and describes the complete analytics process right up to production deployment.

Target Audience: Architects, Developers, Project Leader, Manager, Decision Makers
Prerequisites: Basic knowledge about analytics and big data are helpful but not necessary
Level: Introductory

Extended Abstract
Hot topic for almost all enterprise and industry these days.
Key takeaways for the audience:
- Learn how business models are disrupted by leveraging Big Data Analytics and Machine Learning
- See several success stories where different industries increase revenue, reduce costs or reduce risks by applying these concepts
- Learn about the complete analytics process from a first analysis right up to production deployment
- Insights are hidden in Historical Data on Big Data Platforms such as Hadoop
- Machine Learning and Big Data Analytics find these Insights by building Analytics Models
- Event Processing uses these Models (without Redeveloping) to take Action in Real Time



Kai Wähner
Confluent
Technical Lead

Donnerstag, 01.01.1970   |   18:30 - 20:00 Uhr   |    Nmo 1

Cyber-Physical Systems – die etwas anderen Dinge im IoT

Cyber-Physical Systems (CPS) sind die etwas anderen Dinge im IoT. Sie steuern und überwachen komplexe technische Prozesse wie Smart Grids, autonome Fahrzeuge und Fabriken. Trotz vieler Gemeinsamkeiten mit „klassischen" Dingen ist das Design von CPS eine Herausforderung. Sie sind oft komplex, müssen aber eine hohe Verfügbarkeit, Skalierbarkeit, Sicherheit und Resilienz aufweisen. Ihre Umgebung ist dynamisch, sie treffen Entscheidungen autonom, müssen aber stets korrekt funktionieren. Dieser Vortrag führt in die Architekturen von CPS ein.

Zielpublikum: Architekten, Entwickler
Voraussetzungen: Erfahrung in Software Architektur und Entwicklung
Schwierigkeitsgrad: Fortgeschritten



Frank Buschmann
Siemens AG, Corporate Technology
Senior Principal Engineer

Donnerstag, 01.01.1970   |   18:30 - 20:00 Uhr   |    Nmo 2

Unittests? – Ja aber richtig!

Oft erweisen sich Unittests gerade dann als problematisch, wenn bestehender Code geändert werden soll. Kleine Änderungen am produktiven Code erfordern nicht selten wesentlich umfangreichere Änderungen in den Unittests.
In diesem Vortrag mit anschließendem LiveCoding soll erklärt werden, warum solche Probleme entstehen und wie man sie vermeidet.

Zielpublikum: Entwickler
Voraussetzungen: Java-Kenntnisse
Schwierigkeitsgrad: Fortgeschritten Extended Abstract
Unittests sind ein wichtiger Bestandteil bei der Qualitätssicherung. Sie können ihre Vorteile aber nur dann voll entfalten, wenn sie die Weiterentwicklung des produktiven Codes nicht behindern.
Der Beitrag zeigt den Zusammenhang zwischen Code-Architektur, Testbarkeit und Qualität der Unittests und wie "Clean Code" sowie der Einsatz von Mocking-Frameworks zu besseren Unittests (und besserem Code) führen.



Thomas Papendieck
OPITZ CONSULTING
Entwickler

Donnerstag, 01.01.1970   |   18:30 - 20:00 Uhr   |    Nmo 3

Liefern, schon vor dem Schätzen!

Aufwandsschätzungen sind in der Software-Entwicklung ein Problem – Organisationen, die Software entwickeln, fragen immer wieder, wie sie ihre geschätzten Termine besser definieren und einhalten können. Ironischerweise geht das am besten, wenn Sie Ihren Prozess so umstellen, dass Schätzen überflüssig wird! Matthias Bohlen zeigt in diesem Talk, wie Sie von Blei (Personentage schätzen) zu Gold (gar keine Schätzungen mehr) kommen und dadurch auf entspannte Art die Verlässlichkeit erreichen, die Sie brauchen.

Zielpublikum: Projektleiter, Scrum Master, Teammitglieder
Voraussetzungen: Erfahrung mit Projektplanung und Verfolgung
Schwierigkeitsgrad: Fortgeschritten



Matthias Bohlen

Coach für effektive Produktentwicklung

Donnerstag, 01.01.1970   |   18:30 - 20:00 Uhr   |    Nmo 4

Organisational Neurobiology and Fitness

New organisational development methods see organisations as living beings, organisms. We want to inspire our organisational work with recent learnings from neuroscience research and neurobiological exercises.
Organisations show patterns of stress, trauma, addiction. Successful improvement strategies are breathing, physical exercise, and play, to just name a few examples.
We will look at physical and mental exercises and discover with you how to apply them to the fitness of your organisation with Inspiration and fun.

Target Audience: Managers, Decision Makers, Agile Coaches, Project Leaders, Human Resource, Culture Hackers, Coaches.
Prerequisites: curiosity, experience working in and with organisations
Level: Practicing Extended Abstract
When we - as organisational development specialists - read current literature about neurobiology research and treatment, we can't avoid recognising patterns we know.
With this session, we want to flip the coin: what happens when we take proven and understood exercises, healing and health improvement practices and apply them to the "organisational mind"?
Participants will get a fresh view on their own organisation as well as organisations in general, and learn how a shift in perspective gives them new opportunities for action.
We have specific ideas for some of the exercises, and are very open and curious about others. There is ample room for fresh discovery by the participants in the session and lots of experience we can share - we are aiming for a good mix, adapting to the needs and wants of people present.
Details:
Some of the nine domains of integration (taken from the book "Mindsight" by Dan Siegel) are (with some ideas on how to transfer them to the organisation):
1. Integration of consciousness
Making the unconscious conscious, raise your awareness. In an organisation: increase transparency, share data, visualise... expose the system to itself in any possible way.
2. Horizontal integration
Right and left hemisphere of the brain: logical, sequential, ordered, analytical, language and on the other hand creative, intuitive, messy, anecdotal, fractal, ...
3. Vertical integration
Mind and body integration. Thinking and doing. Movement. Breathing. Sensation. In an organisation: distributed cognition and decentralised decision making. Exercise (katas, dojos).
5. Narrative integration
Having a sense of authorship of your life. Writing your own story. Confidence, strong sense of identity. In an organisation: story telling - how we got here. who we are. how we show up.
To transfer those - after a brief explanation of each items - on a team or organisation has proven to be extremely insightful and inspirational in many workshops we did. We may seed the conversation, but mainly we will let participants come up with ideas.
How do organisations "eat" and digest change? We want to extend the "organic" metaphor and look at how organisations actually change. This builds on the integration theme of exercise one but focuses in more detail on changes like reorgs, digital/agile transformations and change initiatives of any kind.
The third exercise will move from nutrition to physical exercise. This is the most open of the parts - guiding participants to building ideas for action in their specific contexts. We will invite everyone to take home at least one new idea they can try at home next week - especially within their "rigid" enterprise environment.



Olaf Lewitz
TrustTemenos Academy
Founder and Agile Coach

Christine Neidhardt
ecomenta
Coach

Donnerstag, 01.01.1970   |   17:00 - 18:00 Uhr   |    Mi 1.4

Architekturmodernisierung mit SCS und Microservices

Dieser Vortrag adressiert ein klassisches Dilemma der IT: eine große, monolithische Anwendung, kritisch und wichtig, und innerlich ungeheuer schwer und aufwendig zu warten. Um auf fachliche Änderungen und dynamische Märkte schneller reagieren zu können, müssen wir dieses Altsystem strukturell sowie konzeptionell modernisieren – dabei aber kontinuierlich (hoch) verfügbar halten. Ganz nebenbei verfügen wir natürlich nur über ein eingeschränktes Budget.
Wir zeigen Patterns, die Architektur Ihrer Systeme Schritt für Schritt zu modernisieren.

Zielpublikum
: Architekten, Entwickler, Projektleiter
Voraussetzungen: Basiswissen Software-Architektur und verteilte Systeme
Schwierigkeitsgrad: Anfänger

Extended Abstract
Dieser Vortrag adressiert ein klassisches Dilemma der IT: eine große, monolithische Anwendung, kritisch und wichtig, und innerlich ungeheuer schwer und aufwendig zu warten. Um auf fachliche Änderungen und dynamische Märkte schneller reagieren zu können, müssen wir dieses Altsystem modularisieren und strukturell sowie konzeptionell modernisieren – dabei aber kontinuierlich (hoch) verfügbar halten. Ganz nebenbei verfügen wir natürlich nur über ein eingeschränktes Budget.
Wir zeigen Ihnen anhand etablierter Praktiken und Patterns (aus dem Fundus von aim42.org) typische Möglichkeiten auf, solche Projekte anzugehen. So können Sie Stück für Stück, gerade so, wie es das Projektbudget zulässt, die Architektur des Gesamtsystems modernisieren, ohne ein Big-Bang-Release zu fürchten. Hierbei wollen wir auch die Frage beantworten, mit welchen Themen Sie sich neben „Wie teile ich mein System auf“ außerdem beschäftigen müssen und wie wir die Vorteile einer Microservice-Architektur nutzen können, ohne uns gleich allen ihren Herausforderungen auf einmal stellen zu müssen.



Alexander Heusingfeld
innoQ Deutschland GmbH
Senior Consultant

Michael Vitz
innoQ
Consultant

Donnerstag, 01.01.1970   |   17:00 - 18:00 Uhr   |    Mi 2.4

Vom Pair Programming zur Mob-Architekturverbesserung

Das Leben von Entwicklern besteht heute kaum noch aus Neuentwicklung, sondern aus Wartung. Das größte Problem dabei ist, dass sich Wartung mit der Zeit von architekturkonformer Programmierung hin zu defensiver Programmierung verändert und dass das Verständnis zwischen Architekten und Entwicklern schwindet. In diesem Vortrag werde ich Ihnen zeigen, wie Mob-Architekturverbesserung Ihrem Team inklusive Architekten hilft, diese Sackgasse zu umgehen. Die Zusammenarbeit zwischen Architekten und Entwickler wird besser, effektiver und macht auch noch Spaß! Zielpublikum: Architekten, Entwickler, Manager, Entscheider, Projektleiter
Voraussetzungen: Projekterfahrung
Schwierigkeitsgrad: Fortgeschritten

Extended Abstract
Immer wieder darf ich mit ganzen Entwicklungsteams Architektur live im Team analysieren. Es ist beeindruckend, wie die Teams dadurch gewinnen und wie das Verständnis zwischen Architekten und Entwickler steigt - selbst, wenn der Architekt hoffentlich Teil des Teams ist und mit entwickelt. So entsteht ein sehr schneller Feedbackzyklus, der das Architekturverständnis im gesamten Team stärkt und dazu führt, dass die Eignung und Verständlichkeit der Architektur mit allen überprüft wird.



Carola Lilienthal
WPS - Workplace Solutions GmbH
Geschäftsführerin

Donnerstag, 01.01.1970   |   17:00 - 18:00 Uhr   |    Mi 3.4

Suchverhalten verstehen bedeutet, seine Benutzer besser zu verstehen

Von der Einkaufsplattform bis zur Entwicklungsumgebung: Freitextsuchen, wie man sie von Google und anderen kennt, sind nicht mehr aus unserem Software-Alltag wegzudenken. Hierin steckt ein enormes Potenzial: Wenn Benutzer ihre individuellen Wünsche in eigene Worte fassen, eröffnen uns diese Eingaben viele Möglichkeiten, sie besser zu verstehen und unsere Software noch gezielter auf Benutzerbedürfnisse zuzuschneiden. Dieser Vortrag bietet einen Einstieg in die Auswertung von Suchverhalten und welche Maßnahmen daraus abgeleitet werden können.

Zielpublikum: Architekten, Projektleiter, Entwickler
Voraussetzungen: keine
Schwierigkeitsgrad: Anfänger


Extended Abstract
Seit inzwischen 15 Jahren entwickeln wir bei Raytion suchbasierte Anwendungen. Hierbei ist die Analyse von Suchverhalten ein essenzieller Bestandteil zur Erfolgskontrolle und Weiterentwicklung der Software-Systeme.
Oftmals reichen bereits einfache Analysen, wie zum Beispiel welche Suchen keine Treffer ergaben, oder welche typischen Rechtschreibfehler passieren, um sinnvolle Verbesserungsmaßnahmen abzuleiten.
Anhand vieler Beispiele aus unseren Kundenprojekten können die Teilnehmer Ideen für die eigene Arbeit ableiten und werden für die Thematik insgesamt sensibilisiert.



Benjamin Klatt
Raytion GmbH
Senior Consultant

Donnerstag, 01.01.1970   |   17:00 - 18:00 Uhr   |    Mi 4.4

Von Experimenten zu sprechend ist nicht schwer, sie effektiv zu nutzen dagegen sehr

Viele Firmen wollen sich durch eine Agile Transition für die Zukunft wappnen. Wenn wir dies ernst nehmen, sind tiefgreifende Änderungen in allen Bereichen der Organisation notwendig.
Eine Agile Transitionen ist eine Reise voller Unbekannter. Haben wir Unbekannte & Unsicherheiten, sollten wir es erstmal in limitierter Form ausprobieren. Was einfach klingt, stellt nichts weniger als das Selbstverständnis, alles zu wissen, in Frage. Oberflächliche und ineffektive Experimente sind die Folge. Wir wollen Wege aufzeigen, Experimente effektiv zu nutzen.

Zielpublikum: Personen in oder vor Agilen Transitionen
Voraussetzungen: none
Schwierigkeitsgrad: Fortgeschritten


Extended Abstract

Seit 2010 begleite ich Firmen in Agile Transitions.
Über die Jahre wird mehr und mehr über die Notwendigkeit zu experimentieren gesprochen.
Die dargestellten Mechaniken sind in der Regel alle richtig. Die Herausforderungen, Experimente offen und mutig zu nutzen, um effektiv in unserer Transition zu lernen, werden leider nur selten angesprochen.
Wir probieren nur defensiv aus, experimentieren nur mit Sachen, die wir schon kennen, und reizen unsere Karten nicht aus.
Dadurch geht wertvolle Zeit verloren.
Mutiges Ausprobieren, vorzuleben, etwas nicht zu wissen, Kritiker in de Gestaltung von Experimenten mit einzubinden, um unseren bestmöglichen Weg zu finden, sind aus meiner Erfahrung Schlüssel zum Erfolg.
Wir arbeiten aber mit Menschen. Menschen, die gelernt haben, immer Sicherheit auszustrahlen und alles zu wissen.
Wir müssen ihnen Wege aufzeigen, was sie durch gutes Experimentieren lernen können und was sie alles noch nicht wissen.
Durch die richtige Vorgehensweise kann man die Beteiligten schneller an eine effektive Nutzung von Experimenten heranführen.
Die Session basiert auf meiner mehrjährigen Erfahrung in Agilen Transitionen und versucht, die Erfahrung der Teilnehmer in die Session interaktiv mit einzubinden.



Ralf Kruse
IT Warehouse, Germany

Donnerstag, 01.01.1970   |   17:00 - 18:00 Uhr   |    Mi 5.4

Sharing the quality responsibility in agile teams

Successful agile teams live and work by the principle of “whole team quality”. This doesn’t necessarily mean that everyone is responsible for everything in terms of quality, but it does mean that everyone is responsible for the overall quality. It makes sense to empower teams to undertake quality tasks as a team – and not leave them to selected people.
In this talk, I present the techniques we use to evolve our tester and developer roles when it comes to quality – without suggesting that the roles should necessarily merge. Target Audience: test managers, agile practitioners, scrum masters, testers, developers
Prerequisites: Basics of agile and scrum
Level: Practicing Extended Abstract
Successful agile teams live and work by the principle of “whole team quality”. This doesn’t necessarily mean that everyone is responsible for everything in terms of quality, but it does mean that everyone is responsible for the overall quality. It makes sense to enable and empower teams to undertake quality tasks as a team – and not just leave them to selected people.
In this talk, I’ll present the techniques we use to evolve our tester and developer roles to bring them closer together when it comes to quality – without suggesting that the roles should necessarily merge. I’ll talk about:
• Training testers and developers in exploratory testing techniques
• Focusing the team on ‘getting things done’ (where done is also tested!)
• Refining the tester role into more technical and more functional aspects
• Business-facing test automation and how teams can successfully distribute the work involved
o Including the concepts of “technical quality advocates” and “Java for Testers”
• Automation Patterns for business-facing test automation
• Seamless integration of test automation into the daily life of the team
• Moving from Continuous Integration to Continuous (Internal) Deployment to more frequent external releases
I’ll start with an explanation of our history and status quo as an example of techniques and practices that need to be in place, then introduce the drivers for making changes before presenting the individual practices and their effects.



Alexandra Schladebeck
Bredex GmbH
team leader, consultant, software tester and product owner

Donnerstag, 01.01.1970   |   17:00 - 18:00 Uhr   |    Mi 6.4

Entzaubert die Flöte der modernen Rattenfänger! – oder: Die agile Gesellschaftsordnung

In der internationalen politischen Landschaft gibt es in der jüngeren Zeit das Phänomen, dass viele Leute sich „den starken Mann“ an die Führung wünschen. Wenn wir aber über modernes Management und moderne Führung in der IT berichten, erscheint ein ganz anderes Bild: Visionskraft, eine Kultur aus Vertrauen und Diskurs, dezentrale operative Entscheidungen und eine Optimierung nicht von Teilen, sondern des komplexen Ganzen. Können wir also moderne Organisationsprinzipien für gesellschaftliche und politische Strukturen der Zukunft verwenden?

Zielpublikum: Alle
Voraussetzungen: keine
Schwierigkeitsgrad: Fortgeschritten


Extended Abstract
In der internationalen politischen Landschaft gibt es in der jüngeren Zeit das Phänomen, dass viele Leute sich „den starken Mann“ an die Führung wünschen. Viele Menschen wünschen sich keine differenzierten Diskurse in einer durch viele Kulturen, Religionen und Anschauungen heterogenen Welt, sondern klare Ansagen, eine harte Hand und scheinbar überschaubare nationale Lösungen in einer internationalisierten und wegen ihrer Komplexität eigentlich nicht mehr durch einen Einzelnen überschaubaren Welt. Am Horizont ist ein neuer Autoritarismus erschienen.
Wenn wir über modernes Management und moderne Führung berichten, erscheint ein ganz anderes Bild.
Ausnahmslos alle Erfahrungen beschreiben zwar auch die Herausforderung, steigender Komplexität in einer immer größeren Geschwindigkeit begegnen zu müssen. Die Lösung ist aber nicht der starke Mann mit Entscheidungen zur lokalen Optimierung und zugehörigen Kontrollmechanismen, sondern eine starke Vision, eine Kultur aus Vertrauen und Diskurs, dezentrale operative Entscheidungen und eine Optimierung nicht von Teilen, sondern des komplexen Ganzen.
Das Führungsverständnis ist durchweg das des Enablers, nicht des Befehlsgebers und Kontrolleurs und gipfelt mehrfach in dem Satz: „Und dann muss die Führung einfach nicht im Weg stehen, damit sich die Kraft der Organisation voll entfalten kann!“
Und bemerkenswert ist, dass hier vielfältige praktische Erfahrungen in unterschiedlichsten Unternehmen vorgestellt werden.
Wir lesen und hören von kleinen und mittelgroßen Entwicklungs- und Beratungshäusern ebenso wie von großen Unternehmen, die die digitale Revolution in ihrer Branche erfolgreich meistern. Und wir lernen in Ansätzen der Soziokratie und des Management 3.0, dass das theoretische Fundament nicht nur hält, sondern sich stetig vergrößert und verfestigt.
Wie kann man diese so widersprüchlichen Phänomene in Politik und moderner Führung erklären, kann man sie vielleicht sogar auflösen? Ich glaube, der Schlüssel dazu liegt in einem zentralen Punkt aller Erfahrungsberichte: Vertrauen.
Vertrauen meint dabei zum einen das Vertrauen in die Fähigkeiten und Absichten des Kollegen, des Partners, des Mitstreiters im Allgemeinen. Vertrauen meint aber auch das Vertrauen in die persönliche Zukunft, in die persönliche Sicherheit, in Zukunft nicht in Armut zu fallen, nicht zum Verlierer eines immer härteren Wettbewerbs zu werden. Daniel Pink beschreibt ja in seiner „Surprising Truth about what really motivates us” sehr anschaulich, dass auf der Basis einer finanziellen Grundsicherung keine weiteren finanziellen Anreize notwendig sind für eine intrinsische Motivation jedes Einzelnen für ein großes gemeinsames Ziel.
Basis für eine solche Vertrauenskultur ist Transparenz und Kommunikation. Transparenz und Kommunikation bezüglich der Visionen und Ziele ebenso wie über Erfolge und Probleme und über mögliche Lösungen für Probleme. Und auf der Basis dieser Transparenz und des Vertrauens können beliebig komplexe Situationen operativ dezentral angegangen werden.
Ohne Bürokratie und Überwachung, sondern mit Wissen, Enthusiasmus und hochgekrempelten Ärmeln.
Und damit kann dieses Jahrzehnt, in dem das moderne Management sich von autoritären und hierarchischen Prinzipien verabschiedet, zu einer großen Chance werden. Wenn die Erfahrungen modernen Managements sich bis in Konzernstrukturen durchsetzen lassen, wenn wir es schaffen, Vertrauen und Sicherheit für jeden zu geben, wenn wir es schaffen, eine klare Vision und Strategie für die Welt von morgen zu entwickeln und zu vermitteln, wenn wir dafür sorgen, dass niemand, kein Land und kein Mensch, finanzielle Not leiden muss, wenn internationale Freiheit nicht nur für die Finanzwirtschaft und Konzerne gilt, sondern auch und gerade für jeden Menschen, wenn nicht globaler Wettbewerb, sondern die globale Zukunft als gemeinsame Herausforderung und Vision anerkannt und vermittelt wird, dann können wir darauf vertrauen, dass wir mit gerechten, bezüglich der Religionen und Kulturen heterogenen und dezentralen Strukturen eine erfolgreiche Ordnung für die Welt von morgen bauen können.



Thorsten Janning
KEGON AG
Management-Berater

Donnerstag, 01.01.1970   |   17:00 - 18:00 Uhr   |    Mi 7.4

Parallel and Concurrent Programming in C++17 and beyond

C++11/14 has already changed how we do parallel programming with facilities for advanced threads, memory model, asynch, and futures. C++17 and beyond promises many more concurrent feature items. As editor of the Concurrency and Transactional Memory Technical Specification as well as Chair of C++ SG5 and SG14, I will show how parallel algorithms is done in C++17 and beyond in C++20.

Target Audience: Architect, programmers, developers, researchers, decision makers, managers
Prerequisites: basic C++, basic parallel programming
Level: Practicing


Extended Abstract
For C++20, we will have data-based parallelism (simd), task-based parallelism (task blocks), execution agents, progress guarantees, futures ++ such as then, wait_any, wait_all, executors, resumable functions, lock free programming, synchronics, atomic views, coroutines, transactional memory, latches, barrier, and ultimately heterogeneous computing with massive parallel dispatch. These promise to elevate C++ into a language that supports all the MIPS in your system, end to end.



Michael Wong
Codeplay Software
Vice President of Research and Development

Donnerstag, 01.01.1970   |   17:00 - 18:00 Uhr   |    Mi 8.4

Die Jagd läuft – Digitalisierung im Unternehmen

Seit einiger Zeit beschäftigen bimodale IT, Two-Speed Architecture und Digitalisierung das IT-Management vieler Unternehmen. Wir möchten diese Begriffe erklären und in den Kontext aktueller disruptiver Innovationen einordnen. Damit zeigen wir sowohl aus technischer wie auch IT-Management-Perspektive auf, wie und warum Themen wie Docker, Continuous-Deployment/Delivery sowie Ambient Computing essenzielle strategische Herausforderungen meistern helfen.

Zielpublikum: IT-Manager, Software-/Systemarchitekten
Voraussetzungen: Projekterfahrung
Schwierigkeitsgrad: Fortgeschritten


Extended Abstract
In diesem Vortrag beschäftigen wir uns mit den geänderten Rahmenbedingungen in der heutigen Zeit, in denen Mitarbeiter, Interessenten und Kunden jederzeit leistungsstarke, mobile, Akku-betriebene Multi-Core-Systeme mit sich führen und trotzdem unter starren Unternehmensprozessen und IT-Dinosaurier-System leiden müssen. Dabei gibt es heute für Software weniger Grenzen als jemals zuvor!
Während Systemstabilität früher eines der zentralen Qualitätsmerkmale war, werden heute eher Anpassbarkeit, Flexibilität und time-to-market gefordert.
Solche Einflussfaktoren steigern die Erwartungshaltung an die IT - und verändern damit deren Spielregeln gewaltig: Disruptive digitale Innovationen werden zur Notwendigkeit von IT-Management und -Entwicklung.
Auf der Suche nach neuen Geschäftsmodellen darf sich IT daher nicht nur mit dem Aufrechterhalten des Status quo begnügen, sondern muss proaktiv solche Änderungen einleiten und begleiten.
Im Vortrag beleuchten wir aktuelle Trends aus der Sicht von IT-Architekten, beispielsweise die bimodale IT, Two-Speed Architecture sowie Digitalisierung. Dazu geben wir praktische Hilfestellung zu deren Einsatz und der Bewältigung möglicher Risiken.



Phillip Ghadir

Geschäftsleitung, innoQ Deutschland GmbH

Gernot Starke
INNOQ Fellow
innoQ-Fellow, Coach, Trainer, Autor

Donnerstag, 01.01.1970   |   18:30 - 20:00 Uhr   |    Nmi 1

C++17 (und C++14)

Nachdem sich C++11 langsam durchsetzt, stellt sich die Frage, was sich in dem kleinen Update C++14 und in dem großen Update C++17 ändert.
Dieser Vortrag geht durch die wichtigsten Änderungen bei Sprache und Bibliothek.
Im Fokus stehen vor allem Änderungen, durch die signifikante Auswirkungen im Programmierstil erwartet werden.

Zielpublikum
: Systementwickler, Programmierer
Voraussetzungen: Kenntnisse von C++ und C++11
Schwierigkeitsgrad: Fortgeschritten



Nicolai Josuttis
IT Communication
Unabhängiger Systemarchitekt, Projektleiter, Berater und Autor

Donnerstag, 01.01.1970   |   18:30 - 20:00 Uhr   |    Nmi 2

Retrospective Anti-Patterns

Anti-Patterns are like patterns, only more informative. With anti-patterns you will first see what patterns reoccur in “bad” retrospectives and then you will see how to avoid, or remedy, the situation.
Based on my experience with facilitating retrospectives, join me for an entertaining and informative presentation on the anti-patterns I have seen and how to overcome the problems. I also encourage the audience to chip-in with their experiences or questions along the way.

Target Audience: Scrum Master, Manager, Coach, Developer
Prerequisites: If you have facilitated a least one retrospective, you will get the most benefit out of this
Level: Practicing



Aino Corry
www.metadeveloper.com
independent consultant

Donnerstag, 01.01.1970   |   18:30 - 20:00 Uhr   |    Nmi 3

Der Hidden Champion des Change: Feedback

In agilen Transitionen sind Widerstände und schwierige Gespräche an der Tagesordnung. Feedback zu geben und Feedback zu nehmen, ist eine der Herausforderungen, um mit Veränderungen erfolgreich umgehen zu können. Gerade Führungskräfte sind hier als Vorbilder gefordert. Der Workshop hilft zu erkennen, warum es so schwer ist, gutes Feedback zu geben, und inspiriert mit vielen Ideen und Übungen, wie wir Feedback leichter annehmen und geben können. Das unterstützt, das Positive am Wandel zu erkennen, und somit auch die agile Transformation.

Zielpublikum: Manager, Entscheider, Agile Coaches, Trainer, Personalverantwortliche, Coaches, SM, PO
Voraussetzungen: keine
Schwierigkeitsgrad: Fortgeschritten


Extended Abstract
In agilen Transitionen sind Widerstände und schwierige Gespräche an der Tagesordnung. Feedback zu geben und Feedback zu nehmen, ist eine der Herausforderungen, um Veränderungen erfolgreich für alle zu gestalten. Täglich erfahren wir Kränkungen und kränken andere Menschen, weil wir Feedback geben, das verängstigt, schmerzt oder einschüchtert. Wir sind oft hilflos und wissen nicht, wie wir es anders machen können. Wir denken bei Feedback oft nur an die formalen Feedbackgespräche zwischen Vorgesetzten und Mitarbeiter.
Dieser Workshop zeigt auf, was mit Feedback genau gemeint ist und was die Einflussfaktoren für ein gelungenes Feedback sind. Wie können wir Feedback leichter annehmen und häufiger im Alltag geben, auch remote. Damit stärkt Feedback unser Lernen, unsere Verantwortlichkeit sowie unsere Freude an der Entwicklung und dem Austausch.
Wir analysieren praxisnah die verschiedenen Formen des wertschätzenden Feedbacks und zeigen, dass die Ich-Botschaft und das Vorgesetztengespräch nicht die einzigen Formen des möglichen Feedbacks sind. Vielmehr bieten sich täglich eine ganze Reihe von Möglichkeiten, sich gegenseitig unterstützendes und wertschätzendes Feedback zu geben, sei es in Gesprächen, Meetings oder im Team, persönlich, schriftlich und online.
Welchen Einfluss hat Feedback in der Weiterentwicklung des agilen Unternehmens und zu einer lernenden Organisation?



Martin Heider
infomar software

Christine Neidhardt
ecomenta
Coach

Donnerstag, 01.01.1970   |   18:30 - 20:00 Uhr   |    Nmi 4

Per Anhalter durch den Cloud Native Stack

Cloud-Größen wie Google und Twitter haben die Kern-Bausteine ihrer Infrastruktur quelloffen verfügbar gemacht. Jeder kann nun selbst cloud-native Anwendungen entwickeln – Anwendungen, die in der Cloud zuverlässig laufen und fast beliebig skalieren. Dafür muss man sich seinen Cloud Native Stack zusammenstellen aus Bausteinen wie Docker, DC/OS, Kubernetes und Spring Cloud. Wir bereisen die wichtigsten Technologien und Architekturmuster rund um den Cloud Native Stack und bringen dabei eine Beispielanwendung schrittweise in der Cloud zum Laufen.

Zielpublikum: Architekten, Entwickler, Projektleiter, Entscheider, Cloud Native Nerds
Voraussetzungen: Grundkenntnisse in Java
Schwierigkeitsgrad: Anfänger


Extended Abstract
Jeder spricht über die Cloud, jeder ist in der Cloud. Dennoch scheinen die Akzeptanz und der Wille, die damit verbundenen Technologien im eigenen Unternehmen gewinnbringend einzusetzen, nach wie vor eher zögerlich. Dieser Vortrag soll dazu beitragen, die bestehenden Vorbehalte abzubauen. Wir werden nicht viele Worte zur Theorie von Cloud-nativen Anwendungen verschwenden. Stattdessen werden wir zeigen, dass der Cloud Native Stack reif ist für unternehmenskritische Anwendungen.



Josef Adersberger
QAware GmbH
Geschäftsführer

Mario-Leander Reimer
QAware GmbH
Cheftechnologe

Donnerstag, 01.01.1970   |   11:30 - 12:00 Uhr   |   

Kaffeepause / Coffee Break






Donnerstag, 01.01.1970   |   15:30 - 16:00 Uhr   |   

Kaffeepause / Coffee Break






Donnerstag, 01.01.1970   |   13:00 - 14:00 Uhr   |   

Mittagessen / Lunch






Donnerstag, 01.01.1970   |   10:30 - 11:00 Uhr   |   

Kaffeepause / Coffee Break






Donnerstag, 01.01.1970   |   12:00 - 14:00 Uhr   |   

Mittagessen / Lunch






Donnerstag, 01.01.1970   |   15:45 - 16:15 Uhr   |   

Kaffeepause / Coffee Break






Donnerstag, 01.01.1970   |   17:15 - 17:45 Uhr   |   

Kaffeepause / Coffee Break






Donnerstag, 01.01.1970   |   10:30 - 11:00 Uhr   |   

Kaffeepause / Coffee Break






Donnerstag, 01.01.1970   |   12:45 - 14:30 Uhr   |   

Mittagessen / Lunch






Donnerstag, 01.01.1970   |   16:30 - 17:00 Uhr   |   

Kaffeepause / Coffee Break






Donnerstag, 01.01.1970   |   10:30 - 11:00 Uhr   |   

Kaffeepause / Coffee Break






Donnerstag, 01.01.1970   |   12:45 - 14:30 Uhr   |   

Mittagessen / Lunch






Donnerstag, 01.01.1970   |   16:30 - 17:00 Uhr   |   

Kaffeepause / Coffee Break






Donnerstag, 01.01.1970   |   10:30 - 11:00 Uhr   |   

Kaffeepause / Coffee Break






Donnerstag, 01.01.1970   |   14:30 - 15:00 Uhr   |   

Kaffeepause / Coffee Break






Donnerstag, 01.01.1970   |   12:00 - 13:00 Uhr   |   

Mittagessen / Lunch






Donnerstag, 01.01.1970   |   17:15 - 18:00 Uhr   |    KeyMo1

Für die Zukunft gewappnet: Aufbau einer agilen & dynamischen IT Architektur

Im Zuge der digitalen Transformation hängt der Erfolg eines Unternehmens zunehmend von dessen IT ab und ihrer Fähigkeit, die gegebenen als auch neuen Anforderungen zu erfüllen. In dieser Session stellen wir Ihnen anhand von praktischen Beispielen und konkreten Handlungsempfehlungen vor, wie Sie mittels einer agilen und dynamischen IT-Architektur einerseits schneller „in Production“ übergehen. Und andererseits gewährleisten, dass die Qualität unter der hohen Dynamik nicht leidet sowie andere Risiken für das Unternehmen ausgeschlossen werden.



Sebastian Weikart
PayU und Appdynamics
Developer, Architect and Product Owner

Donnerstag, 01.01.1970   |   11:00 - 12:00 Uhr   |    KeyDi1

Unpatchable: Living with a Vulnerable Implanted Device

Gradually we are all becoming more and more dependent on machines, we will be able to live longer with an increased quality of life due to machines integrated into our body. However, our dependence on technology grows faster than our ability to secure it, and a security failure of a medical device can have fatal consequences. Marie’s life depends on the working of a medical device, a pacemaker that generates every single beat of her heart. As a security-professional Marie is worried about her heart‘s attack surface. How can she trust the machine inside her body, when it is running on proprietary code and there is no transparency? This is why she acquired medical devices that can communicate with her pacemaker, and started a project on investigating the security of her medical implant, together with a team of volunteer hackers. This talk is about Marie‘s personal experience with being the host of a vulnerable medical implant, and why she decided to start a hacking project on the security of her own personal critical infrastructure



Marie Moe
SINTEF
Research Scientist

Donnerstag, 01.01.1970   |   15:00 - 15:45 Uhr   |    KeyDi2

Vom getesteten Solo zum unberechenbaren Orchester

„Das Ganze ist mehr als die Summe seine Teile“: Trotz aller Entkopplungsversuche via SOA, APIs oder Microservices verhalten sich Gesamtsysteme immer wieder anders als von den einzelnen Komponententeams geplant. Dabei arbeitet das Einzelne jeweils perfekt, erst im neuen IT-Ecosystem funktioniert es nicht wie erwartet. Das Phänomen ist dabei nicht neu und soll ganz praktisch in Form der ersten OOP-Hymne demonstriert werden: Viele Solisten, jeder für sich in vollkommener Qualität, werden auch da nicht sofort zum Orchester. Neugierig?



Frank Simon
Zurich Gruppe Deutschland
Head of IT Operations Security Germany

Donnerstag, 01.01.1970   |   12:00 - 12:45 Uhr   |    KeyMi1

Digitale Verarbeitung von Audiosignalen: Von mp3 zu immersiven Klangerlebnissen

Der Traum von High Fidelity, dem perfekten Klangerlebnis, begleitet uns seit den Anfängen der Tonaufzeichnung.
mp3 und auch modernere Audiocodierverfahren sowie aktuelle Technologien zur Erzeugung immersiver Klänge basieren auf dem (immer noch unvollständigen) Wissen über die Funktion von Gehör und der Signalverarbeitung im Gehirn.
Der Vortrag geht auf aktuelle Grundlagenforschung in diesem Gebiet ein und bringt neue Beispiele aus der Forschung zur Wiedergabe räumlicher Schall-Ereignisse, also dem „Konzertsaal zu Hause oder im Auto“.



Karlheinz Brandenburg
Fraunhofer-Institut für Digitale Medientechnologie IDMT
Leiter

Donnerstag, 01.01.1970   |   12:00 - 12:45 Uhr   |    KeyDo1

Parallel Programming Today

Parallel programming was once considered to be exclusive to the realm of weather forecasters and particle
physicists working on multi-million dollar super computers while the rest of us relied on chip manufacturers
to produce faster CPUs every year. That era has come to an end. Clock speedups have been largely replaced
by having more CPU cores on a chip and more chips in a system.
A typical smart phone now has 2 to 4 cores, a typical laptop computer or tablet has 4 to 8 cores, servers have
dozens of cores, and supercomputers have thousands of cores. Each of these cores have 4 to 16 SIMD (Single
instruction, multiple data) lanes, and many systems also have GPUs (Graphic Processing Units) capable of
massively-parallel computations.
If you want to speed up a computation on modern hardware, you need to take advantage of the multiple
cores, SIMD units, and GPUs available. This talk provides an overview of the parallelism landscape. We‘ll
explore the what, why, and how of parallel programming, discuss the distinction between parallelism and
concurrency and how they overlap, and learn about the problems that one runs into. We‘ll conclude with a
brief exploration of how to begin designing for parallelism.



Pablo Halpern
Intel
Software Engineer

Donnerstag, 01.01.1970   |   15:45 - 16:30 Uhr   |    KeyDo2

What Agile Software Development needs from Architects

Can architects and agile coexist? Why not just keep code clean and tested, get rid of architects, and let
developers take on their work? In a rush to deliver functionality, architecture can be slighted and risks
ignored – unless someone advocates for architecture. Sustainable development requires ongoing architecture
attention, stewardship and visibility. Agile projects need architects. Especially when there are
new technologies, intricate dependencies and shifting priorities. Enough though our ways of working may
change, we have much to offer.



Rebecca Wirfs-Brock
Wirfs-Brock Associates
Founder

Donnerstag, 01.01.1970   |   15:45 - 16:30 Uhr   |    KeyMi2

Digital Transformation – The Next (R)Evolution

The Digital Transformation is going to change the products we develop, the way we work and how we experience digital services today and tomorrow. This talk will cover how Microsoft is envisioning the way we can make digital services more intelligent. We will touch the next evolution of device IO, how machine learning will enable smart services and how teams change the way they work together building the next wave of innovative products. 



Christian Binder
Microsoft Technology Center
Technical Director

Donnerstag, 01.01.1970   |   19:00 - 20:00 Uhr   |    IT

"Der Ultimative IT-Stammtisch"

Auch in diesem Jahr lassen wieder 5 herausragende Vertreter des
IT-Business die wichtigsten, nachdenklichsten und amüsantesten
Meldungen im IT-Umfeld des letzten Jahres Revue passieren.
Beste
Unterhaltung ist garantiert, wenn Nicolai Josuttis mit seinen
Gästen unser Business in gemütlicher Atmosphäre mit einem Augenzwinkern
reflektiert.






Donnerstag, 01.01.1970   |   16:15 - 17:15 Uhr   |    Di 3.3

Von der Datenbank zur dezentralen Anwendung

Auf Blockchain basierende Technologien haben sich in den letzten Jahren rasant entwickelt. Decentralized Applications (Dapps) gelten als die Basis dieser Entwicklung. Sie stellen ein neues Modell für die Entwicklung massiv skalierbarer und potenziell gewinnbringender Apps dar. Ihre Vorteile sind: Immutability, Corruption proof, Resistance to collusion, Cryptographic Security, Zero Downtime und Zero Sign-on. Der Vortrag erläutert die Architektur und die Einsatzgebiete dezentraler Anwendungen.

Zielpublikum: Architekten, Entwickler, IT-Berater, Entscheider
Voraussetzungen: keine
Schwierigkeitsgrad: Anfänger



Marcus Klüsener
ITech Progress GmbH
Softwareentwickler und IT-Berater

Donnerstag, 01.01.1970   |   14:30 - 16:00 Uhr   |    Di 3.3

DWH-Automatisierung – Überblick, Tools und Praxiseinsatz

Im Vortrag werden die unterschiedlichen DW-Automatisierungsansätze und -Aspekte mit dem jeweiligen Umfang der möglichen Automatisierung aufgezeigt. Die Bandbreite der Automatisierungsansätze reicht dabei von 'Self-Made Automation' bis hin zum Einsatz von verschiedenen spezialisierten Tools und Softwareprodukten. Auf Basis der gezeigten Automatisierungsansätze wird eine Orientierungshilfe zur Einordnung von DWA-Ansätzen und -Tools auf dem Markt erörtert. Eine Marktstudie zu DW Automation Tools gibt Einblicke in die Beurteilung und Bewertung durch Anwenderunternehmen.
Der Einsatz von DW Automation beschränkt sich aber nicht nur auf die automatisierte Generierung von Data-Warehouse-Objekten, sondern beeinflusst auch die Prozesse vom Requirements Engineering bis hin zum Releasemanagement. Im Vortrag werden daher auch die Auswirkungen auf Organisation und Abläufe erläutert und mögliche Schritte aufgezeigt, wie eine DWH-Bestandslösung in eine automatisierte DWH-Lösung übergeführt werden kann und welche Aspekte und Entscheidungsgrundlagen dabei zu berücksichtigen sind.


Zielpublikum: BI-Manager, BI-Projektleiter, Entscheider, CIO, ...
Voraussetzungen: keine
Schwierigkeitsgrad: grundlegend



Gregor Zeiler
Trivadis AG
Senior Solution Manager BI/Big Data

Hans Michiels


Donnerstag, 01.01.1970   |   10:30 - 11:05 Uhr   |    GTD 1.1

Teamübergreifende Testautomatisierung bei ista – Vorgehen und Lessons Learned

In 2014 wurde bei der ista International GmbH die Einführung eines agilen Entwicklungsprozesses nach SAFe begonnen. Derzeit arbeiten ca. 25 Teams in zwei Agile Release Trains zusammen. Die System Teams sind unter anderem mit dem End-to-End-Test über die verschiedenen Plattformen beauftragt.

Dieser Vortrag stellt die Konzeption der Testautomatisierung in diesem Kontext vor. Diese wurde maßgeblich durch die heterogene Systemlandschaft (u.a. Host, SAP, Java) beeinflusst, welche für den Einsatz verschiedener Automatisierungswerkzeuge in einem gemeinsamen Framework sprach. Darüber hinaus wurde z.B. darauf geachtet, dass auch Tester und Stakeholder ohne Programmier-Know-How Testfälle erstellen und verstehen können und dass sich die Wartungsaufwände möglichst gering gestalten.

Neben der Konzeption steht die Umsetzung im Fokus des Vortrags. Trotz sorgfältiger Planung wurden verschiedene Hindernisse festgestellt und Lösungen auf den Weg gebracht. Die Hindernisse lagen sowohl in technischen Details, der Neuartigkeit der Aufgaben für einzelne Teammitglieder aber auch in einem andauernden Prioritätenkonflikt.
Erste Erfolge konnten mit dem gewählten Ansatz bereits erzielt werden und wir sind zuversichtlich, die sich weiter ergebenen Herausforderungen erfolgreich angehen zu können.



Jan Loewen
ista International GmbH

Donnerstag, 01.01.1970   |   11:15 - 11:50 Uhr   |    GTD 1.2

Das Qualitäts-Tripel: Design by Contract & Clean Code & Lean Testing

Maßnahmen und Vorschläge, um die Qualität von Software zu erhöhen, gab es in den letzten Jahren einige. Testen hat bei den Entwicklern an Bedeutung gewonnen, zum Beispiel durch Test Driven Development (auch wenn TDD kein direktes Testentwurfsverfahren ist). Ganz allgemein hat das Qualitätsbewusstsein der Entwickler zugenommen, die Clean-Code-Bewegung kann hier genannt werden.

Der Beitrag fokussiert auf den Zuständigkeitsbereich der Entwickler: Nach Festlegung der Schnittstellen (Design by Contract) wird programmiert (Clean Code) und anschliessend werden die Tests (evtl. vorab mit TDD spezifiziert, Lean Testing) durchgeführt. Design by Contract, Clean Code und Lean Testing sind drei qualitätssteigernde »Handwerkszeuge« des Entwicklers, die näher vorgestellt werden und deren Zusammenspiel erörtert wird.

Durch Design by Contract kann der Testaufwand erheblich verringert werden, da die Eingabebereiche der Parameter im Vertrag festgelegt sind und deren Einhaltung vom Aufrufenden garantiert wird. Durch Clean Code entsteht einfacher und »sauberer« (keine Tricks) Programmtext, der auf der Unit-Ebene mit wenigen Tests geprüft werden kann. Lean Testing nutzt diese Voraussetzungen, um den Test angemessen auf bekannten Testentwurfsverfahren basierend durchzuführen.
 
 



Prof. Dr. Karin Vosseberg
Hochschule Bremerhaven

Prof. Dr. Andreas Spillner
Hochschule Bremen

Donnerstag, 01.01.1970   |   12:00 - 12:35 Uhr   |    GTD 1.3

Das agile QA-Tetraptychon - Unsere Erfahrungen mit Testen in agilen Teams

Trotz aller Vorteile, die die agile Entwicklung hervorgebracht hat, scheitern mehr als ein Viertel aller SCRUM Projekte. Da die klassischen Maßnahmen zur Projekt- und Teststeuerung in agilen Projekten nicht greifen, haben wir für unsere Projekte eine passende Vorgehensweise entwickelt wie das Team, Entwickler und Tester, gemeinsam an der Qualität arbeiten. Das betrifft neben der operativen Zusammenarbeit auch die Entwicklung neuer Vorgehensweisen.
Der Vortrag dokumentiert, welche Überlegungen uns als klassisch ausgebildete Tester vor und welche Erkenntnisse nach der Arbeit in agilen Projekten vorherrschten. Neben der organisatorischen Änderung werden weitere Erkenntnisse vorgestellt wie die Aufstellung von eigenen Prinzipien zur agilen Qualitätssicherung, den Aufbau der passenden Toolketten und neuer Methoden bei der Testfallerstellung.
 

 



Kay Grebenstein
Saxonia Systems AG
Tester und agiler QA-Coach

Donnerstag, 01.01.1970   |   14:30 - 15:05 Uhr   |    GTD 4.1

Level Up (EN)

Within ThoughtWorks, Finn and Nadine have been working with a couple of teams, where despite all changes towards more agile environments and team structures, the role of a QA is still so often to be the release and test manager.
This is surprising because caring about quality is so much more than "testing". The quality of a product can only be understood, if the entire environment is understood in the first place. This includes the business value as much as the system architecture of the product. As a result, the classic role is stretched far beyond managing tests and releases.
Nadine and Finn argue that we need to embrace this change. Once we understand to view the big picture in software development teams, we can level up and focus on our core value: driving a quality culture.



Nadine Heidrich
ThoughtWorks

Finn Lorbeer
ThoughtWorks
Product Quality Specialist

Donnerstag, 01.01.1970   |   15:15 - 15:50 Uhr   |    GTD 5.2

Testing Quo Vadis (EN)

The complexity and challenges of Testing have been growing exponentially, disrupted by business need to release very frequently, complex integrations and big-data.
Testing has responded with focusing on CI and CD, merging test with dev, canary testing and heavy quality monitoring.
The challenges ahead of us are even more mind-blowing– internet of things, too many configurations to test (e.g. Android), systems fully driven by artificial intelligence, software-driven medicine, private data as a currency, etc.
In my talk I will examine the modern trends in Testing and analyze the key vectors for the Testing to be successful in upcoming years.
In particular – emerging of standards of Testing frameworks and tooling, including powered by AI; ahead-of-the-game development of best-practices (e.g. ISTQB further evolution); modern test maturity model(s), test architectures and test architects, open-source culture, new meaning of Test Management and Test Managers, etc etc
Is Testing ready for these challenges? Lets discuss…
 



Valeriy Burmistrov
TeamViewer GmbH
Director QA

Donnerstag, 01.01.1970   |   10:00 - 10:30 Uhr   |    GTD 2.1

Docker makes Testing better? (EN)

Mit der Docker-Technologie konnten wir in unseren Softwareentwicklungs-Projekten einen Mehrwert durch die Beschleunigung der Installationsvorgänge, Reduzierung der Installationsrisiken (bessere Rollback-Szenarien) und die bessere Wartbarkeit durch Wiederverwendung erzielen. Der Testprozess und insb. die Testautomatisierung hat mit ähnlichen Herausforderungen wie die Softwareentwicklung zu kämpfen, zu denen Docker-Technologie auch beitragen kann.
Wir geben einen Einblick darüber, welche Stärken Docker hat und unter welchen Umständen diese auch auf den Testprozess angewandt werden können. Indikatoren sind hier die Testarten, architektonischen Gegebenheiten, Projektstruktur, Einsatzort der Tester uvm.
Beispiele:
  • Schneller Teststart: Testdurchführung insb. Testautomatisierung ist mit viel Vorbereitungsaufwand wie z.B. für Testdatenbereitstellung, Installation von Testtreibern und Testobjekten verbunden. Testumgebungen in Form von Docker-Containern können innerhalb von Minuten aufgestellt werden
  • Wiederholbare Regressionstests: neben dem schnellen Aufsetzen von Testumgebungen hat die Containerisierung auch den Vorteil, gleiche Testumgebungen zum Regression- und Fehlernachtests erneut aufzusetzen.




Anke Juchem
S&N AG

Dr. Baris Güldali
S&N AG

Armin Vogt
S&N AG

Donnerstag, 01.01.1970   |   11:15 - 11:50 Uhr   |    GTD 2.2

Testorganisation - jetzt aber richtig!

Was ist die richtige Testorganisation? Was zeichnet diese aus? Wovon hängt diese ab? Was soll sie bewirken? Wenn wir diese Fragen für alle Organisationen umfassend und richtig beantworten könnten, wären wir heute vermutlich an anderer Stelle.

Der Vortrag zeigt exemplarisch die Testorganisation der R+V und in welchen Optimierungsschritten im Testprozess auch die Veränderungen in der Testorganisation beigetragen oder diese erst ermöglicht haben.

Es werden Anregungen gegeben wie mit den aufkommenden Widerständen umgegangen werden kann und welche Argumente nach unserer Erfahrung die Bereitschaft zur Veränderung unterstützen.
Das Ziel muss eine selbstlernende Organisation sein, die Veränderung und ständige Optimierung als etwas Positives und Selbstverständliches begreift. Damit verändert sich auch der Anspruch an und die Art der Führung.



Michael Arnold
R+V Versicherung

Donnerstag, 01.01.1970   |   412477:25 - 412477:25 Uhr   |   

Adaptive Testing durch Künstliche Intelligenz (EN)

Wenn ein Unternehmen den Anschluss nicht verlieren will, muss es den Time-To-Market minimieren und schnell auf Marktveränderungen reagieren können. Aus diesem Grund wurden in der jüngsten Vergangenheit große Anstrengungen unternommen, um agile und adaptive Strukturen zu etablieren. Viele Unternehmen haben sich bereits überarbeitet und ihre Softwareentwicklung und IT-Infrastruktur neu aufgestellt - die Zeichen der Zeit sind erkannt worden. Aber: Wer soll das alles testen? Wie können wir mit aktuellen und zukünftigen Entwicklungen Schritt halten, ohne unsere eigenen Qualitätsansprüche zu begraben?

Bei der Beantwortung dieser Frage werden neuronale Netze eine bedeutende Rolle spielen. Zukünftig werden Systeme selbständig entscheiden, welche Komponenten eines Systems getestet werden, wobei die Tests ohne menschliches Zutun ausgeführt und ausgewertet werden.



Frederik Lüttmann
Cassini Consulting

Donnerstag, 01.01.1970   |   14:30 - 15:05 Uhr   |    GTD 4.2

Annahmen verunsichern - Fakten schaffen vertrauen: Fundierte Prognosen zum Abschlussdatum im Testprojekt.

 Zu Beginn eines SW-Projekts steht in der Regel eine auf Annahmen basierende Aufwandschätzung bzw. daraus resultierend eine Planung. Schätzungen haben Annahmen zur Basis; dies hat eine Menge an Unsicherheiten zur Folge („wie lange dauert ein Arbeitspaket, ein Task, eine Aufgabe wirklich?“, „Was wird alles dazwischen kommen (Krankheiten, Ausfälle)?“ „Mit welchem Puffer sollte man planen?“). Die Folge all dessen ist, dass Pläne sehr schnell überarbeitet werden müssen – diese Überarbeitung hat ab nun laufend (bis zum Projektende) zu passieren; die Unsicherheiten bleiben jedoch!
Auf Basis von konkreten Messzahlen, die Auskunft über die Performance des gesamten Teams geben, ist es möglich, eine Prognose darüber zu treffen, wann ein Testprojekt höchstwahrscheinlich (100 % Sicherheit gibt es nie!) abgeschlossen sein wird.
Im Vortrag wird eine Methodik zur Erstellung solcher Prognosen beschrieben – einhergehend mit den sich daraus ergebenden Möglichkeiten: Ein laufender Vergleich mit Projektplänen liefert Aussagen zu Abweichungen, die Maßnahmen erfordern. Was sind wahrscheinliche Einsatztermine? Entwicklung der Gesamt-Performance?




Renate Weichselbraun
ANECON Software Design und Beratung GmbH

Robert Licen
Nagarro Testing Services GmbH

Donnerstag, 01.01.1970   |   15:15 - 15:50 Uhr   |    GTD 5.3

DevOps & Continuous Delivery ohne Testautomatisierung

Als häufigstes Argument gegen häufige Releases wird die fehlende Testautomatisierung genannt. In der Vergangenheit wurde eine hohe Testabdeckung als Lösung für Qualitätssicherung propagiert und bei häufigen Releases müssen diese Tests natürlich automatisiert laufen. Aber gibt es nicht auch andere Wege, die Qualität zu verbessern? In diesem Vortrag wollen wir ihnen Optionen aufzeigen, wie sie ohne riesige Investitionen in Test-Suites ihre Qualität nachhaltig verbessern können und so schneller und agiler werden können.



Thomas Schissler
artiso solutions GmbH

Neno Loje
artiso solutions GmbH

Donnerstag, 01.01.1970   |   10:00 - 10:30 Uhr   |    GTD 3.1

Bewertung von Qualitätsschulden – der Nutzen dynamischer Daten aus Test und Betrieb

Kontinuierliche Beurteilung der Qualitätsschulden beflügelt die Qualität von Softwareprojekten, für Sanierungsprojekte ebenso wie für Projekte auf der „grünen Wiese“. Wichtig sind die agilen Prinzipien kontinuierliches Feedback und Vermeidung von Broken Windows.

Für statische Kennzahlen (meist Codemetriken) ist das einigermaßen gut bekannt und beherrscht (z.B. mit SonarQube).

Schwieriger zu greifen sind dynamische Kennzahlen für Qualitätsschulden. Beispiele sind Veränderungen von Ausführungszeiten oder Speicherverbrauch in Tests sowie von Ausführungszeiten im Betrieb, die auf schwer sichtbare Abhängigkeiten im Code oder auf Leaks deuten können. Die Daten dafür fallen sogar meistens „nebenbei“ an, z.B. während Unit- und Lasttests, oder in Form von Logfiles.

Existierende Werkzeuge haben allerdings Probleme bei der Messung und ausreichend feingranularer Speicherung der zugehörigen Daten.

Wir zeigen für einen Big Data fähigen Ansatz anhand von Daten aus Unit- und Integrationstest folgende Schritte:
  • integrierte Messung von dynamischen Kennzahlen
  • feingranulare Speicherung in einer Zeitreihendatenbank als Data Lake
  • Überwachung der Kennzahlen per Dashboard



Marcus Ciolkowski
QAware GmbH

Donnerstag, 01.01.1970   |   10:30 - 11:05 Uhr   |    GTD 3.2

Load and Performance Testing in the Cloud (EN)

The Cloud is infinite and scalable. Period. So why is it important to test for performance and scalability characteristics of a cloud-based system? Won't AWS scale for me as long as I can afford it? Yes, but... AWS only operates and scales resources. They won't automatically make your system fast, stable and – more important – scalable. Therefore the talk brings to mind that even in times of cloud-based systems performance testing is still relevant, maybe even more relevant than ever before. To discuss the established forms of performance testing and how they change for cloud-based systems is its aim.



Sebastian Cohnen
StormForger GmbH

Donnerstag, 01.01.1970   |   12:00 - 12:35 Uhr   |    GTD 3.3

Continuous Testing – Testen mit Selenium in der Delivery Pipeline

Continuous Testing ist der wichtigste Prozess, durch den DevOps erst erfolgreich wird. Dabei handelt es sich um einen Prozess, der automatisiert und kontinuierlich die Veränderungen des Codes überprüft, um sowohl funktionale als nicht-funktionale Anforderungen zu validieren. Das Ziel ist es, proaktiv Fehler zu finden und frühzeitig in der Entwicklung zu beheben.
Aber wie sieht Continuous Testing im wirklichen Leben aus?
In diesem Vortrag werden folgende Aspekte beleuchtet: • Testen im Continuous Delivery Umfeld
• Agiles Testen
• Best Practices beim Testen webbasierter Oberflächen
• Die Rolle von OpenSource beim Continuous Testing
• Die Schritte zum Continuous Testing
• Continuous Testing / Testautomatisierung zum Anfassen – Live Demo Fazit: Damit Continuous Testing erfolgreich sein kann, werden die richtigen Tools und qualifizierte Experten (Technical Test Analysten) benötigt. Continuous Testing ist weit mehr als Automatisierung!



Wilson Campero
Qytera Software Testing Solutions

Michael Palotas
Element 34 Solutions GmbH

Donnerstag, 01.01.1970   |   14:30 - 15:05 Uhr   |    GTD 3.4

Test Automation ist Softwareentwicklung. Ist es nicht! Ist es doch!

Man liest und hört immer öfters Test Automation sei Software Development. Der Ansatz ist gut und richtig, Test Automation bekommt einen Stellenwert der immer mehr mit der Entwicklungsarbeit von Feature-Code vergleichbar ist. Leider ist das in vielen Fällen nur ein Lippenbekenntnis oder das hehren Ziel wird zu Gunsten der Anwendungsfeatures doch schnell wieder vergessen.
 
Was passiert wenn Test Automation demselben SDLC untergeordnet wird, wie die eigentliche Anwendung? Wenn es also einen dedizierten Product Owner gibt, der Feature Creep und GoldiLocks vermeidet? Einen Product Owner der auch in einem Minimal Viable Product für die Test Automation vorerst das Auslangen finden? Wenn es Ressourcenplanung dafür gibt? Wenn es dafür Ingenieurs-Disziplinen wie Requirements Engineering gibt? Wenn es dafür einen Architekten gibt, der das Big Picture im Blick hat? Was wäre, wenn alle diese Fragen zufriedenstellend beantwortet werden könnten?
 
Dieser Talk zeigt wie das gehen kann. In einem ketzerischen Dialog trifft Deutsche Gründlichkeit auf Wiener Schmäh, gibt es Einblicke in erfolgreiche und weniger erfolgreiche Testautomations-Projekte und für jeden der oben gestellten Fragen ist eine Antwort parat.
  
 



Rudolf Grötz
Jumio Inc
Abteilungsleiter

Marcel Gehlen
Maiborn Wolff et al

Donnerstag, 01.01.1970   |   15:15 - 15:50 Uhr   |    GTD 5.3

Real User Monitoring – Qualität am produktiven Endbenutzer vermessen und Rückschlüsse auf Testfokus & -szenarien ableiten

Real User Monitoring bietet neue Möglichkeiten die Verwendung von Softwareanwendungen durch Endbenutzer zu quantitativ und qualitativ zu bewerten. Dazu gehören die Reaktionszeit der Anwendung, die verwendete Client-Umgebung des Benutzers (besonders bei Online-Anwendungen) sowie die Prozessstatistik (Wer hat wann wie oft welchen Prozess durchgeführt?).
Die Daten aus dem Real User Monitoring bieten eine exzellente Basis für die Fokussierung der Testaktivitäten. So können damit bspw. Testfälle, Testdaten und Testprioritäten aus dem echten Produktionsumfeld für das Testmanagement abgeleitet werden.



Matthias Scholze
QMETHODS – Business & IT Consulting GmbH

Donnerstag, 01.01.1970   |   10:00 - 10:30 Uhr   |    GTD 0.1

Pause und Ausstellung






Donnerstag, 01.01.1970   |   08:00 - 09:00 Uhr   |    GTD 0.1

Registrierung






Donnerstag, 01.01.1970   |   11:45 - 12:30 Uhr   |    Do 1.2

Adaptionsfähige Organisationen – das reicht nicht zum überleben

Den Begriff Digitalisierung kann schon keiner mehr hören. Agil ist auch verbrannt und Macht und Management darf man gar nicht mehr sagen. Na gut, dann eben anders aber besser. Was ist denn die Grundlage für den Hype dieser Buzzwords - sie scheinen ja nicht ganz unberechtigt zu existieren. Und wie geht es besser? Genau das wird in diesem Talk behandelt.
Es wird gezeigt was hinter dem ganzen steht und so ein tiefes Verständnis und Bewusstsein erzeugt. Basierend hierauf werden Antworten gegeben, wie den Herausforderungen der Postmoderne und des Innovationswettbewerbs entgegen getreten werden kann. Hierzu wird auf Organisation á la Heterarchie, Führung zur Selbstführung, Macht und Verantwortung eingegangen und am Beispiel der HEC gezeigt, mit welchen Schmerzen und Freuden dieses Unternehmen in der Postmoderne angekommen und adaptionsfähig geworden ist.

Zielpublikum: Projektleiter, Manager, Entscheider, Abteilungs-, Team und Bereichsleiter, Scrum Master, Product Owner
Voraussetzungen: Verständnis für Organisationen, kontinuierliche Verbesserung, Führung und Management
Schwierigkeitsgrad: Mittel



Frank Düsterbeck
HEC GmbH
Agiler Berater

Donnerstag, 01.01.1970   |   12:45 - 12:30 Uhr   |    Do 1.3

Werteorientierung als Vorgehensmodell

Nach drei Jahren ohne Änderung hat der Scrum Guide, also das definierte 'Regelwerk' von Scrum, ein Update erfahren. Statt an den bekannten Regeln Veränderungen vorzunehmen, wurde lediglich ein Abschnitt über Werte hinzugefügt. Warum Werteorientierung ein erfolgskritisches Element von nicht nur agiler Software-Entwicklung ist und was dies im Projektalltag bedeutet, möchte Maximilian Frei mit Ihnen in diesem interaktiven Vortrag diskutieren. Zielpublikum: Mitarbeiter, Peer Leaders und Führungskräfte in IT-Projekten
Voraussetzungen: Scrum Grundwortschatz, Erfahrung in agilen oder klassischen Entwicklungs-Projekten
Schwierigkeitsgrad: Anfänger



Maximilian Frei

Capgemini Hamburg, Application Services

Donnerstag, 01.01.1970   |   14:00 - 14:45 Uhr   |    Do 2.2

Effiziente Gestaltung einer effektiven Arbeitsumgebung zur Entwicklung innovativer Applikationsservices am Beispiel der Entwicklung von Watson Applikationen unter winsure

Big Data, Verarbeitung von nicht strukturierten Daten und Cognitive Analytics eröffnen auf der Geschäftsprozessebene völlig neue Perspektiven. Hierzu bedarf es agiler und flexibler Strukturen mit Auswirkungen sowohl auf die Technologie wie auch auf die Organisation. Am Beispiel der 'watson data platform' und den damit verbundenen Rollenverständnis zwischen Design, Architektur und Business Prozessen zeigen wir, wie ISS Software GmbH und IBM gemeinsam für Kunden der ISS neue kognitive Anwendungen entwickelt. Zielpublikum: keine Angabe
Voraussetzungen: keine Angabe
Schwierigkeitsgrad: Anfänger



Dirk-Andrew Heil
ISS Software GmbH
Prokurist

Michael Ehrmantraut
IBM
CTO Analytics Industries

Christian Hofmeister
IBM
Cognitive Solution Unit

Donnerstag, 01.01.1970   |   14:00 - 14:45 Uhr   |    Do 2.3

Beobachtest du noch oder verbesserst du schon? Kontinuierliche Qualitätsverbesserung in der Praxis

Die Anforderungen an Softwaresysteme ändern sich heutzutage sehr dynamisch. Änderungen müssen in immer kürzerer Zeit umgesetzt werden. Dafür ist unter anderem qualitativ hochwertiger Code notwendig, der das Fehlerrisiko minimiert und sich einfach ändern lässt. Aber gerade die Dynamik mit der sich Anforderungen und Code ändern führt dazu, dass die Qualität oftmals unter den Tisch fällt. Als Gegenmaßnahme wird oft ein Tool zum Erheben von Metriken eingesetzt. Die nüchterne Erkenntnis ist aber: Nur durchs Messen wird die Qualität nicht besser.
In diesem Vortrag erläutern wir, wie die Verbesserung der Codequalität ihren Platz im häufig durch fachliche Anforderungen dominierten Entwicklungsprozess findet. Den Kern des Vortrags bilden die notwendigen Rollen, Kommunikationswege und Werkzeuge für die kontinuierliche Qualitätsverbesserung. Darauf basierend berichten wir unsere Erfahrungen aus dem praktischen Einsatz in einer Vielzahl von Kundenprojekten.

Zielpublikum: Entwickler, Architekten, Qualitätsverantwortliche, Projektleiter, Teamleiter
Voraussetzungen: Motivation und Bereitschaft zur Qualitätsverbesserung
Schwierigkeitsgrad: Anfänger



Dennis Pagano
CQSE GmbH
Berater

Nils Göde
CQSE GmbH
Software Quality Consultant

Donnerstag, 01.01.1970   |   16:10 - 16:55 Uhr   |    Do 4.1

Serverlos = Sorgenlos - Grenzenlose Skalierbarkeit zum Nulltarif?

'Serverless Architecture' verspricht durch Kooperation von Backend- und Computing-Cloud-Services Skalierung und echte nutzungsabhängige Betriebskosten. Die Planung und Einrichtung von Server-Infrastruktur entfällt, genauso wie das Risiko die benötigten Ressourcen unter- bzw.  überdimensioniert zu haben.
Doch zu welchem Preis erkaufe ich mir diese Vorteile? Und wann ist dieser Ansatz überhaupt geeignet?

Zielpublikum: Architekten, Entwickler, Entscheider, Betrieb
Voraussetzungen: Basiswissen über den Aufbau und Betrieb von Softwaresystemen
Schwierigkeitsgrad: Anfänger



Tobias Behr
Holisticon AG
Consultant

Christoph Gerkens
Holisticon AG
Software-Architekt, Entwickler und Berater

Donnerstag, 01.01.1970   |   16:10 - 16:55 Uhr   |    Do 4.2

Meuterei auf der VUCA. Selbstorganisierte Unternehmen in einer agilen Welt

Es hat sich herumgesprochen, dass Volatität, Unsicherheit, Komplexität und Mehrdeutigkeit heutzutage zum Tagesgeschäft gehören. Es hat sich ebenso herumgesprochen, dass traditionelle Organisationsformen damit ihre Schwierigkeiten haben. Viele Mitarbeiter haben längst damit begonnen, sich gegen diese Formen aufzulehnen. Doch welche Rahmenbedingungen braucht es, damit sie mehr tun können als den Einsatzbefehlen eines Kapitäns zu folgen? Wie verwandeln wir diese Kapitäne in Piraten einer anderen Organisation? Und was haben die Kunden davon?
'Meuterei auf der VUCA' zeigt anhand ausgewählter Praxisbeispiele' warum Selbstorganisation darauf wegweisende Antworten liefert und wie diese aussehen können.

Zielpublikum: Manager, Projektleiter, Entscheider
Voraussetzungen: Basiswissen Lean/Agile/Systems Thinking
Schwierigkeitsgrad: Mittel



Siegfried Kaltenecker
Loop
geschäftsführender Gesellschafter

Donnerstag, 01.01.1970   |   16:10 - 16:55 Uhr   |    Do 4.3

HowTo - Wie geht agile Releaseplanung?

Kennen Sie das auch? Sie arbeiten als Product Owner in einem agilen Team. Vor Projektstart oder zu Projektbeginn liegen Ihnen noch wenige fachliche Informationen vor. Gleichzeitig wünschen Ihre Stakeholder einen Releaseplan, um so früh wie möglich Klarheit zu erlagen, wann was geliefert werden wird.
In diesem Vortrag zeigen wir einen konkreten Weg aus diesem Spannungsfeld: Es werden unterschiedliche Instrumente agiler Releaseplanung so miteinander verknüpft, dass es Ihnen möglich wird, aus einer Geschäftsvision über verschiedene Zwischenschritte, den konkreten Releaseplan für ein Produkt abzuleiten.
Am Ende des Vortrags können Sie einem Kollegen sagen: 'So geht agile Releaseplanung.'

Zielpublikum: Product Owner, Scrum Master, Produktmanager
Voraussetzungen: Grundlagen in Scrum
Schwierigkeitsgrad: Anfänger



Michael Hofmann
oose Innovative Informatik eG
Trainer und Agile Coach

Andrea Grass
oose Innovative Informatik eG
Trainerin und Agile Coach

Donnerstag, 01.01.1970   |   17:05 - 17:50 Uhr   |    Do 5.1

Es geht doch! Lösungsstrategien für individuelle Standardsoftware

Um sich Wettbewerbsvorteile zu verschaffen, werden von Kunden individuelle Lösungen benötigt und gefordert. Gleichzeitig soll eine solche Lösung kostengünstig umgesetzt und fortlaufend weiterentwickelt werden. Wie ist dieser Spagat zwischen einer Individuallösung und einer Standardsoftware zu schaffen? Durch eine Architektur und ein Vorgehen, das eine flexibel konfigurierbare und weitreichend erweiterbare Standardsoftware ermöglicht. Der Vortrag stellt dar, wie mit einer modularen Software-Architektur und dem passenden Dependency Management Software individualisierbar standardisiert werden kann.

Zielpublikum: Architekten und Entwickler
Voraussetzungen: Kenntnis von Dependency Injection und loser Kopplung, Einsatz von Paketverwaltungssystemen
Schwierigkeitsgrad: Fortgeschritten



Jan Mattner
AIT GmbH & Co. KG
Senior Consultant

Martin Kleine
AIT GmbH & Co KG
Senior Consultant und Projektleiter

Donnerstag, 01.01.1970   |   17:05 - 17:50 Uhr   |    Do 5.3

45 Minuten Disziplin

'Scrum ist leicht erklärt, aber schwer zu leben'. Die Realität in agilen Projekten bestätigt diese Aussage vielfach. Warum ist das so? Reicht das agile Wertesystem nicht aus, um mit den agilen Vorgehensweisen das Richtige richtig zu tun? Vielleicht geht's mit: Disziplin!
Wir wollen einen anderen Blick auf Disziplin vermitteln, sie aus der 'Gehorsams-Ecke' holen, mit Kreativität verbinden und die Teilnehmer und deren Teams ermutigen, über diesen vergessenen Wert nachzudenken und mit seiner Hilfe erfolgreicher zu werden.

Zielpublikum: Alle - vor allem jene, die glauben, bereits diszipliniert zu arbeiten
Voraussetzungen: keine
Schwierigkeitsgrad: Anfänger



Holger Koschek

selbstständiger Berater, Trainer und Coach

Rolf Dräther
HAPPYCENTRIC
selbstständiger Berater, Trainer und Coach

Donnerstag, 01.01.1970   |   09:00 - 09:45 Uhr   |    Fr 1.1

Föderation statt Integration: Skalierbare IAM-Anbindung

Verteilte, dezentrale Systeme sind in aller Munde. Ob Self-Contained-Systems, Microservices oder Lambdas - Verteilung hat sich in den letzten Jahren nicht zuletzt aus Gründen der horizontalen Skalierbarkeit zu 'dem' Architektur-Pattern entwickelt. Diese neue, massive Form der Verteilung erfordert jedoch ein deutliches Umdenken bei der Anbindung von Identity und Access Management (IAM) Systemen.
In dieser Session erfahren Sie, warum eine klassische Integration von LDAP, Active Directory und Application Servern ihre neu gewonnene Skalierbarkeit gefährdet. Sie werden erkennen, wie sie mittels föderalen Authentifizierungsverfahren die Kopplung ihrer Teilsysteme an ein zentrales IAM-System massiv verringern können und somit die Skalierbarkeit ihres Gesamtsystems stützen.
Am Beispiel von OpenID Connect wird auf Basis von Keycloak demonstriert, wie diese Verfahren in der Praxis funktionieren.

Zielpublikum: Architekten, Projektleiter, Entscheider
Voraussetzungen: Grundlegende Kenntnisse über verteilte Systemen und HTTP.
Kenntnisse zu Authentifizierungsprotokollen vorteilhaft.
Schwierigkeitsgrad: Mittel



Sven-Torben Janus
Conciso GmbH
Senior Software Architect

Donnerstag, 01.01.1970   |   09:00 - 09:45 Uhr   |    Fr 1.2

Mal schnell ein Brainstorming? – Neuropsychologische Voraussetzungen für Kreativität

Innovation ist eine wichtige Voraussetzung um konkurrenzfähig zu bleiben. Das gilt sowohl für Lean Startups und agil entwickelnde Teams, wie auch für traditionelle Unternehmensformen. Doch wie bringt man nun Mitarbeiter dazu, kreativ zu sein? Und wie kann man dem eigenen Gehirn auf die Sprünge helfen?
Dieser Vortrag befasst sich mit den neuropsychologischen Grundlagen der Kreativität und zeigt auf, welche Voraussetzungen erfüllt sein müssen, damit unser Gehirn kreativ sein kann. Weiterhin untersucht er exemplarisch für ausgewählte Kreativitätstechniken, inwiefern sie zur Erfüllung dieser Voraussetzungen beitragen und gibt konkrete Tipps, was man tun kann, wenn die zündende Idee ausbleibt.

Zielpublikum: Manager, Entwickler, Projektleiter, Agilisten, Lean/Design Thinkers und generell: Menschen
Voraussetzungen: keine
Schwierigkeitsgrad: Mittel



Anja Schwarz
SOPHIST GmbH
Beraterin, Trainerin und Autorin

Inge Kreß

Ärztin für psychosomatische Medizin

Donnerstag, 01.01.1970   |   09:00 - 09:45 Uhr   |    Fr 1.3

Backlog-Pflege mit User Story Mapping

In Scrum spielt das Product Backlog eine zentrale Rolle. Die große Frage ist, wie ein solches Product Backlog entsteht und wie es gepflegt wird. Eine mögliche Antwort ist die Methodik des User Story Mappings, welche Product Ownern ein leichtgewichtiges Werkzeug zur initialen Befüllung von Product Backlogs und deren Pflege zur Hand gibt. Ziel ist es, komplexe Anforderungen effektiv in Backlog Items herunter zu brechen und dabei Themen wie Priorisierung und Release-Planung im Auge zu behalten. Die Session bringt Ihnen die Methodik anhand eines praktischen Beispiels näher und zeigt dabei die Herausforderungen auf.

Zielpublikum: Product Owner, Analysten, Projektleiter
Voraussetzungen: Fachkenntnisse Agile Methoden, Scrum Kenntnisse
Schwierigkeitsgrad: Mittel



Alexander Casall
Saxonia Systems AG, Germany
Softwarearchitekt

Donnerstag, 01.01.1970   |   09:55 - 10:40 Uhr   |    Fr 2.1

Wie stiefmütterlich behandeln Sie die Sicherheit in ihrer Microservice-Architektur?

In den meisten Firmen werden skalierbare Microservices mindestens evaluiert, oftmals sind sie aber schon in produktiven Umgebungen angekommen und ersetzen schrittweise komplexe monolithische Altanwendungen. Die Flexibilität der kombinierbaren, interagierenden Services erkauft man sich mit höheren Anforderungen an die Absicherung, da nun nicht mehr nur das Frontend als Einfallstor sondern die Schnittstelle jedes einzelnen Services abgesichert werden muss. Während die Absicherung früher eine Aufgabe des Betriebs war, muss jetzt der Entwickler der Schnittstelle auch festlegen, ob und worauf ein Klient zugreifen darf. Begleiten Sie mich bei der Einführung einer Sicherheitsarchitektur für ein typisches System aus Microservices, einem Monolithen und zahlreichen Schnittstellen zu externen Partnern und Kunden.

Zielpublikum: Architekten, Entwickler, Entscheidungsträger
Voraussetzungen: Grundlagenwissen in Java und Web-Security, Anwendungsarchitekturen
Schwierigkeitsgrad: Mittel



Wolfgang Strunk
iteratec GmbH
Projektbereichsleiter

Donnerstag, 01.01.1970   |   09:55 - 10:40 Uhr   |    Fr 2.2

Software Engineering für virtuelle Roboter: Automatisierung von administrativen Prozessen durch ,Robotics Process Automation'

Die Technologie 'Robotics-Process-Automation (RPA)' ist eine Automatisierungsform von IT-basierten Prozessen. Diese Technologie repliziert die (Prozess-)Aktivitäten von menschlichen Usern am Bildschirm und automatisiert diese so, dass sie ähnlich zu einer Batchjob-Verarbeitung zentral auf einem Server ablaufen können. Dieser Ansatz ermöglich den Aufbau einer ,virtual workforce' im Rechenzentrum mit der viele administrative Prozesse - als Alternative zu einem nearshore oder offshore - in das eigene Rechenzentrum verlagert werden können.
In diesem Vortrag wird der RPA Ansatz näher erläutert und vermittelt, in welchen Schritten die (-- LGBS --) diese Technologie eingeführt hat. Aus diesen Erfahrungen heraus werden die Herausforderungen und Chancen diskutiert und erklärt, wie Entwicklungs- und Betriebsprozesse für die virtuellen Roboter aussehen können und wie sich diese Form der Automatisierung in die allgemeine IT-Strategie einbetten lässt.

Zielpublikum: to follow
Voraussetzungen: to follow
Schwierigkeitsgrad: Mittel



Sönke Magnussen
Lufthansa Global Business Services
Gruppenleiter für Revenue Accounting IT

Donnerstag, 01.01.1970   |   09:55 - 10:40 Uhr   |    Fr 2.3

Lean ScrumBan-Thinking in der Praxis

Alexander Krause erzählt die Erfolgsgeschichte eines experimentierfreudigen Entwicklungs-Teams, welches mit lean-startup und Design-Thinking Elementen in ein Projekt gestartet ist, im Story-Mapping die PO-Rolle eingenommen hat und nach und nach Mob-Programming, TDD, Automatisierung & Virtualisierung kennen lernte. Mit dem Single-Story-Taskboard, #NoEstimates und #NoSprints hat sich daraus eine extrem hohe Performance und Lösungskompetenz entwickelt.
Lassen Sie sich von der Lust an Experimenten, Reflexion, Lernen und Verändern inspirieren.

Zielpublikum: Management, Produktverantwortliche, Führungskräfte, Umsetzer (Entwickler, Tester, IT)
Voraussetzungen: Praktische Erfahrungen im Bereich agiler Entwicklung, besonders Scrum, sind hilfreich, um den Wert des Zusammenspiels unterschiedlicher agiler Strömungen und die Macht der Veränderbarkeit zu begreifen.
Schwierigkeitsgrad: Fortgeschritten



Alexander Krause
Veraenderungskraft

Donnerstag, 01.01.1970   |   14:40 - 15:25 Uhr   |    Fr 4.1

Interaktionsstrategien für Microservices: von synchronen Aufrufen bis zu Events

Es gibt zahlreiche Wege wie Microservices miteinander kommunizieren können. Die Palette der Möglichkeiten reicht von synchronen Aufrufen von REST-Resourcen bis hin zur asynchronen Verarbeitung von Domain Events. Jede der Optionen hat gewisse Vor- und Nachteile. Im Rahmen des Vortrags werden wir die unterschiedlichen Interaktionsmöglichkeiten vorstellen und im Hinblick auf ihre Vor- und Nachteile betrachten. Weiterhin wird der Vortrag ebenfalls auf Einflüsse und Optionen im Hinblick auf die Architektur und benötigte Infrastruktur eingehen.
Betrachtet werden dabei unter anderem: Synchrone REST-Aufrufe, Web Services, Messaging, Domain Events sowie Event Sourcing / CQRS.

Zielpublikum: Architekten, Entwickler
Voraussetzungen: Grundlegende Architekturkenntnisse
Schwierigkeitsgrad: Mittel



Henning Schwentner
WPS - Workplace Solutions
Berater und Software-Architekt

Donnerstag, 01.01.1970   |   14:40 - 15:25 Uhr   |    Fr 4.3

Build, Measure, Learn: Erfolgreiche Mobile-Entwicklung im DevOps-Stil

Was braucht es alles um eine Mobile-App für verschiedene Plattformen 'end-to-end' zu planen, zu realisieren und regelmäßig an die Benutzer auszuliefern? Eine ganze Menge! In diesem Vortrag erfahren Sie, wie DevOps und modernes Application Lifecycle Management für Mobile-Apps in der Praxis funktionieren kann. Wir zeigen wie man Development, Build, Quality und Deployment unter einen Hut bekommt und dabei die Stakeholder kontinuierlich einbezieht. Wie sich die Konzepte in den Alltag übertragen lassen, zeigen wir am Bespiel einer App für iOS, Android und Windows.

Zielpublikum: Projektleiter, Manager, Entscheider, Architekten, Entwickler, ...
Voraussetzungen: Erfahrung mit Softwareprojekten, Interesse an Cross-Plattform und Mobile-Projekten
Schwierigkeitsgrad: Anfänger



Neno Loje

freier DevOps-Berater

Jörg Neumann
Acando GmbH
Principal Consultant

Donnerstag, 01.01.1970   |   15:50 - 16:35 Uhr   |    Fr 5.1

Architektur, Agilität, Automation und Kommunikation – Das Fundament für Höchstleistung und Reaktionsfähigkeit

In unserer schnelllebigen Zeit ist Reaktionsfähigkeit einer der wichtigsten Erfolgsfaktoren aber auch eine der größten Herausforderungen. Es müssen alle Teiler einer Entwicklung, vom Produktmanagement bis hin zur Softwareentwicklung, exzellent zusammenspielen.  Weil sich jedoch das Produktmanagement nie entscheiden kann und die Entwickler immer das entwickeln was keiner braucht, stellt sich die Frage, wie Höchstleistung und Reaktionsfähigkeit erzielt werden können. Anhand eines Projektes aus der Medizintechnik beleuchtet der Vortrag die einzelnen Methoden wie beispielsweise Specification by Example und wie diese ineinander greifen und bei konsequenter und disziplinierter Anwendung zum Erfolg führen.

Zielpublikum: Architekten, Entwickler, Projektleiter, Manager
Voraussetzungen: Grundlegendes Verständniss agiler Methoden
Schwierigkeitsgrad: Mittel



Wolfgang Trumler
Siemens Coprorate Technology
Certified Senior Software Architect

Donnerstag, 01.01.1970   |   15:50 - 16:35 Uhr   |    Fr 5.3

Auftragsklärung – ein kollaboratives Alignment Framework in der Produkt Entwicklung

Das Auftragsklärungs Framework wurde von uns bei XING entwickelt um Stakeholder im Produckt Entwicklungsprozess zu alignen. Im Kern steckt ein trivialer Gedanke: alle Beteiligten und Entscheider sollten sich darüber einig sein, warum eine Initiative gemacht wird und was damit erreicht werden soll. Das wiederum ist eine wichtige Grundvoraussetzung um dem ausführenden Team ausreichend Autonomie zu ermöglichen, damit sie maximal schnell und zielgerichtet agieren können. Der Vortrag soll das Framework an sich beschreiben, aber auch den Kontext bei XING aus dem es entstanden ist und wie wir es jetzt einsetzten. Ziel ist es, dass Zuhörer, die interessiert sind danach das Framework anwenden können.

Zielpublikum: Produkt Manager, Projektleiter, Manager, Entscheider
Voraussetzungen: Grundverständnis von agilen Entwicklungsprozessen für digitale Produkte und typischen Team Setups
Schwierigkeitsgrad: Mittel



Marc Kadish
XING AG
Product Director

Donnerstag, 01.01.1970   |   16:45 - 17:30 Uhr   |    Fr 6.1

Per Anhalter durch den Cloud Native Stack.

Cloud-Größen wie Google, Twitter und Netflix haben die Kern-Bausteine ihrer Infrastruktur quelloffen verfügbar gemacht. Das Resultat aus vielen Jahren Cloud-Erfahrung ist nun frei zugänglich, jeder kann selbst Cloud native Anwendungen entwickeln - Anwendungen, die in der Cloud zuverlässig laufen und fast beliebig skalieren. Sie werden als Microservices gebaut und orchestriert. Sie werden in Containern paketiert und verteilt. Die Container werden in der Cloud dynamisch zur Ausführung gebracht. Die Technologie-Bausteine wachsen langsam zu einem großen Ganzen zusammen: dem Cloud Native Stack. Wir stellen die wichtigsten Konzepte und Schlüssel-Technologien vor, und bringen anschließend eine Beispiel Anwendung schrittweise in der Cloud zum Laufen.

Zielpublikum: Architekten, Entwickler, Projektleiter, Entscheider, Cloud Native Nerds
Voraussetzungen: Grundlegende Programmierkenntnisse sind Voraussetzung für das Verständnis der gezeigten Codebeispiele. Begriffe wie REST, Microservices, Service Discovery und Docker sollten keine Fremdworte sein, Vorkenntnisse und Erfahrungen mit diesen Technologien werden jedoch nicht zwingenden vorausgesetzt.
Schwierigkeitsgrad: Mittel



Mario-Leander Reimer
QAware GmbH
Cheftechnologe

Donnerstag, 01.01.1970   |   16:45 - 17:30 Uhr   |    Fr 6.2

Qualität und Kommunikation - denn Qualität beginnt in unseren Köpfen!

'Quality is everyone´s responsibilty!'  sagte einst William Edwards Deming.
Gerade heute ist die RICHTIGE Qualität ein wichtiges Kriterium, um am Markt bestehen zu können. Agile Softwareentwicklung und (Biz)DevOps berücksichtigen diese Anforderungen.
Hierfür müssen Informationen transportiert und Transparenz geschaffen werden.
- Feedback,
- Fehlerkultur,
- Verantwortung und
- Commitment
sind die Buzzwords der IT. Ein wichtiger Schlüssel zum Erfolg von Agile, Lean und (Biz)DevOps ist die Kommunikation - hochkomplex aber oft vernachlässigt! Kommunikation wird von vielen verschiedenen Faktoren beeinflusst. Die persönliche Einstellung zählt! Kommunikation wiederum beeinflusst andere und hat damit größere Auswirkungen als wir glauben - für alle am Prozess beteiligten Stakeholder und wird schwieriger mit zunehmender Zahl! Einstellung und Kommunikation sind Kopfsache und damit unsere eigene Verantwortung! Und hier beginnt die Geschichte der Qualität....

Zielpublikum: Projektleiter, Teamleads, Entscheider, Manager, Entwickler, HR
Voraussetzungen: Interesse an der Verbesserung von menschlichen Prozessen
Schwierigkeitsgrad: Mittel



Sabine Wojcieszak
getNext IT
Chief Consultant

Donnerstag, 01.01.1970   |   19:00 - 21:00 Uhr   |    Welcome Reception

Welcome Reception | Traditionelles Kicker-Turnier






Donnerstag, 01.01.1970   |   14:15 - 14:20 Uhr   |    Lightning Talks

Fünf Dinge, die Ihre Tester glücklich machen

Manuelles Testen ist trotz der normalerweise eingesetzten Test-Werkzeuge nach wie vor ein wichtiger Aspekt in der Software Entwicklung. Aufgrund der hohen Kosten manueller Tests ist es deshalb umso wichtiger, den damit verbundenen Aufwand zu minimieren und die Test-Durchführung möglichst effizient zu gestalten. In diesem Kurzvortrag stelle ich ein paar einfache Kniffe vor, mit dem das manuelle Testen einer Anwendung deutlich verbessert werden kann.



Dr. Jürgen Lind
iteratec GmbH

Donnerstag, 01.01.1970   |   14:05 - 14:10 Uhr   |    Lightning Talks

Agile Testing – Anti-Pattern

Agile Vorgehensweisen sind mittlerweile weit verbreitet sich auch im WorldQuality Report 2016/17 zeigt. Aber viele Umsetzungen haben noch viele Probleme.
Seite fast 6 Jahren CAT-Schulungen zeigt sich, dass die Regeln von Scrum bekannt sind, das Agile Manifest meist verstanden wird, aber spätestens bei den Agilen Prinzipien die Lücken groß werden und die Umsetzung scheitert. Die Anti-Pattern schlagen zu!
 
 



Michael Fischlein
Sogeti

Donnerstag, 01.01.1970   |   16:45 - 17:30 Uhr   |    Fr 6.3

Get your ...right – Security by Design fängt im Kopf an

Der  Vortrag  beschäftigt  sich  kritisch  mit  der  zunehmenden „schnell-schnell“-Mentalität bei IT-Projekten. Die schwerwiegenden Sicherheitslücken  und  Angriffe  der  letzten  Jahre  basierten  größtenteils auf Designfehlern und fehlender Qualitätssicherung. Von Heartbleed  über  DDOS  Attacken  durch  Glühbirnen  und  spionierende Puppen im Kinderzimmer – wenn schon alles eine IP haben muss, sollten Sicherheit und Privatsphäre an oberster Stelle stehen. Hierbei sind alle Projektbeteiligten in der Pflicht. Zielpublikum: Architekten, Entwickler, Projektleiter, Manager, Entscheider, Genau die – also ALLE 🙂
Voraussetzungen: Kann Spuren von Sarkasmus enthalten, sonst gibt es keine Voraussetzungen.
Schwierigkeitsgrad: Für alle geeignet, das ist ja ein Meta Thema.



Michael Hirdes
nycro UG
Geschätftsführer

Donnerstag, 01.01.1970   |   10:30 - 11:15 Uhr   |    Eröffnung

Open Space Eröffnung, Marktplatz und folgende Pecha Kucha-Vorträge

1.  MbO, OKR und Nordstern | Stefan Roock 2.  Let’s talk about REST, baby! | Jan Carsten Lohmüller



Stefan Roock
it-agile GmbH
Coach, Trainer und Teammitglied für agile Ansätze wie Scrum, Kanban und XP

Jan Carsten Lohmüller
WPS - Workplace Solutions GmbH
Softwareentwickler

Donnerstag, 01.01.1970   |   17:45 - 18:10 Uhr   |   

Einlass und Registrierung






Donnerstag, 01.01.1970   |   18:10 - 18:15 Uhr   |   

Begrüßung durch das Conference-Board






Donnerstag, 01.01.1970   |   18:15 - 19:45 Uhr   |    GTN 1.1

Rediscovering Exploratory Testing

18:15 - 19:10  Interactive Session with a  inputs and
exercises about exploratory testing.

19:10 - 19:45  Fishbowl Discussion:
Exploratory Testing - activity, technique or way of style?




Ingo Philipp
Tricentis
Produktmanager

Donnerstag, 01.01.1970   |   18:15 - 19:45 Uhr   |    GTN 2.1

Testprozesse spielerisch besser verstehen

Wir spieln in Gruppen das Testprozess-Spiel „TestIT“. Das Spiel stellt das Team in den Mittelpunkt, denn ein motiviertes Team erkennt die Chancen in den Veränderungen.



Ulf Richter
BMW Group IT

Donnerstag, 01.01.1970   |   18:15 - 19:45 Uhr   |    GTN 3.1

Pecha Kucha Night: " What really matters...?"

Janet Albrecht-Zölch     "Menschen bedienen Computer. Wer dient hier wem?" Thomas Rinke                "Vom ersten Mal, Geigen, Flöten und Helden" Klaus Moritzen              "Qualität mit anderen Augen sehen" Michael Mlynarski          "Life is short, do stuff that matters" Finn Lorbeer                  "Keep Calm and Drink Tea" “As QAs we do not only test new Software. Whenever live errors happen we are called in first because we know the business side as much as the tech side. And when the stakes are high it is even more important to be balanced and to keep a calm mind. There is a drink that serves this purpose for over 2000 years now. We will see how we can make use of this and how to do it 'right': keep calm and drink tea." Dietmar Wohnert           "Mensch 4.0" Frederik Lüttmann         „Scheiß auf Funktion, Hauptsache es sieht geil aus“ Manfred Baumgartner    "What matters is Us" “Worauf es am Ende ankommt – auch in der IT – sind wir als Menschen. Und damit auf unsere Leidenschaft sowie auf unser Streben nach Weiterentwicklung und nach Qualität”



Melanie Wohnert
Think Y
Inspiratorin

Donnerstag, 01.01.1970   |   19:45 - 22:30 Uhr   |    German Testing Night

Stehempfang, Networking und Casino






Donnerstag, 01.01.1970   |   16:20 - 17:10 Uhr   |    Keynote

The five key challenges of a tester tomorrow

As an industry we can now build more software faster than ever, and operate it significantly cheaper. People today interact with our products in many more ways than just ten years ago, and software products run on  many more platforms than before. The landscape of software risk is changing rapidly, and so is the the role of testers, test managers and testing in software.
 
In this session, Gojko Adzic looks at the five most important challenges facing testers in the near future due to these shifting roles. Gojko will present some emerging ideas that will help address these challenges and inspire you to rethink your approach to testing.



Gojko Adzic


Donnerstag, 01.01.1970   |   10:45 - 11:30 Uhr   |    Mo 1.1 1)

Der Weg in die explorative BI oder wie uns die Digitalisierung vor sich her treibt

Digitalisierung in der Automatisierungsindustrie und wie daraus entstehende Big Data Use Cases bei Festo umgesetzt werden und was dies für ein klassisch aufgestelltes BI Competence Centre bedeutet. Was sind die Stolpersteine und die Herausforderungen in der Zukunft? Ein Bericht aus der Praxis.



Marc Werner-Nietz
Festo AG & Co. KG
Leiter Information Management Analytics und Big Data

Donnerstag, 01.01.1970   |   15:45 - 17:00 Uhr   |    Mo 1.4

Vom Old-School Reporting zum State-of-the-Art Self Service: Erfolgsfaktoren & Best Practices bei der Migration

Mit der Einführung von Self Service BI verspricht man sich eine höhere Autonomie & Flexibilität der Endanwender. Nicht immer jedoch wird die Erwartung erfüllt: Die Reduzierung des historisch gewachsenen Standard Reportings tritt nicht ein, stattdessen entstehen weitere inkonsistente Analysen, Spreadmarts, Schatten-Systeme und Datensilos. Die Erkenntnis wächst, daß Self Service BI eine neue Qualität der Analyse darstellt und nicht nur ein 'Reporting 2.0'. Erfolgreiche Strategien sehen eine systematische Überführung des Standard Reporting hin zu Self Service Anwendungen mit passenden Analysepfaden vor. Zudem ist eine ausgewogene Governance anzustreben, um das richtige Maß an Freiheit & Kontrolle sowie Flexibilität & Standards festzulegen. Der Vortrag stellt das breite Spektrum von Self Service Discovery bis hin zu Self Service Data Preparation vor. Entlang von Praxisbeispielen wird eine Methodik zur Migration und Best Practices zum Aufbau von Governed Self Service präsentiert.

Zielpublikum: BI-Manager, BI-Projektleiter, Fach/IT-Entscheider, Controlling-Verantwortliche und CFOs
Voraussetzungen: Grundlagen BI, Praktische Erfahrungen mit BI
Schwierigkeitsgrad: fortgeschritten



Carsten Dittmar
NTT DATA Deutschland GmbH
Head of Business Development, TDWI Fellow

Daniel Lampertseder
NTT DATA Deutschland GmbH
Head of Reporting & Analytics, CC Business Analytics

Donnerstag, 01.01.1970   |   17:30 - 18:45 Uhr   |    Mo 1.5

Agile in Action: Agiles Projektmanagement bei REWE Systems

REWE Systems, zentraler Lösungsanbieter eines der führenden deutschen und europäischen Handels- und Touristikkonzerne, setzt bei der Entwicklung seiner BI-Projekte erfolgreich auf agile Methoden des Projektmanagements. Die Vorgehensweise hat Vorbildcharakter: Den beteiligten Partnern wird im Rahmen eines klar definierten Regelwerks ein Maximum an Freiheit eingeräumt. Die Verantwortlichen auf Unternehmensseite sehen sich als fester Bestandteil des Entwicklungsteams. Zudem werden die Fachbereiche laufend in den Entwicklungsprozess einbezogen, bei dem Wireframes das Anforderungsmanagement nachhaltig unterstützen.
Das Seminar beleuchtet das agile Projektmanagement bei der REWE Systems am Beispiel eines BI-Tools zur Sortiments- und Saisonplanung sowie der Lieferantenbewertung im Bereich Ultrafrische. Die einzelnen Prozessbestandteile werden einer genauen Betrachtung unterzogen. Best Practices vermitteln den Teilnehmern, wie agile Prinzipien gelebt und Projektabläufe optimal gestaltet werden.

Zielpublikum: BI-Projektleiter und technische Projektleiter, Spezialisten für BI, Big Data und DWH
Voraussetzungen: Teilnehmer sollten mit den typischen Herausforderungen vertraut sein, die aus einem modernen Business-Intelligence-Umfeld sowie einer datengetriebenen Unternehmensführung resultieren.
Schwierigkeitsgrad: fortgeschritten



Axel Hoffmann
REWE Systems GmbH
Business Analyst (Data Warehouse)

Dorte Schusdziara
ORAYLIS GmbH
Principal Project Manager

Donnerstag, 01.01.1970   |   10:45 - 11:30 Uhr   |    Mo 2.1 1)

Technisches Reporting bei Vattenfall – Früher war doch nicht alles besser!

Big Data, IIoT und digitale Transformation sind drei signifikante Trends in der Industrie um die Verarbeitung, Verteilung und Auswertung großer Datenmengen einfacher, schneller und sicherer zu machen. Dieser Vortrag gibt uns einem Einblick darüber wie aus einer heterogenen Struktur des technischen Berichtswesens, verteilt über verschiedene Organisationseinheiten eine homogene Basis für ein Neues Reporting geschaffen wurde. Neben der Entwicklung einer neuen technischen Plattform unter Berücksichtigung spezieller Anforderungen wie z.B. 'IT-Self-Service' wird auch ein Einblick in die gesammelten Erfahrungen bezüglich notwendiger organisatorischer und prozessualer Änderungen gewährt. Das Ende bildet ein Überblick über die geplanten Weiterentwicklungsthemen der nächsten Jahre.

Zielpublikum: BI-Manager, BI-Projektleiter, Entscheider, CIO
Voraussetzungen: BI Grundlagen
Schwierigkeitsgrad: grundlegend



Stefan Saladin
Vattenfall Europe Wärme AG
Head of Technical Reporting Germany

Donnerstag, 01.01.1970   |   14:45 - 15:30 Uhr   |    Mo 2.3

Auf der Suche nach dem passenden Frontend – Toolauswahl bei Gries Deco Company (DEPOT)

Der Referent zeigt eine mögliche Vorgehensweise bei der Toolauswahl für ein wachendes Einzelhandelsunternehmen. Insbesondere werden die stark unterschiedlichen Anforderungen und Herausforderungen von verschiedenen Abteilungen aufgezeigt und das ausgewählte Vorgehensmodell dargestellt. Anschließend erfolgt eine Einordnung in die Gesamtstrategie BI des Unternehmens. Darüber hinaus wird gezeigt wer Mobile BI nutzt und welche zukünftigen Projekte im Zuge der Internationalisierung des Geschäfts interessant werden könnten.

Zielpublikum: BI-Manager, BI-Projektleiter, Entscheider, CIO
Voraussetzungen: BI Grundlagen
Schwierigkeitsgrad: grundlegend



Sascha Müller
Gries Deco Company (DEPOT)
Geschäftsbereichsleiter Controlling & Immobilienmanagement

Donnerstag, 01.01.1970   |   15:45 - 17:00 Uhr   |    Mo 2.4

Storytelling with Data – Dashboarding & Reporting bei tesa SE

Der Vortrag zeigt wie Dashboards und Reports mit Hilfe von Storytelling adressatengerecht erstellt werden können. Vor allem die Einteilung in unterschiedliche Empfängergruppen machte passgenaue Dashboards für das Management als auch auf operativer Ebene möglich. Darüber hinaus erfahren die Zuhörer, wie gute Dashboard-Design funktioniert, welche Architektur von Vorteil ist und warum es sich lohnt einer BI-Strategie zu folgen, die von einem BICC getrieben wird.

Zielpublikum: BI-Manager, BI-Projektleiter, Entscheider, CIO
Voraussetzungen: BI Grundlagen
Schwierigkeitsgrad: grundlegend



Tim Mehlfeld
reportingimpulse GmbH
Leiter reportingfactory

Daniel Eiduzzis
tesa SE
Business Intelligence Architect

Donnerstag, 01.01.1970   |   10:45 - 12:00 Uhr   |    Mo 3.1

Governed Self-Service – Balancing IT and Business with Agile Data

In the BI market, everyone is talking about 'self-service.' Business users are excited to have new tools which make analysis and collaboration easier than ever. IT departments hope that life will be simpler without constant requests from users for new dashboards, visualizations and apps. But in practice, life for the IT department can be even busier with self-service BI. Users are no longer demanding reports - but they are requesting more access to data, with ease of use, high performance and security.
In this session we will show how IT can respond effectively to these challenges, but only if they also use the appropriate tools: tools which enable automated, agile deployment of governed, managed sources. We'll show how these new tools for IT match the self-service tools of business users to deliver data discovery that is truly effective and enterprise-ready in a modern organization.


Target Audience: BI Manager, IT Manager, Data Steward, CTO
Prerequisites: Some experience of database administration or using BI tools.
Level: Advanced



Donald Farmer
TreeHive Strategy
Principal

Donnerstag, 01.01.1970   |   12:30 - 13:15 Uhr   |    Mo 3.2

Big Data Governance in der Praxis

Vieles spricht für die Investition und Bemühungen um eine durchgängige und agile Big Data Governance. Wie Unternehmen diesen bereichsübergreifenden Ordnungsrahmen am besten aufsetzen und damit den Grundstein für eine erfolgreiche Datenstrategie legen, beschreibt dieser Vortrag: Nach welchen Regeln spielen die Verantwortlichen im Umgang mit Daten? Diese Frage rückt bei vielen Unternehmen immer mehr in den Mittelpunkt und zieht zahlreiche Detailfragen nach sich. Fünf Aspekte sind für die Verantwortlichen in Unternehmen besonders wichtig, um Wildwuchs zu vermeiden: Dazu gehören vertragliche Aspekte, die Registrierung und der Schutz von Daten sowie ihre Vorbereitung und Nachverfolgung. Insgesamt gewinnen damit vor allem Fragen an Bedeutung, die nichts mit Technologie zu tun haben. Auch dies illustriert den Unterschied zwischen den alten BI- und den heutigen Big-Data-Analytics-Zeiten deutlich. Der Vortrag erklärt, wie Unternehmen eine strukturierte Big Data Governance aufbauen.

Zielpublikum: CIO, Head of Big Data and Analytics, Head of Data Governance
Voraussetzungen: Grundlagenwissen in Big Data, Analytics, klassische Business Intelligence, Data Governance
Schwierigkeitsgrad: fortgeschritten



Rüdiger Eberlein
Capgemini Deutschland GmbH
CTO Insights&Data

Donnerstag, 01.01.1970   |   15:45 - 18:45 Uhr   |    Mo 3.4

New Data Storage Technologies: From Hadoop to Graph Databases, and from NoSQL to NewSQL

Big data, Hadoop, in-memory analytics, Spark, analytical database servers, Graph databases, NewSQL, and NoSQL are just a few of the many new data storage technologies that have become available for developing business intelligence and big data systems. Most of them are very powerful and allow for development of flexible and scalable systems. But which ones do you pick? An aspect that is clearly complicating the choice is that many of these new systems are specialized database servers. For example, graph databases are great for doing graph analytics, whereas most of the NoSQL products are designed for running a massive transactional workload, however, with a narrow data model. This tutorial gives a clear, critical, and extensive overview of all the new data storage developments. Technologies and products are explained, market overviews are presented, strengths and weaknesses are discussed, and the pros and cons of each solution are discussed.

Target Audience: BI specialists and DW designers looking to learn the pros and cons of the logical data lake and logical data warehouse; data scientists, data analysts, and business analysts; technology planners and architects; database developers and administrators; IT managers who need to be informed about what the logical data warehouse architecture has as business benefits.
Prerequisites: Some general knowledge of data warehousing and business intelligence
Level: Advanced



Rick van der Lans
R20/Consultancy
Industry analyst

Donnerstag, 01.01.1970   |   10:45 - 12:00 Uhr   |    Mo 4.1

Virtual Data Lake and Logical Data Warehouse: Two Sides of the Same Coin?

The data lake is usually defined as 'A data lake is a storage repository that holds a vast amount of raw data in its native format, including structured, semi-structured, and unstructured data.' Especially for data science and for investigative analytics a data lake is incredibly useful. But the question is does it really have to be a physical repository of data? Isn't it sufficient that users can access a system that gives them access to all the data? In other words, why not a virtual data lake? The technology in the form of Data virtualization servers are mature enough to develop data lakes. It would avoid copying massive amounts of big data from their source to the date lake. But what's the difference between a virtual data lake and a logical data warehouse? They are really two sides of the same coin. In this tutorial one integrated architecture is presented that covers both concepts.

Target Audience: BI specialists and DW designers looking to learn the pros and cons of the logical data lake and logical data warehouse; data scientists, data analysts, and business analysts; technology planners and architects; database developers and administrators
Prerequisites: Some general knowledge of data warehousing and business intelligence.
Level: Advanced



Rick van der Lans
R20/Consultancy
Industry analyst

Donnerstag, 01.01.1970   |   12:30 - 13:15 Uhr   |    Mo 4.2

Aufbau einer skalierbaren BI- und DWH-Architektur im Online Gaming

Die Themen DWH und BI haben sich innerhalb der letzten Jahre mit einer rasanten Geschwindigkeit entwickelt.
Ob nun Big Data mit Hadoop, Cloud Computing mit Azure, Self-Service-BI oder auch die Beantwortung analytischer Fragestellungen mit R - alles sind Konzepte, die in diesem Kontext immer wieder genannt werden. In seiner Präsentation möchte Raúl Jiménez Aguilera, BI-Entwickler bei InnoGames, aufzeigen, wie diese Komponenten in der Praxis genutzt werden können, um eine moderne und skalierbare BI-Infrastruktur aufzubauen.
Gerade im Bereich Online Gaming ist es extrem wichtig, aus großen Datenmengen zeitnah entscheidungsrelevante Informationen zu generieren, um neue Spieler zu gewinnen und diese so lange wie möglich im Spiel zu halten. Diese Präsentation ist sowohl für Entscheider als auch für Entwickler relevant, weil neben den jeweiligen Komponenten vor allem auch das 'Big Picture' skizziert wird.

Zielpublikum: BI-Manager, BI-Projektleiter aber auf für BI-Entwickler,weil neben den jeweiligen Komponenten vor allem auch das 'Big Picture' skizziert wird.
Voraussetzungen: BI Grundlagen und Grundwissen Data Warehouse
Schwierigkeitsgrad: fortgeschritten



Raúl Jiménez Aguilera
InnoGames GmbH
Expert BI Developer

Donnerstag, 01.01.1970   |   15:45 - 17:00 Uhr   |    Mo 4.4

Integrating Fast Data and Real-Time Analytics Into The Enterprise

This session explores what is different about streaming data and streaming data analytics. It looks at what's needed in the enterprise to clean, transform, integrate and analyse it.

Target Audience: BI Professionals, Business Analysts, Enterprise Architects
Prerequisites: Basic understanding of BI & Analytics
Level: Advanced



Mike Ferguson
Intelligent Business Strategies
Managing Director

Donnerstag, 01.01.1970   |   17:30 - 18:45 Uhr   |    Mo 4.5

Stream-Processing-Plattformen und die Qual der Wahl

Stream Processing ist zurzeit in aller Munde. So verwundert es nicht, dass immer mehr Stream-Processing-Plattformen auf dem Markt verfügbar sind. Zu den populärsten gehören dabei die Apache-Projekte Storm, Spark Streaming, Flink und Kafka Streams. Während alle diese Frameworks Stream Processing anbieten, gibt es doch erhebliche Unterschiede in der Art und Weise, wie dies bewerkstelligt wird.
Dieser Vortrag geht auf die wesentlichen Konzepte und unterschiedlichen Formen des Stream Processing ein, ordnet anschließend die vier oben genannten Frameworks ein und stellt Einsatzszenarien für sie vor.

Zielpublikum: Entwickler, Architekten
Voraussetzungen: grundlegende Programmierkenntnisse
Schwierigkeitsgrad: fortgeschritten



Matthias Niehoff
codecentric AG
IT-Consultant

Donnerstag, 01.01.1970   |   10:45 - 12:00 Uhr   |    Mo 5.1

Chatbots – Megatrend oder Strohfeuer?

Experten sind sich einig: Chatbots werden der nächste große Trend sein. Unternehmen schwärmen davon, Kunden noch persönlicher ansprechen zu können und Kunden freuen sich über die Möglichkeit, unmittelbar und intuitiv Services zu erfragen. Doch hält der Trend, was er verspricht?
Ohne die richtige Umsetzung wird ein vielversprechender Trend schnell zum Misserfolg. Nutzer werden nicht ewig Geduld haben, wenn der Chatbot ihre Anfrage nicht versteht. Unternehmen werden bald auf alte Verfahren zurückgreifen, wenn Chatbots weniger angenommen werden als erwartet. Um den Erfolg von Chatbots zu gewährleisten, gilt es also im Voraus die richtigen Fragen zu stellen:
- Was gibt es generell bei der Implementierung von Chatbots zu berücksichtigen?
- Sind die aktuell verfügbaren Technologien reif genug, um eine smarte Bot Experience zu gewährleisten?
- Welche Kriterien sind letztlich ausschlaggebend für die Wahl der richtigen Technologie?

Zielpublikum: Experten und Entscheider in den Bereichen Digital Transformation, Digital Strategy und Business Development
Voraussetzungen: Verständnis kognitiver Technologien, Grundverständnis NLP und Künstliche Intelligenz, Affinität zu digitalen Trends
Schwierigkeitsgrad: Anfänger



Marius Försch
Alexander Thamm GmbH
Consultant Data Science

Donnerstag, 01.01.1970   |   15:45 - 17:00 Uhr   |    Mo 5.4

Big Data Analytics und die EU-Datenschutz-Grundverordnung (DSGVO) – Gegeneinander oder Chancen im Miteinander?

Big Data und Analytik unterstützen das Interesse vieler Unternehmen, einen umfassenden 'digitalen Fußabdruck' von Kunden zu erhalten. Vertrauensvoller Umgang mit Daten und der Schutz personenbezogener Daten werden damit noch mehr zu einer existenziell wichtigen Aufgabe des Daten- bzw. Informationsmanagements - insbesondere im Schlaglicht der zukünftigen EU-Datenschutz-Grundverordnung. Beim Versagen drohen Strafen, die amerikanische Ausmaße annehmen können.
Vor diesem Hintergrund beleuchtet der Vortrag technische, fachliche und organisatorische Herausforderungen und Fragestellungen für analytische Informationssysteme wie z. B.:
- Was sind personenbezogene Daten?
- 'privacy by design' und 'privacy by default'
- Beeinflussen Designkriterien analytische Architekturen und deren Reifegrad?
- Pseudonymisierung und Anonymisierung - Standard, Neuerung oder überholt?
- Verantwortlichkeiten – muss es einen Privacy Chief Officer geben?
- Welche Datenqualität fordert die DSGVO?
Ergänzend dazu werden einige Beispiele von Softwareumsetzungen präsentiert.

Zielpublikum: BI-Manager, BI-Projektleiter, Entscheider, CDO, CIO, Datenschutzbeauftragte, Anwender
Voraussetzungen: keine
Schwierigkeitsgrad: grundlegend



Anselm Schultze
FINCON Unternehmensberatung
Business Development BI

Georg Franzke
TDWI
TDWI Fellow

Donnerstag, 01.01.1970   |   17:30 - 18:45 Uhr   |    Mo 5.5

Advanced Political Campaigning - Predictive Analytics und Data Warehousing bei der SPD

Der Einsatz von Predictive Analytics (PA) in amerikanischen Präsidentschaftswahlkämpfen seit 2008 verdeutlicht den Nutzen, den PA für politische Kampagnen haben kann. Längst ist das Thema auch bei deutschen Parteien angekommen. So optimiert die SPD mit dem Einsatz von Business Intelligence (BI) und PA anstehende Wahlkämpfe und begegnet dabei Herausforderungen, die sich in Deutschland gegenüber den USA ergeben: heterogenere Datenquellen, kleinere Datenmengen, strikterer Datenschutz und kleinere Budgets. Wir stellen den Aufbau und die Funktionsweise der Analysearchitektur der SPD exemplarisch anhand von Wahlprognosen auf Wahlkreisebene dar. Dabei diskutieren wir auch eingesetzte Verfahren des maschinellen Lernens, die Evaluation der Vorhersage sowie das finale Reporting. Der Vortrag bietet damit einen umfassenden Einblick in die Entwicklung von PA und BI im Kontext heterogener Daten und begrenzter Ressourcen.

Zielpublikum: Campaigner, Data Scientists, Analysten und Architekten mit Interesse an BI im Kontext heterogener Daten und begrenzter Ressourcen
Voraussetzungen: fundierte Kenntnisse im Bereich Data Warehousing,Grundkenntnisse im Bereich Datenmodellierung mit Data Vault,
Kenntnisse im Bereich Machine Learning und Modellevaluation, Grundkenntnisse in R
Schwierigkeitsgrad: fortgeschritten



Marco Nätlitz
areto consulting gmbh
Data Scientist

Matthias Orlowski
SPD-Parteivorstand
Analyst

Donnerstag, 01.01.1970   |   10:45 - 11:30 Uhr   |    Mo 7.1 1)

Industrial Analytics – Big Data for Smart Services & Customer Experience

Der Vortrag zeigt anhand vieler Praxisbeispiele die Einbettung des Industrial Internet of Things in die Geschäftsstrategie. Der Workflow vom Signal zur Aktion im Service Management System kann ganzheitlich unterstützt werden, indem Complex Event Processing und Predictive Analytics auf den anfallenden Sensordaten zielgerichtet eingesetzt werden. Dazu ist in der Praxis erforderlich, Wissen aus Service Cases zu extrahieren, um die notwendigen Systemparameter wie Root Causes, Symptome und Lösungen abzuleiten. Neben Case-based Reasoning, einem KI-Verfahren, das Cognitive Computing, inspiriert von menschlicher Problemlösung, ermöglicht, indem Daten gegen Referenzen auf Zeitreihendaten verglichen werden, wird eine Kombination aus Deep Learning und semantischem Text Mining hierzu verwendet. Maschinelles Lernen wird genutzt, um Regeln für das Complex Event Processing abzuleiten. Zur Abdeckung des gesamten Prozesses gehören dann noch die Integration in Kundensysteme wie Ticketsystem oder CRM, und ggf. die geführte Fehlersuche bzw. Fehlervermeidung bei prädiktiven Alarmen.
An einem weiten Spektrum an Kundenbeispielen vom Schiffsdiesel über Kaffeemaschinen bis hin zum Industrieroboter wird allerdings aufgezeigt, dass der Data Scientist ohne den Domainexperten nicht zu befriedigenden Ergebnissen kommen kann. Die Kundenbeispiele lassen sich im Kern in sechs unterschiedliche Use Cases unterteilen: Root-Cause-Analyse, Fehlerprädiktion, Datenaggregation, Text Mining, Visuelle Interaktion und Optimierungsberechnungen über den Gesamtbestand hinweg. Diese werden in diesem Vortrag jeweils anhand von realen Praxisbeispielen aus dem industriellen Umfeld anschaulich demonstriert.



Eddie Mönch
Empolis Information Management GmbH
Senior Sales Manager

Donnerstag, 01.01.1970   |   12:30 - 12:55 Uhr   |    Mo 7.2 1)

Artificial Intelligence: The Taxonomy of Decision Making in a Cognitive Enterprise

Der Beitrag fasst die Ergebnisse laufender Projekte im Bitkom-Arbeitskreis Artificial Intelligence zusammen.
Wann immer es darum geht, aus einer Vielzahl von verfügbaren historischen Informationen (Erfahrungen der Vergangenheit) eine verlässliche Prognose auf Gegenwart und Zukunft zu stellen, kommen Algorithmen zum Einsatz. Die geschieht beim autonomen Fahren, in der medizinischen Diagnostik, aber auch im Unternehmensumfeld. Ein einzelner Chirurg, ein einzelner Pilot, ein einzelner Mitarbeiter kann lediglich auf eigene Erfahrungen zurückgreifen. Eine Künstliche Intelligenz kann auf eine theoretisch unbegrenzte Erfahrung zurückgreifen: Tausende erfasste Mammographien, Gefahrensituationen, Daten und Mitteilungen bieten eine geeignete Projektion, damit maschinelle Intelligenz Entscheidungen trifft – häufig präziser als Menschen es tun. In der Unternehmenspraxis herrscht daher ein Bedarf an Instrumenten und Methoden, um AI gezielt in jenen Domänen der Kommunikation, Prozessabwicklung und Analytik zum Einsatz zu bringen, in denen Abläufe vereinfacht, Analysen optimiert und Erkenntnisse präzisiert werden können. In einer Bitkom-Veröffentlichung wurde eine Definition entwickelt, die den Grad der Autonomie künstlich intelligenter Systeme und Lösungen begreifbar macht.



Jörg Besier
Accenture GmbH
Managing Director - Digital Delivery Lead in ASG

Andreas Klug
ITyX Solutions AG
Vorstand/CMO

Donnerstag, 01.01.1970   |   15:45 - 16:25 Uhr   |    Mo 7.4 1)

Are we disrupting ourselves? The impact of artificial intelligence on the IT industry

Studies predict, that more than 40% of the jobs in the US and Europe can be replaced by AI powered automation in the next 10 years. People in the IT industry usually think, that this is impacting cab drivers and call center agents and civil servants and maybe some parts of the jobs of nurses and teachers. And that this will generate even more jobs in IT. And no one will object. But there are also huge opportunities in the IT industry itself to gain efficiencies with the help of AI. And this will also cost jobs. In fact, it already does today. And with the acceleration of AI adoption, this effect will accelerate as well. This talk will explore these AI opportunities in the IT Industry and how this could reshape our future as IT professionals as much as that of a cab driver.



Jörg Besier
Accenture GmbH
Managing Director - Digital Delivery Lead in ASG

Donnerstag, 01.01.1970   |   17:30 - 18:10 Uhr   |    Mo 7.5 1)

Wie Machine Learning in der Industrie 4.0 Anomalien und neue Potentiale aufdecken kann

In immer mehr Produktionsanlagen, Prototypen und Produkten werden Sensoren verbaut und betrieben. Diese erzeugen einen steten Fluss von Messdaten. Die Analyse der riesigen Datenmengen (Big Data) ist meist nur noch automatisch und mit Hilfe von Algorithmen möglich. Insbesondere Machine-Learning-Ansätze können helfen, dass Maschinen selbstständig lernen den Normalzustand zu modellieren und Abweichungen als Anomalien erkennen. Sie helfen, ein tieferes Produktverständnis zu erlangen und Optimierungspotentiale zu identifizieren.
Wir stellen einen realen Use Case* aus dem Anlagenbau vor, um exemplarisch die Möglichkeiten und das Vorgehen bei der Analyse von Sensordaten zu skizzieren. Dabei zeigen wir u.a. auf, welche Machine-Learning-Ansätze genutzt werden können, um zeitnah Analysen durchzuführen und Fehlverhalten von Maschinen vorherzusagen („Predictive Maintenance“). Um diese Fähigkeit mobil und flexibel nutzen zu können, entwickeln wir häufig eine spezifische Cloud-basierte API Schnittstelle und betreiben Anomaly Detection as a Service.
*auf Kundenwunsch anonymisiert
Gliederung:
  • Motivation: Sensordaten in der Industrie
  • "Wenn das weiße Rauschen stört" - Machine Learning zur Anomaliedetektion
  • "Get in sync!" - Sensorfusion und Synchronisierung
  • "Vorrausschauende Wartung" - Anomalievorhersagen mit Deep Learning
  • “Wenn die CPU in die Knie geht!” - Machine Learning auf GPUs
  • “Think as a service!” - von der Mobile App zur smarten Maschine und zurück
  • Ausblick & Anwendungsszenarien für die Industrie 4.0



Christian Nietner
The unbelievable Machine Company GmbH
Data Scientist

Donnerstag, 01.01.1970   |   14:30 - 16:00 Uhr   |    Di 1.3

Leveraging our Pictures – Deep Learning mit Tensorflow bei Zalando

Kunden, die Mode online kaufen, lassen sich in ihrer Wahl sehr von qualitativ hochwertigen Bildern der Artikel leiten. Im Gegensatz dazu basieren fast alle State-of-the-art-Geschäftsprozesse und IT-Verfahren wie Suche, Empfehlungen und Pricing nur auf Metadaten. In der Verwertung visueller Information sind unsere Kunden uns Lichtjahre voraus – im Vergleich dazu befinden wir Online-Händler uns praktisch im Blindflug. Bei Zalando versuchen wir diese Lücke mittels Deep Learning zu schließen und relevante Einsichten aus unserer großen Datensatz von Modebildern zu gewinnen.
Im Talk demonstrieren wir die Anwendung von Deep Learning auf Zalandos Schatz an Bilddaten, um Probleme in den Feldern Image Recognition, Search und automatische Recommendations zu lösen. Vom praktischen Standpunkt aus schildern wir, wie Tensorflow uns ermöglicht hat, High Performance Computing Applications auf GPUs zu entwickeln und in den Teraflop-Bereich hinein zu skalieren.

Zielpublikum: alle, die die Kurzbeschreibung interessant finden
Voraussetzungen: spezielles Vorwissen ist nicht erforderlich
Schwierigkeitsgrad: grundlegend



Calvin Seward
Zalando SE
Researcher

Donnerstag, 01.01.1970   |   16:30 - 18:00 Uhr   |    Di 1.4

Machine Learning for Business

The power behind self-driving cars, real-time facial recognition, and intelligent robots is called machine learning, a subfield of artificial intelligence (AI). The first formal definition of AI came from Arthur Samuel in 1959: 'A field of study that gives computers the ability to learn without being explicitly programmed.'
Currently, machine learning not only enables computers to park our cars and win at Jeopardy, it also allows them to beat humans at chess and Go, and to learn for itself how to play new games without any instruction. This can also lead to potential applications in sales, marketing, finance, and HR that can drive better decisions and give you a competitive edge.

You Will Learn
*What machine learning is and why it should be part of your analytics toolkit
*How the most widely used algorithms work and how to apply them
*Best practices and use cases in applying machine learning techniques
*How to start applying machine learning algorithms in an automated decisioning framework

Target Audience: BI & Analytics managers and team members
Prerequisites: BI Basic Knowledge, Statistics 101
Level: fortgeschritten



Jos van Dongen
Tholis Consulting
Principal Consultant

Donnerstag, 01.01.1970   |   09:00 - 10:15 Uhr   |    Di 2.1

Trägt die Wolke ein Data Warehouse? Erfahrungsbericht der Cloud-Transformation einer komplexen DWH-Umgebung

airberlin verlagert ihre IT-Systeme in die Cloud. Das Unternehmen will IT-Prozesse vereinfachen, moderne Hardwarekomponenten flexibel einsetzen und die wachsenden Datenmengen übersichtlich skalieren. Zudem erfordern Abfragekomplexität/-last sowie neue Datenanforderungen das Erschließen neuer technologischer Möglichkeiten durch Platform-as-a-Service(PaaS)-Dienste. In einem Erfahrungsbericht wird der aktuelle Projektstand vorgestellt. Die Projektpartner zeigen die Herausforderungen, denen sie sich auf Grund der über Jahre gewachsenen DWH/BI-Umgebung mit permanenten Datenströmen, komplexen Prozessen sowie der Notwendigkeit von immer kürzeren Zeitfenstern stellen. Flankiert werden die praktischen Darlegungen des Beitrages durch theoretische Erkenntnisse aus einem Forschungsprojekt, welches wesentliche Einflussfaktoren für die Einführungsentscheidung von DWH-Lösungen auf CC-Plattformen behandelt.

Zielpublikum: Leiter IT und Leiter Marketing und Vertrieb, Controlling-Verantwortliche, BI-Manager, BI Competence, CIO
Voraussetzungen: Grundlagen BI/DW-IT-Systemarchitekturen, Grundlagen über Projektmanagement (BICC-Planung und -Betrieb), Grundlagen über Cloud-Infrastruktur, Grundlagen zu Business Intelligence/DW
Schwierigkeitsgrad: grundlegend



Norman Bernhardt
pmOne AG
Director Airline Industry | Cloud Solutions

Stefan Pacholski
airberlin
Head of DWH/BI Development

Donnerstag, 01.01.1970   |   10:45 - 12:00 Uhr   |    Di 2.2

TDWI Meinungsforum: Von Self Service Discovery, -Data Preparation bis hin zu Data Story Telling: Die eierlegende Wollmichsau Endanwender!

Self-Service geistert seit geraumer Zeit als Marketingschlagwort in verschiedensten Facetten durch die Branche, doch was hat sich bewahrheitet, was ist gescheitert und wo kann die Reise noch hingehen?  Sind Self-Service-Ansätze die Zukunft, die die IT überflüssig machen? Wozu brauchen wir teure und langsame BI-Abteilungen, wenn die Fachbereiche sich doch per Drag & Drop zur Self-Service-Data-Scientist emanzipieren? Sind Themen wie Governance und Security nur Show-Stopper der ewig gestrigen?
Im TDWI Meinungsforum schauen wir mit Ihnen hinter die Marketingkulissen! Es gibt kaum ein Thema, bei dem Erfolg und Frustration so dicht beisammen liegt. In einem interaktiven Diskurs werden wir uns aus verschiedenen Extrempositionen dem Thema nähern und aktiv mit dem Publikum diskutieren. Neben der Abgrenzung der Anwendungsszenarien, widmen wir uns besonders  den Herausforderungen an die Organisation, Architektur und Analytics.
Ziel ist es, den Diskurs über das Thema in der TDWI Community anzustoßen.

Zielpublikum: Bi-Manager, BI-Projektleiter, Power User
Voraussetzungen: Keine
Schwierigkeitsgrad: grundlegend



Carsten Dittmar
NTT DATA Deutschland GmbH
Head of Business Development, TDWI Fellow

Carsten Felden
TU Bergakademie Freiberg
Dekan der Fakultät für Wirtschaftswissenschaften, Vorstandsvorsitzender TDWI Germany e.V.

Lars Tams
OPITZ CONSULTING Deutschland GmbH
Senior Manager, TDWI Fellow

Matthias Nolte
Berliner Sparkasse / TDWI e.V.
Leitung Business Intelligence Services / Stellv. Vorstandsvorsitzender

Donnerstag, 01.01.1970   |   14:30 - 16:00 Uhr   |    Di 2.3

Rapid Business Enablement in a Regulated Environment – How to provide a global Business Analytics Solution in less than six months

Roche Diabetes Care, a global leader for diabetes management systems and services, is changing to a centralized IT environment. This includes a global Business Intelligence solution which harmonizes information, replaces local systems and thus reduces ambiguities and costs.
Initial attempts failed in delivering the BI solution due to the complex requirements of business, regulatory and data security in a developing IT environment. The project was turned to success by partnering with the Data Analytics team from Accenture/Avanade. A new solution was built from scratch in less than six month, serving six business domains 24/7.
The presentation elaborates on essential prerequisites and crucial steps for the fast system creation as well as operational stability. Technical aspects, business considerations as well as soft factors are discussed.

Target Audience: BI-Manager, BI-Projektleiter, Entscheider, CIO, Solution Architects
Prerequisites: basic understanding of BI and Data Warehousing Projects
Level: Advanced Extendend Abstract:
Roche Diabetes Care, a global leader for diabetes management systems and services, is changing to a centralized IT environment. This includes a global Business Intelligence solution which harmonizes information, replaces local systems and thus reduces ambiguities and costs.
Initial attempts failed in delivering the new BI solution according to the complex requirements of business, regulatory and data security in a developing IT environment. The project was turned to success by partnering with the Data Analytics team from Accenture/Avanade.
The crucial criteria for the fast turnaround included senior business support for the redefinition of the governance and to ensure the availability of business process experts, keeping the balance between a high-quality technical solution and intensive change management, offering enterprise reports and self-service capabilities on an industry standard software, ensuring adherence to the development processes and the project methodology and – most importantly – attracting excellent resources.
The Enterprise Data Warehouse was built from scratch in less than six month, serving six Business Domains in six time zones. The first business domains have been released after only ten weeks into the project execution. Through the reduction of dependencies and the consequent use of standardized Data Vault patterns, ETL/ELT automation, as well as automated testing and documentation, it became possible to deliver in such a short time.
The run organization is set up following a mature operating model which takes self-service and central reporting into account. The enablement of Self-Service BI requires a mature Competence Center and role-tailored trainings for its staff as well as the end-users. Processes were established for the development, the run and the support organizations.



Daniel Piatkowski
Accenture Digital
Manager

Bernd Schöberle
Roche Diagnostics International AG
Global Lead for Business Intelligence

Donnerstag, 01.01.1970   |   16:30 - 18:00 Uhr   |    Di 2.4

System Thinking zur Unterstützung von Analyticsprojekten

Business und Predictive Analytics haben sich als Begriff in der Praxis etabliert. Hemmnisse für solche Projekte entstehen aber oftmals schon aus der Projektinitialisierung, der organisatorischen Einbindung und den architekturrelevanten Auswirkungen. System Thinking, als eher strategisch orientierter Ansatz, kann dabei helfen, das multiperspektivische Thema Analytics in Unternehmen greifbar zu machen. Dennoch zeigt sich, dass es keine eindeutige organisatorische Einbindung von Analytics Projekten gibt. Auch hier kann System Thinking einen Beitrag leisten. Klassische dispositive Architekturen, Big Data Architekturelemente und Technologien werden aktuell häufig noch als getrennte Welten aufgefasst, langfristig werden beide Welten zu einem analytischen Ökosystem zusammenwachsen, um auch die technischen Auswirkungen langfristig sinnhaft gestalten zu können.

Zielpublikum: Taktisches Management
Voraussetzungen: Grundlagenverständnis über die Business Intelligence
Schwierigkeitsgrad: grundlegend



Carsten Felden
TU Bergakademie Freiberg
Dekan der Fakultät für Wirtschaftswissenschaften, Vorstandsvorsitzender TDWI Germany e.V.

Claudia Koschtial
TU Bergakademie Freiberg
Project Manager

Donnerstag, 01.01.1970   |   09:00 - 10:15 Uhr   |    Di 3.1

Die Lambda-Architektur und ihre Anwendung im Internet der Dinge

Im Internet der Dinge können Dinge durch Ausstattung mit Sensoren und Affektoren untereinander und mit Backendsystemen über das Internet kommunizieren. Die Herausforderung ist es, die durch die große Anzahl der Dinge und Sensoren backendseitig entstehenden riesigen Datenströme zu verarbeiten (Big Data) sowie in quasi Echtzeit Anweisungen an die Dinge zur Steuerung der Affektoren zurückzuschicken (Fast Data). Ein solches Setup bezeichnet man als Lambda-Architektur. Die von Dingen erhaltenen und an diese zurückgeschickten Daten sollten gespeichert werden, sodass sie mit BI-Methoden analysiert werden können. In vielen Fällen lässt sich die Interaktion zwischen Dingen und Backendapplikation optimieren, bspw. durch den Einsatz von Machine-Learning-Technologien. In diesem Vortrag werden einige Anwendungsbeispiele für die Lambda-Architektur gegeben. Darüber hinaus wird anhand eines Autorennbahn-Show-Cases das Potenzial der Lambda-Architektur demonstriert.

Zielpublikum: BI-Interessierte insbesondere in den Teilbereichen Big Data, Fast Data, Industrial IoT, Analytics
Voraussetzungen: BI-Grundlagen, IT-Background
Schwierigkeitsgrad: grundlegend



Wieland Marth
msg systems AG
Associate IT Consultant

Lilian Do Khac
msg systems AG
Associate IT Consultant

Donnerstag, 01.01.1970   |   10:45 - 12:00 Uhr   |    Di 3.2

Governing the Data Lake: The Critical Importance of the Information Catalogue

This session shows how information catalogue software can be used to track and manage data, data preparation jobs, ETL jobs, analytical models, dashboards, BI reports and other artefacts, to manage and organise a multi-platform analytical environment.

Target Audience: Data & Enterprise Architects, CDOs, Data Scientists
Prerequisites: basic understanding of data governance and data management
Level: Advanced



Mike Ferguson
Intelligent Business Strategies
Managing Director

Donnerstag, 01.01.1970   |   16:30 - 17:30 Uhr   |    Di 3.4 1)

Fact-Oriented Modeling – Information Modeling in präziser und in natürlicher Sprache

Ein BI-Architekt hat folgendes über Fact-Oriented Modeling (FOM) gehört:
'FOM ist ein Ansatz zur Modellierung von Informationen und Entwicklung von Informationssystemen, der die Korrektheit, Klarheit und Anpassbarkeit der Modelle fördern soll.'
 'Fakten und Beziehungen werden präzise und in natürlicher Sprache verfasst, so dass Mitarbeiter aus allen Fachbereichen die Modelle gut verstehen können und sie auf ihre fachspezifischen Anforderungen überprüfen können.'
Dieser Ansatz hört sich neu und spannend an. Doch wie funktioniert diese Modellierungsmethode und welche Vorteile kann er für seine Projekte verwenden?
In diesem Vortrag geben die Sprecher einen Einblick in FOM und zeigen:
  • Einführung in FOM.
  • Vorstellung verschiedener Ansätze in der FOM Familie, wie ORM, FCO-IM und NIAM.
  • Vorteile und Unterschiede der Ansätze.
Die Inhalte werden anhand von Praxisbeispielen erklärt und verdeutlicht.

Zielpublikum: BI-Manager, Data Modeler, Entscheider
Voraussetzungen: BI Grundlagen, Grundlagen Datenmodellierung
Schwierigkeitsgrad: grundlegend



Dirk Lerner
TEDAMOH GmbH
Geschäftsführer

Stephan Volkmann

Student

Donnerstag, 01.01.1970   |   09:00 - 09:35 Uhr   |    Di 4.1 1)

Unternehmensweite Datenmodellierung bei der Allianz Global Corporate & Specialty SE – Das semantische Modell als Vorgabe für die Integrationsschicht auf Basis von Data Vault

Basierend auf einem komplexen Geschäftsmodell und einer heterogenen Systemlandschaft wurde für die Allianz Global Corporate & Specialty SE - einem führenden und global agierenden Industrieversicherer - eine über mehrere Jahrzehnte gewachsene BI-Infrastruktur technologisch und funktional auf ein vollständig neues Fundament gestellt. Ein Kernstück der Transformation war die Entwicklung eines unternehmensweiten semantischen Datenmodells, das als Vorgabe für eine Integrationsschicht dient, die auf Basis der Data Vault-Technologie umgesetzt wurde. Gegenstand dieses Vortrags ist die Vorstellung des Projektes mit Schwerpunkt auf dem unternehmensweiten Datenmodell und der Ableitung der Data Vault-Integrationsschicht, sowie der Entwicklung eines Generators zum automatisierten Aufbau des Data Vaults. Zielpublikum: Entscheider, BI Manager, BI Architekten, BI Projektleiter, Datenmodellierer, Entwickler
Voraussetzungen: keine
Schwierigkeitsgrad: Anfänger



Marcus Baule
reeeliance IM GmbH
Senior Business Consultant

Wolfgang Tanzer
Allianz Global Corporate & Specialty SE
Projektmanager

Donnerstag, 01.01.1970   |   10:45 - 11:20 Uhr   |    Di 4.2 1)

Von Supertankern und Schnellbooten: Wie steuert man die nächste Generation von BI-Großprojekten?

Die Erste Group als einer der größten Finanzdienstleister in Zentral- und Osteuropa startete das Großprojekt SPRING, um das bestehende Business Intelligence-Data Warehouse durch eine State of the Art-Lösung zu ersetzen. Data Lineage und ein einheitliches Business Data Model ermöglichen ein konzernweit einheitliches Begriffsverständnis sowie Transparenz über die Entstehung und Verwendung der Daten.
Datenqualitätsmängel und Integrationsdefizite (integration debt) in der bestehenden Lösung zu beheben, wäre zu kostspielig gewesen. Ein neues Business Data Model, ein neues Master Data Management und neue Data-Governance-Strukturen mit lokalen und konzernweiten Data Stewards schaffen die Grundlage, um Risikofachbereiche und Controlling mit individuellen, aber einheitlichen Quelle beruhenden Sichten und Berichten zu versorgen, und so die verschiedenen Bedürfnisse transparent und mit Data Lineage zu erfüllen.
Das SPRING-Projekt ist zugleich ein technologisches und betriebswirtschaftliches Projekt, das länderübergreifend viele Systeme ersetzt und verknüpft und in intensivem Kontakt mit unterschiedlichsten Stakeholdern (und Regulatoren) steht. Die Business Intelligence liefert die Entscheidungsgrundlage und Feedback für die Erste-Manager Group.
Ein solches Großprojekt zu managen, stellte die Erste Group vor die Herausforderung und bot die Gelegenheit, die Zusammenarbeit über Ländergrenzen und Geschäftseinheiten zu vertiefen, unterschiedliche Sichten aufeinander abzustimmen und zu einem gemeinsamen Verständnis der Geschäftsbereiche und IT zu kommen.
Die im Projekt in der Erste Group gewonnenen Lehren, wie ein Projekt solcher Größenordnung und Komplexität zu managen ist, bilden den Grundstein für die zukünftigen Großprojekte, sowohl hinsichtlich der Datenbasis als auch der Projektmanagementkompetenz.

Zielpublikum: Top Management von Banken
Voraussetzungen: Einblick in die wesentlichen Leistungsmerkmale heutiger Banken-BI-Lösungen
Schwierigkeitsgrad: Fortgeschritten



Erich Wagner
Erste Group IT International GmbH
Group BRCC

Christoph Kral
ERSTE Group IT International
Head of BRCC AT

Donnerstag, 01.01.1970   |   14:30 - 15:15 Uhr   |    Di 4.3 1)

BCBS 239 bei der NORD/LB – Einblicke in Vorgehen und Stand der Umsetzung

Die Umsetzung der 'Grundsätze für die effektive Aggregation von Risikodaten und die Risikoberichterstattung (BCBS 239)' ist bei der NORD/LB in vollem Gange. Der Vortrag erläutert, welche Handlungsfelder identifiziert wurden und wie das Programm BCBS 239 unter Einbeziehung der Gruppeninstitute gestartet wurde. Ein Blick auf erzielte Ergebnisse und aktuelle Schwerpunktthemen (mit Fokus auf organisatorische und technische Maßnahmen zur Konsolidierung des Risikodatenhaushaltes) runden den Vortrag ab.

Zielpublikum: Programm-Manager, Projektleiter regulatorischer Themen
Voraussetzungen: Grundkenntnisse Data & Analytics und Regulatorik
Schwierigkeitsgrad: Fortgeschritten



Jens Diekmann
PPI AG
Senior Manager

Christian Dörries
NORD/LB
Inhouse Consultant

Donnerstag, 01.01.1970   |   16:30 - 17:15 Uhr   |    Di 4.4 1)

Die lernende Bank – Die Bank im Zeitalter der Digitalisierung

Banken verfügen über umfangreiche Daten, welche Lernpotenziale mit sich bringen. Das Ziel ist, diese Erkenntnisse mit lernenden Systemen - künstliche Intelligenz - zu erschließen. Die Herausforderungen für Banken sind vielschichtig. Es gilt nicht nur eine passende Architektur bzw. Infrastruktur zu schaffen, sondern auch die erforderliche Prozesse zu etablieren. BI & Analytics ist in diesem Zusammenhang ein wichtiger Hebel für die erfolgreiche Gestaltung der Bank der Zukunft.

Zielpublikum: Entscheider, CIO, Bereichsleiter, BI-Manager, BI-Architekt, BI-CC-Leiter
Voraussetzungen: BI-Fachkenntnisse, Bankingexpertise
Schwierigkeitsgrad: Fortgeschritten



Martin Zurheide
Sopra Steria Consulting
Senior Project Manager und BI-Architekt

Donnerstag, 01.01.1970   |   09:00 - 09:45 Uhr   |    Di 5.1 1)

Digitalisierung im Handel: Ist die Cloud schon commodity?

Kunden kommunizieren über immer mehr Kanäle mit Händlern. Obwohl mit der steigenden Datenmenge das Wissen über den Konsumenten steigt, ist damit auch die Herausforderung gewachsen, klare Aussagen zu generieren. Ein modernes  Daten-getriebenes Unternehmen ermöglicht sowohl dem Endkunden als auch dem (Kooperations)-Partner zu jeder Zeit, an jedem Ort, ob stationäre oder online die Interaktion.  In der ANWR-Gruppe haben wir uns zur Zeit für ein hybrides Modell aus Cloud- und On-Premise-Lösungen entschieden. Dieser Beitrag skizziert einen ersten Erfahrungsbericht aus ersten Umsetzungsinitiativen.

Zielpublikum: BI-Manager, BI-Projektleiter, Entscheider, CIO
Voraussetzungen: BI Grundlagen, BI Fachkenntnisse, Grundwissen Data Warehouse
Schwierigkeitsgrad: Anfänger



N.N.


Donnerstag, 01.01.1970   |   10:45 - 11:15 Uhr   |    Di 5.2 1)

No DWH without effect – BI für den Mittelstand leicht gemacht

Die Miller Brands Germany GmbH (MBG) etabliert innovative Eigenmarken und namhafte Vertriebsmarken in Gastronomie und Handel auf der ganzen Welt. In diesem Zusammenhang besteht ein großer Bedarf an Informationen hinsichtlich des direkten und indirekten Absatzes. MBG wird in dem Vortrag anschaulich verdeutlichen welche Herausforderung es gab und wie durch agiles Vorgehens und gezielten Technologieeinsatz innerhalb von acht Wochen ein Data Warehouse aufgebaut wurde. OPITZ CONSULTING wird den Projektkontext und den organisatorischen Rahmen erläutern. Was waren die wesentlichen Erfolgsfaktoren.

Zielpublikum: BI-Manager, BI-Projektleiter, Entscheider, BI-Teamleiter
Voraussetzungen: BI Grundlagen
Schwierigkeitsgrad: Anfänger



Thomas Unterbörsch
Opitz Consulting Deutschland GmbH
Leiter Competence Center BigData; Consulting Manager

Oliver Dammann
MBG International Premium Brands GmbH
Business and Data Analyst

Donnerstag, 01.01.1970   |   14:30 - 15:15 Uhr   |    Di 5.3 1)

Kaffee in der Cloud: Best practices des DWH-getriebenen Marketings bei roastmarket

Datengetriebenes Marketing ist in aller Munde. Dennoch zeigen Fälle wie der Facebook-Skandal, in dem Facebook eine grundlegende Währung seines Angebots, die Impression, falsch ausgewiesen hat, wie wenig Unternehmen Daten wirklich heranziehen und verstehen, um ihr Marketing optimal zu steuern. Zudem erschwert es eine Vielzahl an 3rd party tools, den Überblick über die Gesamtstrategie zu behalten und diese sauber umzusetzen. In diesem Vortrag wird anhand des eCommerce-Unternehmens RoastMarket aufgezeigt, wie mit einem gängigen Setup aus Magento und BI-Tools ein Onlinemarkt intelligent mit Marketing eingenommen werden kann. Neben einer Übersicht über den Aufbau der technischen DWH-Architektur und des Reporting Setups wird an Beispielen erläutert, wie sich roastmarket im Onlinekaffeemarkt einen Vorsprung durch optimierte Nutzung seiner Daten erarbeitet.

Zielpublikum: BI-Manager, Online-Marketing-Verantwortliche
Voraussetzungen: Grundkenntnisse Web-Analytics, grundlegende BI-Kenntnisse
Schwierigkeitsgrad: Fortgeschritten



Konstantin Wemhöner
RoastMarket GmbH
Head of Business Intelligence

Donnerstag, 01.01.1970   |   16:30 - 17:15 Uhr   |    Di 5.4 1)

"Serverless" Technologien für Big Data und Machine Learning im Retail

Companies want to me more agile and shorten innovation cycles ('fail fast') and learn from data, instantly. Out of necessity, Google invented technologies to be able to answer short term questions about billions of data points in no time. Also Google is using Machine Learning to improve many of the services such as Search, Youtube, translation, image and voice recognition. Now everyone can use these services, without touching a single machine.

Target Audience: Decision Makers, CTO, CMO, CIO
Prerequisites: Big Data basics (e.g. Map Reduce)
Level: Basic



Alex Osterloh
Google
Cloud Platform Solution Consultant Big Data

Donnerstag, 01.01.1970   |   12:15 - 13:00 Uhr   |    KeyDi1

Who’s in control? The technical, organizational and ethical challenges of transforming from a human-driven to a data-driven company

Truly data-driven companies are by definition less human-driven. This may sound disconcerting or frightening at first, but it is the unavoidable effect of increasing the efficiency and effectiveness of processes through data and data analysis or switching to data and analytics-driven business models. The process towards becoming a data-driven company can be described in five stages – and most companies are only at stage one today. But what is the role of us humans once we set models, algorithms and learning systems in motion to replace our slow, biased and often irrational decision-making? Artificial Intelligence is still pretty far away but examples of machines making operational decisions show what is possible: processes and decisions in price setting, advertisement selection, next best action definition, market trading, or written customer interaction can be based on data and analytics-driven decision models without human participation – and leading companies are already doing exactly that today.
The presentation will examine this evolution of the organization in five relevant fields of action – from strategy and culture to technology.  A redefinition of the future role of human decision-making has to be addressed in this process – bringing with it golden opportunities but also major challenges to overcome. But only by actively taking on this task will organizations be able to successfully embark on a journey towards a data-driven future.



Carsten Bange
Business Application Research Center (BARC)
Gründer und Geschäftsführer

Donnerstag, 01.01.1970   |   09:00 - 09:40 Uhr   |    Di 6.1 1)

Business Driven Data Factory @ Bosch: I4.0 und IoT – die horizontale Digitalisierung im Fertigungsbereich

Der Aufbau der Data Factory in Bamberg Plant (BaP) ist ein wichtiger Bestandteil der Digitalisierungs-Initiative von Bosch. Das zeitgemäße Data Warehouse ermöglicht mit modernen Methoden und Vorgehen, sowohl in der Modellierung als auch in den Projektmethoden einen Meilenstein bei Bosch. Bereits in Form eines Prototyps wird die horizontale Digitalisierung im Fertigungsbereich entlang der Wertschöpfungskette umgesetzt. Dank Automatisierung und Standardisierung wurde mit minimalem Ressourceneinsatz der Prototyp zum produktiven Betrieb weiterentwickelt, der sich durch eine hohe BI-Agilität auszeichnet.
Die Sprecher präsentieren das Leuchtturmprojekt Bosch Data Factory von der Vision über den Prototyp bis hin zum produktiven Betrieb sowie die Vision eines zukünftigen operativen Data Warehouse mit dem Fokus auf Erhöhung der Qualität und Produktivität in der Fertigung durch Predictive Maintenance.


Zielpublikum: BI-Manager, Data Scientist, BI-Projektleiter, Entscheider
Voraussetzungen: BI Grundlagen, DWH Grundlagen
Schwierigkeitsgrad: Anfänger



Dirk Lerner
TEDAMOH GmbH
Geschäftsführer

Christian Moewes
Robert Bosch GmbH
IT Prozessingenieur

Donnerstag, 01.01.1970   |   10:45 - 11:20 Uhr   |    Di 6.2 1)

Smart Data mit Blockchain – die Keyplayer für das neue automotive Ecosystem

Smart Data und connected Car Technologien sind Auslöser bestehende Geschäftsmodelle zu überdenken. Smart Data zusammen mit der Blockchain Technologie macht aber erst die die Verarbeitung dieser Daten so effizient möglich, dass das sich das gesamte Ecosystem eines OEM ändert und Plattformdienste eine wesentliche neue Säule der automotiven Wertschöpfung werden. Was und wie man von Fintechs lernen kann.

Zielpublikum: Entscheider, BI Manager, BI Projektleiter, BI CC-Leiter, BI Architekt
Voraussetzungen: BI Fachkenntnisse, Fachexpertise Automotive
Schwierigkeitsgrad: Fortgeschritten



Andreas Schmidt
Sopra Steria Consulting
Director Business Analytics Manufacturing

Axel Fräßdorf
Sopra Steria Consulting

Donnerstag, 01.01.1970   |   14:30 - 15:15 Uhr   |    Di 6.3 1)

Integrated Sales Planning at Bosch Automotive enabled by Oracle Enterprise Performance Management

Large global organizations with matrix organization structures usually face complex processes within their steering function. Especially when it comes to analytics, corporate forecasting and planning, stakeholders from each matrix dimension need to come up with a consistent and accepted plan in a guided process in addition to a required mixture of data detail on data entry and approval levels throughout the planning process.
This session will demonstrate, how this challenge was solved at Bosch Automotive Aftermarket. It will exhibit the design of a state of the art Performance Management solution using Oracle Hyperion Planning, Essbase, Data Integrator as well as data exchange with SAP BW to fulfill Bosch's analytics requirements. Participants will learn how a guided process, still providing flexibility was implemented and how the software supports the planners by reducing planning and alignment effort and how to successfully integrate such a solution into a complex BI architecture.

Target Audience: BI-manager and project leader, Finance and Controlling head, Sales department heads, Oracle Hyperion Practioners
Prerequisites: none
Level: Advanced



Matthias Osswald
Robert Bosch GmbH
Project Lead and Platform Manager

Julius Seyfried
Deloitte Consulting GmbH
Manager

Donnerstag, 01.01.1970   |   16:30 - 17:15 Uhr   |    Di 6.4 1)

Implementierung eines Data Lakes als Erweiterung einer traditionellen DWH Umgebung für logistische Analyseanforderungen

Aufgrund einer stetig steigenden Erwartungshaltung der Fachabteilungen muss die IT vermehrt entsprechende innovative Technologien bereitstellen, die ein breites Spektrum an Anwendungsszenarien abdecken und ein agileres Vorgehen ermöglichen. Ein Baustein kann dabei ein sogenannter 'Data Lake' sein. Viele bedeutende Automobilhersteller beginnen mit 'Data Lakes' zusätzliche Potenziale ihrer Daten zu nutzen und ihre Position durch datengetriebene Innovation am Markt zu verbessern.
In dem Vortrag beleuchtet ADASTRA zusammen mit seinem Kunden die Einführung eines 'Data Lakes' bei einem führenden Automobilhersteller angefangen von der Anforderungsanalyse, der Konzeptionierung und der Einrichtung der Hadoop Plattform. Skizziert werden hierbei auch die Möglichkeiten und Herausforderungen bei der Datenintegration oder der Frontendentscheidung. Abgerundet wird der Vortrag durch die Beschreibung von einem Prototypen auf Basis des Data Lakes, welche der Fachbereich unabhängig von der traditionellen DWH-Integration umgesetzt hat.

Zielpublikum: Fachbereiche, IT-Manager, IT-Projektleiter, BICC
Voraussetzungen: BI Grundlagen
Schwierigkeitsgrad: Fortgeschritten



Fabian Sobiech
Volkswagen AG
Data Scientist

Aliaksei Toustsik
ADASTRA GmbH
BI & Big Data Solution Architect

Donnerstag, 01.01.1970   |   12:15 - 13:00 Uhr   |    KeyMi1

Analyze Yourself!

Most people think that applying (advanced) analytics is the exclusive domain of large corporations or governments, but more and more individuals and (sport-) teams analyze their own or each other's performance. Usually this boils down to what is now called the 'quantified self', but applications in healthcare, HR and community support stretch beyond the individual domain, resulting in the 'quantified society'. This high paced and entertaining keynote will start with showing what's already available to the general public, healthcare professionals and researchers to help them analyze personal metrics, followed by a glimpse of a future where wearables, injectables and implantables will be an integral part of our daily lives. Jos will also share his own experiences in building a personal analytics solution where he explains how you can integrate and analyze data from Gyroscope, Runkeeper, Sleepcycle, Weather.com, and smart devices like blood pressure monitors and weighing scales.



Jos van Dongen
Tholis Consulting
Principal Consultant

Donnerstag, 01.01.1970   |   09:00 - 12:00 Uhr   |    Mi 1.1

Übung macht den Meister: Anforderungen an ein Dashboard praktisch erheben (ausgebucht!)

Halbtages Workshop In diesem Seminar üben Sie ganz praktisch anhand von Rollenspielen, wie Sie im Rahmen eines interaktiven Workshops die Anforderungen an ein Dashboard erarbeiten.
In einem ersten Schritt erhalten Sie eine kurze Einführung zum nötigen Grundlagenwissen bezüglich BI-spezifischer Anforderungserhebung im Allgemeinen sowie der Visualisierung von Daten nach dem IBCS-Standard. Im zweiten Schritt folgt das Einüben des Vorgehens zur erfolgreichen Abwicklung eines Anforderungsworkshops. Im dritten Schritt üben Sie die Vorbereitung und Durchführung eines Anforderungsworkshops mit einem fiktiven Kundenansprechpartner unter fachkundiger Anleitung. Als Abschluss schauen Sie im Rahmen einer Retrospektive auf das Seminar und die geübten Inhalte zurück. Gemeinsam mit den anderen Seminarteilnehmern werden die ‘Lessons Learned‘ besprochen. Maximale Teilnehmerzahl: 24 Voranmeldung erforderlich!
Zielpublikum: BI-Projektleiter, BI Product Owner, BI Scrum Master, BI-Fachanwender
Voraussetzungen: BI-Grundlagen
Schwierigkeitsgrad: fortgeschritten



Dominik Imark
IT-Logix AG
Senior Consultant

Raphael Branger
IT-Logix AG
Senior BI Solution Architect

Alexander Pröm
IT-Logix AG
Business Intelligence Consultant

Daniela Tanner
IT-Logix AG
Senior Consultant

Donnerstag, 01.01.1970   |   16:30 - 17:15 Uhr   |    Mi 1.4 1)

Data Mining the Social Web

By circumscribing the most popular words and their semantic fields, we see that opinions on the web can provide a good approximation of overall sentiment. Our product helps target marketing strategies by using natural language processing strategies to extract semantic and contextual information from a real-time twitter feed. We visualise the feed using a web application with an elasticsearch backend. Join us and meet this emerging technology head-on!

Target Audience: Marketing Directors and Executives with an interest in exploiting big data technologies
Prerequisites: The session will target a general audience although subjects such as python scripting will be broached
Level: Advanced



Thomas Felder
molch
CTO

Zahra Shahabi
molch
Post-disciplinary designer

Donnerstag, 01.01.1970   |   09:00 - 10:15 Uhr   |    Mi 2.1

Customer Analytics – Der Kunde muss Fan werden

Customer Analytics werden nicht nur genutzt, um den Kunden besser zu verstehen, sondern ihn direkt zu involvieren. Personalisierte Kundenservices haben das Ziel, die Kundenbindung durch dedizierte Angebote und Ansprachen über alle Kanäle zu erhöhen, Neukunden durch moderne wertvolle Services zu gewinnen, die Customer Experience modern zu gestalten und deren Erwartungshaltung zu erfüllen ('WOW'-Effekt). Basis ist ein Multichannel-Angebot sowie eine Omnichannel-Strategie, die über alle Kanäle eine synchronisierte Kommunikation mit dem Kunden gewährleistet. Der Kunde bestimmt, wann er welchen Kanal zu welcher Zeit im Prozess nutzt. Diese Reise des Kunden von der Erstinformation bis zur Aftersales-Betreuung wird als Customer Journey bezeichnet. Der Vortrag zeigt anhand von Beispielen aus verschiedenen Branchen (Handel, Telekommunikation und Travel & Transportation), was Customer Experience bedeutet, und stellt ein Vorgehensmodell dar, wie dieser Level erlangt werden kann.

Zielpublikum: CIO, BI-Manager, BI-Leiter, Business-Analysten, Data Scientists
Voraussetzungen: keine
Schwierigkeitsgrad: fortgeschritten



Jan-Henrik Fischer
Seven Principles AG
Business Area Manager

Donnerstag, 01.01.1970   |   10:45 - 12:00 Uhr   |    Mo 8.1

M&A, Investitionen und Partnersuche im Analytics-Markt: Trends auf der Data Invest Plattform

Der Software- und Service-Markt für Analytics und Datenmanagement verhält sich diskrepant: Auf der einen Seite gibt es rege M&A-Aktivität mit einer entsprechenden Konsolidierung des Marktes. Auf der anderen Seite treten zahlreiche neue Software- und Service-Anbieter in den Markt ein und erweitern diesen: Alleine für 2016 sind in der Transaktionsdatenbank der Data Invest Plattform mehr als 1 Milliarde Dollar Risikokapital für > 50 Analytics- und DM-Softwarefirmen verzeichnet. Die zunehmende Anzahl und Heterogenität der Softwarelösungen, mit denen moderne Analytics- und Datenmanagement-Architekturen für und in Unternehmen umgesetzt werden, zwingen auch Beratungshäuser zum Erweitern ihres Partnerportfolios – mit den damit verbundenen Vor- und Nachteilen. Der Vortrag richtet sich insbesondere an Software- und Serviceanbieter und zeigt aktuelle Markttrends in M&A und Investitionen im Analytics- und Datenmanagement-Markt anhand der umfassenden Datenbasis hierzu auf der Data Invest Plattform auf. Weiterhin wird ein Überblick aktueller Trends und Möglichkeiten beim Partnering zwischen Software- und Serviceanbietern gegeben.



Carsten Bange
Business Application Research Center (BARC)
Gründer und Geschäftsführer

Maximilian Gluchowski
Data Invest GmbH

Donnerstag, 01.01.1970   |   10:45 - 12:00 Uhr   |    Mi 2.2

Vom Jäger und Sammler zum Händler: Daten als Teil von digitalen Geschäftsmodellen

Um Ihren Wert zu illustrieren, wird die Bedeutung von Daten für die Wirtschaft des 21ten Jahrhunderts aktuell gerne mit Rohstoffen wie Gold oder Öl verglichen. Unter dem Stichwort Daten Monetarisierung werden dabei eine hohe Bandbreite an Themen diskutiert. Dabei geht es zunehmend nicht mehr nur um die interne Prozessoptimierung auf der Basis von intensiver Analyse der eigenen Daten sondern um die Erweiterung des eigenen Geschäftsmodells zur Generierung von neuen Umsatz- und Gewinn Potentialen.
Agenda:
  • Begriffsdefinition Daten Monetarisierung
  • Informationen als Wirtschaftsgut: Die Besonderheiten von Daten und Informationen als Wirtschaftsgut werden in diesem Abschnitt behandelt.
  • Datenbasierte Geschäftsmodelle: Auf der Basis von Praxis-Beispielen werden verschiedene Geschäftsmodelle mit ihren Erfolgsfaktoren und Herausforderungen dargestellt.
  • What To Do Next: Der Vortrag endet mit konkreten Handlungsempfehlungen
Zielpublikum: BI Manager, Entscheider Fachbereiche
Voraussetzungen: BI Fachkenntnisse, Grundverständnis für die Entwicklung von Geschäftsmodellen
Schwierigkeitsgrad: fortgeschritten



Klaus-Dieter Schulze
NTT DATA Deutschland GmbH
Vice President Big Data & Analytics

Donnerstag, 01.01.1970   |   12:30 - 13:15 Uhr   |    Mo 8.2

Trends und Entwicklungen für Business Intelligence, Analytics und Datenmanagement

Der Vortrag adressiert aktuelle Trends im Markt für Business Intelligence, Data Warehousing und Datenmanagement. Die Inhalte basieren auf der langjährigen Forschung der Analysten, Marktbeobachtung und Umfragen unter Anwendern von BI- und Data-Warehouse-Systemen. Vorgestellt werden unter anderem "Meta-Trends" wie maschinelles Lernen oder Internet of Things (IoT) die nicht nur den BI-, sondern den IT-Markt in Gänze beeinflussen, aber auch spezifische Trends wie Data Storytelling oder Pervasive BI.
In diesem 45minütigem Vortrag werden vor allem die Veränderungen im Vergleich zum letzten Jahr adressiert und eine erste Bewertung hinsichtlich der Marktakzeptanz und Nutzung gegeben.



Patrick Keller
BARC GmbH
Senior Analyst und Berater

Donnerstag, 01.01.1970   |   14:30 - 16:00 Uhr   |    Mi 2.3

NEU: Analytics im Einsatz – Betrugserkennung auf Basis von Big Data

Studien belegen, dass Unternehmen weltweit ca. 5% ihrer Umsätze durch betrügerische Aktivitäten (Fraud) verlieren. Vor diesem Hintergrund spielt die Identifikation von Fraud für Unternehmen aus unterschiedlichen Branchen wie Handel, Banken oder Telco eine entscheidende Rolle. Dies gilt insbesondere, da häufig wegen hoher Kosten nicht alle Transaktionen überprüft werden können. Die Herausforderung ist es einerseits die Verluste durch den Betrug zu minimieren und andererseits die Kosten der Kontrolle nicht ohne zusätzlichen Nutzen in die Höhe treiben.
Hier befinden sich Betrugserkennungssysteme im Einsatz, die durch statistische Verfahren nur die verdächtigen Fälle identifizieren, die später detailliert nachgeprüft werden müssen. 
Im Vortrag werden die etablierten analytischen Methoden und Techniken zur Betrugserkennung mit praktischen Beispielen aus Krankenvericherung präsentiert.

Zielpublikum:Data Scientists, BI und Big Data Leads, Departmental Users with interest in new concepts
Voraussetzungen: Keine
Schwierigkeitsgrad: Anfänger



Karol Sobiech
Deloitte
Cognitive Consultant

Donnerstag, 01.01.1970   |   16:30 - 18:00 Uhr   |    Mi 2.4

Datenschutz und IT-Sicherheit entmystifiziert – mit BI von den neuen Herausforderungen profitieren

Die 2018 in Kraft tretende Datenschutz-Grundverordnung bietet viele Anknüpfungspunkte für BI, Datenmodellierung und Big Data. Sie ist ein Kompromiss, belegt aber die Bemühung um rechtskonforme und marktgerechte Datenverarbeitung bei verhältnismäßig hohem Datenschutzniveau. Neue Begriffe wie Data Protection by Design, Data Protection by Default und Profilieren bedürfen einer tieferen BI-orientierten Betrachtung. Auch ist die Anerkennung der Verarbeitung personenbezogener Daten durch Behörden, Computer-Notdienste, Kommunikationsbetreiber sowie durch Sicherheitsanbieter als berechtigtes Interesse bemerkenswert. Die datenschutzrechtliche IT-Sicherheit erfuhr eine Anpassung an bewährte normgerechte IT-Sicherheitsziele, allerdings angereichert um Dokumentationspflichten und Zwang zur ständigen Aktualisierung. Mit zusätzlichen Pflichten und erhöhter Transparenz wurde die Rolle des Dienstleisters (Auftragsverarbeiter) neu definiert und erfährt eine erhebliche datenschutzrechtliche Aufwertung.

Zielpublikum: Sales, BI-Manager, BI-Projektleiter, Entscheider, CIO, Datenschutzbeauftragte, IT-Sicherheitsbeauftragte, Wirtschaftsschutzbeauftragte
Voraussetzungen: Datenschutzgrundsensibilisierung
Schwierigkeitsgrad: fortgeschritten



Peter Stahlberg
ceterius gmbh
Datenschutzbeauftragter der accantec consulting AG

Donnerstag, 01.01.1970   |   14:45 - 15:30 Uhr   |    Mo 8.3

World Café: Datenstrategie

Maximale Teilnehmerzahl: 25 Voranmeldung erforderlich!



Patrick Keller
BARC GmbH
Senior Analyst und Berater

Timm Grosser
BARC GmbH
Head of Consulting und Senior Analyst

Donnerstag, 01.01.1970   |   10:45 - 12:00 Uhr   |    Mi 3.2

Data Vault im Einsatz: 10 Dos and Don'ts aus der Praxis

Ja, wir lieben Data-Vault-Modellierung. Aber jeder Modellierungsansatz hat auch seine Tücken.
Nach fünf Jahren aktivem Einsatz von Data Vault in der Praxis ziehen wir ein Fazit und stellen unsere Liste von Empfehlungen in einer Liste von 10 Dos and Don'ts anhand von konkreten Projektbeispielen zusammen.
Dabei gehen wir auf Herausforderungen wie Near-Realtime-Systeme, große Datenmengen und die Gestaltung des Business Vaults ein und beantworten die Frage, wie Date Vault Datenmigrationen vereinfacht.
Auch gehen wir darauf ein, wie Data Vault in der Agilen DWH-Entwicklung eingesetzt werden kann.
Wir betrachten Unterschiede in Datenbanktechnologien wie Oracle, MSSQL und Postgres genauso wie Modellierungsfragen wie zum Beispiel, ob sich das Hashen der Business-Schlüssel bewährt hat.
Fragen sind ausdrücklich willkommen und können auch im Vorfeld eingereicht werden.

Zielpublikum: Datenanalysten, Modellierer, Fachspezialisten im DWH-Bereich, Application Owner
Voraussetzungen: Grundverständnis von Daten-Modellierung, Praxiserfahrung im DWH-Umfeld ist hilfreich
Schwierigkeitsgrad: fortgeschritten



Petr Beles
2150 GmbH
Data-Vault-Spezialist, Senior Consultant

Donnerstag, 01.01.1970   |   14:30 - 18:00 Uhr   |    Mi 3.3

Schnallen Sie sich an und machen Sie mit uns einen Test-Drive in der DWH-Automatisierung

Halbtages Workshop Überzeugen Sie sich im Rahmen eines Hands-On Workshops persönlich davon, wie man mit einem automatisierten Data-Warehousing-System Steigerungen bei der Effizienz und Effektivität in den Data-Warehouse-Prozessen erreichen kann. Aufgaben wie ETL-Entwicklung, Deployment, Jobsteuerung und das Erzeugen von Dokumentationen werden mit einem automatisierten Data-Warehousing-System (fast) von selbst erledigt. Die Anzahl der Teilnehmer ist aufgrund der bereitzustellenden Hardware begrenzt und erfordert eine Voranmeldung. Maximale Teilnehmerzahl: 20
Voranmeldung erforderlich!


Zielpublikum: alle, die an den neuesten Trends im Bereich DWH-Automatisierung interessiert sind
Voraussetzungen: DWH Basics
Schwierigkeitsgrad: fortgeschritten



Klaus Blaschek
b.telligent Schweiz GmbH
Geschäftsführer

Donnerstag, 01.01.1970   |   15:45 - 18:45 Uhr   |    Mo 8.4

Weiterentwicklung der BI-Strategie

Nutzen von BI wird dann generiert, wenn diese der Unternehmensstrategie folgt und die wertschöpfenden Prozesse gemäß den Anforderungen unterstützt. Dies erfordert vor dem Hintergrund der Notwendigkeit für übergreifende Analysen oder Flexibilität gegenüber neuen oder sich ändernden Informationsbedarfen einen Koordinationsrahmen. Eine BI-Strategie schafft die Voraussetzungen und Rahmenbedingungen dazu unter Berücksichtigung der fachlichen, technischen und organisatorischen Gesichtspunkte. Die Implementierung einer BI-Strategie variiert von Unternehmen zu Unternehmen. BARC ist in der Lage aus Projekterfahrungen zu berichten und bewährte Methodiken vorzustellen, u.a. zu Vorgehen BI-Strategie und Data Governance, Rollen&Prozessmodelle, Varianten der Aufbauorganisation (BICC) und deren Fallstricke, Konzeption der Datenarchitektur und deren Einfluss auf die analytische Landschaft.
Im Vortrag erhalten Sie sowohl grundlegende Einblicke in das Thema aber auch konkrete Hilfestellung für anstehende Projekte und Antworten zu:
•       Schnelle und effiziente Einarbeitung in das Thema
•       Potentiale und Chancen aber auch Risiken in Strategie- und Organisationsprojekten
•       Lessons Learned aus zahlreichen BARC-Projekten
•       Schnellere Umsetzung des Themas im Unternehmen



Patrick Keller
BARC GmbH
Senior Analyst und Berater

Herbert Stauffer
BARC Schweiz GmbH
Geschäfsführer Schweiz und Senior Analyst

Donnerstag, 01.01.1970   |   09:00 - 12:00 Uhr   |    Mi 4.1

Modernize the Data Warehouse: Designing An Architecture for both BI and Data Science

The requirements we have today are to accept any data, not just data in rows and columns; to accept that data at any speed, not just what a database can keep up with; and to support any process – not just queries but also algorithms and transformations. We aren't designing for 'big data' or 'small data' – it's all data. The data warehouse is sufficient for a portion of the data, but not for all of it.
What are the design principles that lead to good functional design and a workable data architecture? What are the assumptions that limit old approaches? How can one integrate with older environments? How does this affect data management? Answering these questions is key to building long-term infrastructure.
This presentation will discuss hidden design assumptions, review design principles to apply when building multi-use data infrastructure, and provide a reference architecture. Our goal in most organizations is to build a multi-use data infrastructure that is not subject to past constraints.

Target Audience: BI and analytics leaders and managers; data architects, modelers, and designers; architects, designers, and implementers; anyone with data management responsibilities who is challenged by recent and upcoming changes in the data landscape
Prerequisites: Understanding of data warehousing and BI
Level: Basic



Mark Madsen
Third Nature
President

Donnerstag, 01.01.1970   |   09:00 - 12:00 Uhr   |    Di 8.1

Speed Pitch: Werkzeuge für Metadatenmanagement

Nicht nur „digitale“ Vorzeigeunternehmen fordern applikationsunabhängige, fachbereichsübergreifende Sichten auf die Daten als optimale Voraussetzung zur Wertschöpfung aus Daten, zum Zwecke der Optimierung, Automatisierung und Innovation. Es fordern Unternehmen dort Transparenz im Sinne klarer Prozesse, Regeln, Verantwortungen und Verflechtungen, wo die Zusammenarbeit zwischen Fachbereich und IT oder zwischen Systemen stattfindet. Werkzeuge für das Metadatenmangement sollen helfen diese Anforderungen systemseitig zu unterstützen. Nach einer Diskussion zur Relevanz von Metadatenmanagement führt BARC Kriterien zur Auswahl von Metadatenmanagementplattformen an. In einem Speed Pitch sollen die Anforderungen in einer max. 15 minütigen Live-Demo demonstriert werden.



Timm Grosser
BARC GmbH
Head of Consulting und Senior Analyst

Jacqueline Bloemen
BARC
Senior Analyst

Donnerstag, 01.01.1970   |   14:30 - 16:00 Uhr   |    Mi 4.3

Digital Earth – Big Data as the driver of new business models at the interface between space and the digital economy

Thanks to new digital technologies, an amazing view from Space – sensing beyond what the Astronauts can see from the International Space Station – can now be accessed directly on mobile devices, for free, at high-resolution, and for any point on the planet. This is a unique and unprecedented capability enabled by the Copernicus program from the European Space Agency (ESA), which will deliver incredible scientific insight into how our planet works but will also unleash enormous business opportunities in a growing digital data economy. In this seminar Nicolaus Hanowski will discuss extraordinary new ways of collecting, storing, and analyzing big data and its impact on the way we do Science but also Business in the Digital economy and provide some examples of how Earth Observation (EO) responds to the Digital revolution.

Target Audience: BI & Data Warehousing Professionals, CEOs, CTOs
Prerequisites: Interest in Big Data, Business Analytics, In-Memory Technology, Basic knowledge in the following areas: BI and Data Warehousing, Space & IT as new business opportunities
Level: Advanced



Nicolaus Hanowski
European Space Agency (ESA)
Head, Ground Segment & Mission Operations Department

Donnerstag, 01.01.1970   |   16:30 - 18:00 Uhr   |    Mi 4.4

Automatisierte Generierung von Data Vault aus relationalen 3NF-Modellen

Automatisiertes Generieren von Data Vault aus relationalen 3NF-Modellen:
Geht das und wenn ja, wie?
Und wozu eigentlich?
Dieser Vortrag beinhaltet:
Möglichkeiten, Sinn und Nutzen, Vorteile, Problemstellungen, Automatisierungspotenziale, konkrete Realisierung inklusive Beispiel.

Zielpublikum: Datenmodellierer, Datenarchitekten, Data-Warehouse-Entwickler, BI-Consultants
Voraussetzungen: Grundwissen Data Vault, Grundwissen relationale Datenbankmodelle (3NF), Grundwissen Datenmodellierung
Schwierigkeitsgrad: grundlegend



Kim Lust
heureka E-Business GmbH
Consultant, Trainer & Software Architect

Donnerstag, 01.01.1970   |   14:30 - 18:00 Uhr   |    Di 8.3

Operationalisierung von Advanced Analytics – was kommt nach dem Prototypen?

In BARC-Anwenderbefragungen und -Projekten zeigt sich, dass eine der größten Herausforderungen von Advanced-Analytics-Initiativen in der Operationalisierung besteht: Die Integration der in den Data Science Labs entwickelten Advanced Analytics Modelle in die operativen Prozesse des Unternehmens– nur so können sie tatsächlich Mehrwerte erbringen.
Der Slot ist zweigeteilt: BARC führt mit einem Überblick aus Umfrage- und Projekterkenntnissen ein:
•    Welche Mehrwerte konnten durch Advanced Analytics tatsächlich in Unternehmen erreicht werden?
•    Welche Herausforderungen gilt es zu lösen?
•    Welche Organisationsformen finden Anwendung?
•    Welche Technologien werden eingesetzt oder sind geplant?
•    Welche Umsetzungsformen haben sich in Projekten bewährt?

Anschließend diskutieren wir mit Vertretern verschiedener Unternehmen, die einen Einblick in ihre Vorgehensweise, Herausforderungen und Erfolge geben.



Carsten Bange
Business Application Research Center (BARC)
Gründer und Geschäftsführer

Lars Iffert
BARC GmbH
Analyst

Sebastian Derwisch
BARC GmbH
Data Scientist

Donnerstag, 01.01.1970   |   09:00 - 12:00 Uhr   |    Mi 5.1

Self Service Analytics and Data Democracy in a Connected World

Join this session, to hear about how BT are empowering the business through data democracy. Enabling self-service using Data Analytics to exploit our vast information assets via a multi tenanted big data repository. Providing insight to drive informed decision making in an increasingly connected and converging world. In this session we will take you on a journey through real world examples of using analytics to better understand business challenges and predict outcomes:
  • Use cases - Customer Experience, Operational Excellence, Self Service analytics & IoT Analytics
  • Data Strategy & the Logical Data Warehouse (Hadoop vs. Analytics Databases)
  • Data Management - the foundation for insight from 2,500 structured datasets to billions of non-relational data
  • Breadth of Information usage - over 10,000 users across discovery, data science, reporting and visualisation
Target Audience: CDO, Architects & Analytics practitioners
Prerequisites: Foundation understanding of Analytics and Big Data
Level: Advanced



Jason B. Perkins
CBIP, BT
Data Analytics Chief Architect

Donnerstag, 01.01.1970   |   14:30 - 16:00 Uhr   |    Mi 5.3

(Near-)Realtime Anwendungsfälle im Online-Markt für Lebensmittel – Umsetzung mit Apache flink

Die Bringmeister GmbH ist einer der Pioniere im jungen und stark wachsenden Online-Markt für Lebensmittel und liefert seinen Kunden das gesamte Supermarktsortiment mit der eigenen Logistik nach Hause.
Neben dem klassischen Data Warehousing gibt es eine Reihe von Szenarien, in denen Kennzahlen und Auswertungen in Realtime oder Near-Realtime aufbereitet und verschiedenen Nutzern zur Verfügung gestellt werden müssen. Beispiele sind Kennzahlen wie die aktuelle Verspätungsquote der Lieferflotte oder Pickraten während des Kommissionierprozesses. Die Auswertungen werden von den Kollegen ganz konkret genutzt, um Abläufe zu optimieren.
Wir haben unsere DWH-Architektur um eine Echtzeitkomponente ergänzt und dazu Apache Flink als Streaming-Framework verwendet. Da Teile unserer Infrastruktur in der AWS Cloud liegen, kommen zusätzlich auch noch AWS Services wie Kinesis oder Lambda zum Einsatz. Der Vortrag wird die Umsetzung der Echtzeit-Szenarien mit Apache Flink vorstellen.

Zielpublikum: DWH/BI-Entwickler, BI-Projektmanager
Voraussetzungen: Grundwissen DWH und Java
Schwierigkeitsgrad: fortgeschritten



Jens Bleiholder
Bringmeister GmbH
Manager Database/Business Analytics

Sebastian Langguth
Bringmeister GmbH
Manager Database/Business Analytics

Donnerstag, 01.01.1970   |   16:30 - 18:00 Uhr   |    Mi 5.4

IoT bei Grundfos: Echtzeit-Monitoring mit RFID macht Fertigungsprozesse effizienter

Im internationalen Wettbewerb müssen die Produktionsprozesse von Unternehmen ein Höchstmaß an Effizienz aufweisen. Daher hat Grundfos, weltweiter Hersteller von Spezial-Pumpen, ein Echtzeit-Monitoring für seine Fertigung auf Basis von RFID- und Cloud-Technologien aufgebaut: Die kommissionierten Einzelteile einer Pumpe werden auf einem Transportwagen von einer Fertigungszelle zur nächsten geschoben. Jeder Wagen erhält einen RFID-Tag, der mit dem betreffenden Auftrag verknüpft ist. Die einzelnen Fertigungszellen sind mit entsprechenden RFID-Lesegeräten ausgestattet. Für die Verarbeitung des resultierenden Datenstroms steht eine Echtzeitstrecke über Cloud-Dienste zur Verfügung, wobei auch Referenzdaten aus einem lokalen ERP angebunden werden.
Der Vortrag verschafft detaillierte Einblicke in die Entwicklung und den Aufbau der zukunftsweisenden Grundfos-Lösung. Dabei werden die verwendeten Technologien im Zusammenspiel vorgestellt, wie etwa RFID und diverse Dienste der Azure IoT Suite.

Zielpublikum: Unternehmensverantwortliche für datengetriebene Innovationen, alle, die sich für die Umsetzung von IoT-Szenarien interessieren
Voraussetzungen: Teilnehmer sollten mit den typischen Herausforderungen vertraut sein, die die digitale Transformation von Industrieunternehmen mit sich bringen
Schwierigkeitsgrad: fortgeschritten



Jens Kröhnert
ORAYLIS GmbH
Big Data & IoT Evangelist

Donnerstag, 01.01.1970   |   09:00 - 12:00 Uhr   |    Mi 8.1

Speed Pitch: Werkzeuge Big Data Integration

Neue Technologien helfen Unternehmen Big Data zu implementieren. NoSQL, massive parallele Datenbanken und Verarbeitungsengines und allem vorweg Hadoop sind Komponenten moderner Architekturen. Big Data Integration beschreibt das Erfolgskriterium, um Daten aus verschiedenen Prozessen oder Systemen effizient zu verwalten und Daten in einer Plattform zu integrieren, die Skalierbarkeit & Flexibilität sichert, aber auch hilft Governance einzuhalten. Big Data Integration ist damit eine wesentliche Fragenstellung für Big Data Projekte. Denn der traditionelle Fokus von ETL oder Datenintegrationswerkzeugen deckt nicht per se Anforderungen an die Verarbeitung wirklich hoch-volumiger Daten ab oder die Real-Time-Verarbeitung von Sensor-, Log- oder Social-Media-Daten, die eine sofortige Verarbeitung erfordern, um wertvolle Aussagen zu generieren. Nach einer Einführung und Abgrenzung von Big Data Integration zu traditionellen Datenintegrationsansätzen führt BARC Kriterien zur Auswahl von Big Data Integration Plattformen an. Die Kriterien dienen als Basis für den nachfolgenden Speed Pitch, in dem ausgewählte Softwareanbieter ihre Lösungen anhand einer gegebenen Struktur/ Fragestellung in max. 15 Min präsentieren. Die Fragestellungen decken die Bereiche Architektur, Metadatenmanagement, Entwicklungsunterstützung, Datenextraktion und -vorbereitung, Funktionen für Datenintegration und -qualität, Administration und Data Security ab.



Timm Grosser
BARC GmbH
Head of Consulting und Senior Analyst

Jacqueline Bloemen
BARC
Senior Analyst

Donnerstag, 01.01.1970   |   10:45 - 12:00 Uhr   |    Mi 6.2

CHANGE: Tour de Spark: three Spark use cases

In this talk we will cover three Spark use cases from field engagements of Cloudera's professional services team.



Jan Kunigk
Cloudera
Senior Solutions Architect

Donnerstag, 01.01.1970   |   14:30 - 18:00 Uhr   |    Mi 8.3

Speed Pitch: Cloud BI und Datenmanagement

Die Ära des Cloud Computing begann vor über einem Jahrzehnt, als Salesforce.com eine der ersten Front-Office-Anwendungen auf den Markt brachte, die komplett in der Cloud liefen. Ihr Erfolg hat eine Vielzahl von Nachahmern in fast jedem Winkel des Marktes für Geschäftsanwendungen hervorgebracht. Business Intelligence (BI)- und Datenmanagementanbieter sind den Verlockungen der Cloud gegenüber nicht immun. Es gibt mehrere reine BI- und Datenmanagementanbieter, die meisten anderen BI-Anbieter bieten reine Cloud-Produkte oder Erweiterungen, die Hybrid Computing-Umgebungen unterstützen, an. Anbieter erkennen heute, dass viele Kunden die Vorteile von Cloud Computing nutzen wollen – schnellere Implementierungen, minimale Beteiligung der IT, keine Investitionen und flexible Nutzung von Rechenleistung Computing. Und sie investieren entsprechend. Auf der Kundenseite hat sich die Umsetzungsrate für Cloud BI um etwa 30 % verändert. Wir verzeichnen einen deutlichen Anstieg der Cloud-BI- und Datenmanagementimplementierungen. Dies weist darauf hin, dass sich auch Cloud-BI- und Datenmanagement einem Wendepunkt nähern. Der Verlagerung des Daten-schwerpunkts in die Cloud folgen nun auch BI und Datenmanagement. Daher stellen wir in diesem Speed Pitch Lösungen für Cloud BI und DM vor. Nach einer Einführung zum Thema durch Analysten von BARC, stellen sich ausgewählte Softwareanbieter und Cloud-Provider mit ihren Lösungen und Vorteilen für die Kunden dar. Fragestellungen
sollen neben Funktionalität und Sicherheit vor allem Themen zur Integration und Nutzen für die Anwender sein. Für diese Darstellung erhalten die Anbieter jeweils ein Zeitkontingent von 10 bis 15 Minuten.



Otto Görlich
BARC GmbH
Senior Analyst

Patrick Keller
BARC GmbH
Senior Analyst und Berater

Donnerstag, 01.01.1970   |   14:30 - 15:15 Uhr   |    Mi 6.3 1)

BI Chain Monitoring: Predictive Analytics on Enterprise Metadata Streams with Spark, Cassandra and Kafka

Enterprise BI processing chains tend to be very complex, for many reasons such as data volume, regulations, compliance measures and variety of the data sources involved. Hence it's not uncommon that process changes and unforeseen load can strain BI pipelines. Disrupted BI chains are often costly endeavours which require to re-run large data batches. Incidents of this kind are often a source of temporary service unavailability and they are hard to fix and to maintain. Streaming Analytics, in particular using open source technology such as Spark, Cassandra, Logstash, and Kafka can be effectively used for BI chain monitoring.
In this presentation, Natalino will show how to build models to determine which patterns are normal and which are anomalous in the received metadata streams. Thereafter, he will explain how to score, forecast and predict trends on real-time metadata stream and how to provide real-time actionable insights for a higher opera

Target Audience: BI Managers, Directors, Project Managers and Architects, Open Source Specialists, Program managers
Prerequisites: none
Level: Basic



Natalino Busa
Teradata
Head of Data Science

Donnerstag, 01.01.1970   |   16:30 - 18:00 Uhr   |    Mi 6.4

A Distributed Operational and Informational Technological Stack

Digital Transformation starts with data. What if a solution existed that put data at the center, in a single place, serving all applications around it – A distributed data centric solution that combined the operational and the informational, managed by a single data center operating system?
This session will provide a detailed explanation of such a solution, bringing the concept of data centricity to life. We will cover the details of the array of open source technologies that come together to create a transformational solution to the historic problem of physical companies: From multiple data stores, distributed run-time engines and SQL engines based on Spark, to microservices, Machine Learning and Deep Learning Algorithms. Big Data 3.0 is just round the corner.

Target Audience: Software engineers, BI manager, BI-project leader, Big Data manager, IT manager
Prerequisites: BI, distributed technologies, Big Data
Level: Advanced



Loreto Fernández Costas
Stratio
Scrum Master

Adrián Doncel Gabaldón
Stratio
Big Data Architect

Donnerstag, 01.01.1970   |   09:00 - 18:00 Uhr   |    Mi 7.1

Hackathon – "Mögen die Daten mit euch sein!"

Ganztages Workshop Maximale Teilnehmerzahl: 30
Voranmeldung erforderlich!

Benötigt wird ein eigener Laptop:
Ausstattung:
da die Dienste bzw. Services sich in der Bluemix Plattform (Software as a Service, Cloud Computings) befinden, benötigen die Teilnehmer lediglich einen Internet Browser (Internet Explorer, Firefox, Chrome etc). Des Weiteren werden wir den Teilnehmern weitere Dokumente sowie Informationen für die Projekten ebenfalls über eine file sharing Dienst (box.com) bereitstellen. Somit haben wir keine Einschränkungen bezüglich der Betriebssysteme oder der eingesetzten Software. Kurzbeschreibung: Ist es möglich, neue und vor allem verwertbare Erkenntnisse aus unstrukturierten Daten mithilfe von 'Cognitive Computing' automatisiert in wenigen Stunden zu generieren oder klingt dies zu sehr nach Science Fiction?
Die rasant fortschreitende Digitalisierung ermöglicht heute die Analyse von unstrukturierten Daten, ggfs. sogar in Echtzeit. Damit können neue Erkenntnisse und Zusammenhänge gefunden werden, um Abläufe und Geschäftsmodelle zu optimieren. Dabei ist das Kreative und Experimentelle der Lösungsfindung ein wesentlicher Aspekt einer jeden durchgeführten Analyse. Im Hackathon setzen wir uns innerhalb der Teams (4-6 Personen) intensiv mit den Möglichkeiten von kognitiven Systemen auseinander.
TeilnehmerInnen mit vielfältigen Kompetenzen aus unterschiedlichen Fachrichtungen sind willkommen. Die interdisziplinäre (intergalaktische) Zusammenarbeit ermöglicht neue Sichtweisen.
Auch Wookies und Droiden (mit eigenem Rechner) sind erlaubt.
Präsentation der Hackathon-Ergebnisse ab 16:30 Uhr Zielpublikum: Young Guns, Students, Konferenzteilnehmer, Professionals
Voraussetzungen: Eigener Rechner
Schwierigkeitsgrad: Anfänger Ausführlichere Beschreibung: „Mögen die Daten mit euch sein!“ Ist es möglich, neue und vor allem verwertbare Erkenntnisse aus unstrukturierten Daten mithilfe von „Cognitive Computing“ automatisiert in wenigen Stunden zu generieren oder klingt dies zu sehr nach Science Fiction? „Tue es oder tue es nicht. Es gibt kein Versuchen.“ Yoda Die rasant fortschreitende Digitalisierung ermöglicht heute die Analyse von unstrukturierten Daten, ggfs. sogar in Echtzeit. Damit können neue Erkenntnisse und Zusammenhänge gefunden werden, um Abläufe und Geschäftsmodelle zu optimieren. Dabei ist das Kreative und Experimentelle der Lösungsfindung ein wesentlicher Aspekt einer jeden durchgeführten Analyse. Mach mit beim Hackathon und werde ein Data-Jedi oder Data-Sith! Im Hackathon setzen wir uns innerhalb der Teams von vier bis sechs Personen intensiv mit der Aufbereitung des erfolgreichen US-amerikanischen Film-Franchise Star Wars auseinander. „Mögen die Daten mit Euch sein“ soll uns als Motto durch den Tag begleiten und als Inspiration dienen. TeilnehmerInnen mit vielfältigen Kompetenzen aus unterschiedlichen Fachrichtungen sind willkommen. Die interdisziplinären (intergalaktische) Zusammenarbeit ermöglicht neue Sichtweisen. Auch Wookies und Droiden sind erlaubt. Schließen wir uns wie die Rebellen-Allianz zusammen. Die Vision auch hier: Zukunftsweisende Innovationen! Es soll eine prototypische Analyse auf Grundlage topaktueller Technologien entstehen. Als Baukasten der kognitiven Technologien dienen 130 IBM Bluemix-Services, basierend auf der IBM Watson Forschung. Wir haben da ein sehr gutes Gefühl.



Alexander Gusser
gmc² GmbH
Consultant

Stephan Multhaupt
gmc² gerhards multhaupt consulting GmbH
Managing Director

Donnerstag, 01.01.1970   |   14:00 - 14:30 Uhr   |    CSmo1

Case Study Denodo – Datenvirtualisierung: Bindeglied zwischen Operativen Quellen, Data Warehouse, Big Data & Cloud für flexible analytische Ökosysteme

Immer mehr Business-Entscheidungen basieren auf Daten, die typischerweise in getrennten Silos verwaltet und gespeichert werden. Deren Integration und Verknüpfung ist für eine umfassende Auswertung und Analyse unabdingbar. Dies stellt eine immense Herausforderung für den IT-Betrieb dar - verschiedene Technologien, Formate und Geschwindigkeiten gilt es dem Business bereitzustellen.
 
Die Case Study zeigt eine Lösung auf Basis von Datenvirtualisierung am konkreten Kundenbeispiel, wie Data Warehouses, Big Data, operative Systeme sowie weitere Quellen, etwa Newsfeeds, in einem einheitlichen fachlichen Datenmodell zusammenführt werden. Wichtig ist dabei die Integration eines komplexen Security-Modells sowie der Bereitstellung von Daten für Menschen in Reports und Portales sowie für Maschinen zur Automatisierung von Geschäftsprozessen.



Christian Kurze
Denodo Technologies
Principal Sales Engineer DACH

Donnerstag, 01.01.1970   |   14:00 - 14:30 Uhr   |    CSmo2

Case Study Adastra: Customer Lifetime Value – den zukünftigen Wert eines Kunden aus Daten erkennen

[coming soon]



Birgit Glase
Adastra GmbH
Data Artist und Data Scientist, Competence Lead Predictive und Customer Analytics

Donnerstag, 01.01.1970   |   14:00 - 14:30 Uhr   |    CSmo3

Case Study PPI: Ihr Recht auf Vergessenwerden! EU-Datenschutz Grundverordnung (EU-DSGVO) und die Herausforderungen für unserer operative und dispositive Welt



Erik Purwins
PPI AG
Unit Manager Data & Analytics

Donnerstag, 01.01.1970   |   14:00 - 14:30 Uhr   |    CSmo4

Case Study datastax: Nur die Harten kommen in den Garten - DataStax Graph gegen den digitalen Darwinismus

Henry Ford sagte vor etwa 100 Jahren: „Sie können einen Ford in jeder Farbe haben – Hauptsache er ist schwarz" Diese Einstellung kann sich heute vermutlich kein Unternehmen mehr leisten. In vielen Branchen sind die Anbieter eines Produktes oder einer Dienstleistung austauschbar geworden. Sie können Kunden nur über einen günstigen Preis gewinnen oder halten. Aus diesem Grund ist ein Trend zu Gunsten digitaler Mehrwertdienste erkennbar, um die Kundenabwanderung zu stoppen und zeitgleich einen ruinösen Preiskampf zu vermeiden. Nur wer seine Kunden genau kennt, kann exakt personalisierte Produkte anbieten und so vom Mitbewerber abheben. In diesem Talk möchte wir erklären welche Ideen wir aufgegriffen haben und wie wir diese in Form von Echtzeitanalysen mit DataStax Graph und Apache Cassandra umgesetzt haben.



Dominique Ronde
Allianz Deutschland AG
Big Data Architekt

Donnerstag, 01.01.1970   |   14:00 - 14:30 Uhr   |    CSmo5

Case Study Informatica: High Performing Cloud Data Warehouse

Die Zukunft des Data Warehouse liegt in einer nahtlos integrierten On-Premises und Cloud-basierten Plattform, die in der Lage ist, zeitnah, flexible und kostengünstig saubere Daten für Analyse- und Business-Intelligence Initiativen zu liefern.
Viele Unternehmen migrieren bereits Warehouse-Workloads zu Public Cloud Service-Providern. Diese „Lift and Shift“ Migrationen sind jedoch oft komplex, da sie teilweise den fortgesetzten Betrieb einiger der On-Premises basierten Dienste erfordern und gleichzeitig die Integration in bestehende und neue Geschäftsanwendungen und Datenbanken sichergestellt werden muss.
Erfahren Sie in diesem Vortrag, wie eine flexible Cloud-Integrationsplattform in hybriden Umgebungen sicherstellt, dass alle Daten zu jeder Zeit über alle Systeme und Anwendungen hinweg verbunden, synchronisiert und miteinander in Beziehung gesetzt werden können.




Dominic Walter
Informatica GmbH
Sales Consultant

Donnerstag, 01.01.1970   |   14:00 - 14:30 Uhr   |    CSmo6

Case Study Ab Initio: GDPR – Ein Lösungsansatz

Der 25. Mai 2018 ist GDPR D-Day, der Tag an dem die Anforderungen der EU-Verordnung erfüllt sein müssen.  Trotz der schnell nähernden Frist gibt es -- subjektiv gesehen -- wenig laufende Projekte und noch weniger GDPR Standard-Lösungen.  Da stellt sich doch die Frage, wieso?  Sind die verbleibenden 11 Monate so viel Zeit, dass man sich keine Sorgen machen muss?  Sind, angesichts der Vielfalt der betroffenen Systeme, Standard GDPR-Lösungen überhaupt möglich oder müssen sich Firmen auf die aufwendige Entwicklung von maßgeschneiderten Lösungen einstellen?  Als führender Anbieter von Data Governance und Datenintegrationslösungen glauben wir von Ab Initio unseren Kunden bei der Umsetzung der GDPR Verordnungen behilflich sein zu können.  Erfahren Sie mehr im Rahmen des Vortrags.  



Anthony Ibrahim
Ab Initio Software
Director DACH, Central & Eastern Europe

Donnerstag, 01.01.1970   |   13:45 - 14:15 Uhr   |    CSdi1

Case Study ITGAIN: Churn Prevention mit KNIME – Data Mining unterstützt durch den ITGAIN Analytical Process

[coming soon]



Thilo Boehnke
ITGAIN Consulting GmbH
Senior Consultant

Donnerstag, 01.01.1970   |   13:45 - 14:15 Uhr   |    CSdi2

Case Study WhereScape: Making your current data warehouse an agile data warehouse by adding more complexity

How can adding more complexity make you more agile?  Experts can tell you how to build an agile data Warehouse.  Use a Data lake and concepts like Logical data Warehouse, Data Vault and Supernova. The answer lies in data warehouse automation:  In this session, learn from Jos Driessen, previously responsible for BI Strategy and Architecture at Vodafone Netherlands, how programming robots can generate a data warehouse for you.  You retain control. you decide what to build.  But you don’t have to dive into the details.  Robots will do that for you. This will change your projects into initiatives and enable Business analytics.



Jos Driessen


Donnerstag, 01.01.1970   |   13:45 - 14:15 Uhr   |    CSdi3

Case Study ASG: Alles wandelt sich. Wissen Sie, wann und wie sich die Herkunft Ihrer Daten verändert? Überwachung von Datenflüssen in der Praxis

Was der Datenmanager nicht weiß, “macht ihn nicht heiß”? Das mag sein, aber unerkannte Veränderungen in den Datenverarbeitungsprozessen können ihn dennoch gehörig ins Schwitzen bringen. Sicherheit geben automatische Veränderungsreports. Behalten Sie Ihre Datenherkunft im Blick und erkennen Sie Veränderungen im Datenfluss und in der Zusammensetzung frühzeitig. Dadurch können Sie zeitnah auf unklare oder fehlerhafte Änderungen reagieren.

Welchen Nutzen bringt die automatische Bereitstellung von Veränderungsreports? Im Vergleich zu manuellen Verfahren profitieren Unternehmen von einer erheblichen Beschleunigung und von einer deutlichen Kosteneinsparung durch verringerten Ressourcen-Einsatz. Zudem minimiert sich das Risiko, falsche Daten aufgrund nicht bekannter Transformationen der Daten zu liefern. 



Carsten Lux
ASG Technologies
Account Executive - Data Intelligence Solutions

Antonius Ester
ASG Technologies
Senior Solutions Engineer, Presales

Donnerstag, 01.01.1970   |   13:45 - 14:15 Uhr   |    CSdi4

Case Study Simplity: Wenn aus Metadaten Daten werden – Integrierte Data Governance und Referenzdatenmanagement mit Accurity

Durch regulatorische Anforderungen wie BCBS239 im Bankenumfeld haben Themen wie Metadaten und Fachglossare eine Renaissance erfahren. Oft erfüllen solcherlei Vorhaben jedoch ausschließlich einen Dokumentationszweck. Der Vortrag stellt dar, wie ein entsprechendes fachliches Datenmodell auch die Grundlage zur Datenqualitätsprüfung und insbesondere zur Pflege von Referenzdaten (Wertevorräte wie Produktkataloge, Übersetzungstabellen) bilden kann. Es wird eine in diversen Unternehmen verschiedener Branchen erprobte Methodik vorgestellt, ergänzt durch die Präsentation der über mehrere Projekte hinweg entstandenen integrierten Softwarelösung Accurity, welche Metadaten-, Datenqualitäts- und Referenzdatenmanagement vereint.



Torsten Priebe
Simplity
CTO

Donnerstag, 01.01.1970   |   13:45 - 14:15 Uhr   |    CSdi5

Case Study Bisnode: Vom Content-basierten Stammdatenmanagement (aaS) bis zur anwenderorientierten Analyse – ein integrierter Ansatz zur Reduzierung von IT Komplexität

Die Case Study zeigt, wie Bisnode Kunden das Thema des integrierten Stammdatenmanagements mit globalen Referenzdaten lösen. Damit wird das Fundament für die Vorhaltung konsistenter und aktueller Daten im gesamten Unternehmen geschaffen. Bisnode hat dazu einen Ansatz entwickelt, der als Stammdatenmanagement as a Service funktioniert.
Darauf aufbauend werden Möglichkeiten vorgestellt, die Analysen für verschiedene Fachbereiche zur Verfügung stellen. Dies sind  zunächst die Geschäftsfunktionen Sales&Marketing, Einkauf und Finanzen, darüber hinaus aber auch das Stammdatenmanagement selbst, das Risikomanagement und der Bereich Compliance. Durch die Integration von internen und Bisnode Daten wird den jeweiligen Fachbereichen basierend auf den gleichen Inputdaten die jeweiligen relevanten Ergebnisse geliefert.
Die Case Study zeigt, wie mit limitiertem internen IT Aufwand die end-to-end Integration von Stammdaten bis hin zu Analysen für die Fachabteilungen realisiert werden können.

Zielpublikum: BI-Manager, BI-Projektleiter, CIOs, Fach/IT-Entscheider, Power User
Voraussetzungen: Grundlagen Data Management, BI, Praktische Erfahrungen mit BI
Schwierigkeitsgrad: mittel



Michael Seifert
Bisnode Deutschland GmbH
Senior Manager Consulting

Dominic Uphoff
Bisnode Deutschland GmbH
Manager Data Analytics

Donnerstag, 01.01.1970   |   13:45 - 14:15 Uhr   |    CSdi6

Case Study OpenText: Digitale Innovationen in einer analogen Welt: Die Lösung von Knorr-Bremse für Predictive Maintenance und Analytics

Die Knorr-Bremse Gruppe ist der führende Hersteller von Bremssystemen für Schienen- und Nutzfahrzeuge mit weltweit über 24000 Mitarbeitern. Knorr-Bremse IT stellt im Vortrag iCOM vor, die digitale Plattform und IoT-Softwarelösung für Predictive Maintenance und Diagnose. Mit dieser Lösung werden drahtlos große Datenmengen gesammelt und visualisiert, die aus mit Produkten von Knorr-Bremse ausgestatteten Zügen und Fahrzeugen stammen. Mit der Integration von OpenText Analytics kann die iCOM IoT-Plattform sehr große Datenmengen in einem interaktiven Frontend visualisieren. So werden Wartungszeiten und –zyklen, Materialanforderungen, Kosten und Energieverbrauch sofort verfügbar. Kunden können Wartungsfälle voraussehen und vermeiden und so die Verfügbarkeit der Fahrzeuge steigern und Kosten optimieren.



Dirk Seckler
Knorr-Bremse IT-Services GmbH
Gobal Head of Sales

Martin Steffens
Knorr-Bremse IT-Services GmbH
Architect & Project Manager

Donnerstag, 01.01.1970   |   13:45 - 14:15 Uhr   |    CSmi1

Case Study Sopra Steria: Praxisbeispiel - Bitemporale Historisierung

Historisierung ist elementarer Bestandteil eines Data Warehouse (DWH). Dabei ist die einfache (unitemporale) Historisierung Standard.  Um die Nachvollziehbarkeit zu gewährleisten, werden im DWH Informationen nie überschrieben. Der chronologische Zeitbezug eines Objektes wird dabei entweder über seine technische Sichtbarkeit oder über seine fachliche Wirksamkeit abgebildet.
 
Bereits die einfache Historisierung hat seinen Preis:
  • deutliche höheres Datenvolumen
  • zusätzliche Abfragefilter
  • Datenintegrität ist nur schwer herstellbar
  • komplexeres Datenmodell
  • schwerer optimierbare, langsamere Abfragen
 
Bei der vollständigen bzw. bitemporalen Historisierung werden die fachliche und die technische Gültigkeit gleichzeitig berücksichtigt. Der zusätzliche Nutzen besteht darin, dass zur fachlichen Wirksamkeit eine Reporting-Stabilität auch bei fachlich rückwirkenden Änderungen erreicht wird. Die Aufwandsverursacher sind identisch mit der unitemporalen Historisierung.
 
Inzwischen gibt es erste Ansätze seitens der Datenbankhersteller, um diese Herausforderung zu meistern. Eine allgemeingültige, fertige Lösung ist jedoch immer noch nicht in Sicht. Bis dahin - und das bestätigt die Praxis immer wieder - werden weiterhin komplexe ETL-Lösungen mit sehr hohem Aufwand entwickelt.

Im Vortrag wird aufgezeigt, wie die bitemporale Historisierung umgesetzt wurde und welche Vorteile diese Lösung birgt. Neben den technischen Herausforderungen wird ergänzend darauf eingegangen, welche fachlichen Schwierigkeiten gemeistert werden müssen.



Stefan Seyfert
Sopra Steria Consulting
Senior Manager

Donnerstag, 01.01.1970   |   13:45 - 14:15 Uhr   |    CSmi2

Case Study Cloudera: Service und Umsatz erhöhen mit IoT und Big Data Analytics

Es gibt keinen Zweifel daran, dass IoT eine wahre Revolution ist. Es verspricht alles von höheren internen Effizienzen bis verbesserten Produkt- und Kundenerfahrungen bis hin zu neuen Services und Geschäftsmodellen. Doch obwohl viele Organisationen Sensoren an ihre Geräte hinzugefügt und die dann im Internet angeschlossen haben, ist der Wert, den es versprochen hat, oft noch nicht realisiert.

Dieser Vortrag untersucht, warum dies der Fall ist. Es geht ins Detail, wie sich IoT-Daten von herkömmlichen Daten unterscheiden und deckt auch die Anforderungen ab, die damit dann an Technologie und Prozess gesetzt werden. Jan Kunigk wird auch die entscheidende Rolle des Machine Learning und Cloud hervorheben, die es Unternehmen ermöglichen, IoT-Daten in Wert um zu wandeln und mehr datengesteuert zu werden.  Zum Abschluss werden die Top 5 IoT Applikationen zusammen mit Kundenbeispielen für jeden diskutiert.



Jan Kunigk
Cloudera
Senior Solutions Architect

Donnerstag, 01.01.1970   |   13:45 - 14:15 Uhr   |    CSmi3

Case Study TIMETOACT: Single Point of Truth, Aufbau eines zentralen Datawarehouse als Grundlage des Planungs- und Berichtswesens

Zurzeit werden die Daten aus den Vorsystemen wie SAP ERP und BW mit Hilfe von MS Excel ausgewertet, für die verschiedenen Zwecke aufbereitet, aggregiert und an die verschiedenen Empfänger verschickt. Dieses Verfahren ist zeitaufwändig und fehleranfällig. Ziel des Projekts ist daher die steuerungsrelevanten Daten qualitätsgesichert aufzubereiten und in einem zentralen DataWarehouse zusammenzuführen und zu historisieren. Danach wird auf Basis der Daten des DataWarehouses eine Kapazitäts- und Auslastungsplanung und Analyse erstellt. Gleichzeitig werden alle Unternehmensdaten mit einem Standardberichtswesen automatisiert den Empfängern zur Verfügung gestellt.



Hans Krefeld
TIMETOACT Software & Consulting GmbH
Business Unit Leiter Business Intelligence D.A.CH

Simon Hopkins
Romaco Pharmatechnik GmbH

Donnerstag, 01.01.1970   |   13:45 - 14:15 Uhr   |    CSmi4

Case Study intelligent views GmbH: KI im Mittelstand – Praxisbeispiele

[coming soon]



Klaus Reichenberger
intelligent views gmbh
Geschäftsführer

Donnerstag, 01.01.1970   |   13:45 - 14:15 Uhr   |    CSmi5

Case Study InfoDyn: ID environment manager - DevOps Deployment und Release Management

Kosteneinsparung bis zu 90%: Praxisbeispiel eines automatisierten Release-Managements. Die Einführung einer neuen Software-Lösung kann langwierig und aufwendig sein. Eingespielte Prozesse müssen adaptiert, Server und Infrastruktur bereitgestellt und konfiguriert werden und vor allem die Mitarbeiter müssen mit dem neuen System vertraut gemacht werden. Das kostet mitunter Wochen oder Monate. Auch das Release-Management ist ein nicht zu unterschätzender Prozess. Ausgehend von einem Standard-Release mit 30 DB-Änderungen, 80 Informatica-Objekten und 50 unterschiedlichen Dateien, kann so eine Release-Definition, die Erstellung von Drehbüchern und Skripten, die Vorbereitung der Objekte und deren Transfer, sowie die detaillierte Nachkontrolle und Dokumentation mehrere Tage und mehr in Anspruch nehmen.
Der InfoDyn environment manager ist eine Lösung, mit der Sie Releases in wenigen Minuten konfigurieren, via Klick Deployments anstoßen, bei der die Nachkontrolle automatisiert erfolgt und die Dokumentation automatisch erstellt wird. Er kann innerhalb weniger Tage erfolgreich eingeführt werden. Dabei wird während der Pilotphase die Software installiert und gemeinsam mit dem Kunden konfiguriert. Ebenso werden die Benutzer geschult und somit der optimale und effektive Einsatz im täglichen Umgang sichergestellt. Eine Lösung also, die aus der Erfahrung unserer Kunden bis zu 90% Kosten einspart.

Kunde aus Finanzbranche:
Einer unserer Kunden ist ein US-amerikanisches Unternehmen der Finanzdienstleistungsbranche und gehört zu den größten Vermögensverwaltungsgesellschaften der Welt. Das Unternehmen verwaltet primär Investmentfonds und bietet u.a. den Verkauf und damit verbundene Beratungsleistungen, Versicherungen und eine große Zahl weiterer Dienstleistungen an. Das durch das Management verwaltete Vermögen liegt bei ca. $5 Billionen. Die Anzahl der Mitarbeiter beträgt ca. 40.000



Thomas Mattick
InfoDyn GmbH
Produktmanager

Donnerstag, 01.01.1970   |   14:45 - 15:30 Uhr   |    Mo 1.3

World Café: Strategy, Management & Organisation



Peter Chamoni

Universität Duisburg-Essen , Inhaber des Lehrstuhls für Wirtschaftsinformatik

Donnerstag, 01.01.1970   |   14:45 - 15:30 Uhr   |    Mo 3.3

World Café: Data Management



Dirk Lerner
TEDAMOH GmbH
Geschäftsführer

Leif Hitzschke
Wer liefert was? GmbH
Head of Business Intelligence

Donnerstag, 01.01.1970   |   14:45 - 15:30 Uhr   |    Mo 4.3

World Café: Technology, Architecture & Tools



Joachim Philippi
SEVEN PRINCIPLES AG
Executive Director Operations

Donnerstag, 01.01.1970   |   14:45 - 15:30 Uhr   |    Mo 5.3

World Café: Business Analytics



Carsten Felden
TU Bergakademie Freiberg
Dekan der Fakultät für Wirtschaftswissenschaften, Vorstandsvorsitzender TDWI Germany e.V.

Donnerstag, 01.01.1970   |   14:45 - 15:30 Uhr   |    Mo 7.3

World Café: AI in deutschen Unternehmen – erste Erfahrungen aus dem Praxiseinsatz



Jörg Besier
Accenture GmbH
Managing Director - Digital Delivery Lead in ASG

Andreas Klug
ITyX Solutions AG
Vorstand/CMO

Donnerstag, 01.01.1970   |   09:00 - 18:00 Uhr   |    SAP

SAP & Partner Tag: Ihr Fahrplan zum Digital Enterprise

Ihr Fahrplan zum Digital Enterprise
Mit modernem Datenmanagement auf die Überholspur

Innovationsfähigkeit wird zum maßgeblichen Faktor für Unternehmen, die nicht hinter den Wettbewerb zurückfallen wollen. Dies gilt umso mehr für die Digitalisierung - Unternehmen die hier nicht agil genug entsprechende Strukturen schaffen, geraten schnell ins Hintertreffen. Um die eigene Wettbewerbsfähigkeit zu erhalten und die neuen Möglichkeiten zu erschließen, bedarf es der Transformation der IT-Infrastruktur und des Einsatzes moderner zeitgemäßer Technologien wie In-Memory-Computing, Cloud und Real-Time Analytics.

Diskutieren Sie im Rahmen unseres SAP-Tages, gemeinsam mit unseren Partnern, Ideen und neue Ansätze zur Weiterentwicklung Ihrer IT-Infrastruktur. Erfahren Sie, wie Sie abteilungsübergreifend mit einer modernen Daten-Plattform, die sich einfach an sich dynamisch ändernde Systemlandschaften anpasst und datengestützte Geschäftsentscheidungen ermöglicht, den Weg zum digitalen Unternehmen beschreiten können.

An diesem Tag geben wir Ihnen zudem Einblicke, wie die SAP HANA Plattform zu einem Leistungsschub für die bestehende IT-Infrastruktur verhelfen kann, wie Sie Analytics-Lösungen nahtlos in Ihre bestehenden Systeme integrieren und wie durch die Vernetzung aller Unternehmensbereiche und Echtzeit-Analysen völlig neue Erkenntnisse gewonnen werden können.

Treffen Sie unsere Experten und holen Sie sich wertvolle Denkanstöße - für Ihre digitale Business Strategie von morgen. 09:00-09:05 Uhr: Begrüßung und Einleitung in den Tag

SAP 1: 09:05-09:40 Uhr Komplexität beherrschen: Wie Sie auf einer modernen Daten-Plattform die digitale Transformation agil und flexibel umsetzen
Jan Bungert, Head of Platform Solutions Group Germany und Mitglied der Geschäftsleitung, SAP

SAP 2: 09:40-10:15 Uhr Von der Quelle bis zum Dashboard: Agiles Data Warehousing und Self-Service BI Teil I
Stefan Hoffmann, HANA Development Manager Datawarehousing & Datamarts, SAP
Adem Baykal, Presales Expert for Business Intelligence & Predictive Analytics, SAP
10:15-10:45 Uhr: Kaffeepause SAP 3: 10:45-11:10 Uhr Von der Quelle bis zum Dashboard: Agiles Data Warehousing und Self-Service BI Teil II
Stefan Hoffmann, HANA Development Manager Datawarehousing & Datamarts, SAP
Adem Baykal, Presales Expert for Business Intelligence & Predictive Analytics, SAP
SAP 4: 11:10-11:40 Uhr Empower your business –mit Embedded Analytics zum Intelligent Enterprise

Mit Embedded Analytics werden alte Grenzen eingerissen, operatives Reporting findet dort statt, wo es benötigt wird und denProzess optimal unterstützt. Der Anwender rückt stärker in den Mittelpunkt. Denn am Ende geht es darum, ihn bei seiner täglichen Arbeit systemseitig optimal zu unterstützen. Hierzu gehört, dass ihm wesentliche Informationen zur richtigen Zeit und im jeweiligen Prozess-Schritt integriert zur Verfügung stehen. Erfahren Sie in unserem Vortrag mehr über die Möglichkeiten und Grenzen von Embedded Analytics und worauf es im Projekt ankommt. Jochen Scheibler, Vorstand, PIKON Deutschland AG
Benjamin Duppe, SAP BI Consultant, PIKON Deutschland AG
SAP 5: 11:40-12:10 Uhr Digitalisierungsstrategie auf Basis von SAP FIORI und SAP BusinessObjects Design Studio
• Appbasierte Visualisierung von KPIs mit SAP Fiori und SAP BusinessObjects Design Studio.
• SAP Fiori als zentrales Einstiegsportal einer mobilen Anwendung zur Analyse von themenübergreifenden KPIs zur Unternehmenssteuerung.
•SAP Fiori optimierte Einbindung von SAP BusinessObjects Design Studio Applikationen mit einem einheitlichen Look and Feel beider Technologien.
Guido Hülskamp, MHP / Manager und Architekt im Bereich UI/UX Development (SAP BO, FIORI und UI5), MHP Management- und IT-Beratung GmbH
12:10-12:15 Uhr: Zeit zum Raum und Etagenwechsel 12:15-13:00 Uhr: Keynote 13:00-14:30 Uhr: Mittagessen & Ausstellung SAP 6: 14:30-15:00 Uhr Digital Earth - Big Data as the driver of new business models at the interface between space and the digital economy
In this session Nicolaus Hanowski will give a sneak peak of the seminar that he will host on June 28. He will discuss extraordinary new ways of collecting, storing, and analyzing big data and its impact on the way we do Science but also Business in the Digital economy and provide some examples of how Earth Observation (EO) responds to the Digital revolution.   
Dr. Nicolaus Hanowski, Head, Ground Segment & Mission Operations Department, European Space Agency (ESA/ESRIN/EOP-G)
SAP 7: 15:00-15:30 Uhr SAP BW on HANA Migration in der Minol Gruppe - Erfahrungen aus einem Migrationsprojekt
Alexander Mader, BU Manager Analytics, ORBIS AG SAP 8: 15:30-16:00 Uhr Jetzt wird verteilt: Virtuelles Data Warehouse mit SAP HANA und Hadoop
Hadoop als verteilte Daten-Plattform bietet Unternehmen neue Möglichkeiten der kostengünstigen Datenspeicherung und Auswertung. In diesem Vortrag erfahren Sie, wie Sie SAP mit Data Lake Umgebungen zu einem modernen Data Warehouse kombinieren, um Kosten zu senken, neue Erkenntnisse in Ihren Geschäftsprozess zurückfließen zu lassen und Initiativen zur digitalen Transformation voran zu treiben.
Karsten Haldenwang, Solution Advisor Center of Excellence für SAP HANA, Vora & Hadoop in Middle & Eastern Europe, SAP
16:00-16:30 Uhr: Kaffeepause SAP 9: 16:30-17:15 Uhr Vom Sensor zum Umsatz? Vom Tweet zur Rechnung?
Wie SAP BW/4HANA konkrete Branchen-Szenarien künftig besser unterstützen oder gar ermöglichen kann
Daniel Kolling, Innovation Service Sales Analytics & Big Data, SAP SAP 10: 17:15-18:00 Uhr Mehr Informationen folgen in Kürze.






Donnerstag, 01.01.1970   |   10:45 - 18:45 Uhr   |    Digital Ratio Mo

Digital Ratio @ TDWI: BI transformieren: Data Warehouse Automation, BI Apps und Self-Service Strategien – Neue Wege zu mehr Agilität und Effizienz

Der Geheimtipp zur Steigerung der Unternehmens-Produktivität

Im Rahmen der fortschreitenden Prozessautomatisierung setzen Unternehmen inzwischen fast flächendeckend auf Standard-Software führender Hersteller wie z. B. SAP oder Microsoft Navision. Diese bieten einen hohen Reifegrad und Funktionsumfang im Bereich der Standardprozesse, sind aber häufig nicht optimal vorbereitet, unternehmensindividuelle Intelligenz als Differenzierungsmerkmale im Wettbewerb zu unterstützen. Hier setzt die BI-App als Werkzeug zur Steigerung der Wettbewerbsfähigkeit an. Erfahren Sie aus erster Hand, wie genau Sie mit modernen Data Warehouse Automation und Self-Service Strategien die Produktivität Ihrer BI auf ein neues Level katapultieren.  Außerdem zeigen wir Ihnen, wie Sie mit agilen BI-Apps die Intelligenz Ihrer BI-Plattform direkt in Ihre Kernprozesse z. B. in Vertrieb, Marketing, Service und Produktion transportieren und dadurch sowohl deren Geschwindigkeit als auch Leistung deutlich verbessern Digital Ratio 1.1: 10.45-12.00
BI transformieren: Neue Megatrends für Ihre BI-Produktivität!
Das neue Framework für die optimierte BI
Wolfram Greiner, Digital Ratio GmbH

Digital Ratio 1.2: 12.30-13.15
Data Warehouse Automation: Revolutionieren Sie Ihren BI-Prozess!
Radikale Senkung der Entwicklungzeiten und Aufwände bei gleichzeitiger Steigerung der Qualität, Transparenz und Performance in BI-Entwicklung und Betrieb
Oliver Zemljak, Digital Ratio GmbH
Konstantin Wächter, Digital Ratio GmbH


Digital Ratio 1.3: 14.45-15.45
Ask the Experts!
Offene Runde mit Ihnen: Fragen und Antworten

Digital Ratio 1.4: 15.45-17:00
Speed Time to Market
Hochwertige Apps und Dashboards durch Agile BI
Oliver Zemljak, Digital Ratio GmbH
Konstantin Wächter, Digital Ratio GmbH


Digital Ratio 1.5: 17.30- 18.45
Smart Apps: Intelligente Lösungen für Vertrieb und Service
Alexander Felde, Digital Ratio GmbH



Wolfram Greiner
Digital Ratio GmbH
Geschäftsführer

Oliver Zemljak
Digital Ratio GmbH
Senior Berater und Manager

Konstantin Wächter
Digital Ratio GmbH
Senior Berater und Manager

Alexander Felde
Digital Ratio
Senior Berater und Manager

Donnerstag, 01.01.1970   |   09:00 - 18:00 Uhr   |    Digital Ratio Di

Digital Ratio @ TDWI: Self-Service Analytics mit Qlik

Um zeitnah und flexibel Wettbewerbsvorteile zu generieren, übernehmen Endanwender auf breiter Front Reporterstellung und Datenanalysen. Nie war das Thema „Self-Service Analytics“ so aktuell wie heute. Programme wie z.B. QlikView und QlikSense ermöglichen es dem Benutzer selbständig, nach den eigenen Vorlieben zugeschnittene Reports zu erstellen und Auswertungen vorzunehmen. Ergänzend hierzu bieten DWH-Automation Tools die Möglichkeit, perfekt auf die jeweiligen Bedürfnisse maßgeschneiderte Datenstrukturen zu schaffen und so den Nutzen von Self-Service BI auf ein neues Level zu heben – bei minimalem Aufwand. Digital Ratio 2.1: 09.00-10.15
Self-Service: Strategien, Architekturen und Konzepte für mehr Agilität in der BI-Nutzung
Wolfram Greiner, Digital Ratio GmbH

Digital Ratio 2.2: 10.45-12.00
Fallbeispiel: Self-Service & Data Storytelling mit QlikView & Qlik Sense
Oliver Zemljak, Digital Ratio GmbH
Konstantin Wächter, Digital Ratio GmbH

Digital Ratio 2.3: 14.30-16.00
Data Warehouse Automation für Qlik: der Turbo zum Data Discovery Hub
Oliver Zemljak, Digital Ratio GmbH

Digital Ratio 2.4: 16.30-18.00
Hands-on Einführung: Self-Service Analytics mit QlikSense
Oliver Zemljak, Digital Ratio GmbH
Konstantin Wächter, Digital Ratio GmbH



Wolfram Greiner
Digital Ratio GmbH
Geschäftsführer

Oliver Zemljak
Digital Ratio GmbH
Senior Berater und Manager

Konstantin Wächter
Digital Ratio GmbH
Senior Berater und Manager

Donnerstag, 01.01.1970   |   09:00 - 09:35 Uhr   |    Di 7.1 1)

IoT und Industrie 4.0 – Potentiale für Business Intelligence & Analytics

Mit dem Trend zum Internet und zur Industrie 4.0 entstehen neue Datenquellen, die das Potential mitbringen, bisher nicht realisierbare Analysen des betrieblichen Geschehens zu ermöglichen, neuartige Services zu entwickeln sowie innovative, Unternehmens- und Branchengrenzen überschreitende Geschäftsmodelle zu formen. Hier besteht die Notwendigkeit, das Know How des Business-Intelligence- und  Analytis-Bereichs (BIA) einzubringen – sei es hinsichtlich der Architektur, der Datentransformation, des Metadatenmanagements oder bezüglich der Ausgestaltung von Organisation und Governance.
Die Zusammenführung von bisher getrennten ingenieurswissenschaftlichen und betriebswirtschaftlichen Inhalten ist herausfordernd, erweitert jedoch auch Rolle und Bedeutung der BIA. Der Vortrag vertieft diese Zusammenhänge und stellt einen Bezugsrahmen vor, anhand dessen I.4.0- und IoT-basierte BIA-Einsatzszenarien abgeleitet und strukturiert werden können. Die Ausführungen werden anhand realer Fallbeispiele illustriert.

Zielpublikum: Business-Intelligence- und Analytics-Praktiker – sowohl in Beratungs-, Anwendungs- als auch in Managementpositionen
Voraussetzungen: Grundlagen in BIA wünschenswert
Schwierigkeitsgrad: leicht



Heiner Lasi
Ferdinand Steinbeis Institut (FSTI)
Leiter

Henning Baars
Universität Stuttgart
Akademischer Oberrat am Lehrstuhl für ABWL und Wirtschaftsinformatik 1

Donnerstag, 01.01.1970   |   10:45 - 11:20 Uhr   |    Di 7.2 1)

Sensorbasierte Analyse im Bereich des Versorgungsnetzes der TransnetBW

Ein Prozessdatenarchiv als Antwort auf zusätzliche Anforderungen. In diesem werden alle Daten, die zur Überwachung und Steuerung des Stromnetzes notwendig sind, an zentraler Stelle gesammelt, archiviert und analysiert. Den größten Teil machen dabei Echtzeitinformationen im sogenannten SCADA-Format (Supervisory Control and Data Acquisition) aus. Diese Mess- und Rechendaten geben detailliert Auskunft über die Leistung und den Zustand aller an der Stromerzeugung und -weiterleitung beteiligten Systeme.

Zielpublikum: Interessierte
Voraussetzungen: Grundkenntnisse Datenbank
Schwierigkeitsgrad: Anfänger




Matthias Wolf
TransnetBW GmbH
Ingenieur Netz-IT

Donnerstag, 01.01.1970   |   14:30 - 15:15 Uhr   |    Di 7.3 1)

Big Data Analytics für den Betrieb großer Produktionsanlagen bei BHS Corrugated

Die digitale Transformation im Maschinen- und Anlagenbau ist im vollen Gange. Kunden erwarten weiterhin höhere Verfügbarkeit, Effizienz und Transparenz in der Produktion. Gleichzeitig besteht zunehmend die Sorge, den Anschluss im Wettbewerb um „die Plattform“ zu verlieren oder durch disruptive Innovationen aus ganzen Wertschöpfungsketten ausgeschlossen zu werden. Ein wesentlicher Baustein jeder Strategie zur Bewältigung dieser Herausforderungen ist der Aufbau von eigenen Ressourcen zur Generierung datenbasierter Wertschöpfung.
Der Vortrag zeigt am Beispiel des führenden Anbieters von Wellpappenanlagen den Aufbau analytischer Fähigkeiten im Anlagenbau auf. Der Fokus liegt auf der organisatorischen und technischen Konzeption von Big Data Analytics zur Unterstützung des Service-Geschäfts. Zur Sprache kommen Herausforderungen und Grenzen der Umsetzung von Industrie 4.0 ebenso wie der Weg von BHS Corrugated zur Erschließung der Potenziale datengetriebener Geschäftsmodelle.

Zielpublikum: CIOs, CDOs, BI-Manager im Anlagenbau und der Prozessindustrie
Voraussetzungen: Grundlagen BI und Analytics, Industrie 4.0
Schwierigkeitsgrad: Anfänger



Christian Schieder
BHS Corrugated Maschinen- und Anlagenbau GmbH
Head of Analytics

Donnerstag, 01.01.1970   |   16:30 - 17:15 Uhr   |    Di 7.4 1)

Innovative Entwicklungen in der Sensorik als Grundlage für advanced Data Analytics

[coming soon]



Philipp Echteler
Balluff GmbH
Business Unit Systems

Donnerstag, 01.01.1970   |   08:30 - 09:30 Uhr   |   

Kaffee / Coffee & Registrierung / Registration






Donnerstag, 01.01.1970   |   08:00 - 09:00 Uhr   |   

Kaffee / Coffee & Registrierung / Registration






Donnerstag, 01.01.1970   |   08:00 - 09:00 Uhr   |   

Kaffee / Coffee & Registrierung / Registration






Donnerstag, 01.01.1970   |   413582:38 - 413582:38 Uhr   |   

Kaffee & Ausstellung / Coffee & Exhibition






Donnerstag, 01.01.1970   |   17:00 - 17:30 Uhr   |   

Kaffee & Ausstellung / Coffee & Exhibition






Donnerstag, 01.01.1970   |   10:15 - 10:45 Uhr   |   

Kaffee & Ausstellung / Coffee & Exhibition






Donnerstag, 01.01.1970   |   16:00 - 16:30 Uhr   |   

Kaffee & Ausstellung / Coffee & Exhibition






Donnerstag, 01.01.1970   |   10:15 - 10:45 Uhr   |   

Kaffee & Ausstellung / Coffee & Exhibition






Donnerstag, 01.01.1970   |   16:00 - 16:30 Uhr   |   

Kaffee & Ausstellung / Coffee & Exhibition






Donnerstag, 01.01.1970   |   13:15 - 14:45 Uhr   |   

Mittagessen & Ausstellung / Lunch & Exhibition






Donnerstag, 01.01.1970   |   13:00 - 14:30 Uhr   |   

Mittagessen & Ausstellung / Lunch & Exhibition






Donnerstag, 01.01.1970   |   13:00 - 14:30 Uhr   |   

Mittagessen & Ausstellung / Lunch & Exhibition






Donnerstag, 01.01.1970   |   19:45 - 22:45 Uhr   |   

TDWI Welcome Reception sponsored by OPITZ CONSULTING und MBG






Donnerstag, 01.01.1970   |   17:00 - 17:30 Uhr   |   

Kaffee & Ausstellung / Coffee & Exhibition






Donnerstag, 01.01.1970   |   09:00 - 18:00 Uhr   |    ITGAIN

ITGAIN @ TDWI

Begrüßungskaffee 08:00-09:00 ITGAIN 1: 09:00-10:15
Data Governance: Fachliches Metadaten-Management am Beispiel einer Bausparkasse
Thomas Weiler
Die Umsetzung des Metadaten-Managements wird anhand des IBM InfoSphere Information Governance Catalogs (IGC) im Einsatz bei einer Bausparkasse vorgestellt. Wir zeigen, wie durch Data Governance regulatorische Anforderungen im Finanzbereich erfüllt und die Herausforderung der Digitalisierung besser bewältigt werden. Kaffeepause 10:15-10:45 ITGAIN 2: 10:45-12:00
Flexibilität im Data Warehouse mit Data Vault Modeling

Dirk Lerner
Quellsysteme und Anforderungen der Fachabteilungen ändern sich heute in sehr kurzen Intervallen. Daher muss ein zeitgemäßes Data Warehouse flexibel und agil auf diese Anforderungen reagieren. Eine agile BI-Architektur mit Data Vault ist dafür die geeignete Lösung. In einer flexiblen Datenarchitektur sind Änderungen am bestehenden System viel schneller umsetzbar als bisher. Da Data Vault Datenmodell im Core Layer des Data Warehouse abwärtskompatibel ist, sind nachgelagerte Applikationen nur wenig bis gar nicht von Änderungen im Datenmodell betroffen.Architektur mit Data Vault ist dafür die geeignete Lösung. Keynote 12:15-13:00
Lunch Break 13:00-14:30

ITGAIN 3: 14:30-16:00
Data Modeling Master Class

Sven Wiener
Bei der Data Modeling Master Class handelt es sich um eine Methodenschulung zur Vermittlung eines grundsätzlichen, methodischen Vorgehens bei der Entwicklung von Datenmodellen. Sie können danach nicht nur Datenmodelle erstellen, sondern wissen auch, wie man qualitativ hochwertige Datenmodelle entwirft. Wir zeigen ihnen hier einen kurzen Einblick in die Methodenschulung anhand passender Themen. Kaffeepause 16:00-16:30 ITGAIN 4: 16:30-18:00
ITGAIN Analytical Process am Beispiel Churn Prevention mit dem Tool KNIME

Thilo Boehnke
Schnell, zuverlässig, professionell –  das zeichnet eine gute unternehmerische Entscheidung aus. Doch wie gewährleistet man diese Ansprüche bei steigender Komplexität? Relevante Einflussfaktoren sind aufgrund ihrer Art und Vielfalt schwer vollumfänglich zu berücksichtigen. Analytics soll Aktionen mit unternehmerischen Mehrwert unterstützen sowie eine wiederkehrende Qualität sicherstellen. Jahrelang haben wir intensiv Daten gesammelt, jetzt ist es an der Zeit diese gewinnbringend zu nutzen. Oft fehlt nur der richtige Impuls oder das Wissen, um das Potenzial der Daten auszuschöpfen. Im Vortrag geht es um Churn Prevention, die Identifizierung von potenziellen Kündigern. Um sich zielorientiert der Herausforderung zu stellen, haben wir den ITGAIN Analytical Process entwickelt. Er deckt alle essentiellen Schritte ab und zeichnet sich durch sein agiles Vorgehen aus. Mit der KNIME Analytics Platform sind erste Vorhersagemodelle zügig erstellt. Mit einem Exkurs in die Grundlagen der Analytics soll am Ende ein pragmatisches Vorgehen zur Vorhersage von potenziellen Kündigern gezeigt werden sowie die monetären Auswirkungen bei richtiger oder falscher Klassifizierung.



Dirk Lerner
TEDAMOH GmbH
Geschäftsführer

Sven Wiener
ITGAIN Consulting GmbH
IT-Berater

Thilo Boehnke
ITGAIN Consulting GmbH
IT-Consultant

Thomas Weiler
ITGAIN Consulting GmbH
IT-Consultant

Donnerstag, 01.01.1970   |   10:45 - 18:15 Uhr   |    Infomotion

Infomotion @ TDWI

Moderation: Martin Locarek

10:45 Uhr: Begrüßung Infomotion 1: 11:00 - 11:45
Data Strategy
Markus Enderlein, Business Unit Manager, INFOMOTION GmbH
An verschiedensten Stellen wird von Daten als einem zentralen Wert oder Gut für erfolgreiche Unternehmen gesprochen. Häufig sind Daten aber nicht wie andere wichtige Werte eines Unternehmens im Fokus eines professionellen Managementprozesses und es existiert nur sehr selten eine eigene Datenstrategie. Im Vortrag zeigen wir Ihnen zum Einen auf, wie eine Datenstrategie aufgebaut ist und welche Handlungsfelder darin berücksichtigt werden sollten und zum Anderen, welche praktischen Erfahrungen wir in diesem Kontext in zahlreichen Projekten gesammelt haben. 12:00-12:30 Uhr: Kaffee & Ausstellung

Infomotion 2: 12:30 - 13:15
Neues aus dem Hadoop Ökosystem
Mathias Lipke, Consultant Big Data, INFOMOTION GmbH
Daniel Tydecks, Senior Systems Engineer Financial Markets, Cloudera GmbH
In den vergangenen Jahren haben dank des enormen Anstiegs an verfügbaren Daten und der Notwendigkeit diese zu verarbeiten, Hadoop Lösungen in vielen Unternehmen Einzug gehalten. Die Open-Source-Technologie, welche mittlerweile ein zentraler Punkt für Big Data-Verarbeitungen geworden ist, ermöglicht die kostengünstige und skalierbare Speicherung und Verarbeitung massiver Datenmengen für unzählige Einsatzzwecke. 13:15-15:45 Uhr: Mittagspause World Café: 14:45-15:45
Big Data – Welche Organisationsform bietet maximalen Nutzen?

Markus Enderlein, Business Unit Manager, INFOMOTION GmbH
Gert Jan Feick, Manager, INFOMOTION GmbH
Kernfragen:
  • Wo im Unternehmen sollte Big Data organisatorisch verankert sein?
  • Welche Schnittstellen im Unternehmen müssen berücksichtigt werden?
  • Wie kann eine idealtypische Aufbauorganisation aussehen?
  • Welche Mitarbeiter benötigen wir im Team?
  • Wie kann der Nutzen einer solchen Organisation gemessen werden?
Infomotion 4: 15:45 - 16:30
Advanced Analytics - jonglieren statt aggregieren
Fabian Knapp, Consultant, INFOMOTION GmbH
Langweilen Sie Ihre Daten nicht, denn Sie können damit mehr machen als sie „nur“ zu aggregieren - Business Intelligence jenseits von Mittelwert, Summe und Durchschnitt. Anhand von einfach nachvollziehbaren Beispielen und relevanten Business Cases wird de komplexe Themenraum "Advanced Analytics" erklärt und gehen der Frage nach, inwieweit hierfür neue Technologien notwendig sind oder klassische BI-Tools ausreichen. 17:00-17:30 Uhr: Kaffee & Ausstellung

Infomotion 5: 17:30 - 18:15
Blockchain und Enterprise IT
Michael Schneiders, Consultant, INFOMOTION GmbHDie Blockchain wandelt sich von einem Hype zu einer sehr ernstgenommenen Technologie. Neben einer hohen Dynamik im Startup-Umfeld beschäftigen sich drei von vier DAX-Konzernen mit den Potentialen der Blockchain-Technologie und finden Anwendung in ersten Use Cases.
Wichtige Hürden werden 2017 gelöst werden: Mit Ethereum Enterprise und dem Hyperledger Projekt etablieren zwei große Konsortien Standards, welche die Implementierung von Enterprise-IT konformen Governance-Prozessen erlauben.
Im Vortrag wird die Entwicklung der Blockchain-Technologie und deren Einfluss auf die Enterprise-IT vorgestellt. Wir zeigen, wie Blockchain Use Cases in Unternehmen zur Anwendung kommen und welche Erfolgsfaktoren für ein Gelingen der Projekte entscheidend sind.



Markus Enderlein
INFOMOTION GmbH
Business Unit Manager

Gert Jan Feick

Infomotion GmbH, Managing Consultant

Mathias Lipke
INFOMOTION GmbH
Consultant Big Data

Fabian Knapp
INFOMOTION GmbH
Consultant

Michael Schneiders
INFOMOTION GmbH
Consultant

Daniel Tydecks
Cloudera GmbH
Senior Systems Engineer Financial Markets

Martin Locarek
INFOMOTION GmbH
Business Unit Manager

Donnerstag, 01.01.1970   |   13:15 - 13:45 Uhr   |    Saxonia Systems

Mauern einreißen! - Wie die Digitalisierung den Fachbereichstest ändert

Testen ist in den letzten Jahren zu einem essentiellen Bestandteil jedes Softwareentwicklungsprojektes geworden. Entwicklungsteams testen durch Komponenten-, Service- und Systemtests die Software, bevor Sie an den Kunden übergeben wird. Der Fachbereich nimmt die übergebene Software durch Abnahmetest ab. Durch neue Entwicklungen wie die Digitalisierung und Industrie 4.0 ergeben sich aber auch neue Herausforderungen: Die verschiedenen Softwaresysteme öffnen sich und tauschen untereinander Daten aus. Besonders für Firmen, die ihre Software von unterschiedlichen Dienstleistern erstellen lassen, erhöht sich der Aufwand für die integrativen Tests enorm. Als Lösung bietet sich hier ein externes Testteam, welches die nötige Testexpertise mitbringt und für unterschiedliche Projektlagen individuell skalierbar ist. Für den erfolgreichen Einsatz muss der externe Testdienstleister verschiedene „Mauern einreißen“, wie Entfernung zum Kunden, mangelnde Fachkenntnis der Kundenprozesse und unzureichende Abstimmung unter den Beteiligten.



Kay Grebenstein
Saxonia Systems AG
Tester und agiler QA-Coach

Donnerstag, 01.01.1970   |   09:10 - 10:00 Uhr   |    Keynote

Blockchain und Smart Contracts: Wie eine IT-Technologie die Welt verändern kann

Blockchain, die Technologie hinter Bitcoin, ist eine neue Form der Verifizierung von Datentransaktionen, auf deren Basis viele Funktionen zentral organisierter Informationssysteme dezentralisiert werden können.
Es ist ein Transaktionsprotokoll, das auf dem herkömmlichen Internet aufbaut, das echte P2P-Transaktionen ermöglicht und zwar ohne zentrale Clearingstelle. Auf diesem Transaktionsprotokoll kann man Selbstausführende Verträge (Smart Contracts), dezentrale Anwendungen (dApps) und Dezentrale Autonome Organisationen (DAOs) aufbauen.
Shermin Voshmgir gibt uns in diesem Talk aus erster Hand Einblick in eine der Technologien, in denen nicht nur für das Finanzsystem, sondern auch für unsere gesamte Gesellschaft revolutionäres Potenzial liegt. Auch als "Protocol of Trust" bezeichnet wird diese Technologie nicht nur unser Finanzsystem radikal vereinfachen, sondern auch auf einfache Weise Transparenz über Lebensmittel-Lieferketten schaffen, die Verwendung unserer Daten sichern und global Transaktionen zwischen Menschen so vereinfachen und gleichzeitig sicher und transparent zu gestalten, dass Globalisierung  nicht mehr nur ein Werkzeug von mächtigen Wirtschaftsinstitutionen bleibt, sondern tatsächlich fair und direkt zwischen den Menschen gelebt werden kann.



Shermin Voshmgir


Donnerstag, 01.01.1970   |   13:15 - 13:45 Uhr   |    Holisticon AG

Unternehmenskultur – Intimes von der Hinterbühne

Viele Manager und Mitarbeiter denken, dass man nur eine andere, „bessere“ Kultur haben müsse und der Erfolg folgt dann von ganz allein. Von wegen: Unternehmenskultur ist wie ein Schatten. Schon mal versucht, über den eigenen Schatten zu springen? Warum man nicht an der Kultur arbeiten sollte, wenn man sie verändern will, dass erzählt ORGANEO hier.



Winald Kasch
ORGANEO

Donnerstag, 01.01.1970   |   13:15 - 13:45 Uhr   |    Xenium AG

Agilität in einem Wasserfall-Unternehmen: Kann das funktionieren?

Agile Vorgehensweisen bei der Softwareentwicklung, z.B. Scrum oder Kanban, sind nun seit rund 15 Jahren bekannt. In vielen Unternehmen sind sie gleichberechtigte Vorgehensweisen gegenüber klassischen Vorgehensweisen wie z.B. dem Wasserfall-Modell oder dem V-Modell. Doch was passiert, wenn man in einem Unternehmen, das bisher nur nach Wasserfall vorgegangen ist, ein agiles Großprojekt mit 4 Scrum-Teams startet? Welche Voraussetzungen existieren? Mit welchen Reaktionen der klassischen Welt ist zu rechnen und was tut man, um sich gegen die klassische Welt zu behaupten?



Steffen Rost
Xenium AG in München
Senior-Berater

Donnerstag, 01.01.1970   |   10:45 - 16:00 Uhr   |    Special Day Trivadis

Special Day Trivadis: IoT und DW Automation

IoT und DW Automation

Trivadis 1: 10:45-11:15 Uhr 
Konkrete IoT Anwendungsfälle mit dem Trivadis IoT-Gate
Wir geben Einblick in echte IoT Anwendungsfälle aus Logistik und Energie, berichten von den Anforderungen, der Umsetzung und von den Ergebnissen konkreter Projekte.
Jürgen Rother

Werden Sie zum Data Warehouse Automatisierungsprofi und holen Sie sich die Lizenz für den Turbo Boost für ihr Data Warehouse!

 
Trivadis 2: 11:15-12:00 Uhr     
Einführungsworkshop DW Automatisierung
Im Workshop erhalten sie einen Überblick zu den verschiedenen DW-Automatisierungsansätzen, den relevanten Auswahlkriterien und Empfehlungen zum Praxiseinsatz, sowie Ergebnisse einer Marktstudie zu DW Automation Tools aus Anwendersicht. Eine Diskussionsrunde ermöglicht den Erfahrungsaustausch der Teilnehmer.
Gregor Zeiler, Hans Michiels


Trivadis 3: 13:45-15:00      
DW Automatisierungs Praxisworkshop
Im Praxis Workshop können sie DW Automatisierung live erleben. Anhand eines konkreten DW Automation Tools (biGENiUS®) bauen wir gemeinsam ein DWH auf. Von der Modellierung bis zum fertigen DWH und der Beladung.
Lothar Reisinger


Trivadis 4: 15:00-16:00 Uhr   
Trivadis IoT-Gate Praxisworkshop
Vom Sensor bis zum fertigen Report. Erleben Sie ein IoT Szenario live. Dabei betrachten wir verschiedene Sensoren und Anbindungsmöglichkeiten. Aufbau eines Real-Case auf Basis Trivadis IoT-Gate
Jens Bertenbreiter






Donnerstag, 01.01.1970   |   14:10 - 14:15 Uhr   |   

Testdaten…und warum Eriká MüstermanN am 32.2.2o217 Geburtstag hat

Testdaten gibt's in jedem Unternehmen in Hülle und Fülle. Daten für den Jahresabschluss? Da haben wir noch die Daten vom 2013-er Durchlauf. Daten für einen Stresstest? Nehmen wir die Daten der Abschlüsse 2014 und 2015 noch dazu. Daten für Sonderzeichen? Da haben wir doch noch die Kopie unserer chinesischen Tochtergesellschaft.
Wenn es so gut um Testdaten bestellt ist, warum kennt jeder Erika Mustermann? Warum werden ihr teilweise phantasievolle und falsche Geburtsnamen, Geburtsdaten und Attribute zugesprochen?
Weil nur so EFFEKTIVE Testdaten möglich sind, die datenschutzkonform, abdeckungsreich und minimal sind. Und damit dieses Wissen jedem zuteil wird hat das German Testing Board nun ein eigenes Zertifikat für Testdatenmanagement veröffentlicht. Seien Sie gespannt!



Frank Simon
Zurich Gruppe Deutschland
Head of IT Operations Security Germany

Donnerstag, 01.01.1970   |   14:10 - 14:15 Uhr   |    Lightnig Talks

Testdaten…und warum Eriká MüstermanN am 32.2.2o217 Geburtstag hat

Testdaten gibt's in jedem Unternehmen in Hülle und Fülle. Daten für den Jahresabschluss? Da haben wir noch die Daten vom 2013-er Durchlauf. Daten für einen Stresstest? Nehmen wir die Daten der Abschlüsse 2014 und 2015 noch dazu. Daten für Sonderzeichen? Da haben wir doch noch die Kopie unserer chinesischen Tochtergesellschaft.
Wenn es so gut um Testdaten bestellt ist, warum kennt jeder Erika Mustermann? Warum werden ihr teilweise phantasievolle und falsche Geburtsnamen, Geburtsdaten und Attribute zugesprochen?
Weil nur so EFFEKTIVE Testdaten möglich sind, die datenschutzkonform, abdeckungsreich und minimal sind. Und damit dieses Wissen jedem zuteil wird hat das German Testing Board nun ein eigenes Zertifikat für Testdatenmanagement veröffentlicht. Seien Sie gespannt!



Eckehard Kruse
CGI

Donnerstag, 01.01.1970   |   13:15 - 13:30 Uhr   |    Meshcloud

Continuous Delivery & DevOps with Cloud Foundry



Johannes Rudolph
Meshcloud

Donnerstag, 01.01.1970   |   14:30 - 15:05 Uhr   |   

Testcenter 4.0: Mauern einreißen! - Wie die Digitalisierung den Fachbereichstest ändert

Testen ist in den letzten Jahren zu einem essentiellen Bestandteil jedes Softwareentwicklungsprojektes geworden. Entwicklungsteams testen durch Komponenten-, Service- und Systemtests die Software, bevor Sie an den Kunden übergeben wird. Der Fachbereich nimmt die übergebene Software durch Abnahmetest ab.
Durch neue Entwicklungen wie die Digitalisierung und Industrie 4.0 ergeben sich aber neue Herausforderungen. Die verschiedenen Teilsysteme mit unterschiedlichsten Technologien tauschen immer stärker untereinander Daten aus. Besonders für Firmen, die Ihre Software von unterschiedlichen Dienstleistern erstellen lassen, erhöht sich der Aufwand für die integrativen Tests enorm. Als Lösung bietet sich hier ein externes Testteam oder Testcenter an, das aber für seinen Erfolg besondere Anforderungen wie Kundennähe, Fachwissen und Übernahme von organisatorischen Aufgaben erfüllen muss



Kay Grebenstein
Saxonia Systems AG
Tester und agiler QA-Coach

Donnerstag, 01.01.1970   |   14:30 - 15:05 Uhr   |    GTD4.4

Testcenter 4.0 - Mauern einreißen! - Wie die Digitalisierung den Fachbereichstest ändert

Testen ist in den letzten Jahren zu einem essentiellen Bestandteil jedes Softwareentwicklungsprojektes geworden. Entwicklungsteams testen durch Komponenten-, Service- und Systemtests die Software, bevor Sie an den Kunden übergeben wird. Der Fachbereich nimmt die übergebene Software durch Abnahmetest ab.
Durch neue Entwicklungen wie die Digitalisierung und Industrie 4.0 ergeben sich aber neue Herausforderungen. Die verschiedenen Teilsysteme mit unterschiedlichsten Technologien tauschen immer stärker untereinander Daten aus. Besonders für Firmen, die Ihre Software von unterschiedlichen Dienstleistern erstellen lassen, erhöht sich der Aufwand für die integrativen Tests enorm. Als Lösung bietet sich hier ein externes Testteam oder Testcenter an, das aber für seinen Erfolg besondere Anforderungen wie Kundennähe, Fachwissen und Übernahme von organisatorischen Aufgaben erfüllen muss



Kay Grebenstein
Saxonia Systems AG
Tester und agiler QA-Coach

Donnerstag, 01.01.1970   |   11:15 - 11:50 Uhr   |    GTD4.2

The future of Testing

The digital enterprise is undergoing a phenomenal amount of change as they adopt technologies, devices and platforms in the cloud, the analytics, and it’s all about putting all these things together to deliver better experience and business results.

With the proliferation of mobile devices, with new connected cars and connected homes, the number of places for the experience is going to explode exponentially and, therefore, create significant testing and quality challenges.

Software intelligence will help testing organizations manage growing volume, velocity and complexity and ensure that they maximize the business value of their internal and external data.There are tools which can take in thousand test scripts and automate them, but there are very few which actually take the thousand, learn from them, and, say, add another ten, or reduce the thousand to eighty.

We really see the opportunity to embed software intelligence, machine learning techniques and cognitive computing into both the business process itself but also into the testing methodology so that we can really perform more expansive automated intelligent testing.

Accenture will outline the next five key industry trends currently in focus and their implication on the future of testing.



Hubert Wilhelm
Accenture GmbH
Senior Manager

Donnerstag, 01.01.1970   |   12:00 - 12:35 Uhr   |    GTD4.3

DevOps leben mit dem synthetischen Mitarbeiter



Dr. Jens Eberhard
Servicetrace GmbH
Head of Consulting and Product Management

Donnerstag, 01.01.1970   |   15:15 - 15:50 Uhr   |    GTD4.5

QA Visual Analytics & Graphics – It’s a New World!

Im Zeitalter der digitalen Transformation ist das positive Kundenerlebnis das wichtigste Differenzierungsmerkmal für Produkte und Unternehmen. Die zeitnahe Berücksichtigung von Kundenwünschen und damit einhergehend ein hohes Maß an Geschwindigkeit und Agilität im Software-Entwicklungsprozess ist einer der zentralen Erfolgsfaktoren.
In dieser neuen Welt muss auch der Testprozess als Bestandteil des Software-Entwicklungsprozesses schneller, agiler und digitaler erfolgen, um eine optimale User Experience bei gleichzeitig hoher Softwarequalität und sich stetig verkürzenden Lieferzyklen zu gewährleisten.
In diesem Umfeld müssen sich die Unternehmen folgenden Herausforderungen stellen: Welche Metriken und KPIs geben einen schnellen und korrekten Blick auf die Softwarequalität und die Qualität des Testprozesses? Wie kann - auch projektübergreifend - die Vielzahl der QA-Daten aus verschiedenen Werkzeugen in einer Form aufbereitet werden, die die entscheidenden Einflussfaktoren schnell und übersichtlich darstellt? Welche Maßnahmen können aus der Analyse der Daten abgeleitet werden, um an der richtigen Stelle des Prozesses eine Qualitätssteigerung zu erreichen oder Risiken zu minimieren?
Wichtige Stellhebel hierbei sind die Agilisierung bzw. Automatisierung der Testdurchführung sowie die Verkürzung der Rückkopplungsschleifen durch ein kontinuierliches automatisiertes Reporting. Auf Basis von Predictive Analytics und Dashboards sowie bewährter KPIs lässt sich Transparenz zum Testfortschritt für alle Stakeholder herstellen, die Softwarequalität darstellen, sowie die Prozessreife messen.
Die Herausforderungen des digitalen Wandels lassen sich durch umfassendes Know-how zum agilen Testvorgehen sowie durch professionelle Testautomatisierungsansätze über alle Teststufen lösen. Durch Einsatz des Predictive Analytics Werkzeuges QACube können Medienbrüche überwunden und übergreifende Analysen aus verschiedenen Datenquellen im Software Delivery Lifecycle erstellt werden, die bisher nur mit einem hohen manuellen Aufwand möglich waren.
Wir zeigen in diesem Vortrag, wie sich durch Einsatz von Graphical Analytics in QACube in Verbindung mit den Beratungsansätzen der msg die Transparenz im Testprozess erhöhen, die Prozessreife optimieren und die Softwarequalität verbessern lässt. Wir helfen Ihnen bei der Beschleunigung und Agilisierung Ihres Testprozesses.



Hans Ulrich Gübeli
QACube

Rüdiger Schmidt
msg

Christoph Schmugge
QACube

Donnerstag, 01.01.1970   |   415430:49 - 415430:49 Uhr   |   

Registrierung






Donnerstag, 01.01.1970   |   415430:49 - 415430:49 Uhr   |   

Pause & Ausstellung






Donnerstag, 01.01.1970   |   415430:49 - 415430:49 Uhr   |   

Pause & Ausstellung






Donnerstag, 01.01.1970   |   17:15 - 18:00 Uhr   |   

Verlosung,Apéro & Ausstellung






Donnerstag, 01.01.1970   |   415430:49 - 415430:49 Uhr   |   

Zusammenfassung






Donnerstag, 01.01.1970   |   10:30 - 11:05 Uhr   |    GTD4.1

Professional Crowd Solution

Im Rahmen der digitalen Transformation rücken immer neue Themen wie z.B. Usability oder Ad-Hoc Testing in den Fokus, die bisher teilweise vernachlässigt wurden. So zum Beispiel werden Haushaltsgeräte, Automobile oder Lichtsteuerungen mit dem Internet und/oder mobilen Endgeräten vernetzt. Der Markt der mobilen Webapplications und Apps u.a. für oben genannte Bereiche wächst stetig und der Endanwender (Kunde) kommt in direkten Kontakt mit der Software.  
Wie kann man auf diesen Trend im Bereich Testing reagieren?
Um den gestiegenen Anforderungsbedarf an den Test bedienen zu können, hat Sogeti das Testportfolio um den „Professional Crowd Test“ ergänzt.
Im Vortrag werde ich den Mehrwert des Professional Crowd Testing darlegen - warum Professional? Anhand von konkreten Kundenbeispielen werde ich den Aufbau, die Herausforderungen und Möglichkeiten, die ein Professional Crowd Test mit sich bringt darstellen. Auch auf die Frage, ob und welche Tools in dieser Testphase unterstützen, werde ich eingehen



Sven Fanslau
Sogeti Deutschland GmbH

Donnerstag, 01.01.1970   |   18:15 - 19:45 Uhr   |   

The Global Real Device Network Experience

Die Crowdtester verbinden ihre Android-Smartphones und Tablets mit dem GRDN und ermöglichen dadurch den direkten Zugang zu ihren Testgeräten in 193 Ländern. Dies versetzt Unternehmen und Organisationen in die Lage, ihre Apps, Websites und jegliche Art von Software unter realen Bedingungen auf der ganzen Welt zu testen. Sobald die Geräte mit dem GRDN verbunden sind, können sie vom Kunden direkt für manuelle wie auch automatisierte Tests angesteuert werden.

Für die Gestaltung des Workshops haben wir geplant, dass sich die Workshop-Teilnehmer mit ihren Android-Smartphones mit dem GRDN vor Ort verbinden und dann in einer Demonstration aktiv erleben können, wie mit ihren Smartphones im GRDN getestet werden kann. Dafür bereiten unsere Entwickler ein eigenes Szenario vor, das für die reale Demonstration sinnvoll ist.



Georg Hansbauer
Testbirds GmbH
Gründer und Geschäftsführer

Donnerstag, 01.01.1970   |   14:15 - 14:20 Uhr   |    Lightnig Talks

Von Entwicklern testen lernen

Entwickler nutzen für ihre automatisierten Tests sogenannte Code Coverage Tools, um den Grad der Testabdeckung auf Basis des Sourcecodes zu ermitteln. Tester nutzen zur Bestimmung der optimalen Testabdeckung von manuellen und automatisierten Black-Box-Test Testfallermittlungsverfahren. Grundlage dieser Verfahren sind die Anforderungen.
Doch gibt es eine Möglichkeit die Testabdeckung der Black-Box-Test auch gegen den Sourcecode zu validieren? Hilfestellung können hier die Code-Coverage-Tools der Entwickler liefern. Der Vortrag zeigt wie sich diese auch für die Ermittlung der Testabdeckung für manuellen und automatisierten Black-Box-Test nutzen lassen.



Kay Grebenstein
Saxonia Systems AG
Tester und agiler QA-Coach

Donnerstag, 01.01.1970   |   18:00 - 22:00 Uhr   |    Cocktail Reception

TDWI Cocktail Reception sponsored by Cloudera sowie den Partnern ConSol, Datavard, inovex, saracus consulting, The unbelievable Machine Company

TDWI Cocktail Reception mit Live Musik sponsored by Ab Initio






Donnerstag, 01.01.1970   |   10:15 - 11:00 Uhr   |    M1 1)

Nutzen von BI-Systemen – eine wissenschaftliche Betrachtung

BI & Big Data – diese Themenbereiche werden nicht nur in der Praxis diskutiert, sondern sind auch aus einer wissenschaftlichen Perspektive relevant. In diesem Vortrag werden die interessantesten Ergebnisse aus der aktuellen Forschung im Hinblick auf die Wirkung und Wirtschaftlichkeit von IT-Systemen dargestellt und insbesondere auf BI-Systeme übertragen. Dabei werden die Herausforderungen an die Nutzenermittlung identifiziert und erste Lösungsansätze erläutert. Dies trägt dazu bei, dass IT-Entscheider einen Überblick über die Nutzenkategorien von BI-Systemen erhalten. Auf Grundlage dessen und durch das Einbeziehen der Kosten kann dann in einem nächsten Schritt überprüft und bewertet werden, ob die Erwartungen an das BI-System erfüllt wurden oder überhaupt erfüllt werden können.

Zielpublikum: BI-Manager, BI-Anwender, Entscheider, CIO
Voraussetzungen: BI Grundkenntnisse
Schwierigkeitsgrad: Fortgeschritten



Sarah Seufert
Universität Duisburg-Essen
Wissenschaftliche Mitarbeiterin und Doktorandin

Donnerstag, 01.01.1970   |   10:15 - 11:00 Uhr   |    M2 1)

Ifolor AG – Agilität durch DWH-Automation

Dieses sehr bekannte Schweizer Unternehmen, welches Fotoprodukte produziert und vertreibt, hat grosse Ambitionen – und hohe Erwartungen an die Datenanalyse, um auf deren Basis Mehrwerte für Kunden generieren zu können. In einem hochdynamischen Umfeld läuft hier ein agiles Projekt, welches diesen Namen wirklich verdient hat. Nach einer kurzen Vorstellung des Unternehmens und den laufenden BI-Vorhaben, stellt sich Ihnen das Projektteam persönlich vor. Im Rahmen einer Podiumsdiskussion erzählen die verschiedenen Teammitglieder ihre Erfahrungen hinsichtlich der agilen Abwicklung des Projekts und wie der Einsatz von Automatisierung in der DWH-Entwicklung und dem Testen eine zentrale Rolle spielen.

Zielpublikum: BI-Entwickler, BI-Projektleiter, BI-Product Owner, BI-Scrum Master
Voraussetzungen: keine
Schwierigkeitsgrad: Anfänger



Raphael Branger
IT-Logix AG
Senior BI Solution Architect

Sören Schubert
ifolor AG
Business Analyst BI

Marcel Fehrendt
IT-Logix AG
Senior Consultant Business Intelligence

Severin Leuenberger
IT-Logix AG
Senior Consultant Business Intelligence

Donnerstag, 01.01.1970   |   10:15 - 13:45 Uhr   |    M3

Workshop: Prädiktive Analysen mit Data Mining – Methodische Grundlagen und Fallbeispiele aus der Finanzwirtschaft

“Prediction is very difficult, especially if it's about the future.” (Nils Bohr). Die prädiktiven Verfahren des Data Mining stellen sich dieser 'schwierigen' Aufgabe, indem sie mit Daten aus der Vergangenheit in die Zukunft blicken, um damit in der Gegenwart bessere Entscheidungen zu ermöglichen. Die Ergebnisse prädiktiver Analysen sind für Unternehmen besonders wertvoll, da sie nicht vergangenheitsbezogene, sondern mögliche künftige Szenarien aufzeigen. Dies versetzt Entscheider in die Lage, auf prognostizierte Entwicklungen frühzeitig zu reagieren und ggf. gegenzusteuern. In der „Hands-On“-Session für Einsteiger werden zunächst methodische Grundlagen prädiktiver Analysen vermittelt und anschließend anhand von Fallbeispielen aus dem Finanzsektor geübt. Statistik- oder Programmierkenntnisse sind hierfür nicht erforderlich. Maximale Teilnehmerzahl: 30
Benötigt wird ein eigener Laptop (Win/macOS) mit Installation der Data Mining Workbench „Orange“ (kostenfreier Download unter https://orange.biolab.si/download/). UPDATE: Für den Workshop sollten die Teilnehmer entweder die Version 3.6 oder die Version 3.7 (aktuelle Version) von „Orange“ auf ihren Notebooks installieren sowie die die Data Sets (csv) auf den Rechner laden. Sie finden die Data Sets des Workshops unter:
https://www.dropbox.com/sh/9u6c6a2jhxtyimg/AAA8ynF_l1FZYjjeoLGMue3ta?dl=0 Hinweis: Da nicht ausgeschlossen ist, dass bis zum 20.11. eine neues Release von „Orange Data Mining“ erscheint, wird empfohlen, den Download frühestens einige Tage vor dem 20.11. durchzuführen oder ein Update vorzunehmen. Die für den Workshop relevante Versionsnummer wird rechtzeitig hier bekannt gegeben. Zusätzlich werden dann auch die Data Sets für die Fallstudien zum Download bereitgestellt. Zielpublikum: Business-Analysten, Controller, Marketeers, Entscheider
Voraussetzungen: BI Grundlagen und solide PC-Kenntnisse
Schwierigkeitsgrad: Anfänger



Alexander Fussan
Berliner Sparkasse
Business Analyst

Donnerstag, 01.01.1970   |   12:15 - 13:45 Uhr   |    M4

Sinn und Unsinn von Aufwandschätzungen in BI-Projekten

In Wasserfallprojekten schätzt man Aufwände in der Regel vor oder gleich zu Beginn eines Projektes – dummerweise ist dies dann, wenn man noch am wenigsten über das Projekt weiss. Aber auch in einem agilen Projektvorgehen verwendet man häufig immer noch viel Zeit für die Aufwandschätzung – häufig in Form von «Story Points» zu Beginn einer Iteration. Doch welchen Mehrwert bringen uns Aufwandschätzungen, zumal die Praxis zeigt, dass Aufwandschätzungen chronisch falsch sind? Was ist mit den Auftraggebern, welche gerne wissen möchten, was die neue BI-Lösung denn jetzt kosten wird? Spätestens hier brauchen wir doch sicher eine Aufwandschätzung? Raphael Branger kennt dieses Spannungsfeld nur zu gut. Erfahren Sie mehr darüber, welche gutgemeinten Absichten hinter dem Wunsch nach Aufwandschätzungen stehen. Und seien Sie gespannt, welche Alternativen es gibt, diesen Bedürfnissen gerecht zu werden und gleichzeitig den Mehrwert einer BI-Lösung zu steigern.

Zielpublikum: BI-Projektleiter, BI-Manager, Entscheider, CIO, BI-Scrum-Master
Voraussetzungen: keine
Schwierigkeitsgrad: Anfänger



Raphael Branger
IT-Logix AG
Senior BI Solution Architect

Donnerstag, 01.01.1970   |   12:15 - 13:45 Uhr   |    M5

Blockchain meets Business Intelligence and Big Data – Nebeneinander oder Zusammenwachsen in der Enterprise-IT?

Die Blockchain erlebt aktuell einen Hype. Doch diese neue Basis-Technologie steht noch an ihrem Anfang und muss sich erst in der Unternehmenspraxis bewähren. Die Referentin erläutert auch Einsteigern in das Thema den aktuellen Stand der Entwicklung.
Nach einer Einführung anhand der „Ur-Blockchain“ werden verschiedene Weiterentwicklungen der Technologie und ihre Einsatzmöglichkeiten im Bankensektor vorgestellt.
Im Fokus stehen die Fragen nach der Rolle in der Enterprise-IT und nach dem Verhältnis zwischen Blockchain, BI und Big Data. Neue Architekturmodelle und neue Datenbankkonzepte zielen darauf, die Vorteile von Blockchain und BigData bzw. BI zu verknüpfen. Gelingt dies? Welche Entwicklungen kommen auf uns zu?

Zielpublikum: BI-Manager, BI-Projektleiter, Data Scientists, CIO
Voraussetzungen: BI Grundlagen
Schwierigkeitsgrad: Anfänger



Sonja Maria Lehmann
solecon GmbH
Geschäftsführerin

Donnerstag, 01.01.1970   |   16:45 - 17:30 Uhr   |    M10 1)

Open Data: Find it, store it in a hub, and add more business value to your BI & Analytics projects + GDPR bonus topic

Open Data you say, tell me more:
Hear how to create a hub and start exploiting open data in your analytics efforts. Majken discusses which data can be found from external sources and how open data can add business value by enhancing existing company data to help you gain new insights and sharpen your competitive edge. There is a dataset out there for your business to become even more data-driven. Join Majken to hear real life examples and get inspiration.
Facing the architecture challenges of more data:
The suggestion lies in a Discovery Hub, the go-to place for storing and seeking knowledge, supporting both self-service BI, analytics, analysts and data scientists. A perspective on how to gather data in an agile architecture, flexible enough for the next wave of data at a pace fast enough so business value can be found before data is outdated!
+ GDPR Bonus Topic: Questions you need to address regarding your Analytics platform before May 2018!

Target Audience: BI-Manager, BICC, CIO/CxO, Decision makers, Analysts, Data Scientists
Prerequisites: BI Basic knowledge
Level: Basic



Majken Sander
DataBusinessValue.com
Data Nerd

Donnerstag, 01.01.1970   |   16:45 - 17:30 Uhr   |    M11 1)

Accounting Prozess durch "Artificial Automation Processing" optimieren

Administrative Tätigkeiten in der Rechnungsabwicklung erfordern einen hohen manuellen Aufwand, um die Rechnungserfassung, -prüfung, Kontierung und Zahlungsfreigabe abzuwickeln. Eine Optimierung der manuellen Aufwände ist ohne Einsatz von künstlicher Intelligenz oft nicht möglich.
Im Vortrag wird auf Konzeption, Design und Umsetzung eines PoC mit Hilfe der künstlichen Intelligenz Hiro eingegangen und das Optimierungspotenzial durch "Artificial Automation Processing" aufgezeigt.

Zielpublikum: Entscheider, Projektleiter, Architekten
Voraussetzungen: keine
Schwierigkeitsgrad: Anfänger



Bruce Jeong
MHP - Management- und IT-Beratung GmbH
Senior Manager

Donnerstag, 01.01.1970   |   16:45 - 17:30 Uhr   |    M12 1)

Der Weg vom klassischen Kampagnen Management hin zur agilen Planung und Durchführung von near realtime, omni-channel Kampagnen auf Basis von Big Data

In Zeiten von Big Data und Mobilität ist es essentiell, alle verfügbaren Kundendaten zu verwenden, um sie mit den richtigen Themen, zum richtigen Zeitpunkt, auf dem richtigen Kanal anzusprechen. Dazu gehört die genaue Versorgung des Vertriebs mit relevanten Informationen.
Wie schaffen es Unternehmen, ihre Kundenansprache mit Hilfe aktueller Technologien erfolgreich zu optimieren? Und ist es notwendig, zusätzlich allen Trends der sozialen Medien zu folgen?
Der Kundenvortrag wird ein erprobtes Vorgehen und in konkreten Umsetzungsprojekten gewonnene Erkenntnisse vorstellen:
  • Analysieren von Big Data Kundendaten und Potentiale für Vorhersagemodelle
  • Analyse bestehender Prozesse und Ermittlung auf Potentiale
  • Modellierung performanter Datenbasis
  • Agile Überführung der Kanäle
  • Ermittlung unternehmenskritischer Kanäle für den Kundendialog
  • Optimierung des Datenmodells zur Verbesserung der Performance und Kundenansprache"
Zielpublikum: Marketing Manager, Data Manager, Projekt Manager
Voraussetzungen: Grundwissen Marketing Prozesse und Datenmodellierung
Schwierigkeitsgrad: Anfänger



Lawrence Bogdain
Q_PERIOR AG
Principal Consultant CRM

Lukas Wille
AXA Winterthur
Senior Marketing Manager & Product Owner Kampagnen

Donnerstag, 01.01.1970   |   10:00 - 11:30 Uhr   |    T1

Testen von Business-Intelligence-Systemen

Wann ist ein System genügend getestet? Das Seminar gibt Auskunft über eine zweckmässige Auswahl von Testfällen und wie eine genügende Testabdeckung berechnet werden kann. Es zeigt verschiedene Testverfahren und Vorgehensweisen beim Testen auf.
Weitere Themen sind der Aufbau und Betrieb von Testumgebungen, die Bereitstellung von Testdaten, sowie Möglichkeiten zur Test-Automatisierung.
Zusätzlich werden agile Testmethoden und das Test in agilen Projekten erklärt.
Eine Übersicht von Toolkategorien bildet den Abschluss des Seminars.

Zielpublikum: Analysten, Architekten, BI-Entwickler
Voraussetzungen: Grundlagen der SW-Entwicklung und des Data Warehousing
Schwierigkeitsgrad: Fortgeschritten



Herbert Stauffer
BARC Schweiz GmbH
Geschäfsführer Schweiz und Senior Analyst

Donnerstag, 01.01.1970   |   10:00 - 11:30 Uhr   |    T2

Unternehmensdatenmodell & Metadatenmanagement: Symbiose und methodische Ansätze aus der Praxis

Beim Aufbau der Disziplin Datenmanagement in Unternehmen stellen sich häufig folgende Fragen:
  1. Wo liegt der 'added value' dieser Disziplin und wie schnell kann ein Nutzen im Unternehmen generiert werden?
  2. Womit sollte man beginnen?
  3. Welche Voraussetzungen sind zu schaffen und wie sollte man vorgehen?
Diese Fragen werden anhand eines Praxisbeispiels aus der Finanzindustrie mit der von der Autorin entwickelten Methode 'KINTIL-MEM' zum Aufbau von Metadatenmanagement beantwortet, wobei die Rolle und Wichtigkeit des Aufbaus der Datenarchitektur mittels Unternehmensdatenmodell ebenfalls angesprochen wird. Es wird gezeigt, wie sich die Disziplinen Metadaten- und Datenarchitekturmanagement sinnvoll ergänzen und gegenseitig fördern. Die KEF's einer nachhaltigen Verankerung des Datenmanagements im Unternehmen, wie z.B. die Entwicklung eines breiten Verständnisses und Begeisterung bei den Mitarbeitenden, werden diskutiert.

Zielpublikum: CIO, Datenmanagement-Verantwortliche, DQM-Beauftragte, Datenarchitekten, IT-Strategie-Verantwortliche, Berater, IT-Architekten, Data Scientists
Voraussetzungen: Interesse an nachhaltigen Datenmanagement-Lösungen und Willen, sich mit der Thematik detailliert auseinanderzusetzen.
Schwierigkeitsgrad: Fortgeschritten



Karin Labis
Post CH AG
Enterprise Architektin

Donnerstag, 01.01.1970   |   10:00 - 13:30 Uhr   |    T3

Workshop zu Business Analytics

Die Kernidee dieses 1/2-Tages Workshop ist es, mit den Teilnehmern gemeinschaftlich eine komplette Fallstudie werkzeuggestützt zu bearbeiten. Nach einer Einführung in das Knowledge Discovery in Databases (KDD) und in ausgewählte Data-Mining-Algorithmen, wird ein realer Fall vorgestellt und gemeinschaftliche die einzelnen Phasen des KDD abgearbeitet, um eine Lösung zu erzeugen. Somit ist es das Ziel der Veranstaltung, dass die Teilnehmer den KDD-Prozess beherrschen, Algorithmen auswählen und anwenden können, so dass eine Ergebnisinterpretation möglich ist. Gleichzeitig soll diese Veranstaltung dazu motivieren, dass Data Science Bootcamp zu besuchen.

Zielpublikum: Alle diejenigen, die eigene Business-Analytics-Projekte durchführen wollen
Voraussetzungen: Kenntnisse der Business Intelligence und Grundkenntnisse der Statistik
Schwierigkeitsgrad: Fortgeschritten



Carsten Felden
TU Bergakademie Freiberg
Dekan der Fakultät für Wirtschaftswissenschaften, Vorstandsvorsitzender TDWI Germany e.V.

Claudia Koschtial
TU Bergakademie Freiberg
Project Manager

Donnerstag, 01.01.1970   |   12:00 - 12:45 Uhr   |    T5 1)

DWH-Automatisierung – State of the art

Change - diesem Motto unterliegt auch das Thema Data Warehousing. Denn der stetig wachsende Zeit-, Kosten- und Qualitätsdruck fordert Unternehmen eine enorme Effizienz in ihrer Organisation ab. Hinzu kommt die digitale Transformation, die Organisationen, Technologien und Methoden immer stärker verändert.  
Mithilfe eines Automatisierungsansatzes können die steigenden Anforderungen an BI-/DWH-Systeme hinsichtlich Zeit, Kosten sowie Qualität bewältigt werden. Dies gilt gleichermaßen für den Aufbau von neuen, wie auch für bestehende BI- und DWH-Lösungen und Infrastrukturen, anstelle von Eigenentwicklungen. Basierend auf unterschiedlichen Technologien von unterschiedlichen Herstellern wird zunehmend ein höherer Automatisierungsansatz gewählt.
Der Vortrag gibt einen Überblick über unterschiedliche Technologien und Methoden und zeigt, welche Geschwindigkeits-, Effizienz- und Qualitätsvorteile erreicht werden.

Zielpublikum: Interessierte/Mitarbeiter aus den Fachbereichen Business Intelligence, Data Warehouse und IT
Voraussetzungen: Grundvoraussetzung/Grundwissen Data Management, Data Warehousing & DWH-Methodiken
Schwierigkeitsgrad: Fortgeschritten



Klaus Blaschek
b.telligent Schweiz GmbH
Geschäftsführer

Donnerstag, 01.01.1970   |   15:00 - 16:30 Uhr   |    T7

TDWI Meinungsforum: Von Self Service Discovery, Data Preparation bis hin zu Data Story Telling: Die eierlegende Wollmichsau Endanwender

Self-Service geistert seit geraumer Zeit als Marketingschlagwort in verschiedensten Facetten durch die Branche, doch was hat sich bewahrheitet, was ist gescheitert und wo kann die Reise noch hingehen?  Sind Self-Service-Ansätze die Zukunft, die die IT überflüssig machen? Wozu brauchen wir teure und langsame BI-Abteilungen, wenn die Fachbereiche sich doch per Drag & Drop zur Self-Service-Data-Scientist emanzipieren? Sind Themen wie Governance und Security nur Show-Stopper der ewig gestrigen? Im TDWI Meinungsforum schauen wir mit Ihnen hinter die Marketingkulissen! Es gibt kaum ein Thema, bei dem Erfolg und Frustration so dicht beisammen liegt. In einem interaktiven Diskurs werden wir uns aus verschiedenen Extrempositionen dem Thema nähern und aktiv mit dem Publikum diskutieren. Neben der Abgrenzung der Anwendungsszenarien, widmen wir uns besonders den Herausforderungen an die Organisation, Architektur und Analytics.

Zielpublikum: Bi-Manager, BI-Projektleiter, Power User
Voraussetzungen: keine
Schwierigkeitsgrad: Anfänger



Carsten Dittmar
NTT DATA Deutschland GmbH
Head of Business Development, TDWI Fellow

Carsten Felden
TU Bergakademie Freiberg
Dekan der Fakultät für Wirtschaftswissenschaften, Vorstandsvorsitzender TDWI Germany e.V.

Matthias Nolte
Berliner Sparkasse / TDWI e.V.
Leitung Business Intelligence Services / Stellv. Vorstandsvorsitzender

Donnerstag, 01.01.1970   |   15:00 - 15:45 Uhr   |    T9 1)

Mit Graph-Datenbanken Beziehungen visualisieren und Informationen entdecken

Alle reden von Daten. Die harte Trennung von produktiven und dispositiven Welten weicht immer mehr auf. Doch weit wichtiger als Daten sind für Unternehmen Informationen. Die meisten Unternehmens-Anwendungen funktionieren nach dem gleichen Prinzip: Es wird gezielt nach Datensätzen wie Kunden, Produkte, Transaktionen gesucht. Meist sind Berater für bestimmte Kunden zuständig. Somit kann sich der Berater gezielt auf die Daten konzentrieren. Nachteil: Jeder Berater hat einen eingeschränkten View auf die Kundenwelt. Zusammenhänge können nicht erkannt werden. Soziale Netzwerke haben dahingehend einen ganz anderen Ansatz. Hier steht im Vordergrund wer mit wem wie vernetzt ist. Erst dann werden Daten zu einer Person angezeigt. Dieser Ansatz hat gerade im Firmenkunden-Banking große Vorteile. Werden dann die eigenen Daten mit öffentlichen Registerdaten verknüpft, so ergeben sich völlig neue Ansätze hinsichtlich Prospect Management und Automatisierung.

Zielpublikum: Entscheider, CIO, BI-Manager
Voraussetzungen: Grundwissen Data Warehouse
Schwierigkeitsgrad: Anfänger



Norbert Schweimanns
Deutsche Bank AG
Smart Data & Omni-Channel

Frank Ferro
Trivadis GmbH
Program Manager Financial Services

Donnerstag, 01.01.1970   |   17:00 - 17:45 Uhr   |    T10

Wasserwirtschaft 4.0 bei der Emschergenossenschaft (EGLV): Selbstlernende Assistenzsysteme für den technischen Betrieb unter Verwendung von Methoden der topologischen Datenanalyse

Der Vortrag stellt zunächst ein Projekt bei der Emschergenossenschaft zur automatisierten Störungserkennung für Regenwasserbehandlungsanlagen durch ein selbstlernendes Assistenzsystem vor. Dabei wird auf die einzelnen Projektphasen und Vorgehensweisen eingegangen und es werden die bei der Durchführung gesammelten Erfahrungen vorgestellt. Anschließend führt der Vortrag kurz und anschaulich in Algorithmen des noch jungen, vielversprechenden mathematischen Teilgebietes der topologischen Datenanalyse (TDA) ein. Die Möglichkeiten und das Potenzial der Methoden der TDA werden anhand des konkreten Anwendungsbeispiels aus der Wasserwirtschaft erläutert. Es wird außerdem ein Überblick über das breite Anwendungsspektrum von Verfahren der topologischen Datenanalyse in unterschiedlichsten Branchen gegeben.

Zielpublikum: Projektleiter, Wasserwirtschaft, Entscheider mit Interesse an Predictive Maintenance Themen, Data Scientists, Big Data Experts, Data Science Projektleiter, sowie alle an neuen Methoden zur Datenanalyse interessierte Konferenzteilnehmer.
Voraussetzungen: Elementare mathematische Grundkenntnisse, Interesse an algorithmischen Methoden.
Schwierigkeitsgrad: Fortgeschritten



Steffen Wittkamp
neusta software development west GmbH
Data Scientist

Donnerstag, 01.01.1970   |   17:00 - 17:45 Uhr   |    T12

Predictive Forecasting: Prototypische Umsetzung mit SAP HANA und R

In einem komplexen und sich immer schneller entwickelnden Markt, wird es für Unternehmen der Automobilbranche existenziell, Entscheidungen schnellstmöglich, in Echtzeit, oder zumindest proaktiv, zu fällen. Um fundierte Entscheidungen zu treffen, ist eine optimale Nutzung bereits vorhandener und neuer interner sowie externer Informationen erforderlich.
Mit etablierten Technologien, wie SAP HANA und der Statistiksprache R, wurde eine integrierte Lösung für ein bis auf Endkundenebene durchgängiges Vertriebscontrolling geschaffen.
Die Analyse und Identifizierung der Einflussgrößen bildet die Grundlage für eine detaillierte Kundensegmentierung, die Simulation von Marketingkampagnen und Geschäftsszenarien und daraus direkt abgeleitete Gewinnchancen. Beispielsweise bedeutet dies, dass Budgetnachgenehmigungsrunden reduziert, Ressourcen effizienter genutzt und somit Planungssicherheit hergestellt werden können.

Zielpublikum: BI Consultants, BI Senior Consultants, BI-Projektleiter, BI-Manager
Voraussetzungen: BI Grundlagen
Schwierigkeitsgrad: Anfänger



Abdullah Zadran
Braincourt GmbH
BI Consultant

Tobias Gorhan
Braincourt GmbH
BI Consultant

Donnerstag, 01.01.1970   |   09:00 - 10:00 Uhr   |    KeyMo

Zurich: Transformation zum Daten und Analytics getriebenen Unternehmen

Die Transformation von traditionellem Geschäftsmodell und herkömmlicher Entscheidungsfindung zum Analytics- und Daten-getriebenen Unternehmen erfordert weit mehr als Technologie ("wir brauchen In-Memory") und Hype ("wie weit sind wir mit Cognitive Computing auf dem (Big-Data-)Lake?"). Bestehende und durchaus sehr erfolgreiche Organisationen werden geführt und betrieben aus einer Mischung aus Governance, Operating Modellen (Prozesse, Organisationen) und in erster Linie: Menschen. Diese werden unterstützt durch IT-Systeme, welche auf Daten(-Legacy) agieren und diese kontinuierlich erzeugen, verändern und löschen. Diese Bestandteile des Handlungsrahmens definieren sehr stark die Möglichkeiten auf Änderungen rasch zu reagieren und bestimmen zu welchen Kosten und in welcher Zeit qualitativ ausreichende Daten und Informationen für Prozesse und Zielanwendungen zur Verfügung stehen. In seinem Vortrag schildert Jörg Narr wie Analytics und Datenmanagement in der Zurich Schweiz die Ziele des Unternehmens unterstützen. Er erläutert Methoden und Werkzeuge, die im Rahmen des Transformationsprozesses zum Einsatz kommen, darunter etwa Change Management, Analytics- und Datenstrategie, (Data) Governance, Datenmanagement, Entwicklungsansätze und zuletzt auch technologische Komponenten. 



Jörg Narr
Zurich Versicherungs-Gesellschaft AG
Leiter Data & Analytics

Donnerstag, 01.01.1970   |   09:00 - 09:45 Uhr   |    KeyTue

Hilfe für die Heilsarmee: Dank BI zu Excellence und Kundenfokus

Im Vortrag wird aufgezeigt, wie die Heilsarmee in der Spenderkommunikation systematisch vorgegangen ist, um Business Intelligence als Treiber für strategische und operative Entscheidungen einzuführen. Die Entwicklung startet am Fusse des vorhandenen «Roh-Datenberges» und führt über die Erstellung einer BI-Strategie und der Auswahl eines geeigneten BI-Tools hin zum Gipfel: der Profilierung der Spender und damit der Individualisierung der Kommunikation. Die intelligentere Ansprache bedeutet für die Hilfsorganisation, dass unter dem Strich noch mehr Geld in ihre Arbeit für Hilfsbedürftige fliesst.  Der Mensch steht bei der Heilsarmee im Mittelpunkt. In diesem Fall der Spender. Durch Data-Analytics und Machine-Learning werden Spenderprofile (Verhalten, Demografie) und Kommunikationsinhalte analysiert, verhaltensbasierte Zielgruppendefinitionen ein-geführt und Costumer Journeys und Churn Prozesse darauf abgestimmt. A/B-Hypothesentests runden die laufende Verbesserung ab. 



Holger Steffe
Stiftung Heilsarmee Schweiz
Verantwortlicher BI und Stv. Leiter im Fundraising

Donnerstag, 01.01.1970   |   14:00 - 14:30 Uhr   |    Smo1

Success Story badenIT: Data Science im Unternehmen - aus der Praxis mit Data Lake und Spark

Daten sind längst zu einem wichtigen wirtschaftlichen Faktor in Unternehmen geworden. Die Herausforderungen, die mit Big Data einhergehen, sind enorm: Es gilt eine stetig wachsende Menge an strukturierten und unstrukturierten Daten aus den unterschiedlichsten Quellen zu speichern und mit immer komplexer werdenden Anfragen sinnvoll auszuwerten. Dabei spielt Datensicherheit eine große Rolle. Jona Boeddinghaus stellt in dieser Session die badenIT Data Lake & Managed Spark Platform vor, auf welcher die Datenwissenschaftler von PSIORI ihre Advanced Analytics Anwendungen entwickeln.
 
Themen: Infrastructure, Datacenter, Hadoop, Spark, Data Science
 
Zielpublikum: BI-Projektleiter, BI-Manager, Entscheider, CIO, CISO



Jona Boeddinghaus
psiori GmbH
COO

Konrad Meier
badenIT GmbH
System-Architekt

Donnerstag, 01.01.1970   |   11:00 - 12:00 Uhr   |    KeyDi1

Growing a Culture of Experimentation

Many organizations claim to have adopted agile when in fact engineering teams must still follow orders on what to build and how to build it. Thus we crush the ability of our people to improve their work, preventing them from learning from users or from each other. In this talk, Jez will show how a test-driven approach to both product development and process improvement can enable even large, regulated organizations to harness the creativity of their people.

Target Audience: all
Prerequisites: none
Level: Practicing Extended Abstract:
Many organizations claim to have adopted agile when in fact engineering teams must still follow orders on what to build and how to build it. Thus, we crush the ability of our people to improve their work, preventing them from learning from users or from each other. In this talk, Jez will show how a test-driven approach to both product development and process improvement can enable even large, regulated organizations to harness the creativity of their people. Discover how a combination of architectural and cultural approaches enables experimentation at all levels of your organization, supported by research and examples from current practice.



Jez Humble
DevOps Research and Assessment LLC
CTO

Donnerstag, 01.01.1970   |   10:00 - 17:00 Uhr   |    Mo 1

Domain-driven Design Architektur Kata (AUSGEBUCHT)

Domain-driven Design gibt Architekten ein Vorgehen an die Hand, mit dem große Anwendungen aufgeteilt werden können. So entsteht eine klare fachliche Aufteilung. In diesem Tutorial werden die Teilnehmer verschiedene Techniken ausprobieren, um eine Domäne aufzuteilen. Ganz praktisch erarbeiten die Teilnehmer mit Event Storming, aber auch mit alternativen Ansätzen die Modellierung der Domäne. Im Mittelpunkt steht dabei selbst machen, Feedback - und Spaß! Maximale Teilnehmerzahl: 24

Zielpublikum: Software-Architekten und -Entwickler
Voraussetzungen: Grundsätzliches Verständnis von Software-Architektur
Schwierigkeitsgrad: Anfänger



Martin Heider
infomar software

Eberhard Wolff
innoQ Deutschland GmbH
Fellow

Peter Kern
DATEV eG
Software Architect

Victor Sauermann
GfK
Lead Architect

Robin Timmermann
DATEV eG
Lead Architect

Donnerstag, 01.01.1970   |   10:00 - 17:00 Uhr   |    Mo 2

Was Sie schon immer über das Internet der Dinge wissen wollten (AUSGEBUCHT)

Ziel dieses Workshops ist das praxisnahe Einarbeiten in das Internet der Dinge. Der Workshop vermittelt sowohl konzeptionelle und architektonische Grundlagen zur Entwicklung bzw. Programmierung von IoT-Systemen (Software- & Hardware-Sicht) als auch praktische Erfahrung mit dem eigenständigen Umsetzen dieser Grundlagen in einem IoT-Hackathon. (In einem Hackathon lösen Gruppen von Teilnehmern vorgegebene Aufgaben mit Hardware und Software). Maximale Teilnehmerzahl: 25 Die Teilnehmer benötigen einen eigenen Laptop mit WiFi-Fähigkeit. Betriebssysteme Linux, OS X oder Windows sind möglich. Die Teilnehmer müssen ein Hardwarekit erwerben um Hardwareexperimente durchzuführen. WICHTIG:
In diesem Tutorial werden praktische Übungen durchgeführt.
Um die praktischen Übungen des Hackathons und den Hackathon selbst durchzuführen, benötigen Sie die unter dem folgenden Link angegebene Hardware, die sie im Vorfeld selbst besorgen müssen.
Der Sprecher bat uns dringend, Sie darauf hinzuweisen, dass Sie unbedingt diese Hardware für das Tutorium brauchen.
Ebenso finden Sie unter dem Link die Anweisung zur Vorbereitung Ihres Laptops.

Link: http://stal.de/mein-oop-2018-tutorium-embeddediot

Zielpublikum: Entwickler, Architekten, Tester, Entscheider
Voraussetzungen: Grundkenntnisse in OOP (z.B. Java, C/C++, Go)
Schwierigkeitsgrad: Anfänger



Michael Stal
Siemens AG
Principal Engineer

Donnerstag, 01.01.1970   |   10:00 - 17:00 Uhr   |    Mo 3

Vertikale Organisationen - – Organisationsmuster von XING, OTTO, Breuninger, Berenberg, Spotify, ...

Vertikalen sind ein Architektur- und Organisationsmuster. Sie übertragen das Prinzip der losen Kopplung auf Entwicklungsteams, indem Organisation und Softwarearchitektur Hand in Hand „vertikalisiert“ werden. Organisatorische Vertikalisierung bedeutet unabhängige, cross-funktionale Teams, die für eine klar abgrenzbare fachliche Domäne verantwortlich sind. Architektonische Vertikalisierung schafft unabhängige IT-Komponenten und sorgt z.B. dafür, dass Teams eigenständig deployen können.
Beispiele: XING, OTTO, EPOST, Breuninger, Berenberg, Spotify


Zielpublikum: Entwickler, Projektleiter, Scrum Master, Agile Coaches, Manager
Voraussetzungen: Erfahrungen in der IT-Produktentwicklung sind hilfreich, aber nicht zwingend notwendig 😉
Schwierigkeitsgrad: Fortgeschritten Extended Abstract
Vertikale Architektur ist ein Architektur- und Organisationsmuster für große Teams. Es überträgt das Prinzip der losen Kopplung auf Entwicklungsteams, indem Organisation und Softwarearchitektur Hand in Hand „vertikalisiert“ werden. Organisatorische Vertikalisierung bedeutet das Schneiden unabhängiger Teams, die für einen klar abgrenzbaren Aspekt der fachlichen Domäne verantwortlich sind. Architektonische Vertikalisierung schafft die technische Basis für unabhängige Teams und sorgt z.B. dafür, dass Teams eigenständig deployen können.
In diesem Workshop erarbeiten wir die Grundlagen agiler Architekturen auf Basis vertikaler Teams. Der Workshop besteht aus zwei Teilen, einem theoretischen und einem praktischen.
Im Block Hintergrundinformationen führen wir den Begriff der vertikalen Architektur in einem Impulsvortrag ein. Wir berichten von unseren Praxiserfahrungen bei XING, Otto, Breuninger und der Post und stellen Lösungen vor, die wir in der Praxis erprobt haben.
Praxisblock Planspiel (optional, nur wenn ausreichend Zeit ist)
Der folgende Praxisblock besteht aus einem Planspiel, in dem wir ein gemeinsames Bild der bestehenden Hindernisse und Abhängigkeiten in Bezug auf die Einführung einer agilen Architektur in Ihrem Unternehmen erarbeiten. Hindernisse sind z.B. unzureichende Hardware oder vorgeschriebene Programmiersprachen. Beispiele für Abhängigkeiten sind eine zentrale QA-Abteilung, von anderen Abteilungen entwickelte Softwarekomponenten oder extrem langsame Bereitstellung von Infrastrukturkomponenten für Entwicklungsteams.



Johannes Mainusch
kommitment GmbH & Co. KG
Agile Manager

Donnerstag, 01.01.1970   |   10:00 - 17:00 Uhr   |    Mo 4

Der Weg zum Agile Coach

Wie wird man Agile Coach?
Wir glauben, dass ein Coach neben einer agilen Haltung viel Handwerkszeug benötigt.
Denn Agile Coaching ist eine Handwerkskunst, die neben der Unterstützung von Organisationen und Teams in der Selbstorganisation, in kurzen Lieferzyklen und dem permanenten Lernen auch die Haltung, wie man Agilität lebt, umfasst. Wie jedes Handwerk braucht es dazu gewisse Fertigkeiten, die erlernt (Shu), angewendet, verstanden (Ha) und weiterentwickelt werden wollen (Ri).
In den „Lehrjahren” (Shu) erlernt man die allgemeingültigen Basics, doch der weitere Weg ist für jeden Agile Coach individuell, abhängig von seinen persönlichen Stärken und Interessen.
Der Workshop vermittelt das Denkmodell hinter unserem Ansatz und erlaubt jedem in einem partizipativen Prozess, sich selbst zu verorten und seinen eigenen, persönlichen Weg als Agile Coach zu erkennen.

Zielpublikum: Scrum Master, (Agile) Coaches, Führungskräfte, Product Owner
Voraussetzungen: Basic Knowledge in Agile und Scrum, Interesse, sich auf Neues einzulassen
Schwierigkeitsgrad: Fortgeschritten Extended Abstract
Doch was sind nun allgemeingültige Basics und Fertigkeiten eines Scrum Masters? Wie wird man Agile Coach? Man macht einen nicht obligatorischen Zwei-Tages-Kurs, danach einen Multiple-Choice-Test und ist somit Scrum Master. Nach eine paar Jahren (Monaten), in denen man als Scrum Master gearbeitet hat, schreibt man auf seine Visitenkarte „Agile Coach”. Damit ist man Agile Coach! So einfach geht das! So einfach?
Natürlich würde niemand, der ernsthaft als Scrum Master oder Agile Coach arbeiten will, NUR das tun. Da ist schon sehr viel mehr dahinter. Den Scrum Guide lesen und kennen; das Agile Manifest, Blogartikel zum Thema lesen; mit Kollegen austauschen. Lernen, lernen, lernen ... Üben, üben, üben ...
Doch was bedeutet es wirklich, nachhaltig und effektiv als Scrum Master oder Agile Coach zu arbeiten? Und wir gehen einen Schritt weiter: Was ist nötig, um in einem agilen Team z.B. als Entwickler zu arbeiten? Was bedeutet es für die Führungskraft, wenn „wir agil werden” wollen. Gibt es dazu eine Richtlinie? Vorgaben? Welche Werte sind wichtig? Was bedeutet Agilität in der täglichen Arbeit für mich?
Agilität kann in vielen verschiedenen Facetten gelebt werden. Manchmal nur als Etikette, „weil man es halt jetzt so macht”. Doch Agil zu sein bedeutet vor allem einen Paradigmenwechsel: in den Werten, in der Haltung, gewisse Fähigkeiten und Fertigkeiten, wie ich meine Arbeit tue.
Es ist eine Handwerkskunst, wie man Agilität lebt und Organisationen und Teams in der Selbstorganisation, in kurzen Lieferzyklen und dem permanenten Lernen unterstützt. Wie jedes Handwerk braucht es dazu gewisse Fertigkeiten, die erlernt werden wollen (Shu). Man wendet sie an und wird geschickt darin, im Tun versteht man die dahinterliegenden Prinzipien und Werte und warum Dinge so sind, wie sie sind (Ha). Und wenn man eine handwerkliche Fertigkeit und Leichtigkeit im Umgang gefunden hat, so kann man selbst seinen eigenen Stil entwickeln (Ri).
Agile Craftsmanship ist kein festes (Regel-)Werk, in dem alles definiert ist. Vielmehr ist es der Versuch, gemeinsam zu definieren, wie man die Dinge, die wir tun, am besten tut. Was hat sich bewährt? Was funktioniert? Was sind die Kniffe & Tricks, die man kennen sollte? Was sind die Geheimnisse? Was sind die darunterliegenden Werte?
Agile Craftsmanship soll eine Orientierung und Grundgerüst darstellen, in dem man sich dem Thema Agiles Arbeiten nähern kann. Die Konzepte werden nicht umfassend in die Tiefe definiert, da es viele eigene Communities gibt, die dies schon tun. Zum Beispiel macht es keinen Sinn, Coachingansätze in die Tiefe zu definieren, sondern sich an dem gegebenen anzulehnen und die agilen Spezifika zu definieren. Welche Konzepte ein Agile Coach einsetzt, die einzelnen Ausprägungen, welches die Schwerpunkte seiner Arbeit sind, definiert jeder für sich selbst.
Und so wie es heute üblich ist, dass Kreativität darin besteht, schon Bestehendes neu zu mixen und es in einen neuen Zusammenhang zu bringen, so ist es bei Agile Craftsmanship ebenso, dass nicht alles neu erfunden wird, sondern schon vorhandene Domänen sich kombinieren. Facilitation, Software Craftsmanship, Coaching, Führung sind nur ein paar davon, die für sich genommen riesig sind und die in das Agile Craftsmanship reinspielen.
Was sind die unabdingbaren Grundvoraussetzungen? Welche Werte liegen dem zugrunde? Welche verschiedenen Ausprägungen eines Craftsman kann es geben? Was sollte ich mir noch zu eigen machen, um wirksam zu sein? Viele verschiedene Fragen, die auch erst im Detail bestimmt werden sollen.



Susanne Mühlbauer

Agile Coach und systemischer Business Coach

Thomas Jäger
Self-Employed
Scrum Master, Agile Coach

Markus Willner
Detecon International GmbH
Management Consultant & Senior Agile Coach

Donnerstag, 01.01.1970   |   10:00 - 13:00 Uhr   |    Mo 6

Experience the journey to user-centric innovation in 5 simple steps

Are you looking for innovations in digital products and services, but run short of new ideas? Or maybe you have ideas, but can't decide whether they are brilliant or a dead end? In our workshop you will experience Design Thinking in order to avoid the trap of conventional thought patterns and to boost creativity and innovation to find new solutions for issues that have proven to be tough to crack. Maximum number of participants: 30

Target Audience: IT Professionals, Project Leader, Decision Makers, Change Managers, Software Architects, Developers
Prerequisites: Be curious and keep an open mind - no prerequisite knowledge needed
Level: Introductory Extended Abstract
Are you looking for innovations in digital products and services, but run short of new ideas? Or maybe you have ideas, but can't decide whether they are brilliant or a dead end? In our workshop you can learn an approach to help you find and evaluate practical ideas: Design Thinking. It is a brainstorming method that helps you tackle big, fuzzy ideas piece by piece, which makes it especially helpful in software architecture and system design. In our workshop you will learn the basic steps you need in order to avoid the trap of conventional thought patterns and to boost creativity and innovation to find new solutions for issues that have proven to be tough to crack. How is it done? A core principle of Design Thinking is to question, evaluate and revise your assumptions - what you think you already know - in order to break complacency and bad habits.
Are you the kind of person who likes to try out new things? In our workshop you will have the chance to learn and apply all steps of design thinking, demonstrated on the task of improving the conference traveling experience of the other participants. First you will empathize with other participants in order to discover their needs and pains. After brainstorming new ideas, it will be your task to evaluate them and identify which are the most promising. You will then translate the best one into a so called prototype in order to have an artifact to interact with. In the final part you will do a single iteration of incremental testing and evaluation.
After experiencing all steps of Design Thinking, we will discuss potential problems for applying it in your everyday work. We will provide you with recommendations as well as tips and tricks on how design thinking can improve software development processes, e.g. requirements engineering or collecting user acceptance tests.
  • To keep it short: Join us if you want to:Focus your solutions on the end user's needs
  • Better leverage the collective expertise of your team
  • Create additional value when solving real problems
In this workshop you will learn the formal components Design Thinking and practice their application to common, everyday problems.



Andreas Lehner
Opitz Consulting Deutschland GmbH
Developer

Monika Schubert
Opitz Consulting Deutschland GmbH
Head of the competence team

Manuel Juschkewitz
Opitz Consulting Deutschland GmbH
Business and IT Analyst

Donnerstag, 01.01.1970   |   10:00 - 13:00 Uhr   |    Mo 7

Introducing the deep learning library TensorFlow from scratch (AUSGEBUCHT)

Recently deep learning is everywhere and, along with it, TensorFlow, Google’s deep learning library. Learning TensorFlow can be quite challenging. Hence, in this tutorial we will give a deep insight into TensorFlow by introducing its most important features from scratch. Starting with a couple of simple lines of code, we will arrive at the implementation of a full neural network. Every line of code will be discussed and live executed. The audience will have full access to the demos, in order to be able to gain direct experience with TensorFlow. Maximum number of participants: 25
Participants should bring along their own laptop: preconfigured with Python and TensorFlow.


Target Audience: Data Scientists, Big Data Developers, Developers
Prerequisites: Basic knowledge in Python, basic knowledge in Deep Learning
Level: Introductory Extended Abstract
TensorFlow has become the most popular deep learning library, thus in this tutorial participants will get a comprehensive introduction to TensorFlow, and at the end of it they will be able to use this tool independently. This tutorial is meant to be highly interactive in order to clarify any question which might arise.
TensorFlow has been developed by the researchers and engineers of the Google Brain Team and it is now supported by the Google community. Moreover, this library offers APIs in several programming languages, e.g. Python and Java, it operates easily with multiple GPUs and it offers the possibility to visualize the network topology and its performances using TensorBoard. All these elements combined have made TensorFlow the most popular deep learning library.
We will start from a couple of simple lines of code, and will arrive at the implementation of a full neural network (NN). Every line of code will be discussed and executed live. The audience will have full access to the demos, in order to be able to gain direct experience with the tool.
The tutorial is going to be divided into two parts. The first part of the tutorial will be devoted to understanding the basic mechanics of TensorFlow. A standard execution starts with the definition of the computational graph. This graph defines the placeholders of the input parameters, which have to be fed with data on execution, and the operations that one wants to execute. Once the definition is complete, a session, i.e. a runtime context for executing the graph, is launched. I will first introduce these concepts and then we will move to executing the first demo. From this example, participants will understand the basics of graphs, sessions, and more generally the basic functioning of TensorFlow itself.
The second part of the tutorial will be dedicated to implementing a NN. I will introduce the dataset that we will use and then I will briefly review the architecture of a NN, focusing on input and output of every layer, units, activation functions and cost function. During the second demo we will implement a NN which will be composed of a few fully-connected layers in order to solve a very simple classification problem using the introduced dataset. Particular attention will be given to the graph definition in the case of a NN. In addition, we will visualize the topology and performances of the NN using TensorBoard.



Federica Fusco
Steadforce – a brand of F&F GmbH
Data Scientist

Donnerstag, 01.01.1970   |   10:00 - 13:00 Uhr   |    Mo 8

The Art to Create a Test Strategy – For Testers, Architects, and Beyond

In our complex, fast moving software engineering world a sustaining test strategy that enables effective and efficient testing is critical for success. But in many projects a test strategy is still more a nebulous idea or a vague concept that gets overlooked.
This interactive tutorial explains and provides insights on
  • what a test strategy is all about (and what not)
  • why a test strategy is not optional
  • building blocks and guidelines to create and quickly evaluate a test strategy
and shares real-world practices, examples, and experiences.

Target Audience: Test Architects, Test Managers, Test Engineers, Architects, Product Owners, Project Leads, Managers
Prerequisites: Basic knowledge about testing and quality engineering
Level: Practicing Extended Abstract
In our complex, fast moving software engineering world a sustaining test strategy that enables effective and efficient testing is critical for success. But in many projects a test strategy is still more a nebulous idea or a vague concept that gets overlooked.
This interactive tutorial explains and provides insights on
  • what a test strategy is all about (and what not)
  • why a test strategy is not optional
  • important principles and preconditions
  • involved stakeholders and their required active contributions
  • building blocks and guidelines to create and quickly evaluate a test strategy
  • how to investigate the capability and sustainability of a test strategy
and shares real-world practices, examples, and experiences.
After this tutorial participants will not only understand the big picture of test strategies and realize their own contribution but they will be able to use the concepts and practices in their projects to improve effectiveness and efficiency in testing.



Peter Zimmerer
Siemens AG
Principal Engineer

Donnerstag, 01.01.1970   |   14:00 - 17:00 Uhr   |    Mo 11

Collaborating Mobs

Collaboration in real-time, the ultimate level in software development: all members work at the same time on the same artefacts. No dream! Already today we see processes like Swarming or Mob Programming grow into acceptance.
Curious? This workshop will give you a fun opportunity to experience what happens in the team, and, between teams. How do mobs work together?
Anyone can attend regardless of technical expertise: we use English (or German) as development language and Google Docs as IDE. Bring a WLAN-enabled device that can run Google Docs. Bring a WLAN-enabled device that can run Google Docs. Maximum number of participants: 28

Target Audience: Developer, Product Owner, Architects, Project Leader
Prerequisites: none
Level: Practicing



Helge Nowak

Technical Account Manager

Donnerstag, 01.01.1970   |   14:00 - 17:00 Uhr   |    Mo 9

Quickstart mit R

Komplexe statistische Algorithmen, wissenschaftliche Berechnungen - mit R liegen zwischen Frage und Ergebnis oft nur ein, zwei Zeilen Code. In diesem Hands-on-Workshop schreiben Sie selber R-Code: angefangen mit den Basics der Sprache über essenzielle Datenmanipulation bis zu OO und funktionaler Programmierung. Besonderer Fokus liegt auf dem "tidyverse", den von Hadley Wickham entwickelten Packages für saubere, typsichere und funktionale Datenmanipulation in R. Die Teilnehmer benötigen einen eigenen Laptop mit: R (die Sprache), rstudio (die IDE), die „tidyverse“ Pakete (Kommando: install.packages(„tidyverse“)). Zielpublikum: Architekten
Voraussetzungen: allgemeine Programmiererfahrung
Schwierigkeitsgrad: Anfänger Extended Abstract
Komplexe statistische Algorithmen, wissenschaftliche Berechnungen in verschiedensten Fachgebieten, state-of-the-art Machine Learning - mit R liegen zwischen Frage und Ergebnis oft nur ein, zwei Zeilen Code.
Ein, zwei Zeilen mehr, und Sie bekommen klare, aussagekräftige, ästhetische Grafiken dazu.
R ist eine elegante, effiziente, universelle Programmiersprache mit Objektorientierung und funktionaler Programmierung.
In diesem Hands-on-Workshop schreiben Sie selber R-Code: angefangen mit den Basics der Sprache über essenzielle Datenmanipulation bis zu OO und funktionaler Programmierung.
Besonderer Fokus liegt auf dem "tidyverse", den von Hadley Wickham entwickelten Packages für saubere, typsichere und funktionale Datenmanipulation in R.



Sigrid Keydana
Trivadis GmbH
Data Scientist

Donnerstag, 01.01.1970   |   14:00 - 17:00 Uhr   |    Mo 10

Innovative environment – how to measure its performance and prioritize innovative efforts

Innovations are often perceived as something intangible. The efforts to manage innovations are often reduced to allocating time and financial resources. This tutorial will cover two topics:
  1. Practicing performance measurement techniques (Innovation funnel) that will introduce fact-based decision making into your innovative environment.
  2. Practicing ways to focus innovative efforts on the themes (via strategy map) important for the company.
Join this tutorial to quantify your innovative environment and prioritize the improvement points. Maximum number of participants: 30

Target Audience: Project Leader, Decision Makers
Prerequisites: Project Management Experience
Level: Practicing Extended Abstract
There is a gap between what is considered an innovative environment, and the classical management approach with KPIs, OKRs, and other business tools. During this hands-on workshop, the participants will practice overcoming this gap by exploring ways to introduce performance measurement techniques into an innovative environment. The ideas will be supported by cases from the software, automotive, and manufacturing industries.



Aleksey Savkin
BSC Designer

Donnerstag, 01.01.1970   |   09:00 - 10:30 Uhr   |    Di 2.1

Formale Methoden in der Praxis: SMT Solver und Model Checker

Formale Analyse und Verifikation von Modellen und Programmen werden von vielen Praktikern als „zu kompliziert" oder „praxisuntauglich" verschmäht. Für manche Ansätze mag das stimmen, für andere definitiv nicht. Dieser Vortrag gibt einen Überblick über zwei Verifikationsansätze, die wir in der Praxis verwenden: SMT Solver und Model Checker. Wir illustrieren, wo und wie man sie auf Modellen und Code einsetzen kann, und dass sie eine für Praktiker sinnvolle Ergänzung zum Testen sein können.

Zielpublikum: Entwickler
Voraussetzungen: Solide Programmierkenntnisse
Schwierigkeitsgrad: Anfänger



Markus Völter
Independent/itemis
itemis, independent consultant and coach

Daniel Ratiu
Siemens AG
researcher in robust software engineering and safety critical systems

Donnerstag, 01.01.1970   |   09:00 - 10:30 Uhr   |    Di 3.1

Deep learning, concepts and frameworks – find your way through the jungle

Machine translation, image recognition, product recommendations ... more often than not there's deep learning involved.
As a consequence, demand to integrate deep learning technology into "normal" applications will grow. Not many software architects, however, have experience with all major frameworks. Here, it helps to know the concepts involved. How does it really work?
This is what the session is about: background knowledge, concepts, essential mechanics. And based on that understanding, a high-level overview of the frameworks.


Target Audience: Architects, Developers, Project Leaders, Managers, Decision Makers (everybody!)
Prerequisites: Curiosity about the topic; not being scared off by a little math
Level: Introductory Extended Abstract
If you're asking, what's the hype in 2017? - chances are somebody will say "deep learning".
Image recognition, machine translation, strategy games like Go - all these have recently been taken over by deep learning.
Automated music generation, colorization of black-and-white films, product recommendations - more often than not there's deep learning behind.
As a consequence, demand to integrate deep learning technology into "normal" applications will grow. But what is deep learning technology?
There's DL4J for Java, Torch for Lua, TensorFlow, PyTorch, Caffee, Keras (and more) for Python ... too many for the software architect to know them all.
Is that a problem? Probably not, as like in many cases the actual choice of framework will depend on factors like the surrounding architecture, performance requirements, developer skills etc.
What's special with deep learning however, is the subject matter involved - what even is deep learning? How does it work? What do I have to do to make it work?
This is what the session is about: Provide the background knowledge, explain the concepts, explain the mechanics. And based on the concepts, give a high-level overview of the frameworks: How do they differ - in prioritization, implementation, developer friendliness?



Sigrid Keydana
Trivadis GmbH
Data Scientist

Donnerstag, 01.01.1970   |   09:00 - 10:30 Uhr   |    Di 4.1

Gemeinsame Vorteile von agiler Skalierung: Nexus, LeSS, SAFe und Spotify

Im letzten State of Agile Report von VERSIONONE werden agile Skalierungsansätze bezüglich ihres Nutzungsgrades verglichen. In Section 6 wird NEXUS dieses Jahr mit 1% erstmalig erwähnt, LeSS verliert 1% auf 3 % und SAFe ist mit 28% der klare Favorit.
Zwischen den Frameworks gibt es in den entsprechenden Foren im Internet oft erbitterte Diskussionen, wer den besseren Skalierungs-Ansatz vertritt.

Zielpublikum: Scrum Master, Product Owner, Product Manager, Entwicklungsleiter, Program Manager
Voraussetzungen: Agile Erfahrungen
Schwierigkeitsgrad: Fortgeschritten



Kurt Jäger
KEGON AG
Managementberater und Partner

Donnerstag, 01.01.1970   |   09:00 - 09:45 Uhr   |    Di 5.1 1)

Pointfree-Programming in Mainstreamsprachen

Funktionale Programmierung verspricht lesbaren und deklarativen Code, der zudem noch kürzer und prägnanter ist. Gelingen kann das mit Hilfe eines Programmierstils, der sich Pointfree-Programming nennt.
Früher war dieser Stil eher dem akademischen Umfeld vorbehalten. Dank des Einzugs funktionaler Sprachelemente im Mainstream ist Pointfree-Programming nun auch in Sprachen wie JavaScript, C# oder Java möglich.
Neben dem Wie und Warum beleuchtet der Vortrag auch Vor- und Nachteile, Einsatzszenarien und Limitierungen des Pointfree-Programming.

Zielpublikum: Entwickler
Voraussetzungen: Grundlegende Programmierkenntnisse
Schwierigkeitsgrad: Fortgeschritten



Marco Emrich
webmasters akademie
Head of Software Development

Donnerstag, 01.01.1970   |   09:00 - 10:30 Uhr   |    Di 6.1

"Einmal durch in 90 Minuten" – Mit modernen Methoden vom Experiment zur ersten Software

In dieser Session spielen Publikum und Referent gegen die Uhr:
Werden wir es mit modernen Methoden gemeinsam schaffen, in 90 Minuten von der ersten Idee eines Anwenderproblems über Oberflächendesign, Use Case, Architektur, Domain-Driven Design bis zur Grundstruktur einer Cloud-Anwendung zu kommen, die das Anwenderproblem löst?
Machen Sie mit: Sie „bauen" mit Stift und Papier und einem internetfähigen Handy mit Kamera.
Matthias Bohlen wird moderieren und programmieren, alle haben am Schluss den klickbaren Prototyp inkl. Architektur in Händen!

Zielpublikum: Requirements-Ingenieure, Architekten, Entwickler
Voraussetzungen: Smartphone in der Hand, Kreativität im Sinn, Kenntnisse des Software-Engineerings
Schwierigkeitsgrad: Fortgeschritten



Matthias Bohlen

Coach für effektive Produktentwicklung

Donnerstag, 01.01.1970   |   09:00 - 09:45 Uhr   |    Di 7.1 1)

Ist alles im Warenkorb? – Automatisiertes Testen von Webshops in Verbindung mit Continuous Delivery

Wir entwickeln für unsere Kunden Webshops auf Basis von SAP-Hybris. Um Effizienz und Qualität in unseren Projekten zu steigern, haben wir eine Infrastruktur für CI, CD und automatisierten UI-Tests aufgebaut. Ich berichte über unsere Erfahrungen damit, lege aber den Schwerpunkt auf die Beschreibung der Tests inklusive einer Demo.
Templates machen es möglich, für neue Projekte schnell eine Basisabdeckung mit automatisierten UI-Tests zu erreichen. Automatisierung ist somit gewinnbringend auch für Projekte mit nur wenigen Monaten Laufzeit möglich.

Zielpublikum: Projektleiter, Entwickler, Tester, Entscheider
Voraussetzungen: Hilfreich, aber nicht Voraussetzung sind Kenntnisse in CI, CD, Release-Management und agilen Methoden
Schwierigkeitsgrad: Fortgeschritten



Friedrich-Karl Koschnick
Sybit GmbH
Qualitätsmanager und Scrum Master

Donnerstag, 01.01.1970   |   09:00 - 10:30 Uhr   |    Di 8.1

Intervision! - Ein Format zur gegenseitigen Hilfe in schwierigen Situationen

Menschen, die von Veränderungsprozessen betroffen sind oder diese führen, stehen häufig vor Herausforderungen, die sie alleine nicht meistern können. Wir möchten eine einfache und gut strukturierte Methode zur Intervision vorstellen und durchführen. Innerhalb von 70 Minuten erarbeitet eine Gruppe konkrete Optionen für einen Fallgeber und lernt dabei meist selbst viel über die eigene Situation. Dieses Format möchten wir im vorliegenden Workshop mit den Teilnehmern durchführen und sie in die Lage versetzten, es in der eigenen Firma nachzumachen.

Zielpublikum: Scrum Master, Agile Coaches, Führungskräfte, Manager, Projektleiter
Voraussetzungen: none
Schwierigkeitsgrad: Fortgeschritten Extended Abstract
„Agilität in Organisationen zu fördern, heißt mit agilem Coaching arbeiten. Mit agilem Coaching arbeiten heißt mit Menschen arbeiten. Mit Menschen arbeiten heißt an sich selbst arbeiten. Das gelingt nicht im stillen Kämmerlein. Das braucht Austausch."
So steht es in der Vision des Coach Reflection Day, der inzwischen in verschiedenen Städten in Deutschland regelmäßig stattfindet. Im Herzen dieses Formates findet sich eine einfache und gut strukturierte Methode zur Intervision, die von den Teilnehmern als sehr hilfreich empfunden wird. Innerhalb von 70 Minuten erarbeitet eine Gruppe konkrete Hilfestellungen für einen Fallgeber und lernt dabei meist selbst viel über die eigene Situation. Dieses Format möchten wir im vorliegenden Workshop mit den Teilnehmern durchführen und sie in die Lage versetzten, es in der eigenen Firma nachzumachen.



Fabian Schiller
Agile Fab
Agile Coach, Scrum Master und Trainer

Marina Haase

Agile Coach

Donnerstag, 01.01.1970   |   14:00 - 14:45 Uhr   |    Di 1.2

CQRS & Event-Sourcing in Microservice-Architekturen

Event-Sourcing ist ein Architekturstil, bei dem der Zustand von Services über eine Folge von Events hergestellt und verändert wird. Häufig wird Event-Sourcing dabei mit CQRS (Command Query Responsibility Segregation) kombiniert.
Wie sich mit Hilfe von CQRS und Event-Sourcing auch komplexe Microservice-Architekturen realisieren lassen, welche Eigenschaften solche Architekturen haben und welche praktischen Erfahrungen wir bei otto.de machen konnten, wird in dieser Session vorgestellt.

Zielpublikum: Architekten, Entwickler
Voraussetzungen: Grundkenntnisse in Microservice-Architekturen, Java-Kenntnisse
Schwierigkeitsgrad: Fortgeschritten



Eberhard Wolff
innoQ Deutschland GmbH
Fellow

Donnerstag, 01.01.1970   |   14:00 - 14:45 Uhr   |    Di 2.2

Experiences from Applying Formal Verification on the Siemens SIMATIC S7-400H Firmware Using SPIN

The presentation summarizes experiences in applying formal verification of software design artifacts using the SPIN model checker. The discussed example covers a crucial part of the firmware of the fault-tolerant programmable logic controller SIMATIC S7-400H. The presentation advocates the combination of formal verification of design artifacts with an appropriate test method applied on the software implementation. While formal verification complements the review process, testing benefits from the availability of correct formal models.

Target Audience: Software Engineers, Managers
Prerequisites: Experiences in software design and modeling languages; understanding of the V&V process
Level: Practicing Extended Abstract
The development of a distributed system that comprises two or more components distributed over a network is challenging because of the inherent concurrency and need for coordination and synchronization. The problem is aggravated further if this system needs to fulfill stringent safety requirements. This presentation discusses an approach that is based on software behavior modeling and verifies the correctness of the model against the safety requirements. Afterwards this model is used to validate the correctness of the software implementation during testing. The approach is implemented using the open-source model-checker tool SPIN.
The presentation discusses the experiences in applying the outlined approach on a crucial part of the firmware of the fault-tolerant programmable logic controller Siemens SIMATIC S7-400H. It outlines the whole iterative process of model construction from available C code, model extension with new system features, model correctness checking using SPIN, validation of the C code implementation against the model via runtime verification during the testing phase. During the process design faults in the model and implementation faults in the running system are identified that would be hard to find using conventional methods of code review and testing.



Andreas Ulrich
Siemens AG
Researcher and technology consultant

Donnerstag, 01.01.1970   |   14:00 - 14:45 Uhr   |    Di 3.2

Der moderne Softwarearchitekt – Vom Berater zum Coach

Brauchen wir heute keinen Architekten mehr? Immer mehr hat sich die Rolle des Architekten weg vom „Bestimmer" zum Berater gewandelt. Noch effektiver ist ein Architekt jedoch häufig als Coach. In diesem Vortrag geht es um den großen Unterschied zwischen einem Berater und einem Coach und wie dieser ein (teil-)agiles Team beschleunigen, aber auch verlangsam kann, bestückt mit vielen Erfahrungen aus der Praxis.


Zielpublikum: Architekten, Entwickler, Projektleiter, Manager,
Voraussetzungen: keine
Schwierigkeitsgrad: Anfänger Extended Abstract
Früher war die Welt noch in Ordnung, als der Softwarearchitekt basierend auf der Fachspezifikation eine umfassende Architektur entworfen hat, diese dann dem Team übergeben hat und anschließen nach der Fertigstellung des Projekts das Ergebnis wieder überprüft hat. Aus mehreren Gründen, unter anderem weil nicht alle Anforderungen am Anfang feststehen, ist dieser Prozess heute nicht mehr möglich. Brauchen wir daher auch keinen Architekten mehr? Immer mehr hat sich daher die Rolle des Architekten weg vom „Bestimmer" zum Berater gewandelt. Noch effektiver ist ein Architekt jedoch häufig als Coach. In diesem Vortrag geht es um den großen Unterschied zwischen einem Berater und einem Coach und wie dieser ein (teil-)agiles Team beschleunigen, aber auch verlangsam kann. Bestückt mit vielen Erfahrungen aus der Praxis.



Michael Wiesner
MHP Management- und IT-Beratung GmbH
Senior Manager

Donnerstag, 01.01.1970   |   14:00 - 14:45 Uhr   |    Di 4.2

Definition of Importance statt Priorisierung nach Lautstärke

Wir alle kennen das: Gestern war ein Feature dringend, heute interessiert es keinen und ein anderes ist superwichtig. Wer entscheidet, was wichtig ist? Und wie? In vielen Unternehmen ist nicht definiert, was Einflussfaktoren für Wichtigkeit und Business Value sind. Oft gewinnt der Lauteste. Das führt zu schlechter Qualität, Nichteinhaltung von Terminen und Frust.
Hier hilft eine „Definition of Importance“. Sie regelt, was wichtig ist. Richtig eingesetzt, sorgt die DoI für Planbarkeit, Konstanz, höhere Effizienz und mehr Business Value.

Zielpublikum: Product Owner, Produktmanager, Projektleiter, Scrum Master, Programm Manager, Portfolio Manager
Voraussetzungen: Projekterfahrung, Erfahrung mit agilen Methoden und Requirements Engineering
Schwierigkeitsgrad: Fortgeschritten



Markus Unterauer
Software Quality Lab GmbH
Leiter des Beraterteams

Donnerstag, 01.01.1970   |   14:00 - 14:45 Uhr   |    Di 5.2

Was kostet eine Line of Code - wissen wir, was wir tun?

Fragt man Entwickler, lauten die Erwiderungen:
Lines of Code sind eh eine schlechte Metrik?
Wichtiger wäre es, die gelöschten Lines of Code zu bewerten!
Fragt man Marketing-Menschen, hört man:
Was ist eine Line of Code? Warum ist das interessant? Zu teuer!
Fragt man Theater-Leute hört man:
Eine Line of Koks?
Immerhin sind Lines of Code das, was wir produzieren. Da ich vom mangelnden Wissen um die einfachsten wirtschaftlichen Fragen stark befremdet bin, werde ich sie in diesem Vortrag beleuchten und einige Einblicke geben.


Zielpublikum: Manager, Entwickler, Projektleiter, Scrum Master, Agile Coaches
Voraussetzungen: Mal was programmiert haben oder jemanden kennen, der mal was programmiert hat
Schwierigkeitsgrad: Anfänger Extended Abstract
Coden, wissen wir eigentlich noch, was das ist? Wer von uns checkt denn überhaupt noch etwas? Wer checkt etwas ein?
Es ist Zeit, einen Rant über die Blindheit zu schreiben, mit der wir unterwegs sind. Was wird denn passieren, wenn der letzte COBOL-Entwickler ins Gras gebissen hat? Warum verwendet VW Logistiksysteme, von denen sie den Source-Code vergessen haben? Warum kann Britisch-Airways keine Passagiere befördern, wenn die Systeme ausfallen? Und warum fallen die überhaupt aus? Wieso sitzen in den Vorstandsetagen großer Firmen so wenig IT-Leute? Verstehen wir überhaupt noch, was wir tun? Haben wir einen großen Babel-Turm gebaut? Wie viele Lines of Code kann ein Mensch pflegen? Wie viele eine Organisation? Warum investieren wir nicht mehr in die IT-Ausbildung von Menschen?
Wenn man googelt, was eine LOC kostet, so kommen Antworten von 40c bis 5€. Die Zeile Code auf den T-Shirts der OOP 2016 (Details Matter) war bestimmt viel teurer. Ebenso die Vertauschung von Punkt und Komma einer Schnittstelle im Abrechnungssystem bei einem großen sozialen Netzwerk 2008, die dazu führte, dass wir Ende Februar 18 Mio. € von 1800 Kunden-Kreditkarten einzogen. Usw. usw.
Zeit, einen Vortrag dazu zu erarbeiten.



Johannes Mainusch
kommitment GmbH & Co. KG
Agile Manager

Donnerstag, 01.01.1970   |   14:00 - 14:45 Uhr   |    Di 6.2

Mit Domain Storytelling über Anforderungen sprechen

Wie schaffen es Entwickler, Product Owner und Fachexperten, sich in einer gemeinsamen Sprache über Anforderungen zu unterhalten? Wie können wir unterscheiden, was gewünscht und was wirklich benötigt wird? „Fachliche Geschichten“ helfen dabei, eine Domäne zu verstehen und eine gemeinsame Sprache zu etablieren. Die Zuhörer lernen Domain Storytelling nicht nur kennen, sondern wenden es selbst an.

Zielpublikum: Entwickler, Product Owner, Requirements Engineers, Business Analysten
Voraussetzungen: keine (wer DDD kennt, kann zusätzlichen Nutzen aus dem Vortrag ziehen)
Schwierigkeitsgrad: Anfänger Extended Abstract
Über fachliche Anforderungen reden Entwickler, Requirements Engineers und Product Owner am besten in der Sprache der Fachexperten. Ein guter Weg, um die Fachsprache zu lernen, ist der direkte Kontakt mit „Muttersprachlern“: Man hört ihnen zu, wiederholt das Gehörte und beobachtet ihre Reaktion. Erst lernt man einzelne Wörter, dann Phrasen und schließlich ganze Sätzen. Je mehr man spricht, desto schneller lernt man.
In dem Vortrag zeige ich in einem ca. 15-minütigen Mini-Workshop, wie man Domain Storytelling (domainstorytelling.org) anwendet: Fachexperten erzählen „fachliche Geschichten“ (Domain Stories) über ihre Arbeitsabläufe. Während wir zuhören, zeichnen wir die Domain Stories vor den Augen der Fachexperten mit einer Bildsprache auf. Dadurch können alle Beteiligten unmittelbar sehen, ob sie richtig verstanden wurde. Die wesentlichen Aufgaben, Rollen, Werkzeuge, Arbeitsgegenstände und Ereignisse einer Domäne werden durch die Bildsprache herausgearbeitet. Schon nach wenigen Domain Stories können wir uns mit den Experten sicher in ihrer Fachsprache unterhalten.
Dadurch verstehen wir besser, was die Fachexperten tun und wie sie es tun. Domain Stories sind konkrete Beispiele, anhand derer wir über darüber diskutieren können, was Fachexperten möchten („shopping list“-Features) und was sie tatsächlich brauchen. Daher hat der Vortrag einen starken Bezug zum Thema „testing the waters“.



Stefan Hofer
WPS - Workplace Solutions GmbH
Softwareengineer

Donnerstag, 01.01.1970   |   14:00 - 14:45 Uhr   |    Di 7.2

DevOps - Raus aus dem Silodenken!

Die DevOps-Idee ist eine effektivere und effizientere Kooperation der Bereiche Development und Operations. DevOps zielt auf Softwarequalität, Beschleunigung der Entwicklungsprozesse und agiles Deployment vieler stabiler Releases. Voraussetzungen dazu:
  • Testen von neuer / geänderte Software zur Sicherung der Software-Qualität
  • Automatisieren der Softwaretests zur Beschleunigung sowie Kosten- & Fehlersenkung in der QS
  • automatisiertes Berichten der Testergebnisse an die Entwicklung für schnelles Feedback für eine agilere Entwicklung
Zielpublikum: Entwickler, Tester, Projektleiter
Voraussetzungen: Projekterfahrung
Schwierigkeitsgrad: Fortgeschritten Extended Abstract
Eine effektivere und effizientere Kooperation der Bereiche Development und Operations – das ist die DevOps-Idee.
DevOps zielt auf
  • Softwarequalität
  • Beschleunigung der Entwicklungsprozesse
  • agiles Deployment vieler stabiler Releases bei Kunden / Fachabteilung
Wichtige Maßnahmen zur Zielerreichung:
  • das Testen neuer oder geänderter Software > Sichern der Software-Qualität
  • das Automatisieren der Softwaretests > Beschleunigung sowie Kosten- und Fehlersenkung in der Qualitätssicherung
  • das automatisierte Berichten der Testergebnisse an die Entwicklung > schnelles Feedback für eine agilere Entwicklung
Prozesse und Tools sollen helfen, diese Ziele zu erreichen. Ein geeignetes Tool für das Automatisieren von Softwaretests im DevOps-Kontext …
  • … testet Applikationen aus Sicht der Anwender – auf der grafischen Nutzerschnittstelle (GUI).
Denn: entscheidend ist die Perspektive derjenigen, die später mit der Software arbeiten und die Software in die Produktivumgebung abnehmen.
  • … operiert protokollunabhängig und eignet sich damit für ALLE Applikationen.
Denn: Ihre Applikationslandschaft ist heterogen – das sollte nicht zu einer unüberschaubaren Test-Tool-Vielfalt führen. Ein Tool für alle Applikationen!
  • … ist einfach in der Handhabe und kann von jeder IT-affinen Person bedient werden: Von Entwicklern, von Testern, von Key Usern in den Fachbereichen.
Denn: DevOps soll die Zusammenarbeit vereinfachen und nicht komplizierter machen!



Uwe Sendrowski
Servicetrace
Senior Business Development & Partner Manager

Donnerstag, 01.01.1970   |   14:00 - 14:45 Uhr   |    Di 8.2

Wissen als Rendite - Agilität einmal anders gesehen

Das Konzept des intellektuellen Kapitals und seiner Bedeutung für Organisationen ist in den letzten zwanzig Jahren in der Knowledge Management Community intensiv erforscht worden. Diese Erkenntnisse weisen erstaunliche Ähnlichkeiten mit den Ansätzen agiler Organisationen auf und können helfen, Probleme bei agilen Einführungen besser zu verstehen und zu lösen. Wir laden Sie zu einem überraschenden Crossover ein.

Zielpublikum: Manager, Entscheider, Coaches
Voraussetzungen: Organisationsgestaltung, Neugier
Schwierigkeitsgrad: Fortgeschritten Extended Abstract
„Intellektuelles Kapital" ist ein recht gut erforschtes Konzept im Knowledge Management, aber außerhalb der KM Community weitgehend unbekannt. Dabei findet sich eines ihrer wichtigsten Modelle - die Differenzierung zwischen individuellem, sozialen und organisatorischem intellektuellen Kapital - fast wörtlich im agilen Manifest: "We value individuals and interactions over processes and tools".
Wir wollen in diesem Vortrag (evtl. „gewürzt" mit ein oder zwei interaktiven Übungen) zunächst das Konzept des intellektuellen Kapitals darstellen und dann zeigen, wie die verschiedenen Verfahren wie Scrum, XP und später Kanban, SAFe und LeSS auf die verschiedenen Formen des intellektuellen Kapitals einzahlen, welche Rückschlüsse man daraus für große Transitionen ziehen kann und welche Fehler man damit machen kann.
Zur Illustration verwenden wir Beispiele aus realen Transitionen verschiedener Größenordnungen.



Jens Coldewey
improuv GmbH
Principle Consultant

Dennis Wagner

Agile Coach und Software Craftsman

Donnerstag, 01.01.1970   |   16:15 - 17:15 Uhr   |    Di 1.3

Resilient Software Design - – die Grundlagen einer robusten Softwarearchitektur

Der Trend in der Softwareentwicklung geht weg von Monolithen hin zu Anwendungen, die aus mehreren unabhängigen Einheiten bestehen. Jede dieser Einheiten ist für sich betrachtet leichter zu testen und zu deployen. Allerdings wird hierfür das notwendige Maß an Isolation, Redundanz und loser Kopplung zunehmend wichtiger, da der Ausfall eines einzelnen Teils nicht die Stabilität des Gesamtsystems gefährden darf. Die Session zeigt gängige Patterns und etablierte Vorgehensweisen, wie man diesen neuen Herausforderungen begegnen kann.


Zielpublikum: Entwickler, Architekten, Projektleiter
Voraussetzungen: Kenntnis in Softwareentwicklung, Architekturkonzepte, Probleme in verteilten Anwendungen
Schwierigkeitsgrad: Anfänger



Thorsten Maier
OIO Orientation in Objects GmbH
Softwareentwickler

Donnerstag, 01.01.1970   |   16:15 - 17:15 Uhr   |    Di 2.3

No Silver Bullets – Cybersecurity in the Cognitive Era

It's no surprise that our organizations are under attack by industrialized threats from highly skilled adversaries. At the same time we're drowning in information, facing a growing skills shortage, and often dealing with security infrastructures from the dark ages. We'll talk about the threats in more detail, the growing migration from compliance to risk-focused security, and how security is fundamentally an information management problem.

Target Audience: Architects, Developers, Cybersecurity Specialist, Programmers
Prerequisites: Basic Security Software Knowledge
Level: Practicing Extended Abstract
It's no surprise that our organizations are under attack by industrialized threats from highly skilled adversaries. At the same time we're drowning in information, facing a growing skills shortage, and often dealing with security infrastructures from the dark ages. It's no wonder that the industry is looking for the latest magic bullet, and Cognitive security is now the king of the hype curve. We'll talk about the threats in more detail, the growing migration from compliance to risk-focused security, and how security is fundamentally an information management problem. We'll investigate how cognitive technology is being applied in real organizations today, and try to get beyond the marketing and hype to understand this fundamental shift coming our way.



Azzeddine Ramrami
IBM
Security Senior Security Architect

Donnerstag, 01.01.1970   |   16:15 - 17:15 Uhr   |    Di 3.3

Verwendung von Blockchain als Architekturentscheidung

Untersucht wird ein generalisierbarer Anwendungsfall auf die Eignung für Blockchain-Technologie: Ein Unternehmen möchte Geschäftsprozesse optimieren, Kosten senken und das Betrugsrisiko verringern, indem digitale Dokumente mit einem Posteingangsstempel versehen werden. Anhand von ausgewählten funktionalen und nicht funktionalen Eigenschaften von Blockchain wird dieser Anwendungsfall analysiert und bewertet, damit nicht Blockchain verwendet wird, wenn eine relationale Datenbank ausreichen würde.

Zielpublikum: Architekten, Entwickler, IT-Berater, Entscheider
Voraussetzungen: keine
Schwierigkeitsgrad: Anfänger



Marcus Klüsener
ITech Progress GmbH
Softwareentwickler und IT-Berater

Donnerstag, 01.01.1970   |   16:15 - 17:15 Uhr   |    Di 4.3

Agile: Transparency is a slippery slope

Transparency is at the core of agile. As we get proficient at agile, everyone in the team has access to all the information they need to make the team successful. But then, things change, and the type of decisions the team needs to make changes. And new information needs to be available for that to be successful. So what to information do we share? And how does that evolve? How do we get over the ‘scaling’ hurdle, without introducing ‘big process’? What models for sharing larger businesses’ strategy are available?

Target Audience: Managers, project leaders, decision makers
Prerequisites: Agile, management or project management experience
Level: Practicing Extended Abstract
Agile ‘transitions’ keep failing. Even while delivering plenty of value for the organization. I think that is because the levels of transparency within an organisation can’t keep up with the changes the organisation is going through.
Transparency is crucial for all levels of progress in agile. Once we’re proficient at a certain level, everyone in the team has access to all the information they need to make the team successful. But then the situation changes, the definition of the team changes, and the type of decisions they need to make changes. And new information needs to be available for that to be successful.
In this talk I’ll show how we can use transparency at different stages of our agile journey to achieve the goals we have. And how new levels of transparency are needed to get to a next level of agility. And how not providing those new levels can trigger a slide back to where you started from, if you’re not careful.
I’ll also discuss how the more advanced levels are still very hard to arrange for. It’s not coincidental that we end up with overwrought processes like SAFe for scaling, as good models and mechanisms for sharing larger businesses’ strategy are hard to find, and even harder to make accessible and measurable. We’ll discuss some alternatives that can make this work, and their limitations.
Content notes:
Transparency is crucial for all levels of progress in agile. I look at this through the lens of the Agile Fluency Model to discuss what information is needed in different stages of an organisation's development:
Zone 1: focus and common goals. Transparency is on what we want to achieve, and on what we’re doing. And we can see what the difference is.
Zone 2: focus is on how well we’re delivering, and how fast. Transparency is on quality metrics, failure, and cycle/lead times that we’re getting.
Zone 3: focus is on delivering what the market wants. Transparency is on what we think the market wants, and then measuring whether that was true.
Zone 4: focus is on wider market impact and strategy. Transparency is on what our strategic plans and models are, and how we can see whether they’re working.
This has impact on what is shared within a team, and within the larger organisation. Both in metrics/KPIs, and qualitative information.
Being successful in one zone has a pull-effect into the next. If we get really good at focus, in all but very specific cases we will need to get good at delivery. If we don’t we fall back, lose focus in frustration on problems in delivery not being solved. Lose focus, and lose people. Frustration.
If we’re good at delivery, the same is true: if we don’t start working on charting our product’s market, we’ll fall back. Because what’s the point of being able to deliver 30 times a day, if we know our customers don’t care. Or if we don’t know our customers care.
Then in Zone 3, we get really good at probing our market and customer base, and successful commercially. But what if the product grows. How do we retain focus over multiple teams, with slightly different (parts of) products? We’ll need to move into Zone 4 to handle that.
Often, especially existing larger organizations start out with that last problem foremost in mind: scale! Over teams! It’s what gives us things like SAFe, etc. But even an organisation the grew in an Agile way, like Spotify, has this kind of problems.
And we have very little in our tool-chest for that last part of the growth path. Strategy is hard. But strategy almost always lives in people’s minds. Or guts. What tools are available to make strategy not just more concrete, but allows us to make it transparent within the organisation? Use it as a communication device, and feedback mechanism?
The lean concept of Hoshi Kanri is known to some, and used in this way. It defines the process more than the tools and means of communication, though. Wardley Maps allow for communication, but don’t provide much in the way of concrete measurements and feedback.



Wouter Lagerweij

Agile Coach

Donnerstag, 01.01.1970   |   16:15 - 17:15 Uhr   |    Di 5.3

Serialization Protocols in Scala: a Shootout

Decoupled applications exchange messages – between JVMs, over the network or via messaging systems like Kafka, Pub/Sub and Kinesis. Therefore, messages are everywhere – sometimes they live for milliseconds, sometimes they get persisted for years. When the types of these messages start to evolve and the applications change at different speed, things get complicated: serialization protocols can help us with that! In this talk we will compare the current biggest players of the serialization world: Protocol Buffers (Protobuf), Avro, Thrift and Kryo.


Target Audience: Architects, Developers,
Prerequisites: Basic Knowledge in Scala
Level: Practicing Extended Abstract
We’ll see how integration in the Scala and sbt ecosystem works, what schema evolution is and how we deal with it and only a brief bit about performance. Bonus points are awarded for portability to other platforms, maturity and community activity. Afterwards you’ll have a solid base to decide which serialization framework is the right one for you. Expect lots of code samples!



Christian Uhl
codecentric AG
Scala developer

Donnerstag, 01.01.1970   |   16:15 - 17:15 Uhr   |    Di 6.3

In Anforderungsworkshops jeden beteiligen? Liberating Structures machen es möglich!

Die Literatur zum Requirement Engineering erzählt uns: Macht einen Workshop, um Anforderungen zu erheben. Doch wie man dann in diesem Workshop alle Beteiligten aktiv einbindet, bleibt einem selbst überlassen.
Dies ist ein kurzer Workshop, in dem ihr durch den Einsatz von Liberating Structures 60 Minuten aktiv sein werdet.
Ihr erfahrt, was Liberating Structures sind.
Wir erstellen gemeinsam eine Liste von 10 priorisierten Ideen für die OOP.
Ihr überlegt, welche Key Learnings ihr gleich bei der Arbeit einsetzen wollt, und lasst euch dazu beraten.


Zielpublikum: Alle die, die mit Anforderungserhebung zu tun haben!
Voraussetzungen: keine, offen für neue Methoden sein
Schwierigkeitsgrad: Anfänger Extended Abstract
Liberating Structures verändern dein Berufsleben: Sie ermöglichen es dir und deiner Organisation, aus den Fesseln von langweiligen Meetings, ergebnislosen Diskussionen oder ermüdenden Präsentationen zu entkommen.
Liberating Structures sind bisher 33 neue Formate (Mikrostrukturen), um die Kommunikation unter Stakeholdern und das Erheben von Anforderungen zu revolutionieren.
Die Literatur zum Requirement Engineering erzählt uns: Macht einen Workshop, um Anforderungen zu erheben. Doch wie man dann in diesem Workshop alle Beteiligten aktiv einbindet, bleibt einem selbst überlassen. Durch Liberating Structures werden nun alle in die Interaktion einbezogen. Dadurch entstehen in kurzer und kurzweiliger Zeit verblüffende Ergebnisse, und der Anforderungsworkshop produziert solide Ergebnisse oder innovative neue Ansätze. Je nachdem welche der Liberating Structures man auswählt.
So ist es nun möglich, einen Anforderungsworkshop mit 100 Leuten durchzuführen und trotzdem bessere Ergebnisse in kürzerer Zeit zu bekommen als mit herkömmlichen Methoden.
Mit dem Methodenkoffer der Liberating Structures kann man:
* wirklich jeden einbeziehen und auf diese Art und Weise auch Ideen sammeln, die sonst oft im Verborgenen bleiben.
* durch Prinzipien wie kreative Zerstörung neue Quellen der Innovation anzapfen.
* durch systemtheoretische Ansätze eine völlig neue Sicht auf das Produkt erhalten.
In diesem hochinteraktiven Vortrag (eigentlich ist es ein kleiner Workshop) werdet ihr erfahren, wie eure tägliche Arbeit durch den Einsatz von Liberating Structures spannender, kommunikativer und erfolgreicher wird.
Ihr lernt die Liberating Structures kennen und setzt die ersten, wichtigsten gleich selber ein.



Christian Weinert
Holisticon AG
Agiler Macher

Franziska Knorr
Holisticon AG
Agile Macherin

Donnerstag, 01.01.1970   |   16:15 - 17:15 Uhr   |    Di 7.3

Testmanagement im DevOps-Zeitalter

Testplanung, „manuelle" Testausführung und -Reporting sind auch in Zeiten von Testautomatisierung immer noch oder auch schon wieder ein Dauerthema. Doch ist dies wirklich neu in DevOps-Prozessen? Anhand von Best Practices zeigt der Vortrag, wie diesen Herausforderungen in Projekten durch den Einsatz von Monitoring, DevOps-Praktiken und der Anpassung des klassischen Testmanagements begegnet worden ist. Eingegangen wird auf Aspekte wie Rollenverteilung, Testplanung, -priorisierung und -reporting.

Zielpublikum: Tester, Qualitätsmanager, Projektleiter
Voraussetzungen: Grundsätzliches Testverständnis
Schwierigkeitsgrad: Fortgeschritten Extended Abstract
Testplanung, „manuelle" Testausführung und -Reporting sind auch in Zeiten von Testautomatisierung immer noch oder auch schon wieder ein Dauerthema. Doch ist dies wirklich neu in DevOps-Prozessen? Haben wir uns nicht auch in jeglichen agilen Projekten mit Kundenfeedback, Automatisierung & Co. beschäftigt? Durch verkürzte Release-Zyklen entstehen neue Herausforderungen für die Qualitätssicherung.
Im Vortrag wird anhand von Praxisbeispielen aus realen Projekten gezeigt, dass das gute klassische Testmanagement auch in Zeiten von Vollautomatisierung noch seine Berechtigung hat, aber auch an die neuen Gegebenheiten angepasst werden muss. Kurz: Eine Modernisierung mit Sinn und Verstand. Im Einzelnen wird dabei auf unterschiedliche Aspekte wie neue Rollenverteilung, Testplanung, -Priorisierung, -Erstellung, -Ausführung und -Reporting eingegangen.
Eine ausgewählte Spezialität ist dabei der Einsatz von Monitoring- und Telemetrie-Daten als weiterer proaktiver Input für den gesamten Testmanagementprozess. Es kommen dabei diverse Lösungen zum Einsatz, von Visual Studio Team Services über Application Insights bis hin zu Hockey App, die jeweils einzelne Puzzlestücke liefern, welche zu einem gemeinsamen Bild für die gesamte Technologielandschaft zusammengesetzt werden.



Thomas Rümmler
AIT GmbH & Co. KG
Managing Consultant, Projektleiter

Nico Orschel
AIT GmbH & Co. KG
Principal Consultant

Donnerstag, 01.01.1970   |   16:15 - 17:15 Uhr   |    Di 8.3

Swearing, Nudity and Other Vulnerable Positions

Over 3 months John recorded over 75 hours of interviews and spoke to some of the most respected people in the industry to produce an audio documentary that attempts to answer the question “What is safety? And why is it important anyway?”. This highly interactive talk will present the findings and guide and challenge you through a journey to understanding safety.

Target Audience: This talk is relevant to anyone working on a team with other humans
Prerequisites: Experience of working on a team with other human beings
Level: Introductory Extended Abstract
Over 3 months John recorded over 75 hours of interviews and spoke to some of the most respected people in the industry to produce an audio documentary that attempts to answer the question “What is safety? And why is it important anyway?”
This highly interactive talk will present the findings and guide and challenge you through a journey to understanding safety. Including short interactive sessions and role play exercises to cover the following topics:
  • What is safety?
  • What are the elements that make a team effective?
  • Is psychological safety the foundation to team performance?
  • What can we all do to help foster psychological safety in our teams?
  • What is the relationship between safety, stress and engagement?
  • What is the profound impact of a lack of safety and engagement on society?
This talk has grown as John created the new podcast „The Agile Path“. The first season on this podcast is about safety in teams. John has interviewed world renowned specialists in the field; Christopher Avery, David Marquet, Jerry Weinberg, Esther Derby, Johanna Rothman, Woody Zuill and many more in over 75 hours of audio. This has been a fascinating deep dive learning experience for John and he hopes to explore these insights with the audience.



John Le Drew
Wise Noodles
Organisational Coach, Experienced Engineer

Donnerstag, 01.01.1970   |   17:45 - 18:45 Uhr   |    Di 1.4

Architekturtipps und Best Practices für gelungene API-Integration

Durch den Trend zu Microservice-Architekturen und die Bereitstellung von Public APIs ist die Verbreitung HTTP-basierter APIs noch weiter angestiegen. Doch in der Praxis ist zu beobachten, dass bei der Umsetzung von APIs und ihrer Clients wohlbekannte Fehler und Anti-Patterns wiederholt zum Einsatz kommen. So entstehen eng gekoppelte, zerbrechliche und wenig widerstandsfähige Lösungen, deren Wartung und Weiterentwicklung deutlich aufwendiger wird, als erhofft. Dieser Vortrag beleuchtet typische Fallen und zeigt alternative Lösungswege auf.

Zielpublikum: Architekten, Entwickler, Projektleiter
Voraussetzungen: Vorkenntnisse in Systemintegration und HTTP-basierten Schnittstellen vorteilhaft
Schwierigkeitsgrad: Fortgeschritten Extended Abstract
Viele Unternehmen haben leider zu wenig aus den Fehlern der Vergangenheit gelernt. Weiterhin entstehen Integrationslösungen mit sehr enger Kopplung, bei denen selbst kleinste Änderungen der API eine Änderung der Clients notwendig macht (und dies selbst bei Änderungen, die eigentlich rückwärtskompatibel sein müssten). Zudem weist die Architektur der Kommunikationspartner oftmals keine ausreichende Widerstandsfähigkeit auf. Einige Gründe für diese Probleme sind Code-Generatoren, Data Binding Frameworks und diverse Tools oder Entwickler-Plattformen wie Swagger / SwaggerHub. Diese Angebote werden gerne wahrgenommen, weil sie einen vermeintlichen Geschwindigkeitsvorteil versprechen. Tatsächlich ergeben sich mittelfristig oft Nachteile und Schwierigkeiten durch deren Einsatz. Andere Gründe sind blockierende Kommunikation und zu wenig durchdachte Ansätze für den Umgang mit Fehlern. Ziel des Vortrags ist es, ein Bewusstsein für die Thematik zu schaffen, auf die Wichtigkeit guten API-Designs einerseits sowie widerstandsfähiger Architektur andererseits hinzuweisen und Konzepte wie beispielsweise „Tolerant Reader" bekannter zu machen.



Thilo Frotscher

freiberuflicher Systemarchitekt, Trainer und Autor

Donnerstag, 01.01.1970   |   17:45 - 18:45 Uhr   |    Di 2.4

Turbocharge your design process with Functional Programming

How do you test your application design or architecture for viability? By quick iteration preferably, and without locking everything down in the early phases of a project. Functional programming allows creating executable high-level domain models very quickly, allowing developers and customers alike to explore their properties and see how well they fit the intended domain. This talk shows how it's done, with examples from several industrial projects.


Target Audience: developers, architects, decision makers
Prerequisites: basic software development experience
Level: Practicing Extended Abstract
High-level domain models are easy to create using functional programming, so much that it's often easiest to express them directly in code without a distinct modelling step. Models drawn up in functional programming benefit from several key advantages not generally found in traditional OO projects: Libraries with higher-order abstractions (such as monads) enable embedded domain-specific languages. The low notational overhead of FP keeps the process going quickly. Immutability keeps programmers from getting bogged down choreographing state changes. These (and other benefits of FP) allow developers to test the waters quickly. Furthermore, models evolve into deployable code seamlessly, and the traditionally low coupling in FP keeps the architecture elastic as the system evolves.



Michael Sperber
Active Group GmbH
CEO

Donnerstag, 01.01.1970   |   17:45 - 18:45 Uhr   |    Di 3.4

API-Security – Wird die Sicherheit vernachlässigt, oder ist API-Sicherheit einfach zu kompliziert?

APIs bilden die Grundlage für viele Digitalisierungsprojekte. Doch die Bereitstellung von APIs sowie deren Absicherung stellt Unternehmen vor große Herausforderungen.
Welches sind die größten Herausforderungen bei der Absicherung von APIs?
Was ist der richtige technologische Ansatz bei der Absicherung privater und öffentlicher APIs?
Wir werfen einen Blick auf den Istzustand und schauen, wie es um das Thema API Sicherheit steht: Erfahren Sie, welche Lösungen es zur Absicherung von APIs gibt, und wie Unternehmen diese eingesetzt haben.

Zielpublikum: Architekten, Projektleiter, Verantwortliche für IT Security und IT Integration
Voraussetzungen: WebAPIs, IT Security
Schwierigkeitsgrad: Fortgeschritten Extended Abstract
Immer mehr Unternehmen öffnen, insbesondere im Rahmen von Digitalisierunginitiativen, ihre IT-Systeme und bieten die hierdurch freiwerdenden Informationen in Form privater oder öffentlicher APIs Ihren internen Abteilungen, Partnern, externen Entwicklern und auch Kunden an.
Doch wie gewährleistet man die Sicherheit dieser APIs? OAuth1.0, Oauth 2.0, OpenID Connect, HMAC Token, JWE, JWT, Quota, Throttling… – was ist der richtige Ansatz für Ihr Unternehmen, und wie kann er im Rahmen der bestehenden Architektur am besten implementiert werden?
Welches sind die größten Herausforderungen bei der Absicherung von APIs? Sind es die zahlreichen verschiedenen, teilweise noch nicht ratifizierten Standards, ein fehlendes Bewusstsein für die Risiken, oder der Kosten- und Innovationsdruck?
Wir werfen einen Blick auf den Istzustand und schauen, wie es um das Thema API Sicherheit steht. Welche Lösungen gibt es für die verschiedenen Herausforderungen rund um die API Sicherheit und wie haben Unternehmen diese gemeistert?



Ivo Stankov
Axway
Senior Consultant

Donnerstag, 01.01.1970   |   17:45 - 18:45 Uhr   |    Di 4.4

Beyond Agile – Wie Microsoft seine Art, Software zu entwickeln, änderte

Microsoft blickt auf eine mehr als siebenjährige Transformationsphase zurück, in der die Entwicklungsprozesse zahlreicher Produkte für das Cloud-Zeitalter umgestellt wurden. Dieser Wandel veränderte nachhaltig die Kultur des Unternehmens, die Prozesse der Softwareentwicklung und den Einsatz von Entwicklungswerkzeugen. In diesem Vortrag teilen wir unsere Erfolge und Misserfolge auf dem Weg zu einem One Engineering System (1ES) unter anderem aus den Bereichen Team-Organisation, Software-Qualität, hypothesengetriebene Entwicklung und Operations.

Zielpublikum: Manager, Entscheider, Projektleiter, Entwickler, Administratoren, Tester
Voraussetzungen: Kenntnisse zu agilen Methoden
Schwierigkeitsgrad: Fortgeschritten Extended Abstract
Microsoft blickt auf eine mehr als siebenjährige Transformationsphase zurück, in der die Entwicklungsprozesse zahlreicher Produkte für das Cloud-Zeitalter umgestellt wurden. Dieser Wandel veränderte nachhaltig die Kultur des Unternehmens, die Prozesse der Softwareentwicklung und den Einsatz von Entwicklungswerkzeugen. Beginnend mit einem „Lighthouse“-Projekt und ca. 600 Beteiligten im Jahr 2010, wurde das Vorhaben, ein One Engineering System (1ES) zu schaffen, im Jahr 2014 durch den neuen CEO Satya Nadella noch einmal intensiviert, so dass inzwischen mehr als 60000 Mitarbeiter die neue Arbeitsweise adaptiert haben. Der Vortrag beschreibt die erneuerte Arbeitsweise und zeigt, wie kundenbezogen, datengesteuert und geschwindigkeitsoptimiert Microsofts Entwicklungsprozesse heute sind. Zentrale Themen sind unter anderem das Erschaffen einer neuen Firmenkultur, der Umgang mit technischer Schuld, die experimentelle Vorgehensweise und die Automatisierung von Prozessen.



Karsten Kempe
Microsoft Deutschland GmbH
Berater

Donnerstag, 01.01.1970   |   17:45 - 18:45 Uhr   |    Di 5.4

TypeScript 2.X: Was war. Was kommt!

Mit TypeScript 2.0 wurde der Grundstein gelegt, die Sprache endgültig in das bestehende JavaScript-Tooling mit npm zu integrieren. Neben dem Import von Deklarationsdateien gibt es noch weitere wegweisende Features. Darunter sowohl die immer bessere Control-Flow-Analyse zur Typinferenz als auch Non-nullable Types, Sprachkonstrukte für besseres OOP und ganz neue Typen wie never. Ein weiteres Thema sind die ESNext-Features, wie Async/Await und Decorators, die schon heute nach ES3/ES6 transpiliert werden können.

Zielpublikum: Frontend-Entwickler/Architekten
Voraussetzungen: grundlegende JavaScript-Kenntnisse
Schwierigkeitsgrad: Fortgeschritten Extended Abstract
TypeScript ist in der heutigen JavaScript-Welt ein immer wieder auftauchender Bestandteil. Mit TypeScript 2.0 wurde der Grundstein gelegt, die Sprache endgültig in das bestehende JavaScript-Tooling mit npm zu integrieren. Neben dem Import von Deklarationsdateien in dieser Livecoding-Session werden noch weitere wegweisende Features vorgestellt. Darunter sowohl die immer bessere Control-Flow-Analyse zur Typinferenz als auch Non-nullable Types, Sprachkonstrukte für besseres OOP und ganz neue Typen wie never. Ein weiteres Thema sind die ESNext-Features, wie Async/Await und Decorators, die schon heute nach ES3/ES6 transpiliert werden können. Ganz nebenbei wird das Tooling in Visual Studio Code und dabei die Fähigkeiten des Compilers gezeigt.



Johannes Dienst
DB Systel GmbH
Softwarearchitekt

Donnerstag, 01.01.1970   |   17:45 - 18:45 Uhr   |    Di 6.4

Eine Geschichte über Kreative, Fachbereiche, das agile Team und die Liebe zum innovativen Produkt

Die Umsetzung einer guten Idee verläuft selten reibungslos und nicht immer erfolgreich. So zeigen wir mithilfe von zwei Projektberichten auf, was in mehrjährigen, millionenteuren und 100+ Personen starken Projekten im Laufe der Produktentwicklung mit dessen Anforderungen passiert. Der Vortrag ist eine Geschichte über "Good", "Ugly" und "Bad" Practices von symbiotischer Produktentwicklung zwischen Discovery, Explore und Exploit und der Zusammenarbeit von Kreativen, Fachbereichen und dem agilen Team.

Zielpublikum: CIO, Manager, Architekten, Entwickler, UX / UI, Projektmanager, Agilisten
Voraussetzungen: Basiswissen von agiler Produktentwicklung
Schwierigkeitsgrad: Fortgeschritten Extended Abstract
Warum ist die Symbiose zwischen Kreativ-, Fach- und IT-Abteilungen auch für Entwickler und Architekten relevant?
Bei vielen unserer Kunden sind wir immer noch mit Silos und / oder Silodenken konfrontiert. Viele der Teams sind nach Kompetenzen organisiert und arbeiten getrennt voneinander. Wir beleuchten in diesem Vortrag, warum es so wichtig ist, aus diesen Silos eine Organisation zu schaffen, welche eine holistische agile Produktentwicklung, von der Idee über die Umsetzung bis zum Betrieb, ermöglicht und fördert. Anhand von zwei Projektberichten aus zwei verschiedenen Industrien mit Projektteams aus 100+ Personen werden folgende Themen / Fragestellungen diskutiert:
  • Wie funktioniert ein innovativer Ideenprozess (Product Discovery) mit klaren Hypothesen und Prüfung durch Experimente?
  • Frühzeitige Einbindung von Architekten und Entwicklern in den Ideenprozess (Feasibility-Analysen, relevante Architekturentscheidungen, etc.)
  • Wie kann ich mich als Entwickler / Architekt in Priorisierungsentscheidungen einbringen? Wie schaffe ich Wert im ökonomischen Sinne? Wie werden Enabler (Spikes, Tech Stories, Bugfixing) gewichtet?
  • Warum darf DevOps nicht nur technisch betrachtet werden und sollte auch relevant für die Validierung der Hypothesen sein? Welche DevOps-Praktiken/-Tools können mir dabei helfen?
Im Rahmen dieser Themen / Fragestellungen werden jeweils „Bad und Good Practices“ aus vergangenen Projekten aufgezeigt. Die Teilnehmer werden danach in der Lage sein, Fallstricke in der Produktentwicklung zu verstehen und zu lösen. Außerdem verstehen sie, wie man den Flow in einer holistischen agilen Produktentwicklung optimieren und nutzen kann sowie die erfolgreiche Zusammenarbeit in cross-funktionalen Teams.
Der Vortrag diskutiert unter anderem die Fragestellung zum Motto "Test the Waters", wie Organisationen Rapid Innovation, Exploration und Verification fördern können. Dieses Thema wird anhand praktischer Projektbeispiele analysiert.



Philipp von Bentivegni
Accenture GmbH
Agile Advisor

Sebastian Straube
dgroup (Part of Accenture Consulting)
Consultant

Donnerstag, 01.01.1970   |   17:45 - 18:45 Uhr   |    Di 7.4

Groovy integration testing with Spock and Docker

This talk demonstrates how to use Docker in conjunction with Spock (using the Testcontainers library) by providing live demos and best practices for joyful integration testing. You will see how to spin-up and tear-down databases (relational and NoSQL), web-servers and even external applications on a test-class and test-method basis. In the end we’ll even have an outlook on functional testing using GEB and docker-compose with Spock.


Target Audience: Developers, Testers, DevOps
Prerequisites: Attendees should have basic knowledge about Java and Docker. Spring-Boot knowledge helps as well
Level: Practicing Extended Abstract
The rise of container technologies allows us to fundamentally change the way we develop, test and deploy software. However, the problem and solution space with which software developers are confronted nowadays has become even bigger and we as a profession still need to discover patterns and practices for successfully dealing with this level of complexity.
Thanks to tools like Docker, spinning up a full-fledged relational database isn’t more difficult or time consuming than using an in-memory database anymore. So why not run your integration tests on your local machine, inside an environment which resembles production as close as possible?
This talk demonstrates how to use Docker in conjunction with Spock by providing live demos and best practices for joyful integration testing. You will see how to spin-up and tear-down databases (relational and NoSQL), web-servers and even external applications on a test-class and test-method basis. In the end, we’ll even have an outlook on functional testing using GEB and docker-compose with Spock. The practices and tools presented work the way in any environment, e.g. local dev machine or dockerized CI server.



Kevin Wittek
G DATA | Advanced Analytics GmbH
Java developer

Donnerstag, 01.01.1970   |   17:45 - 18:45 Uhr   |    Di 8.4

The problem with cultural fit: How your recruitment policy may be tripping up your creativity

It's common these days to hear talk of "cultural fit", yet a company made up of people who are too similar is unlikely to bring great creativity or innovative problem-solving no matter how comfortable it might feel. One of our next big challenges will be to understand why and how to embrace and support all kinds of different people in our teams and organisations. This talk uses the backdrop of cognitive bias and the latest research in cognitive diversity to explain why this is important and propel you towards working out how to do so.

Target Audience: Team members, Decision makers, Managers
Prerequisites: none
Level: Expert Extended Abstract
This talk includes aspects of the latest research on neuro-diversity and cognitive diversity in teams.
It also considers some of the cognitive biases that feed straight into our mis-placed "cultural fit" paradigm and may lead to us inadvertently creating a bland mono-culture.
It dissects what "cultural fit" might really mean.
It suggests things we should consider instead.



Sallyann Freudenberg
Independent
Agile Consultant and Trainer

Donnerstag, 01.01.1970   |   19:00 - 20:00 Uhr   |    IT

"Der Ultimative IT-Stammtisch"



Jutta Eckstein
IT communication
Beraterin und Trainerin

Nicolai Josuttis
IT Communication
Unabhängiger Systemarchitekt, Projektleiter, Berater und Autor

Johannes Mainusch
kommitment GmbH & Co. KG
Agile Manager

Michael Stal
Siemens AG
Principal Engineer

Melanie Wohnert
Think Y
Inspiratorin

Donnerstag, 01.01.1970   |   20:00 - 23:00 Uhr   |    Welcome

Welcome Reception






Donnerstag, 01.01.1970   |   09:00 - 10:30 Uhr   |    Mi 1.1

Refactoring to a system of systems

Der Vortrag betrachtet ein konkretes Beispiel der Interaktion von Bounded Contexts in einem monolithischen System und identifiziert die Problemstellungen, die sich ergeben, wenn man dieses System in exakt dem gleichen Interaktionsstil in mehrere Systeme aufteilt. Danach wird eine alternative Implementierungsstrategie für das monolithische System diskutiert, die die Modularität des Ursprungssystems stark verbessert und im Falle einer Aufteilung in unabhängige Teilsysteme zu einer besseren Architektur führt.

Zielpublikum: Softwarearchitekten, Seniorentwickler
Voraussetzungen: Grundlegendes DDD, grundlegendes Java
Schwierigkeitsgrad: Experte Extended Abstract
Beim Bauen monolithischer Systeme nutzen Entwicklerteams eine Reihe typischer Muster, um die Interaktion verschiedener Systemteile zu implementieren. Behält man diese Interaktionsmuster bei, während man ein System in verschiedene aufteilt, ergeben sich oft große Komplexität und architektonische Nachteile, die oft die ursprüngliche Idee, die hinter der Aufteilung stand, konterkarieren.
Der Vortrag betrachtet ein konkretes Beispiel der Interaktion von Bounded Contexts in einem monolithischen System und identifiziert die Problemstellungen, die sich ergeben, wenn man dieses System in exakt dem gleichen Interaktionsstil in mehrere Systeme aufteilt. Danach wird eine alternative Implementierungsstrategie für das monolithische System diskutiert, die die Modularität des Ursprungssystems stark verbessert und im Falle einer Aufteilung in unabhängige Teilsysteme zu einer besseren Architektur führt.



Oliver Gierke
Pivotal Software, Inc.
Leiter des Spring-Data-Projekts

Donnerstag, 01.01.1970   |   09:00 - 10:30 Uhr   |    Mi 2.1

Cloud Transformation bei AutoScout24 – von .NET & VM Ware zu Scala & AWS. Ein Erfahrungsbericht

Erfahrungsbericht der anspruchsvollen und lehrreichen Transformation unserer Organisation mit 100+ Software-Entwicklern und Administratoren, 200 Applikationen und Services von einer virtualisierten monolithischen Microsoft .Net-Architektur mit VM-Ware und eigenen Rechenzentren zu einer cloud-native, Microservice-basierten Scala-Architektur, betrieben mit Amazon Web Services.
Die Transformation umfasste Architektur, Programmiersprache, Betriebsmodell, Rollen und Prozesse und Kultur,
Beschreibung des Vorgehens, der Hindernisse und Erfahrungen.

Zielpublikum: Manager, Entscheider, Projektleiter, Agile Coaches
Voraussetzungen: Transformationserfahrung, Agile at Scale, Cloud
Schwierigkeitsgrad: Fortgeschritten



Matthias Patzak
DigitalSparks
Advisor on Value, Strategy and Flow

Donnerstag, 01.01.1970   |   09:00 - 09:45 Uhr   |    Mi 3.1 1)

How Kanban speeds up product development of a German savings bank

Case study about agile project management in a German Savings Bank:
Recognizing that bank account fees will no longer hold as the main revenue stream in the future and in a digital world, a German savings bank started to create a life companion chatbot as a pilot for innovative new digital services. The team started using Scrum but transitioned to Kanban to speed up product development even more. This session will cover topics such as the pain points the team had with the Scrum framework, the transition to Kanban and its huge benefits.

Target Audience: Project Leader, Manager, Developers
Prerequisites: Basic knowledge in agile methods
Level: Practicing Extended Abstract
The banking industry must find new innovative revenue streams.
The finance industry is massively influenced by the digital transformation as all other industries. Not only new payment methods are rising (PayPal, AliPay, WeChat, Google Pay, mostly through NFC), the finance sector will lose bank account fees as one of the major revenue source. A German savings bank had identified those risks and started to kick-off new innovative digital services to create new revenue channels. Thus, the bank decided to develop a local life companion chatbot for iOS and Android smartphones. The project team consisted of business development, content, marketing – and frontend and backend developer teams.
Complications with the Scrum methodology slowed down product development.
Unfortunately, the product development did not go as smooth as the theory of Scrum predicts. Meetings and reviews slowed down the progress, constant re-prioritizations of features changed the scope of the sprint backlogs which resulted in not achieving the sprint commitments. Constant re-prioritizations were caused by parallel concept and development work which was a huge challenge for applying a methodology like Scrum as it is defined in theory. This led to a difficult measurement of velocity which is critical for reliable future forecasts. The developer teams had difficulties to focus on their current tasks because of scope changes as they were never able to reach their sprint commitments.
Transitioning to Kanban was the solution.
To be able to respond to changing customer demands and competitive behavior, sprints were replaced by continuous development with releases in regular cadences. The lead time of developing new features from idea generation to live deployment could be reduced by a significant amount of time through limiting work in progress (parallel work on user stories). Limiting work in progress reduces partially done work, extra features, lost knowledge, handoffs, task switching, delays and defects which are considered as the seven wastes of lean software development. Furthermore, Kanban offers massive analytics possibilities, e.g. the development team can predict with 70%, 80%, 90%, etc. probability when a feature will be available for the customer. Thus, the product owner can calculate when the backlog will be ready for the live environment based on his desired probability. The positive aspects of Scrum were still used in the Kanban process, such as the Scrum ceremonies like Daily Scrum and Retrospective Meetings, to combine best of both methods. Besides the gains in speed and predictability, the development team was more satisfied with the process because they could react to demands at any time without having the feeling that they did not stick to commitments.



Sebastian Straube
dgroup (Part of Accenture Consulting)
Consultant

Donnerstag, 01.01.1970   |   09:00 - 10:30 Uhr   |    Mi 4.1

Vertragsgestaltung für agile Softwareentwicklung

Agile Methoden sind aus der heutigen Softwareentwicklung nicht mehr wegzudenken. Anspruchsvoll ist nach wie vor die Vertragsgestaltung, wenn Unternehmen die Softwareentwicklung nach agilen Ansätzen bei einem Dienstleister beauftragen.
Der Vortrag diskutiert die möglichen Vertragstypen (insbesondere Werksvertrag und Dienstvertrag), die Inhalte von Verträgen (weniger Inhalt, mehr Prozess) und die Bezahlmodelle (Festpreis, Time&Material, Profit Sharing etc.).

Zielpublikum: Projektmanager, Product Owner, Manager
Voraussetzungen: Agile Entwicklung
Schwierigkeitsgrad: Anfänger Extended Abstract
Die Vortragenden bringen dabei sowohl die juristische Expertise (Fritz Pieper) wie auch langjährige Erfahrung in der Entwicklungsarbeit mit solchen Verträgen (Stefan Roock) mit.



Stefan Roock
it-agile GmbH
Coach, Trainer und Teammitglied für agile Ansätze wie Scrum, Kanban und XP

Fritz-Ulli Pieper
Taylor Wessing
Rechtsanwalt

Donnerstag, 01.01.1970   |   09:00 - 09:45 Uhr   |    Mi 5.1 1)

Hände waschen, Zähne putzen: (manchmal) vergessene Grundlagen von Software-Engineering

Zeitlose Prinzipien, Heuristiken und andere vermeintlich esoterische, aber in Wirklichkeit sehr nützliche Dinge, die Softwareteams wissen und berücksichtigen sollten - aber leider tendenziell ignorieren - weil Hype und der Glanz vermeintlich moderner Technologien diese Grundregeln in eine finstere Ecke des Unterbewusstseins verbannt haben ...
Sie hören von Einfachheit (im Gegensatz zu Eindrücklichkeit [impressiveness]), Kohäsion, Modularität, Erst-Denken-dann-Coden sowie einigen grundlegenden Aufgaben von Softwarearchitekten.

Zielpublikum: Softwareentwickler und -architekten
Voraussetzungen: Grundlagen von Software-Engineering, Erfahrung mit Entwicklungsprojekten
Schwierigkeitsgrad: Fortgeschritten Extended Abstract
Zu Beginn werde ich Grundlagen, Prinzipien und Heuristiken unterscheiden, und dabei ein wenig über Entwicklungsorganisationen schimpfen. Danach tauchen wir in ausgewählte Themen des „methodischen Software-Engineerings" ein.
Einige Beispiele, über die ich im Vortrag sprechen werde:
* Einfachheit - auch als KISS-Prinzip bekannt, wird oft zugunsten von
„schick" oder „modern" vernachlässigt. Ich spreche LOC als die einfachste und möglicherweise nützlichste Metrik an, und warum wenig oft besser ist (Sicher ein Grund, warum Microservices seit einigen Jahren so angesagt sind).
Sie hören von typischen Kompromissen bezüglich Einfachheit – beispielsweise können Sie Programmierung vereinfachen auf Kosten komplizierter Konfiguration und aufwendigen Betriebs.
* Kohäsion - also die Gruppierung zusammengehöriger Elemente - wird allgemein als hochgradig nützlich angesehen. Allerdings ist Kohäsion immens schwierig zu messen, und noch schwerer zu erreichen.
Sie werden die Problematik widersprüchlicher Kriterien für Kohäsion kennenlernen.
* Modularität gilt zu Recht als die Mutter aller Entwurfsprinzipien - dennoch lohnen ein paar Gedanken in ihre Richtung: Ich werde „Zusammensetzbarkeit" als einen weiteren Begriff erwähnen - womit wir hoffentlich zu noch besseren Kriterien für den Entwurf nützlicher Module kommen können.
* Grundlegende Aktivitäten und Tätigkeiten in Softwarearchitektur und -engineering, wie beispielsweise „Erst-Denken-dann-Coden", also die saubere Trennung von Problem- und Lösungsraum: Erst das Problem verstehen, dann über Lösungen nachdenken.
* Wenn wir so weit gekommen sind, sprechen wir Dokumentation an: Die ist oft nützlich, aber niemals ausreichend, um gute Systeme zu implementieren. Verlassen Sie sich niemals auf Dokumentation, sondern arbeiten Sie bei der Implementierung mit.
Finden Sie positive und negative Abweichungen vom Soll-Zustand, und berücksichtigen Sie solche Abweichungen in Entwürfen.



Gernot Starke
INNOQ Fellow
innoQ-Fellow, Coach, Trainer, Autor

Donnerstag, 01.01.1970   |   09:00 - 09:45 Uhr   |    Mi 6.1 1)

Vom Bildschirm in die Notaufnahme

25 Jahre in der Software-Industrie haben Dennis an die Grenzen seiner Leistungsfähigkeit gebracht. Sein Zusammenbruch kam unerwartet, war in Wirklichkeit aber längst abzusehen.
Gleichzeitig war er dringend nötig. Denn so konnte Dennis schließlich erkennen, dass er schon sein Leben lang zu wenig auf sich selbst und zu sehr auf das geachtet hat, was er glaubte, das andere von ihm erwarten.
Dennis erzählt von Produktivität, Perfektionismus und Burn-out - und wie er es heute schafft, sich auf das zu konzentrieren, was ihm wirklich wichtig ist.

Zielpublikum: Alle, die sich manchmal fragen, ob der alltägliche Stress im Beruf denn noch normal ist
Voraussetzungen: keine
Schwierigkeitsgrad: Anfänger



Dennis Traub
codecentric AG
Fellow

Donnerstag, 01.01.1970   |   09:00 - 10:30 Uhr   |    Mi 7.1

Get Kata

Conventionally anchored in a TDD cycle, katas are typically simple problems that give programmers the opportunity to exercise deliberate practice and explore different approaches.
But the simplicity can be deceptive, with many programmers tiring of these katas too soon, missing out on some of the more mind-bending and paradigm-expanding opportunities on offer.
This session will pick on a couple of katas and dig deeper into TDD, lambdas, language(s), (dys)functional programming and Alcubierre drive.

Target Audience: Developers and anyone with an appreciation for problem solving and agility
Prerequisites: Coding skills
Level: Practicing Extended Abstract
Coding katas are a way that programmers can kick the tires of their programming languages, paradigms and practices. Conventionally anchored in a TDD cycle, katas are typically simple problems that give programmers the opportunity to exercise deliberate practice and explore different approaches, whether programming style, pair programming or test-first programming.
But the simplicity can be deceptive, with many programmers tiring of these katas too soon, missing out on some of the more mind-bending and paradigm-expanding opportunities on offer. In small examples, if we look closely, we can see aspects of our larger architectures, we can see new opportunities... and we can have fun.
This session will pick on a handful of katas and dig deeper into TDD, lambdas, language(s), (dys)functional programming and Alcubierre drive.
Except for taking notes and tweeting about the session, no laptop is needed for this session — just your brain and your attention!



Kevlin Henney
Curbralan
Independent Consultant & Trainer

Donnerstag, 01.01.1970   |   09:00 - 10:30 Uhr   |    Mi 8.1

Leadership: Grow Relationships with Intention and Awareness

Learn how to be a more effective leader through leveraging your talents in intention and awareness. Develop relationships and grow systems.
How can you lead without having an explicit leadership role or a system supporting your ideas? And, independent of your role, what kind of leader are you called to be?
You will increase your clarity in this session, where to focus, what to start with and what kind of influence your change might have on the system.
Discover the space you want to create. You are welcome.

Target Audience: Project Leader, Manager, Decision Maker, Scrum Master, Product Owner, Experts
Prerequisites: awareness how leadership influences organizational and project success
Level: Practicing Extended Abstract
Leading and transformation starts with yourself. If you lead yourself, you can lead in relationship building and in leading the system. Leading me, leading you is the base for leading us.
This session gives you the space to reflect on what leadership means in your own context, to share and exchange the challenges with other leaders and work on where you want to take concrete action.
How can you lead without having an explicit leadership role or a system supporting your agile ideas? With Temenos we consciously create a safe space for people to show up in the organization and start leading, regardless whether they are assigned to such a role or not.
Leadership is about where to focus our attention. Participants will leave with a lot of clarity on what they want and specific next steps to proceed in that direction. They will have indicators of progress and a buddy to check in with after the conference, so that the intention is not lost in reality.



Olaf Lewitz
TrustTemenos Academy
Founder and Agile Coach

Christine Neidhardt
ecomenta
Coach

Donnerstag, 01.01.1970   |   11:00 - 11:45 Uhr   |    Mi 1.2

API-First Design - Grundlage für die Etablierung eines konsistenten API-Management-Ansatzes

APIs sind heute ein essenzieller Bestandteil moderner Applikationsarchitekturen. Der Schlüssel zum Erfolg ist ein konsistenter API-Management-Ansatz, der den gesamten API Lifecycle abdeckt.
Kritischer Erfolgsfaktor für APIs ist ein intuitives Design. Ein „API First“-Ansatz, bei dem zunächst die API-Beschreibung kollaborative, unter Beteiligung verschiedener Stakeholder entwickelt und abgestimmt wird, fördert die Konsistenz des Designs und steigert die Effizienz bei der API-First-Entwicklung und im Falle späterer Änderungen.

Zielpublikum: Architekten, Entwickler
Voraussetzungen: API-Grundkenntnisse
Schwierigkeitsgrad: Anfänger Extended Abstract
In diesem Vortrag wollen wir einen Ansatz darstellen, wie Business APIs konsistent definiert, implementiert, bereitgestellt und betrieben werden können und wie dies toolgestützt, inklusive der Integration in einem CI/CD-Umfeld aussehen kann.
Fragen, die wir erörtern wollen, sind u.a. welche Qualitätsansprüche solche Business APIs erfüllen müssen, um den gewünschten Mehrwert zu liefern oder wie der Lifecycle aussieht, insbesondere im Bezug auf die Designphase, und wie kann dieser IT-technisch unterstützt werden.



Sven Bernhardt
OPITZ CONSULTING Deutschland GmbH
Solution Architekt und Referent

Danilo Schmiedel
OPITZ CONSULTING Deutschland GmbH
Managing Consultant

Donnerstag, 01.01.1970   |   11:00 - 11:45 Uhr   |    Mi 2.2

Hamburg – ein Stadtstaat auf dem Weg zur Digitalisierung

In Hamburg wird viel getan, um ein Innovationsklima zu erzeugen, das die Entwicklung moderner digitaler Anwendungen und Applikationen und die Vernetzung zwischen den daran beteiligten Unternehmen und Institutionen fördern soll. Ein Beispiel aus dieser Initiative ist die Entwicklung der Plattform roads für Baustellen-Management und digitale Genehmigungsprozesse für Baumaßnahmen. Dieser Vortrag zeigt, wie eine solche Plattform architektonisch, technologisch und organisatorisch aufgestellt sein muss, um bei der Menge an Beteiligten zu gelingen.

Zielpublikum: Architekten, Projektleiter, Manager, Entscheider
Voraussetzungen: Projekterfahrung, Interesse an Digitalisierung
Schwierigkeitsgrad: Anfänger Extended Abstract
Die WPS hatte das Glück, in den letzten zwei Jahren am Digitalisierungsprozess in Hamburg beteiligt zu sein. Wir durften eine Plattform aus verschiedenen Komponenten (Server, Desk-Client, Touchtisch-Client, Webfrontend, mobile Endgeräte) entwickeln, die an vielfältige Schnittstellen von anderen Systemen angeschlossen ist. Das System läuft seit einem halben Jahr produktiv und seine reine Existenz führt zu Bewegungen in der IT-Landschaft, in der Organisation und an den Schnittstellen.
Ich werde versuchen, in diesem Vortrag die Erfahrungen, die wir auf den verschiedenen Ebenen gemacht haben, mit meinen früheren Erfahrungen zusammenzubringen, so dass mehr als nur die Beschreibung eines Projekts mit Do's und Don't herauskommt, sondern verallgemeinerbare Erkenntnisse, die die Zuhörer auf ihr Arbeitsumfeld übertragen können.



Carola Lilienthal
WPS - Workplace Solutions GmbH
Geschäftsführerin

Donnerstag, 01.01.1970   |   11:00 - 11:45 Uhr   |    Mi 3.2

Moving a Large Public Authority’s Test System into Embedded In-Memory Technology

This project is one of the largest federal OLTP systems supporting 100k transactions each day and processing over EUR 25 billion per year. With the increasing complexity and the rapidly changing requirements of highly specific functionalities, the number of unit and integration test cases has doubled over the last 3 years, which resulted in increased test runtime. In this contribution, we describe how the architecture of a large test environment, based on Oracle, has been transformed into a flexible and fast embedded in-memory architecture.

Target Audience: Architects, Developers, Testers, DevOps Manager
Prerequisites: Advanced knowledge in Java, Embedded software, Large-scale systems, HSQL
Level: Practicing Extended Abstract
The subject of this case study is one of the largest federal OLTP software systems, which supports one hundred-thousand transactions each day and ensures the safe processing of over EUR 25 billion per year. With the increasing complexity and the rapidly changing requirements of highly specific functionalities, the number of unit and integration test cases has doubled over the last 3 years. This has resulted in increased test runtime. Since system performance is highly important, it is unadvisable to cut corners in tests. In this contribution, we will describe how the architecture of a large test environment, based on Oracle databases, has been transformed into a flexible and fast embedded in-memory architecture. The main challenges involved overcoming the differences between the SQL specifications supported by the base and target systems and increasing the test setup performance.



Eldar Sultanow
Capgemini Germany
Architect and Analyst

Martin Blomenhofer
Federal Employment Agency (Bundesagentur für Arbeit - BA)
Software Engineer

Andreas Jung
Capgemini Germany
Senior Software Engineer

Philippe Masson
Capgemini Germany
Software Engineer & Solution Architect

Donnerstag, 01.01.1970   |   11:00 - 11:45 Uhr   |    Mi 4.2

Herding cats: Wie koordiniere ich 20+ agile Teams, damit wir an den richtigen Sachen arbeiten

Bei OTTO haben wir 20+ agile Teams, die wissen, was für ihren Kontext/Bereich am besten ist. Aber zahlt das auch auf die Unternehmensstrategie ein? Wie schafft man es, dass die Teams sich nicht im Abhängigkeitsdschungel zu anderen Teams verlieren und auch außerhalb des eigenen Scopes denken.
Am Ende des Talks sollte der Zuhörer Einsichten in die Einführung eines Koordinationsboards auf Level 2 Basis, inklusive aller Problematiken und Erfahrungen, die wir in unserem Bereich gesammelt haben, bekommen.

Zielpublikum: Projektleiter, Manager, Entwickler
Voraussetzungen: Fachkenntnisse agile Methoden
Schwierigkeitsgrad: Anfänger



Johannes Mainusch
kommitment GmbH & Co. KG
Agile Manager

Donnerstag, 01.01.1970   |   11:00 - 11:45 Uhr   |    Mi 5.2

Anwendung des gesunden Projektverstands

XP, als eine der beiden Ursprungsmethoden der Agilität (neben Scrum), entstand vor gut 20 Jahren auf Basis von alten und bewährten Praktiken. Kein Bestandteil von XP war neu, neu war nur die Kombination der Einzelteile. Vor dieser Tatsache ist es verwunderlich, dass die Grundprinzipien immer noch falsch verstanden werden und anstelle von Pragmatismus Dogma vorherrscht, was meist mehr Schaden anrichtet, als wirklich weiterhilft.
Unter Einsatz des „gesunden Projektverstandes“ gehe ich in diesem Vortrag auf die „klassischen“ Missverständnisse ein.

Zielpublikum: Architekten, Entwickler, Projektleiter, Manager, Entscheider, Scrum Master, Product Owner
Voraussetzungen: Projekterfahrung
Schwierigkeitsgrad: Fortgeschritten



Jutta Eckstein
IT communication
Beraterin und Trainerin

Donnerstag, 01.01.1970   |   11:00 - 11:45 Uhr   |    Mi 6.2

Multiple Selves?! Trust yourself & grow!

Mindfulness is well known for reducing stress. Did you know you can leverage it for so much more - e.g. to shape your leadership abilities?
I will guide you with the help of a validated psychological model how you can further grow and strengthen your personal leadership abilities. We will also make connections to where you are right now and which small techniques you can take away to integrate mindfulness directly in your daily (business) life to actually take the next step towards your best possible selv(es).


Target Audience: everyone - as leadership is an activity not a role
Prerequisites: just bring curiosity
Level: Practicing Extended Abstract
In my B.Sc. thesis in psychology I did research on the topic of Mindful Leadership. One of the key results was (surprise!) that authentic, people-focused leadership starts with connecting to yourself and evolves with developing yourself continuously.
With this session I take one central model of the research and connect it to the practical work-life. During the 6 months of thesis work, this model influenced me most and made me reflect even on my own life from different angles. Also it integrated seamlessly in my tech-world shaped analytical thinking so I am really keen on sharing some of my personal stories together with the model itself with other “tech people”.



Cosima Laube
cosima-laube.de
Agile Software Engineer & Teamcoach

Donnerstag, 01.01.1970   |   11:00 - 11:45 Uhr   |    Mi 7.2

Die Schleife ist tot, es lebe ...?

Ein guter Entwickler ist stets bemüht, seinen Werkzeugkasten zu vergrößern und immer wieder neue oder bessere Werkzeuge für spezifische Situationen kennenzulernen. Dabei ist es aber auch hilfreich, sich hin- und wieder von mentalem Ballast zu befreien und den ein oder anderen Steinkeil los zu werden.
Ich denke, für die meisten Entwickler stellen klassische Schleifen so einen Steinkeil dar. Dieser Vortrag beleuchtet diese nicht ganz unkontroverse Behauptung von verschiedenen Seiten.

Zielpublikum: Entwickler
Voraussetzungen: Grundlegende Programmierkenntnisse
Schwierigkeitsgrad: Fortgeschritten Extended Abstract
Ein guter Softwarecraftsman ist stets bemüht, seinen Werkzeugkasten zu vergrößern und immer wieder neue oder bessere Werkzeuge für spezifische Situationen kennenzulernen. Dabei ist es aber auch hilfreich, sich hin- und wieder von mentalem Ballast zu befreien und den ein oder anderen Steinkeil los zu werden. Damit bleibt der Werkzeugkasten langfristig leicht und flexibel.
Ich denke, für die meisten Entwickler stellen klassische Schleifen so einen Steinkeil dar. Dieser Vortrag beleuchtet diese nicht ganz unkontroverse Behauptung von verschiedenen Seiten:
* Welche Probleme bringen klassische Schleifen mit sich?
* Welche Einsatzszenarien für Schleifen gibt es?
* Welche Alternativen gibt es und was sind die Vorteile? (Spoiler: High-Order Functions wie map & reduce, Rekursion, Bibliotheksfunktionen wie times & range)
* Gibt es Situationen, wo die klassische Schleife immer noch vorzuziehen ist?
Viele der Beispiele liegen in JavaScript vor. Damit aber nicht nur JS-Entwickler ihren Werkzeugkasten erleichtern können, werden wir auch einen Blick auf andere Sprachen (z.B. Java, C#, Ruby und PHP) werfen.



Marco Emrich
webmasters akademie
Head of Software Development

Donnerstag, 01.01.1970   |   11:00 - 11:45 Uhr   |    Mi 8.2

What I learned from an Olympic sports career (so you don't have to)

In the world of professional sports, innovation, persistence and rapid learning are everything! In this very personal talk I, a former Olympian, will share key learnings from my professional sports career. I will delve into topics such as choosing the team that's right for you, rapid feedback, radical candour and high-performance teams.
I will contrast the perspectives and attitudes of professional sports with modern work life and will extract guidelines and tools that we can apply to our professional lives.

Target Audience: Team members
Prerequisites: none
Level: Introductory



Sandy Mamoli
Nomad8
Agile consultant

Donnerstag, 01.01.1970   |   14:30 - 15:30 Uhr   |    Mi 1.3

Extensibility, Adaptation and more – Patterns for truly flexible Standard Software

Enterprise software must adapt to rapidly changing environments. Diverse customers want to experiment with processes without starting long IT projects. Do you copy the code of an app to adjust the 10% difference between two customers? How can extensible software be built for the cloud?
With years of experience at SAP in building frameworks and extensibility tooling for cloud and on premise applications several patterns evolved and proved their value. The session will give an overview into the extensibility patterns and showcase a few of them.

Target Audience: Architects, Developers
Prerequisites: Basic software development background
Level: Practicing Extended Abstract
Building sustainable and long-lasting software products is a challenge on its own. Being extensible, customizable and adaptable gives the chance to use the same product for many customers. While product line engineering tackles the problem upfront by providing different products within a product family, the extensibility patterns shown here allow for more fine-grained and customer-specific adaptations. Furthermore, you can enable your customers to extend the software themselves and still be able to update the software without losing the adaptation.



Sebastian Wennemers
SAP SE
architect

Donnerstag, 01.01.1970   |   14:30 - 15:30 Uhr   |    Mi 2.3

Die neue Schule der Softwarearchitektur

In der heutigen Architekturpraxis sind unterschiedliche Denkschulen und Hintergründe anzutreffen. Vertreter der klassischen Architektursicht gehen dabei drastisch anders mit Architekturproblemen um, als es Vertreter der neuen Schule machen, die in Start-ups und „IT First“-Unternehmen anzutreffen sind.
In dieser Session stelle ich die Sichtweisen, Konzepte, technischen und organisatorischen Prinzipien gegeneinander, diskutiere die Auswirkungen und wichtigsten Vorteile und Nachteile. Evolutionäre Ansätze, Eventual Integrity etc. sind ein Thema.

Zielpublikum: Software-Architekten, Unternehmens-Architekten, Projektleiter, Manager
Voraussetzungen: Kenntnis und Interesse an Trends rund um digitale Transformation, Agilität und Architektur
Schwierigkeitsgrad: Fortgeschritten Extended Abstract
Ziel dieser Session ist es, das momentane Umdenken in unserer Branche breiter zu diskutieren als über einzelne technische Trends wie Microservices.
Ich skizziere das Umdenken, das im Zuge der Digitalisierung auf Unternehmen und Konzerne klassischer Prägung zukommt. Ich zeige auf, wie man Bereiche der Systemlandschaft mit der neuen Architekturschule beleben kann. Dazu zählen evolutionäre Architekturansätze, Eventual Integrity, geringe Zähigkeit als Möglichkeit der weichen Governance, Servant Leadership Modelle für Architekten, breite Verantwortung und Crowd-Sourcing-Ideen für technische Teilaspekte.
Ich möchte auch diskutieren, inwiefern Themen der klassischen Architekturschule aufgeweicht werden. Konkret etwa Konzepte wie Zentralisierung und Wiederverwendung.
Schließlich gehe ich darauf ein, in welchen Bereichen die „neue Schule" am ehesten sinnvoll ist und wo die Teilnehmer die ersten Hebel ansetzen sollten.



Stefan Toth
embarc Software Consulting GmbH
Entwickler, Software-Architekt und Berater

Donnerstag, 01.01.1970   |   14:30 - 15:30 Uhr   |    Mi 3.3

Serverless Microservices

In diesem Vortrag werden wir uns genauer mit den Konzepten hinter Serverless Microservices befassen und wie Serverless Services bei dem Design dieser Art von Applikationen helfen können. Darüber hinaus werden wir spezifische Use-Cases genauer betrachten und wie diese mit einer Serverless Architektur und alternativ mit einer auf Server basierenden Architektur umgesetzt werden können.

Zielpublikum: Architekten, Entwickler
Voraussetzungen: Java-Kenntnisse, grundlegende AWS-Kenntnisse
Schwierigkeitsgrad: Fortgeschritten Extended Abstract
Microservices sind ein Architekturmuster aus dem Bereich der Softwarearchitektur, dessen Ziel es ist, komplexe Applikationen in kleinere, unabhängige Services aufzuteilen. Aber wie können Microservices im produktiven Betrieb koordiniert und skaliert werden und welche AWS Services können dafür genutzt werden? In diesem Vortrag werden wir uns genauer mit den Konzepten hinter Serverless Microservices befassen und wie Serverless Services bei dem Design dieser Art von Applikationen helfen können. Darüber hinaus werden wir spezifische Use-Cases genauer betrachten und wie diese mit einer Serverless Architektur und alternativ mit einer auf Server basierenden Architektur umgesetzt werden können.



Sascha Möllering
Amazon Web Services Germany GmbH
Solutions Architect

Donnerstag, 01.01.1970   |   14:30 - 15:30 Uhr   |    Mi 4.3

Best Practices aus 4 Jahren Umgang mit technischen Schulden bei der medatixx

Die Software der medatixx ist über mehr als 20 Jahre weiterentwickelt worden. Da Anforderungen und Deadlines mit durch den Gesetzgeber festgelegt werden, müssen Teams Release-Termine und -umfang einhalten. Angesammelte technische Schulden bringen das jedoch in Gefahr. Wir stellen unsere Erfahrungen aus vier Jahren entwicklungsbegleitendem Abbau von technischen Schulden in den agilen Projekten der medatixx vor. Dabei gehen wir u.a. auf Change Management, Prozessintegration (z.B. Pair-Refactoring), Werkzeuge und unsere Lessons Learned ein.

Zielpublikum: Projektleiter, Manager, Entscheider
Voraussetzungen: Interesse an langlebiger Software
Schwierigkeitsgrad: Fortgeschritten Extended Abstract
Die medatixx entwickelt Softwarelösungen für Praxismanagement für medizinische Versorgungszentren und niedergelassene Ärzte. Da die medatixx aus dem Zusammenschluss mehrerer Anbieter entstanden ist, basieren die Softwarelösungen auf einer heterogenen technologischen Basis. Die erfolgreiche Weiterentwicklung dieser Software ist für die medatixx unternehmenskritisch.
Die medatixx muss ihre Softwarelösungen jedes Quartal termingerecht an Gesetzesänderungen im Gesundheitsbereich anpassen. Daher ist die Wartbarkeit ihrer Code-Basis für die medatixx besonders wichtig. Durch die kontinuierliche Weiterentwicklung über mehr als 20 Jahre haben sich jedoch, wie bei den meisten historisch gewachsenen Systemen, technische Schulden angesammelt, die die Weiterentwicklung behindern und termingerechte Releases in Gefahr bringen.
Die medatixx hat daher (zusammen mit der CQSE GmbH) vor vier Jahren begonnen, einen systematischen Umgang mit technischen Schulden im Unternehmen zu verankern. In dieser Zeit sind Analysen, Kennzahlen und Werkzeuge entstanden, die den agilen Projektteams kontinuierlich zur Verfügung stehen (angefangen von Integrationen in die Entwicklungsumgebung, über zentrale Dashboards bis hin zu Monitoren in Team-Räumen und auf Fluren, die Kennzahlen, Trends und Verbesserungen zeigen). Vor allem aber sind Best Practices bei der Einführung (z.B. Pair-Refactoring), Kommunikation (z.B. Umgang mit Schuldzuweisungen zwischen Management und Entwicklung) und im kontinuierlichen Einsatz (z.B. Baseline-Delta-Analyse und dedizierte Qualitätsziele) entstanden, die sich beim entwicklungsbegleitenden schrittweisen Abbau der technischen Schulden als zentral erwiesen haben.
Im Vortrag stellen wir die Ausgangslage, unsere verschiedenen Maßnahmen und ihre Ergebnisse vor. Dabei gehen wir auf die eingesetzten Analysen, Kennzahlen und Werkzeuge ein. Wir legen den Schwerpunkt aber auf die Aspekte, die über die Analysen und Kennzahlen hinausgehen (Change Management, Kommunikation, Prozess-Integration usw.), da sie den Schlüssel zum wirksamen Abbau von technischen Schulden darstellen.



Elmar Juergens
CQSE GmbH und TU München
Gründer und Forscher

Uwe Henker
medatixx GmbH & Co. KG
Leiter des Bereichs Softwareproduktion

Donnerstag, 01.01.1970   |   14:30 - 15:30 Uhr   |    Mi 5.3

Deliver Fast with Confidence

Agile practices have proven invaluable to software teams. When building complex systems it can be too easy to focus on features and overlook software qualities, specifically those related to software architecture. Time has shown that agile practices are not sufficient to prevent technical debt, which can ultimately affect reliability and other necessary qualities of the system ultimately impeding reliable delivery. This talk examines techniques to enable teams to deliver fast and with confidence.

Target Audience: Developers, Architects, Product Owners, Managers
Prerequisites: Development experience
Level: Practicing Extended Abstract
Being agile, with its attention on extensive testing, frequent integration, and focusing on important product features, has proven invaluable to many software teams. When building complex systems it can be all too easy to primarily focus on features and overlook software qualities, specifically those related to software architecture. Time has shown that agile practices are not sufficient to prevent or eliminate technical debt, which can ultimately affect reliability. Many issues arise when there isn’t good validation through tests and constant attention to the architecture and code quality. It is important to recognize what is core to the architecture and the problem at hand while evolving it.
If there is not enough attention on the architecture and the code, technical debt will creep in to the point where it can become muddy, making it hard to deliver new features quickly and reliably. Two principles that can help teams deliver more quickly and with confidence is to focus on code quality and delivery size. Small frequent delivery with constant attention to a good codebase is crucial to being able to sustain faster reliable delivery. Practices that can help keep the code clean or prevent it from getting muddier include: Testing, Divide & Conquer, Gentrification, Quarantine, Refactoring, and Craftsmanship. This talk examines various practices and techniques such as Continuous Integration, Continuous Delivery, Continuous Inspection, along with techniques to pay good attention to software quality, all of which enable teams to deliver fast and with confidence.



Joe Yoder
The Refactory
agilist, computer scientist, speaker and pattern author

Donnerstag, 01.01.1970   |   14:30 - 15:30 Uhr   |    Mi 6.3

Being created vs. Being creator – über die Gestaltung von Mensch und IT

"Software is eating the world": Künstliche Intelligenz, selbstlernende Algorithmen, Augmented Reality, Chip-Implantate. Wir leben in einer spannenden Zeit!
Und wir als IT-ler erleben dies nicht nur, wir haben die Möglichkeit und die Ressourcen, dies alles zu erschaffen. Ein riesig großes Spielfeld! Unserer Kreativität sind keine Grenzen gesetzt.
Doch wohin führen uns diese Entwicklungen? Es ist an der Zeit, als Menschen, Teams, Unternehmen und auch als Gesellschaft innezuhalten – um darüber nachzudenken, welche Realität wir erschaffen WOLLEN.

Zielpublikum: SW-, Organisations- und Selbst-Entwickler: alle, die mehr gestalten wollen als gestaltet zu werden
Voraussetzungen: Lust auf "Testing the Waters", Neugierde, Experimentierfreude, Humor
Schwierigkeitsgrad: Anfänger Extended Abstract
Die Beschreibung des SocITy-Tracks spricht uns im Herzen an:
"IT changes the life of people and therefore our society."
JA, genau! Und wir sind uns dessen viel zu wenig bewusst!
Wir wundern uns immer wieder darüber, was es nicht alles für seltsame Entwicklungen gibt. Aber WIR sind doch die IT!
Wir entwickeln irgendetwas - was uns aufgetragen wird. Und wenn wir ambitionierte Entwickler sind, dann entwickeln wir in der Freizeit auch noch - meist etwas technisch „Geiles".
Zwei Dinge aber entwickeln wir typischerweise nicht - oder zumindest nicht gezielt:
1. Etwas, was uns als Menschen oder Gesellschaft wirklich weiterbringt.
2. Uns selbst.
Und da gäbe es genug zu tun! Und das Interessante ist, dass beide Bereiche auch allmählich verschwimmen:
Wir leben in einer Welt, in der die soziale Ungleichheit (Arm-Reich-Schere) immer weiter zunimmt, in der Zugang zu sauberem Wasser vielerorts ein Wunsch bleibt und in der wir gerade einen Klimawandel verursachen noch unbekannten Ausmaßes für uns und die nächste Generation.
Und zugleich haben wir technisch heutzutage erstmals alle Mittel in der Hand, um all diese Probleme lösen zu können.
Doch wie es scheint, flüchten gerade wir in den Wohlstandsnationen lieber vor der wirklichen Realität - hinein in vielversprechende "Virtual Realities". Dafür bauen und investieren wir viel: Täglich erscheinen z.B. mehr als 1000 neue Apps - allein für Windows Phones.
Inzwischen entstehen sogar Apps, die uns in der "Real Reality" zu verschiedensten Lebens- und Gefühlslagen beraten und zu einer „guten Handlungsweise" verhelfen, wie ein aktueller Artikel der FAZ mit dem Titel „Wenn die App dir sagt: Umarme deinen Partner" beschreibt. Da sollten bei uns doch langsam Alarmglocken schellen: Offenbar trauen wir als Menschen uns unsere ureigensten Kompetenzen nicht mehr zu!
Wir sind drauf und dran, uns als Menschen steuern zu lassen.
Der Chaos Computer Club warnt vor dem gedankenlosen Herausgeben unserer Daten „als unser letztes Eigentum". Wir denken, die Gefahr liegt noch tiefer:
Wir möchten davor warnen, die Steuerung unseres Seins herauszugeben. Jeder von uns hat einen Bordcomputer, der noch immer als faszinierendstes System der Welt gilt. (So sehr, dass mit Hochdruck daran gearbeitet wird, ähnliche neuronale Netze zu bauen.)
Doch können wir unseren Bordcomputer überhaupt bedienen? Gelingt es uns, Einfluss auf unsere human-embedded Software zu nehmen? Oder laufen dort den ganzen Tag nur automatische Muster ab? Muster, die uns noch dazu belasten und uns so unrecht sind, dass wir uns lieber jede Minute freier Zeit in unser Handy flüchten?
Wir stellen immer wieder fest, dass nur einem kleinen Bruchteil unserer Gesellschaft die neurobiologischen Grundlagen unseres human-embedded Systems überhaupt bewusst sind!
Wir möchten in unserem Vortrag auf kurzweilige, anschauliche und humorvolle Weise aufklären. Wir möchten eine Lanze dafür brechen, dass jeder Mensch selbst bewusst das Code-Ownership für sein eigenes Embedded-System übernehmen kann und sollte. Denn wenn wir das wirklich tun - jeder Einzelne von uns oder zumindest eine „kritische Masse" an Menschen -, dann liegt die ganze Welt in unseren Händen. Dann können wir alles ändern: angefangen von unserem eigenen Denken, unseren Emotionen, unsere automatischen Reaktionen, unser Handeln insgesamt. Weitergehend in unser Miteinander: privat, im Job, im gesamten Unternehmen, als Gesellschaft und sogar als Menschheit. Wir gestalten!
Die Technologie dafür ist da. (Blockchain beispielsweise lässt grüßen!) Und was noch fehlt, das können wir als IT-ler entwickeln.
Wir können Verantwortung übernehmen - für alles, was wir sind, und für all das, wovon wir ein Teil sind. Wir können uns wirklich integrieren.
Und wir können steuern.
Darin liegt eine riesige Chance. In Anbetracht der aktuellen, weltweiten Entwicklungen vielleicht sogar unsere letzte Chance als Menschheit ...



Melanie Wohnert
Think Y
Inspiratorin

Dietmar Wohnert
Think Y
Trainer und Coach

Donnerstag, 01.01.1970   |   14:30 - 15:30 Uhr   |    Mi 7.3

Mocking Frameworks considered harmful (especially in C++)

Software development without test automation can no longer be considered professional. Testing existing code requires test stubs. Employing Mocking Frameworks to replace dependencies is popular, but can lead to less-than-optimal designs, because dependencies between components no longer hurt as much when writing test cases. Especially in the context of C++ - lacking reflection capabilities - mocking frameworks tend to rely on unsafe mechanisms and obfuscated test case code. This talk demonstrates the liabilities and shows an alternative for C++.

Target Audience: Developers, Architects
Prerequisites: development experience, basic C++ knowledge
Level: Introductory Extended Abstract
Software development without test automation can no longer be considered professional. However, you might have existing code bases or want to rely on external libraries that may make writing effective and fast unit tests hard or even near to impossible. A typical work-around for these situations is to introduce test stubs for such external dependencies to make your code testable.
Some propose to use mocking frameworks, such as GoogleMock, together with unit testing frameworks to ease the specification of the replacement objects. These mocking frameworks often come with their own domain-specific language (DSL) to describe the behavior and expected usage of the mock object. In addition to a learning curve, the DSLs often do not help much, when things do not work. The current lack of standardized reflection in addition requires macro trickery making fixing problems even harder. A second issue, is that existing code often must be prepared to suite the mocking frameworks interception mechanism to allow to inject the mock objects. Last but not least test-driven development (TDD) together with the use of a mocking framework can lead to high coupling, that TDD usually strives to reduce.



Peter Sommerlad
HSR Rapperswil
Director of IFS Institute for Software

Donnerstag, 01.01.1970   |   14:30 - 15:30 Uhr   |    Mi 8.3

Wie finden Softwarearchitekten den Weg zu User Experience? Mit Google Maps!

Softwarearchitektur und User Experience (UX) sind zentrale Erfolgsfaktoren von Softwaresystemen. Wir beleuchten das Spannungsfeld zwischen diesen beiden Bereichen. Wir illustrieren am Beispiel von Google Maps, welche architektonischen Höchstleistungen und Tradeoffs notwendig sind, um die Google-Experience zu erreichen, das heißt: Einfachheit zu gewährleisten und gleichzeitig global zu skalieren. Der Vortrag zeigt auf, wie trotz der unterschiedlichen Charaktere von Architekten und UX-Designern großartige Systeme erschaffen werden können.

Zielpublikum: Architekten, UX-Designer, Entwickler, Projektleiter, Manager
Voraussetzungen: nichts Spezifisches. Google Maps zu kennen, ist hilfreich 😉
Schwierigkeitsgrad: Anfänger Extended Abstract
Ein erfolgreiches Softwaresystem braucht beides: eine starke Architektur und eine großartige User Experience (UX). Obwohl UX ein Qualitätsattribut ist, wird es erstaunlich häufig von Architekten übersehen und vernachlässigt.
Die Charaktere von Menschen, die als UX-Designer oder Softwarearchitekt arbeiten, sind sehr oft unterschiedlich, genauso wie ihr Erfahrungshintergrund und die Ausbildung. Deshalb verstehen sie sich oft nicht so gut und vermeiden allzu intensive Kommunikation. Das führt über die Zeit zu mangelnder Wertschätzung für die andere Profession und reduziertem Erfolg der erstellten Softwaresysteme.
Am Beispiel von Google Maps zeigen wir viele Architekturentscheidungen, die notwendig sind, um eine exzellente UX zu erreichen, wie man sie von Google erwartet: Einfachheit, eine große Anzahl von coolen Features und die Integration von zahlreichen hilfreichen Diensten. Wir nehmen die Zuhörer mit auf eine Reise von Features von Google Maps und stellen immer die Frage, wie diese wohl in der Architektur realisiert werden konnten. Unter diesen Entscheidungen sind auch welche, die viele Architekten gar nicht als Architekturentscheidungen benennen würden. Wir schauen uns Features wie nahtloses Schwenken und Zoomen an, Informationsüberlagerungen und Street View, Routenberechnungen oder die Integration mit Flugbuchungssystemen.
Wir betrachten Architekturkonzepte wie Datenstrukturen auf unterschiedlichem Detailgrad, Laden in Kacheln, global verteilte Rechenzentren und Datenauslieferung.
Die Reise durch Google Maps ist illustriert mit zahlreichen Screenshots für hohe Verständlichkeit. Jede Episode wird untermauert mit unseren Erkenntnissen, wie Architektur und User Experience zusammenspielt und wie Architekten und UX-Designer zusammenarbeiten sollten.
Wir zielen auf ein besseres gegenseitiges Verständnis zwischen Architekten und UX-Designern ab. Um beide Seiten zu motivieren, benutzen wir ein allseits bekanntes System, Google Maps. Durch konkrete Anleitungen ermutigen wir Architekten und UX-Designer zur Zusammenarbeit, um großartige Systeme zu bauen.



Matthias Naab
Fraunhofer IESE
Softwarearchitekt

Marcus Trapp
Fraunhofer IESE
Leiter der Abteilung "User Experience & Requirements Engineering"

Donnerstag, 01.01.1970   |   17:00 - 18:00 Uhr   |    Mi 1.4

Live-Einstieg in Spark – ein Text-Mining-Projekt

Spark hat sich für Data-Science-Projekte als Plattform zur parallelisierten Analyse großer Datenmengen etabliert. Ein Notebook-basierter Ansatz eignet sich wegen kurzer Turn-around-Zyklen gut für die interaktive Datenaufbereitung. Einen Einstieg in diese Technologien geben wir in diesem Vortrag.
Als Daten dienen Text-Dokumente, die wir auf einem Spark-Cluster aufbereiten und analysieren (Text-Mining). Es werden Architektur und Kern-Konzepte von Spark erläutert. Mit wenig Code gewinnen wir Einblicke und generieren geschäftlichen Mehrwert.

Zielpublikum: Architekten, Entwickler, Projektleiter, Entscheider
Voraussetzungen: Programmiererfahrung
Schwierigkeitsgrad: Anfänger Extended Abstract
Apache Spark hat sich in den letzten Jahren für viele Data-Science-Projekte als die bevorzugte Plattform zur Analyse großer Datenmengen etabliert. Spark ist ein Cluster Computing Framework, d.h. es erlaubt uns auf relativ einfache Weise, Berechnungen über eine große Anzahl Computer parallelisiert auszuführen. Typischerweise werden diese Computer dynamisch für die Dauer der Berechnung in einer Cloud-Umgebung wie Amazons EC2 angemietet.
Jupyter-Notebooks bzw. Apache Zeppelin-Notebooks sind web-basierte Dokumente zur interaktiven Datenanalyse und Visualisierung. Auf Grund der damit möglichen schnellen Code/Run/Evaluate-Zyklen eignen sie sich hervorragend für die Datenaufbereitung und Sichtung.
Der Einsatz von Spark und einem Notebook-Server kann jedoch anfangs herausfordernd sein.
In diesem Vortrag geben wir einen ersten, grundlegenden Einstieg an Hand eines durchgängigen Beispiels. Der überwiegende Teil besteht aus Code-Beispielen, zumeist in Python, die mittels eines Zeppelin-Notebooks live auf einem Amazon EC2-basiertem Spark-Cluster ausgeführt werden.
Als Datenbasis dient uns eine große Menge von Text-Dokumenten in unterschiedlichen Formaten aus einem Kundenprojekt. Daraus erzeugen wir zuerst einen RDD auf dem Spark Cluster und zeigen typische Data-Cleaning- und Data-Transformation-Schritte auf. Wir erläutern die Architektur von Spark, die zentralen Datenstrukturen (RDD und Data Frame) sowie die darauf verfügbaren Operationen, und gehen insbesondere auf den Unterschied von Actions und Transformations ein.
Um eine Ähnlichkeitssuche auf den Text-Dokumenten und schlussendlich ein Clustering der Dokumente zu ermöglich, ist ein Ähnlichkeitsmaß nötig. Wir zeigen den Einsatz verbreiteter Verfahren wie Stemming, Word2vec und TF-IDF. Mittels weiterer Live-Code-Beispiele zeigen wir auf, wie man erste Analysen auf den Daten durchführen und spannende Erkenntnisse gewinnen kann.
Der Vortrag gibt den Teilnehmern eine Hands-On-Überblick über den Einsatz von Spark zur Datenanalyse und verdeutlicht, wie man mit wenigen Zeilen Code in kürzester Zeit einen realen geschäftlichen Mehrwert generieren kann.



Stephan Schiffner
F&F Computer Anwendungen und Unternehmensberatung
Leiter Bereich Big Data & Analytics

Markus Breunig
F&F Computer Anwendungen und Unternehmensberatung
Professo rund Lead Consultant

Donnerstag, 01.01.1970   |   17:00 - 18:00 Uhr   |    Mi 2.4

Steinzeit war gestern! Die vielfältigen Wege der Cloud-nativen Evolution

Enterprise-Anwendungen werden trotz SOA und Komponenten immer noch als Monolithen integriert, getestet und betrieben. Das kostet viel Zeit und steht agilen Geschäftsmodellen im Weg. Cloud-Technologie verspricht grenzenlose Skalierung, kurze Release-Zyklen, schnelle Deployments, Robustheit und Antifragilität. Kann man vorhandene Systeme mit vernünftigem Aufwand in Richtung Cloud entwickeln? Was bedeutet die Cloud für den Betrieb, was ändert sich für die Software-Entwicklung? Welche Risiken gibt es? Wir verraten es Ihnen.

Zielpublikum: Architekten, Entwickler, Projektleiter, Manager, Entscheider
Voraussetzungen: Technische oder fachliche Projekterfahrung sind von Vorteil
Schwierigkeitsgrad: Fortgeschritten Extended Abstract
Viele unserer Kunden sind in Aufbruchsstimmung. Sie beschäftigen sich mit Themen wie DevOps, Continuous Delivery, Microservices und Cloud-basierten Betriebsmodellen. Häufig werden wir mit der Frage konfrontiert, was man mit den zahlreichen Bestandssystemen machen soll. Muss man diese Systeme nun alle komplett neu bauen? Das ist sicherlich kein besonders ökonomischer und sinnvoller Weg in die Cloud. Dieser Vortrag berichtet aus der Praxis, wie wir bei zwei unserer Großkunden dabei geholfen haben, Hunderte (!) von Bestandsanwendungen industrialisiert in die Cloud zu migrieren und fit für die Zukunft zu machen. Wir sprechen nicht nur über die nötigen Veränderungen der Software-Architektur und Technik, sondern berichten auch über die nötigen Prozessveränderungen.



Mario-Leander Reimer
QAware GmbH
Cheftechnologe

Donnerstag, 01.01.1970   |   17:00 - 18:00 Uhr   |    Mi 3.4

Beam me up – Holographische Telepräsenz mit der HoloLens

Was wäre, wenn man über holographische Augmented-Reality-Brillen mit weit entfernten Bekannten so kommunizieren könnte, als befänden sie sich im selben Raum?
Ein Team der TNG Technology Consulting GmbH hat für die autark betriebene Microsoft HoloLens einen Prototyp für holographische Telepräsenz entwickelt. So ist es möglich, eine Person als Hologramm in das eigene Sichtfeld zu projizieren.
Im Vortrag werden Konzepte und technische Details im Bereich der Mixed Reality sowie interaktive Live-Demonstrationen und Live-Coding vorgestellt.

Zielpublikum: Architekten, Entwickler, Projektleiter, Manager, Entscheider
Voraussetzungen: keine besonderen Vorkenntnisse nötig
Schwierigkeitsgrad: Anfänger Extended Abstract
Was wäre, wenn man über holographische Augmented-Reality-Brillen mit weit entfernten Bekannten so kommunizieren könnte, als befänden sie sich im selben Raum?
Das Hardware-Hacking-Team der TNG Technology Consulting GmbH hat für die Microsoft HoloLens einen Software-Prototyp für holographische Telepräsenz entwickelt. So ist es ähnlich wie in der Filmreihe "Star Wars" möglich, eine Person als Hologramm in das eigene Sichtfeld zu projizieren.
Die Idee der erweiterten Realität (Augmented Reality) existiert bereits seit den späten 60er-Jahren. Mit der HoloLens ist es Microsoft gelungen, ein autarkes Gerät auf den Markt zu bringen, welches die reale Welt immersiv mit computergenerierten Elementen und sogenannten Hologrammen erweitert.
Im Rahmen des Vortrags werden Ideen und Konzepte im Bereich der Mixed Reality aufgegriffen und erklärt. Technische Details der HoloLens werden vorgestellt und anhand mehrerer interaktiver Live-Demonstrationen gezeigt.
Darüber hinaus werden mittels Live-Coding einfache Programmierbeispiele für die HoloLens unter der Verwendung der Microsoft Holographic Platform und Unity 3D erarbeitet.



Thomas Endres
TNG Technology Consulting GmbH

Martin Förtsch
TNG Technology Consulting GmbH
Software Consultant

Donnerstag, 01.01.1970   |   17:00 - 18:00 Uhr   |    Mi 4.4

Parizipatorisch – Widerspruch ist sinnvoll

Veränderung stößt auf Widerspruch. Insbesondere wenn es darum geht, eine Organisation zu verändern. Wie schafft man es, die Menschen als zentralen Teil einzubinden? Einfache Antwort: Indem man sie aktiv partizipieren lässt und Widerspruch und Bedenken ernst nimmt.
Die Reorganisation der OTTO IT beinhaltet einen partizipatorischen Change-Ansatz. Mitarbeiter und Management gestalten *gemeinsam* eine neue Aufbau- und Ablauforganisation.
Fragen: Wie viel Struktur vorgeben? Wie mit dem Erwartungsgap zwischen Management und Mitarbeitern umgehen?

Zielpublikum: Manager, Projektleiter, Scrum Master, Agile Coaches, Business-Architekten
Voraussetzungen: Erfahrungen aus Transformations- und Change-Projekten sind hilfreich, aber nicht zwingend notwendig
Schwierigkeitsgrad: Fortgeschritten Extended Abstract
Wenn es darum geht, die (IT)Organisation großer Unternehmen zu transformieren, steht man immer wieder vor einer Herausforderung.
Wie schafft man es, die Menschen als zentralen Teil dieser Veränderung einzubinden?
In dem man sie aktiv partizipieren lässt und ihren Widerspruch und ihre Bedenken ernst nimmt.
Dies war auch die Situation bei OTTO. Während einige Teile des Unternehmens bereits in der agilen Welt angekommen sind, ist es in weiten Teilen eine eher klassische Organisation. Und die IT in beiden Welten mittendrin. Das Ziel war es, die IT neu zu organisieren und „schneller” zu machen (OT: Was verstehen eigentlich die Stakeholder darunter; kann man das messen?). Als Lösungsansatz haben wir uns für einen partizipatorischen Change-Ansatz entschieden, der die Mitarbeiter gemeinsam mit dem Management die Veränderung selbst gestalten lässt.
In diesem Erfahrungsbericht soll es im Wesentlichen um zwei Aspekte gehen:
1. Wie viel Struktur gibt man als Management vor und wie viel lässt man von den Mitarbeitern erarbeiten?
2. Wie sind die Erfahrungen mit den Erwartungs-Gaps zwischen Management und Team. Insbesondere was die Eigenverantwortung angeht. Gibt es unterstützende Maßnahmen?



Benjamin Wiedenmann
kommitment GmbH & Co. KG

Donnerstag, 01.01.1970   |   17:00 - 18:00 Uhr   |    Mi 5.4

Architecting for Continuous Delivery

In this talk, Jez will explode the hype around microservices, Docker and Kubernetes and discuss the principles and practices behind building secure, distributed systems that are easy to test, deploy, operate, evolve and scale.

Target Audience: architects, developers
Prerequisites: none
Level: Practicing Extended Abstract
DevOps and Continuous Delivery represent a new paradigm for IT service delivery that promises higher quality and stability as well as faster time-to-market. However, deploying this new paradigm requires changes to both organizational culture and architecture. Here, Jez Humble presents the architectural principles and patterns that enable continuous delivery at internet scale, and discusses how to incrementally evolve existing systems in order to deploy them.



Jez Humble
DevOps Research and Assessment LLC
CTO

Donnerstag, 01.01.1970   |   17:00 - 18:00 Uhr   |    Mi 6.4

Von Schafen, Bienen und Selbstorganisation: Die Führungskraft in der Agilen Transition

Immer mehr Organisationen beginnen, mit selbstorganisierten Teams zu arbeiten.
„Der Bienenhirte“ erzählt von Mark, einer Führungskraft in einer solchen Transition. Während eines Kurzurlaubs erfährt er, wie sein Großvater vom Schäfer zum Imker wurde. Dessen praktische Lektionen scheinen gut auf seine Situation zu passen.
Die Geschichte zeigt, wie man selbstorganisierte Bienenvölker „hüten“ sollte.
Das 6-stufige Bienenhirten-Modell fasst zusammen, wie sich Führungskräfte den Herausforderungen um selbstorganisiertes Arbeiten stellen können.

Zielpublikum: Führungskräfte, Agile Coaches, Scrum Master, Product Owner und Projekt-VA, Projektleiter u.v.m.
Schwierigkeitsgrad: Fortgeschritten Extended Abstract
Immer mehr Organisationen beginnen, mit selbstorganisierten Teams zu arbeiten. Manager müssen die Transformation oft selbst initiieren und begleiten, wissen jedoch nicht, was ihre Rolle nach dem Übergang sein wird. Und wenn sie sich selbst nicht verändern, werden sie oft eher zum Hindernis als zum motivierenden Faktor.
Das Buch „Der Bienenhirte“ von Rini van Solingen erzählt die Geschichte von Mark, einer Führungskraft in einer großen Supermarktkette, die auf Selbstorganisation umstellt. Während eines Kurzurlaubs bei seinem Großvater erfährt er von ihm, wie dieser vom Schafhirten zum Imker wurde und was er dabei alles gelernt hat. Seine klugen und praktischen Lektionen scheinen überraschend gut auf Marks Situation zu passen. Sie helfen ihm, seine eigenen Handlungsweisen zu überdenken und eine Liste zu erstellen, welche von ihnen er ändern bzw. abstellen muss. Denn zuallererst heißt es, zu „ent-managen“ und alte Gewohnheiten zu „ent-lernen“. Das Buch erklärt eindrucksvoll und unterhaltsam, wie das geht.
Ich habe dieses Buch mit viel Freude gelesen und aus dem Niederländischen übersetzt. Die Geschichte hat mich begeistert und inspiriert. Das möchte ich gern mit den Teilnehmern teilen.
Schritt für Schritt tauchen wir in die Geschichte ein, erfahren von den Herausforderungen, vor denen Marks Großvater plötzlich stand, als er anstelle seiner Schafe nun selbstorganisierte Bienenvölker „hüten“ sollte. Und von seinen Erfahrungen und Lösungsansätzen.
Am Ende fasst das 6-stufige Bienenhirten-Modell zusammen, welchen Herausforderungen sich vor allem Führungskräfte, aber auch alle anderen Akteure rund um selbstorganisiertes Arbeiten stellen müssen und auf welche Weise das Führen von selbstorganisierten Teams gelingen kann.
Ein Geheimnis sei jetzt schon vorab verraten: Die Veränderung beginnt bei jedem selbst.



Rolf Dräther
HAPPYCENTRIC
selbstständiger Berater, Trainer und Coach

Donnerstag, 01.01.1970   |   17:00 - 18:00 Uhr   |    Mi 7.4

TDD guided by ZOMBIES

Have you had a hard time figuring out where to start with Test-Driven Development. What if ZOMBIES could help you build code that does exactly what you think it is supposed to do? I'm not talking about a legion of undead or virus stricken. ZOMBIES is an acronym that helps you, the engineer, decide where to start, what test to write next and make sure that, to the best of your ability, you do not forget critical tests and production code behaviors.

Target Audience:
Architects, Developers
Prerequisites: Development experience
Level: Practicing



James Grenning
Wingman Software
Trainer, Coach, Consultant

Donnerstag, 01.01.1970   |   17:00 - 18:00 Uhr   |    Mi 8.4

The forgotten art of Mentoring

When did you last care, help or even accompany someone on his life journey? Haven't we forgotten the human-factor in our daily avalanche of information? We all learn, but so few of us do it through mentoring. Yet mentoring is like a superpower that anyone can use. In this talk we will talk about learning, teaching, leading, accompanying & even letting be. You will learn what makes this mentoring relationship so unique & so fruitful. You will discover how mentoring can be your new silver bullet and how to make your first steps in this direction.

Target Audience: Any, from juniors who should know this tool exists & seniors who should trust themselves as mentors
Prerequisites: Willingness to learn
Level: Introductory Extended Abstract
Mentoring has been a very important learning and growing tool throughout history. Still today, almost every successful individual agrees that a mentor helped him/her shape his/her life. Nevertheless, whenever I ask in a room "who would consider him/herself a mentor", only very few hands go up (usually about 5%).
Everyone I talk to, agree that communication and discussion are utterly important and the best way to grow. This is why we encourage pair-programming, frequent and open communication etc. Yet, a small minority of us is really making extensive use of the focused human interaction that mentoring is for it. The others still communicate. But similar to the way some developers avoid pair-programming whenever possible, they don't use the power of communication to regularly and deeply reflect on themselves.
Mentoring is a silver bullet that changed my life and that of my mentees, I cannot stay still, I have to evangelize it further. This is the purpose of this talk.



Timothée Bourguignon
MATHEMA Software GmbH
Agile Coach & Scrum Master

Donnerstag, 01.01.1970   |   09:00 - 10:30 Uhr   |    Do 1.1

Was macht moderne (JavaScript) Frontend-Architektur so schwierig?

Die Anforderungen an eine moderne, clientseitige Architektur für Webanwendungen sind von der Komplexität inzwischen mit den Anforderungen an die zugehörige Backend-Architektur vergleichbar.
Backend-Architekturen sind seit Jahren Thema und gut durchschaut, aber das Verständnis zu Architekturansätzen für das Frontend ist oft erschreckend niedrig.
In diesem Talk werde ich erklären, warum moderne Webanwendungen komplexe Architekturanforderungen haben und mit welchen Konzepten und auch mit welchen konkreten Technologien man darauf reagieren kann.

Zielpublikum:
Architekten, Projektleiter, Entwickler
Voraussetzungen: Grundlegendes Verständnis von Webanwendungen und klassischen Architekturideen
Schwierigkeitsgrad: Anfänger



Oliver Zeigermann
embarc Software Consulting GmbH
Entwickler, Architekt, Berater und Coach

Donnerstag, 01.01.1970   |   09:00 - 10:30 Uhr   |    Do 2.1

Ein Fall für die Selbsthilfegruppe? Was ist zu tun bei Architektur- und Techniksünden?

Immer wieder werden neue Architekturen bzw. Techniken als "Silver Bullet" angepriesen.
Was heisst "Going digital" bei diesen Systemen?
Leider merken wir häufig erst sehr viel später, welche Probleme uns diese vermeintlichen Vereinfachungen bringen.
Neben "Best-Practices" möchten wir in diesem Fishbowl zusammen ein paar typische Vertreter in den Mittelpunkt rücken und mit Ihnen diskutieren wie damit umzugehen ist.
Sei es, wie man diese Art von Anwendungen weiter pflegt, sei es aber auch wie man es schafft diese am Bestn abzulösen.

Zielpublikum: Architekten, Entwickler
Voraussetzungen: Projekterfahrung
Schwierigkeitsgrad: Fortgeschritten



Michael Stal
Siemens AG
Principal Engineer

Thomas Ronzon
w3logistics AG
Senior Softwareentwickler

Donnerstag, 01.01.1970   |   09:00 - 09:45 Uhr   |    Do 3.1 1)

Entrepreneurial Thinking – Grundlagen des Anforderungsmanagements im komplexen Umfeld

Was ist eigentlich das richtige Produkt? Diese Frage stellt sich sehr schnell, wenn Unternehmen mit einer agilen Transformation beginnen. Die richtige Priorisierung ist ein enormer Hebel, den es zu nutzen gilt.
Alexander Krause zeigt auf, was dieses entrepreneurial Mindset ist und wie die Haltung hinter Design-Thinking und Effectuation auch für etablierte Unternehmen nutzbar wird.
Für einen konkreten Start in das agile Anforderungsmanagement werden die Tools "Lean Canvas", "Story-Mapping" und "Minimum Viable Product" erklärt.

Zielpublikum:
Manager, Product Owner, Scrum Master, Entwickler
Voraussetzungen: keine
Schwierigkeitsgrad: Anfänger Extended Abstract
Ich bin immer wieder erstaunt, wie unbekannt absolute Grundlagen agilen Arbeitens sind - vor allem in großen Unternehmen.
Diese Session erklärt, welche Haltung hinter Design-Thinking und Effectuation steht, und gibt mit Lean-Canvas, Story Mapping und Minimum Viable Product gleich drei Werkzeuge an die Hand, um mit einer besseren Priorisierung zu beginnen.



Alexander Krause
Veraenderungskraft

Donnerstag, 01.01.1970   |   09:00 - 09:45 Uhr   |    Do 4.1 1)

Roadmaps und Agile Reporting abseits von Velocity und Story Points

Velocity und Story Points können sinnvolle Techniken für die Selbstkontrolle des Teams sein. Sie eignen sich aber weniger gut, um z.B. mit einem Lenkungsausschuss oder Sponsor über Zustand und Fortschritt der Entwicklung zu sprechen. Es fehlt die Basis für eine fachlich-inhaltliche Diskussion.
Der Vortrag stellt dar, wie auf Basis von Story Maps eine zielorientierte Roadmap erstellt werden kann und wie mit darauf basierenden Parking Lot-Diagrammen eine effektive Interaktion mit Lenkungsausschuss/Sponsor ermöglicht wird.


Zielpublikum: Projektmanager, Product Owner, Scrum Master
Voraussetzungen: Projekterfahrung, Scrum-Terminologie
Schwierigkeitsgrad: Fortgeschritten



Stefan Roock
it-agile GmbH
Coach, Trainer und Teammitglied für agile Ansätze wie Scrum, Kanban und XP

Donnerstag, 01.01.1970   |   09:00 - 10:30 Uhr   |    Do 5.1

Thinking Outside the Synchronisation Quadrant

For many programmers, concurrency means thinking in threads and locks. Thread safety is almost synonymous with the avoidance of race conditions and the guarded protection of mutable state. But this is only one quadrant of four possibilities, a quadrant diagram partitioned by mutable–immutable along one axis and shared–unshared along another.
From immutability to actors, this talk will take a look at patterns and practices that encourage thinking and coding outside the locked box.

Target Audience:
Developers and Architects
Prerequisites: Coding, preferably with some knowledge of concurrent techniques
Level: Practicing Extended Abstract
Ask programmers what comes to mind when you say concurrency and most are likely to say threads. Ask what comes to mind when you say threads and most are likely to say locks or synchronisation. These assumptions are so deeply held that they define and constrain how programmers are taught and think about concurrency: thread safety is almost synonymous with the avoidance of race conditions and the guarded protection of mutable state. But this is only one quadrant of four possibilities, a quadrant diagram partitioned by mutable–immutable along one axis and shared–unshared along another.
Whether C++, C# or Java, many mainstream languages support programmers in all four quadrants, not just the synchronisation quadrant. From immutability to actors, this talk will take a look at patterns and practices that encourage thinking and coding outside the locked box.



Kevlin Henney
Curbralan
Independent Consultant & Trainer

Donnerstag, 01.01.1970   |   09:00 - 09:45 Uhr   |    Do 6.1 1)

DevOps going Enterprise – ein Erfahrungsbericht

Im Zuge der steigenden Popularität agiler Softwareentwicklung konnte in den letzten Jahren auch DevOps immer mehr Anhänger für sich gewinnen. Einer der Gründe dafür ist, dass mit Hilfe von DevOps die Mauer zwischen der Entwicklung und dem Betrieb eingerissen werden kann. Wie aber lassen sich DevOps-Ansätze implementieren, wenn ein agil getriebenes und dynamisches Umfeld auf klassische Softwareentwicklungs- und Unternehmensprozesse trifft? Lässt sich der Spagat zwischen Start-up und Enterprise meistern und falls ja, wie?

Zielpublikum:
Entwickler, Architekten, IT-Manager
Voraussetzungen: Grundkenntnisse agile Softwareentwicklung
Schwierigkeitsgrad: Fortgeschritten Extended Abstract
Unser Erfahrungsbericht zeigt einen typischen Einblick in das Spannungsfeld von Digitalisierungsvorhaben im Finanzsektor. Die Development-Teams entwickeln ihre Software agil, streben nach einem maximalen Integrations- und Automatisierungsgrad und sind in der Lage, regelmäßig und auf Knopfdruck neue Features für den Endkunden auszuliefern.
Gleichzeitig ist das Digitalisierungs-Start-up nach wie vor in die Gegebenheiten und Prozesse der Konzernmutter eingebunden: Jegliche Änderungen an der Produktionsumgebung sind revisionssicher und vor allem adressatengerecht zu dokumentieren, Change-Verfahren sowie ein Vier-Augen-Prinzip sind einzuhalten. Und dann ist da noch der gefürchtete Monolith im Hintergrund: Releases für das zentrale Backend-System finden nur 3-4x im Jahr mit ebenso vielen Monaten Vorlaufzeit statt.
Der Vortrag geht auf das Spannungsverhältnis zwischen Start-up und Enterprise ein und zeigt auf, wie mittels DevOps die Brücke zwischen diesen zwei Welten geschlagen werden kann.



Valentino Pola
Cofinpro AG
Berater

Markus Koschier
Cofinpro AG
IT-Berater

Donnerstag, 01.01.1970   |   09:00 - 09:45 Uhr   |    Do 7.1 1)

Shorter Feedback Cycles by Diagnosing Faults and Predicting Relevant Tests

How can large software projects become more exploratory? This talk will show how dev-test cycles can be greatly reduced by diagnosing faults and predicting relevant tests using cutting edge AI and Machine Learning techniques. It presents how Siemens Healthineers and Codemanufaktur GmbH apply these techniques to preprocessed data from a Siemens Healthineers project to find fault causing changes faster and even prevent faults because the most relevant tests could be found before integration.

Target Audience: Architects, Developers, Project Leader
Prerequisites: Software project experience helps, but not required
Level: Introductory Extended Abstract
From seeing a defect to knowing the fault is usually a cumbersome and long path in large software projects. Likewise, changes can lead to faults that often are only seen very late because running all tests takes a long time. Tools that automate the tasks of identifying faults as well as predicting relevant tests from changes can hence greatly reduce that dev-test cycle, thereby freeing up time for e.g. exploratory testing.
Solving these problems based on the huge data amounts available in state-of-the-art development projects requires to address several tasks like preprocessing the data, transform it into a common language, postprocess it to make an analysis possible and make it efficient to add new incoming data.
Together with Siemens Healthineers a framework was developed by Codemanufaktur GmbH to support the mentioned points. It can access data from e.g. Team Foundation Server or DOORS, preprocess it into a traceML based model which is stored in a graph database and then can be further used to build a probabilistic model on this “data lake”.
The prerequisites for such an analysis are shown and how the mentioned approach helped at Siemens Healthineers to improve the feedback cycles as fault causing changes have been found faster or even faults could be prevented because the most relevant tests could be found before the changes were integrated.



Marco Achtziger
Siemens Healthcare GmbH
Test Architect

Paul Maier
codemanufaktur GmbH
Project leader and AI expert

Donnerstag, 01.01.1970   |   09:00 - 10:30 Uhr   |    Do 8.1

Führen mit Neuer Autorität

Der alte Begriff von Autorität hat heute längst an Bedeutung verloren. Macht und Höherstellung in der Hierarchie haben weniger Bedeutung als früher. Neben Mitbestimmung, persönlicher Weiterentwicklung und Gestaltungsfreiraum brauchen Menschen jedoch auch feste Leitplanken, an denen sie sich orientieren können, damit Selbstorganisation gelingen kann.
In diesem Vortrag präsentieren wir die 7 Säulen der Neuen Autorität in der Führung und Sie erhalten mindestens eine praktische Handlungsempfehlung für jede Säule.

Zielpublikum: Projektleiter, Scrum Master, Manager, Coaches
Voraussetzungen: Führungserfahrung
Schwierigkeitsgrad: Fortgeschritten Extended Abstract
Selbstorganisation benötigt eine passende Führung. Bekannte autoritäre Muster funktionieren dabei nicht mehr. Seit Beginn des dritten Jahrtausends machen sich die beiden Psychologen Haim Omer und Arist von Schlippe für einen neuen Autoritätsbegriff in der Arbeit mit Kindern und Jugendlichen stark, der auf 7 Säulen basiert: Präsenz, Selbstkontrolle, Vernetzung, Deeskalation, Wiedergutmachung, Transparenz und Beharrlichkeit.
Neben der pädagogischen Arbeit hat die Neue Autorität auch große Bedeutung für das Thema Führung. Frank Baumann-Habersack hat in seinem 2015 bei Springer Gabler erschienenen Buch die Ideen aufgegriffen und das Konzept der Neuen Autorität in der Führung entwickelt. Die 7 Säulen der Neuen Autorität in der Führung sind: Präsenz, Selbstkontrolle, Führungskoalition, Wiedergutmachung, Transparenz, Beharrlichkeit und Deeskalation sowie Reflexion. Dieses Konzept haben wir wiederum mit unseren Erfahrungen angereichert und speziell für die Themen Agilität und Selbstorganisation ergänzt. So möchten wir Ihnen in dieser Session Inspiration, neue Blickwinkel und praktische Ideen für den Führungsalltag in modernen Arbeitswelten anbieten.



Ralph Miarka
sinnvollFÜHREN GmbH
Trainer, Coach und Berater

Veronika Kotrba
sinnvollFÜHREN GmbH
Führungskräfte- und Teamcoach

Donnerstag, 01.01.1970   |   10:30 - 11:00 Uhr   |    Pause

Kaffeepause / Coffee Break






Donnerstag, 01.01.1970   |   11:00 - 11:45 Uhr   |    Do 1.2

Modularisierung: Monolithen gegen

ORB-Architekturen, SOA, Microservices: alle Jahre wieder wird ein neuer Ansatz zur Modularisierung durchs globale IT-Dorf gejagt. Verpackt mit ein paar netten Anekdoten, warum Firma X unglaublich erfolgreich mit dem neusten Trend Y ist, wird das Ganze als neuer Heilsbringer für die Unternehmens-IT verkauft. Dabei ist es oft einfacher, einen Monolithen mit klassischen Mitteln modular zu halten oder modular zu machen. Lernen Sie in diesem Vortrag, wie Sie trotz - oder gerade wegen - Ihrem Monolithen in der IT Champions League mitspielen.

Zielpublikum: Architekten, Entwickler, Entscheider
Voraussetzungen: Erfahrung mit der Entwicklung von mittleren bis größeren Softwaresystemen/Softwarearchitekturen.
Schwierigkeitsgrad: Fortgeschritten Extended Abstract
Microservices sind der aktuelle Trend, um Softwaresysteme zu modularisieren. Das damit aber nicht nur eine Änderung der Architektur eines Softwaresystems verbunden ist, sondern auch strukturelle und organisatorische Änderungen für das Unternehmen, und psychologische für die Mitarbeiter, wird oft übersehen. Gleichzeitig bekommt man die Fallstricke und Komplexität eines verteilten Systems. Für viele Unternehmen ist das nicht leicht zu stemmen.
Dabei ist der wichtigste Punkt bei der Modularisierung der fachliche und technische Schnitt der Komponenten, egal ob es sich um ein monolithisches System oder eine Microservice-Architektur handelt.
Daneben bieten die meisten Programmiersprachen und Laufzeitumgebungen Möglichkeiten zur Modularisierung. Werden diese konsequent genutzt und mit einem guten Komponentenschnitt verbunden, ist es möglich, die Vorteile einer Microservice-Architektur (z.B. leichte Änderbarkeit und schnelles Deployment) auch mit einem Monolithen zu realisieren. Ganz ohne dessen Komplexität zu übernehmen.
Sollte der Komponentenschnitt mal nicht gut gelungen sein, ist oft sogar einfacher, diesen innerhalb eines Monolithen zu ändern als in dem verteilten System einer Microservice-Architektur.



Till Schulte-Coerne
innoQ Deutschland GmbH
Senior Consultant

Christoph Iserlohn
INNOQ
Senior Consultant

Donnerstag, 01.01.1970   |   11:00 - 11:45 Uhr   |    Do 2.2

Rette sich wer kann – EAM in Zeiten des digitalen Tsunami

Unternehmensarchitekten werden vor dem Hintergrund der Digitalisierung mit vielen Aufgaben konfrontiert: Von der Beseitigung technischer Schulden über die Agilisierung eher starrer Anwendungslandschaften bis zur Begleitung der Entwicklung neuer Geschäftsmodelle. Der Vortrag gibt Ihnen einen Überblick über das aktuelle Aufgabenspektrum, gibt Ihnen ein Gefühl dafür, ob Ihr Unternehmen auf einem guten Weg sein kann, und zeigt Richtungen auf, in die man sich als Enterprise Architect sinnvoll entwickeln kann.

Zielpublikum: Enterprise Architects
Voraussetzungen: Grundkenntnisse IT-Unternehmensarchitektur
Schwierigkeitsgrad: Fortgeschritten



Wolfgang Keller
objectarchitects
IT-Interim-Manager, Großprojektleiter und Unternehmensarchitekt

Donnerstag, 01.01.1970   |   11:00 - 11:45 Uhr   |    Do 3.2

Economics of Agile, Part 1 Re-prioritizing my Product Portfolio

Ivana will present the first part of her Economics of Agile Talk series where she addresses some of the consequences of underestimating the dependencies between product decisions in the case of portfolios of multiple products. She will share some ideas around which parameters we could start working with and which mechanisms we could work on developing in order to be able to make good decisions for our successful business. Warning: no silver bullets, simply questions which might help you redefine and upgrade your product strategy.


Target Audience: All Business Decision Makers, including Developers and CEOs
Prerequisites: Curiosity
Level: Introductory



Ivana Gancheva
Ocado Technology
Organizational Catalyst

Donnerstag, 01.01.1970   |   11:00 - 11:45 Uhr   |    Do 4.2

Stances of coaching – more than just "the coaching stance"

The agile coach has become something to be expected in a successful agile environment. But what kind of coach is an agile coach? Several approaches to coaching have developed since the origin of the term in 1830 and with the term "agile coach" there now is another field to be developed. This talk explores the applicability of several kinds of coaching to agile coaching – not to say what's right or wrong, but to give more options for everyone working as or with agile coaches.

Target Audience: project managers, team leads, hr-managers, agile coaches, scrum masters
Prerequisites: some project experience
Level: Practicing Extended Abstract
Coaching – as the name implies – is an important part of the work of every Kanban or Agile coach. It also has different connotations in other areas of life. Professional coaches are primarily trained to facilitate people in growing their potential for problem solving and finding their own solutions. To a certain extend that also applies to sports and executive coaching – extended by domain area knowledge.
A huge part of these approaches – be it from systemic coaching, solution focused coaching or even professional sports coaching – are also applicable for coaching in the context of Kanban initiatives. In this talk Michael Mahlberg provides an overview on different stances towards interaction: from consulting through teaching and mentoring to coaching. He shows how the conscious application of these stances and their related tools, like different questioning models for the coaching or mentoring stances, can make a huge difference. Especially in supporting the self-organization on Kanban or Agile change efforts.
After this talk participants will walk away with new ideas on how to use different stances of interaction in their day to day work and find hopefully even inspiration which of their coaching toolsets they would like to enhance.



Michael Mahlberg
TCG The Consulting Guild GmbH
Showrunner

Donnerstag, 01.01.1970   |   11:00 - 11:45 Uhr   |    Do 5.2

C++ Core Guidelines – Migration zu modernem C++

Führende Experten haben die „C++ Core Guidelines" vorgeschlagen, die bei C++-Entwicklern besseren modernen Programmierstil fördern sollen. Die Richtlinien bauen auf Techniken für sicheren und trotzdem effizienten C++-Code. Zum Beispiel durch die konsequente Nutzung von „const" oder die Vermeidung „nackter" Zeiger. Viele der Regeln können oder müssen gar mittels statischer Programmanalyse forciert werden. Der Vortrag gibt einen Überblick der Regeln und demonstriert, wie verletzte Regeln automatisch erkannt und sofort „geheilt" werden können.

Zielpublikum: Entwickler, Architekten, Projektleiter
Voraussetzungen: Grundkenntnisse in C/C++
Schwierigkeitsgrad: Fortgeschritten Extended Abstract
Our institute has a long history of providing static analysis within an IDE and also suggesting transformation for improving code, such as, applying C++11's initializers, instead of uninitialized or old-fashioned initialized variable declarations. While already addressing some areas covered by the Core Guidelines, we recently targeted many more of those explicitly and provide corresponding static analysis and quick-fix refactoring support to adjust existing C++ code toward following the core guidelines.
This talk will introduce the C++ Core Guidelines and demonstrate how you can modernize your code and improve its quality without losing performance through automated tooling built into Cevelop.
Topics covered:
What are the C++ Core Guidelines
Philosophy and goals
Areas covered
Examples
Automatic "repair" of code
const Correctness
Constructors/destructors/assignment
Pointers and arrays
Future work
The audience will get an overview of the C++ Core Guidelines. Using practical code examples improvements through application of the guidelines is demonstrated. Tools will be shown, that aid in detection of guideline violation and automatic repair to guideline-conforming code. Attending developers will be enabled to apply the Core Guidelines in the future to create or refactor to safer and more maintainable C++ code.



Peter Sommerlad
HSR Rapperswil
Director of IFS Institute for Software

Donnerstag, 01.01.1970   |   11:00 - 11:45 Uhr   |    Do 6.2

Digitalisierungsprojekte in der Cloud – Ein Vergleich der 3 großen Anbieter

Der Talk zeigt anhand der Anbieter Microsoft, Amazon und Oracle, wie einfach es ist, für ein Softwareprojekt die komplette Infrastruktur in wenigen Minuten bereitzustellen.
Mit allen drei Anbietern kann die Sourceverwaltung, die Buildpipeline sowie die Ablaufumgebung abgedeckt werden, aber wo liegen die Unterschiede? Was wird neben diesen drei Hauptpunkten noch geboten und wie hoch sind die Kosten?
Als Beispiel wird eine Spring-Boot-Anwendung dienen, die als Docker Container deployt werden soll.

Zielpublikum: Architekten, Entwickler, Projektleiter
Voraussetzungen: keine
Schwierigkeitsgrad: Anfänger



Marco Buss
OPITZ CONSULTING
Senior Consultant

Donnerstag, 01.01.1970   |   11:00 - 11:45 Uhr   |    Do 7.2

Microservices erfolgreich testen mit Consumer Driven Contract Testing und Spring Cloud Contract

Microservices ermöglichen schnelle und unabhängige Entwicklung bei gleichbleibend hoher Qualität. Der höhere Verteilungsgrad einer solchen Architektur und die getrennten Lebenszyklen bedingen jedoch auch andere Herangehensweisen in puncto Test. Klassische Verbundtests zur Sicherstellung der Schnittstellenkompatibilität erzeugen dabei eine unnötige Kopplung und skalieren nicht. Dieser Vortrag zeigt auf, wie Consumer Driven Contract Testing skalierbare, isolierte API-Tests ermöglicht, und veranschaulicht dies in einer Live-Demo mit Spring Cloud Contract.

Zielpublikum: Architekten, Entwickler
Voraussetzungen: Java-Kenntnisse, REST APIs, JSON
Schwierigkeitsgrad: Fortgeschritten Extended Abstract
Einer der wesentlichen architektonischen Vorteile der Entkopplung auch kleinerer Teile der Gesamtarchitektur wie zum Beispiel mit Microservices ist die hierdurch erreichte Flexibilität. Die verantwortlichen Teams sollen Änderungen weitestgehend unabhängig voneinander entwickeln und bereitstellen können. Nichtsdestotrotz müssen die verschiedenen Systeme am Ende korrekt miteinander kommunizieren, so dass entsprechende Integrationstests für die gemeinsam genutzten Schnittstellen notwendig sind.
Während in monolithischen Systemen hier oft der klassische Verbundtest angewendet wird, brauchen wir für hochverteilte Umgebungen aufgrund der Anzahl der Schnittstellen und der Dynamik Alternativen, die skalierbar sind. Der Vortrag zeigt auf, wie man diesem Problem mit der Methodik Consumer Driven Contract Testing (CDCT) begegnen kann. Der Vortrag adressiert dabei ebenso die positiven Aspekte von CDCT hinsichtlich des Schnittstellendesigns und der damit verbundenen Service Evolution über den Lebenszyklus hinweg.
Eine Live-Demo zeigt die Praxistauglichkeit von CDCT anhand des Java-Frameworks Spring Cloud Contract Verifier an einem Beispiel aus dem täglichen Leben auf.



Frank Scheffler
Digital Frontiers GmbH & Co. KG
Senior Solution Architect

Florian Pfleiderer
Digital Frontiers GmbH & Co. KG
Senior Consultant

Donnerstag, 01.01.1970   |   11:00 - 11:45 Uhr   |    Do 8.2

Das Leben und Sterben in Firmen

Bei der Veränderung von Unternehmen hin zu agilen Strukturen denken und handeln die meisten dadurch, dass sie Dinge verändern und neu starten - was zurück bleibt sind Leichen des alten Systems oder neue Initiativen, die sich schnell als nicht hilfreich herausgestellt haben.
Dieser Talk beschäftigt sich mit dem gesamtheitlichen Prozess des Lebens- und Sterbezyklus, basierend auf dem Ecocylce nach Brenda Zimmerman und bietet konkrete Methoden, um das Sterben von Strukturen und Verhalten in Unternehmen zu etablieren.

Zielpublikum: Change Agents, Organisationsentwickler
Voraussetzungen: Veränderungserfahrung
Schwierigkeitsgrad: Experte Extended Abstract
In unserer Beobachtung werden sehr viele Dinge gestartet aber es fällt zunehmend schwer Strukturen und geliebte Initiativen endgültig zu beenden: sie sterben zu lassen. Auch in der Literatur ist dieser Prozess nur sehr selten behandelt, was aus unserer Sicht damit zusammenhängt, dass auch unsere Gesellschaft ein Problem mit dem Tod hat und dieses Thema daher geschickt umgeht. Dinge werden nicht beerdigt sondern zumeist ignoriert.
In diesem Talk ziehen wir die Verbindung zwischen dem menschlichen Umgang "sterben" und dem der Firmen bei Veränderungen. Dabei nehmen wir das Ecocylce Planning nach Brenda Zimmerman zur Orientierung. Wir erzählen Geschichten zum Beispiel von einem Kunden, der in fünf Minuten eine Hierarchie eingeführt hat und dann zwei Jahre gebraucht hat, sie wieder abzuschaffen. Wir zeigen, mit welchen konkreten Aktionen ein explizites "sterben" im Unternehmen begleitet werden kann.



Christian Dähn
it-agile GmbH
Agile Coach

Sebastian Keller
it-agile GmbH
Agile Coach, Trainer und Entwickler

Donnerstag, 01.01.1970   |   12:45 - 14:30 Uhr   |    Pause

Mittagessen / Lunch Break






Donnerstag, 01.01.1970   |   14:30 - 15:30 Uhr   |    Do 1.3

It's all about the domain, honey – Fachliche Architektur mit DDD

Beim Bauen von Software werden tolle Technologien, Programmiersprachen und Tools eingesetzt. Das ist gut und richtig. Aber leider wird dabei oft aus den Augen verloren, dass das Entscheidende für den Projekterfolg nicht die Technik, sondern die *Fachlichkeit* ist.
Als Informatiker kann man leicht in diese Falle tappen. Um das zu verhindern, zeige ich in diesem Vortrag, wie man mit Domain-Driven Design (DDD) das Wissen um die Fachlichkeit lernen und in eine Ubiquitous Language übertragen kann.

Zielpublikum: Architekten, Entwickler, Projektleiter
Voraussetzungen: Projekterfahrung
Schwierigkeitsgrad: Fortgeschritten Extended Abstract
Beim Bauen von Software werden tolle Technologien, Programmiersprachen und Tools eingesetzt. Das ist gut und richtig. Aber leider wird dabei oft aus den Augen verloren, dass das Entscheidende für den Projekterfolg nicht die Technik, sondern die *Fachlichkeit* ist. Wenn wir in der Software nicht das fachliche Modell abbilden, dann wird sie unseren Anwendern nicht bei ihrer Arbeit helfen. Davor schützt uns keine Technologie der Welt.
Als Informatiker kann man leicht in diese Falle tappen. Um das zu verhindern, zeige ich in diesem Vortrag, wie man mit Domain-Driven Design (DDD) das Wissen um die Fachlichkeit lernen und in eine Ubiquitous Language übertragen kann. Dazu werden Techniken wie Interviews, Domain Storytelling und Event Storming eingesetzt.
In der Praxis ist es schwierig zu erkennen, wie wir unsere Domäne schneiden und daraus Microservices entwickeln können. Hierbei kann uns das Prinzip der Bounded Contexts aus DDD helfen. Es gibt uns Hilfestellung, wo vertikale Schnitte sinnvoll sind.
Setzt man diese Techniken gemeinsam ein, dann kann man die Architektur von Softwaresystemen so bauen, dass sie die Fachlichkeit darstellt und unsere Anwender glücklich macht.



Carola Lilienthal
WPS - Workplace Solutions GmbH
Geschäftsführerin

Henning Schwentner
WPS - Workplace Solutions
Berater und Software-Architekt

Donnerstag, 01.01.1970   |   14:30 - 15:30 Uhr   |    Do 2.3

Architektur des CARUSO-Ökosystems – Telematik, Daten und Marktplatz digital ins Rollen gebracht

CARUSO ist ein B2B-Marktplatz zum Brokering von Daten und Services rund um Fahrzeug-Telematik. Wir berichten von der Arbeit der Architekten im Spannungsfeld von Geschäftsmodellen, Recht und Technologien eines entstehenden Ökosystems. Der Weg zur erfolgreichen Digitalisierung der Domäne ist gepflastert mit Zielanpassungen, Experimenten und schnellen Entscheidungskorrekturen. Kernherausforderungen sind Offenheit bei gleichzeitiger Sicherheit und Vertrauen sowie hohe Attraktivität für Partner bei gleichzeitig einfachem Eintritt ins Ökosystem.

Zielpublikum: Architekten, Projektleiter, Manager, Entscheider, Entwickler
Voraussetzungen: Interesse an Softwareökosystemen
Schwierigkeitsgrad: Fortgeschritten Extended Abstract
- CARUSO ist ein neutraler B2B-Daten- und Service-Marktplatz rund um Telematik-Dienstleistungen für Fahrer, Fahrzeuge und Fahrzeugflotten.
- CARUSO etabliert dazu ein offenes Ökosystem aus Ausrüstern, Werkstätten, Zulieferern, Logistikern, Versicherungen, Teilehändlern und Dienstleistern.
- Mithilfe von CARUSO können Firmen effizient und standardisiert auf Telematikdaten aus Fahrzeugen zugreifen.
- Mehr Infos zu CARUSO unter www.caruso-dataplace.com
- Der Aufbau des Ökosystems bedeutet einen starken Anschub der Digitalisierung in der Domäne. Das geht mit vielen Unwägbarkeiten einher und verlangt viel Flexibilität.
- Der Vortrag beleuchtet insbesondere die Architekturaspekte und Aspekte der Architekturarbeit, die in Ökosystemen besonders sind.
- Das zielt insbesondere darauf ab, dass das Ökosystem von vielen Partnern lebt, für die es attraktiv sein muss und die nach und nach auf die Plattform gezogen werden müssen.
- Der Aufbau des Ökosystems verläuft extrem dynamisch und ist von viel Flexibilität und Entscheidungskorrekturen geprägt.
Das betrifft sowohl Geschäftsmodell als auch Technologie.



Matthias Naab
Fraunhofer IESE
Softwarearchitekt

Jens Knodel
Caruso GmbH
Chief Ecosystem Architect

Donnerstag, 01.01.1970   |   14:30 - 15:30 Uhr   |    Do 3.3

Refactoring's Critical Skills

To keep code young and flexible for a long useful life, design has to be reconsidered and revised with each new behavior added. Consequently, refactoring is a step in the TDD cycle. Even with that emphasis, code can deteriorate into the incomprehensible. Just saying refactor, does not cause it to happen. In this talk we'll explore the three essential skills to keeping code young.

Target Audience: Architects, Developers
Prerequisites: Development experience
Level: Practicing



James Grenning
Wingman Software
Trainer, Coach, Consultant

Donnerstag, 01.01.1970   |   14:30 - 15:30 Uhr   |    Do 4.3

Von einem, der auszog, coole Mitarbeiter für ein langweiliges Unternehmen zu rekrutieren ...

Nein, ich finde unser Unternehmen nicht langweilig – ja, ich arbeite für die IT einer Bank …
Aber versuchen Sie mal, coole und innovative IT-Mitarbeiter für eine Bank zu finden.
Ganz schnell stehen da Attribute wie steif, spießig, konservativ oder sogar rückständig im Raum. Wer will da schon hin, wenn man sich seinen Job aussuchen kann und coole Start-ups und Internet-Firmen locken?
Kennen Sie das, wenn das Bewerbungsgespräch plötzlich andersherum verläuft?
Wir zeigen einen (unseren) Weg aus dem Dilemma, was dieser Change für das Unternehmen bedeutet.

Zielpublikum: Manager, Entscheider, Projektleiter, HR-Mitarbeiter
Voraussetzungen: keine besonderen, agile Grundkenntnisse sind von Vorteil, aber nicht Bedingung
Schwierigkeitsgrad: Anfänger Extended Abstract
Dieser interaktive Vortrag erzählt davon, wie wir uns als Firma und ganz besonders als IT-Abteilung gewandelt haben (noch wandeln), damit wir einerseits im gewandelten Markt auch weiterhin noch bestehen können und andererseits auch die Menschen an Bord bekommen, die gemeinsam mit uns die Firma weiterentwickeln. Das bedeutet einen Change-Prozess für unsere IT und auch für das Unternehmen, der noch längst nicht abgeschlossen ist. Genau darüber möchte ich mit Ihnen ins Gespräch kommen.
Ein agiler Change bedeutet in der Regel auch eine Revolution in der Unternehmenskultur. Starre Hierarchien und feste Strukturen und eine lange Historie ("... das haben wir schon immer so gemacht ...") stehen auf einmal selbstverantworteten, cross-funktionalen Teams, einer neuen Fehlerkultur ("Inspect and adapt") und einem ganz anderen Arbeitsstil gegenüber (Werte- statt Budget-orientiert, Time-to-Market statt Auslastungs- und Kosten-optimiert).
Dieser Vortrag, immer wieder unterbrochen von kurzen Diskussionen, gibt einen Einstieg in unseren Weg in einen agilen Change und was das für die Mitarbeiterführung und Mitarbeiter-Recruitierung bedeutet. Er berichtet von unseren und anderen Erfahrungen mit einer agilen Transition im eher konservativen Umfeld.
Was lässt sich in der Regel gut umsetzen, welche Widerstände haben wir vorgefunden und wann und wo sind wir eher gescheitert?
Wie hat sich das Denken und Handeln unserer Führungskräfte verändert? Oder wie sollte es sich verändern? Welche Rolle spielt die HR-Abteilung?
Was sind die Erfahrungen der Teilnehmer? Es wird einige Feedback-Runden und Diskussionen innerhalb des Vortrags geben, in denen wir in kleinen Gruppen gemeinsam über unsere Erfahrungen und unsere Einschätzungen diskutieren werden.



Peter Schnell
Bank Deutsches Kraftfahrzeuggewerbe GmbH
IT Leitung

Donnerstag, 01.01.1970   |   14:30 - 15:30 Uhr   |    Do 5.3

Should I stay or should I Go?

Programmiersprachen-affinen Menschen drängt sich in den letzten Monaten zunehmend eine neue Programmiersprache ins Bewusstsein: Go. Plötzlich ist da vierzig Jahre nach C eine neue Programmiersprache, die auf den ersten Blick stark an erstere erinnert. Ein kurzer Blick auf Syntax und Paradigma erzwingt die Frage: Eine Programmiersprache, die weder strikt objektorientiert noch funktional ist und darüber hinaus auch noch stark an C erinnert, warum soll ich die jetzt auch noch lernen? Dieser Vortrag begibt sich auf die Suche nach Antworten.

Zielpublikum: Architekten, Entwickler
Voraussetzungen: Programmiererfahrung, Interesse an Programmierparadigmen
Schwierigkeitsgrad: Anfänger Extended Abstract
Programmiersprachen-affinen Menschen drängt sich in den letzten Monaten zunehmend eine neue Programmiersprache ins Bewusstsein: Go. Plötzlich ist da vierzig Jahre nach C eine neue Programmiersprache, die auf den ersten Blick stark an erstere erinnert. Ein kurzer Blick auf Syntax und Paradigma erzwingt die Frage: Eine Programmiersprache, die weder strikt objektorientiert noch funktional ist und darüber hinaus auch noch stark an C erinnert, warum soll ich die jetzt auch noch lernen? Dieser Vortrag begibt sich auf die Suche nach Antworten.
Inhalt:
- Geschichte von Go - wer steckt dahinter?
- Einführung in Go: Paradigma, Syntax, Tool-Chain
- Warum Go?
- Aber Go ist nicht objektorientiert?
- Und was ist mit funktionaler Programmierung?
- Clean Go
- Wer nutzt Go?
- Für welche Art von Anwendungen ist Go eine gute Wahl?



Ralf Wirdemann
Kommitment GmbH & Co. KG
Softwarecoach und Gründer

Donnerstag, 01.01.1970   |   14:30 - 15:30 Uhr   |    Do 6.3

So many Docker platforms, so little time ...

Docker enables microservice architectures and is the leader in containerization technology. That said, there are many ways to "do Docker". Between the leading cloud providers (AWS, Azure, Google) and other leading platform stacks (Docker Swarm, Apache Mesos - DC/OS, Docker Data Center, Kubernetes) and it can get confusing. In this session, Michele will bring her customer experiences building solutions across most of these platforms - to provide you with the highlights and the architecture topologies.

Target Audience:
Architects, Developers
Prerequisites: programming experience
Level: Practicing Extended Abstract
Michele will bring her customer experiences building solutions across most of these platforms - to provide you with the highlights, the architecture topologies, and some perspective on the way she helps her customers choose the right platform for their cloud, on premise or hybrid solutions.
This session will cover the following:
- demos will include each of the listed platforms, progressively, while introducing the concepts relevant to developing and deploying and managing containerized solutions
- it's both conceptual and technical; diagrams to help illustrate concepts, demos to cement how things work at runtime such as showing deployment, updates, load balancing, scale out, monitoring, logs/diagnostics, self-healing services etc.
- topics include how to think about using orchestration platforms, features we expect them to offer us, scheduling concepts including jobs vs. long running services, even message based solutions



Michele Bustamante
solliance.net
Founder and CIO

Donnerstag, 01.01.1970   |   14:30 - 15:30 Uhr   |    Do 7.3

Mit Konnektoren Systeme im Querschnitt erproben – Durchgängig, unauffällig und unabhängig

Konnektoren trennen und verbinden Teile eines Systems. Zwischen Systemteilen eingeschoben können Konnektoren Steuer- und Datenflüsse beobachten, prüfen, verändern und lenken. Dafür notwendig sind lediglich elementare objektorientierte Techniken, einfache Entwurfsmuster und Interface-basierte Programmierung. Damit verbessern Konnektoren grundlegend die Modularität und Testbarkeit von Systemen. Mit Konnektoren lassen sich Funktionen, Systemteile und ganze Systeme untersuchen, im Labor und im Feld. Test the Waters – gezielt, verlässlich und schnell!

Zielpublikum: Architekten, Entwickler, Tester, Projektleiter
Voraussetzungen: Kenntnisse über objektorientierten Entwurf und Programmierung
Schwierigkeitsgrad: Fortgeschritten



Joachim Fröhlich
Siemens AG
ACM Senior und IEEE Member

Florian Krautwurm
Siemens AG
Softwaretest-Architekt

Markus Lachenmayr
Siemens AG
Software Engineering

Donnerstag, 01.01.1970   |   14:30 - 15:30 Uhr   |    Do 8.3

Verteiltes Veschper – Teambuilding auf „Schwächsisch"

Wie geht Teambuilding über 600 km Entfernung? Wenn die einen „König" (weil Kunde) sind und die anderen die „verlängerte Werkbank"? Wenn das eine Teilteam schon „agil" spricht und das andere nicht? Die einen schwäbeln und die anderen sächseln? Wenn in einem Büro kein Kaffee getrunken werden darf und in dem anderen das Parkett knarzt? Wir arbeiten stetig daran, sichtbare und unsichtbare Grenzen zu überwinden und immer weiter zusammenzuwachsen. Mein Team zeigt mir jeden Tag, wie schwierig das ist - und wie einfach. Und nun zeige ich es Euch.

Zielpublikum: Alle Projektrollen, Manager und Entscheider, für die Verteilung Realität ist oder bald sein könnte
Voraussetzungen: Basiswissen agile Methoden (z.B. Scrum)
Schwierigkeitsgrad: Fortgeschritten Extended Abstract
Immer wieder kommen Kunden auf uns zu mit der Frage: Verteilt, aber wie? Sie treiben verschiedene Ängste und Sorgen um wie: Kann verteiltes Arbeiten wirklich so effizient sein wie das Entwickeln an einem Standort? Wie wächst unser Team zusammen? Wie weit muss ich meinem Dienstleister vertrauen, wenn ich ein Produkt mit ihm entwickle?
In diesem Vortrag soll es in einer Fallstudie um das Setup und die Arbeit in einem verteilten Team gehen. Verteilt heißt in unserem Projekt: Die 8 Entwickler sitzen über 2-4 Standorte verteilt (2 Hauptstandorte, 2 Standorte mit je einem Entwickler), der Product Owner beim Kunden, der Scrum Master beim Dienstleister. Und über uns: Projektleiter über Projektleiter. Und um uns herum: klassische Teilprojekte, zu denen wir Abhängigkeiten haben.
An unserem Beispiel wird deutlich, dass es bei Weitem nicht nur darum geht, ein bisschen Technik hinzustellen, damit verteilte Projekte ein Erfolg werden. Das Raumsetting muss genauso durchdacht sein wie Prozesse und Rollen. Oftmals stellen wir fest, dass nicht „verteilt" das Problem ist, sondern „agil". Oder einfach nur fehlender gesunder Menschenverstand. Außerdem ist nicht zu unterschätzen, dass „zwei Teams" - bestehend aus Auftraggeber und Dienstleister, mit zwei unterschiedlichen Unternehmenskulturen und noch dazu verteilt - nicht von allein zusammenwachsen.
In unseren zahlreichen verteilten Projekten über mittlerweile 7 Jahre haben wir viele Fehler gemacht, daraus gelernt und ein ganzheitliches, modulares Konzept für verteilte agile Zusammenarbeit entwickelt. Ich möchte das Publikum dazu befähigen, unsere Anfangsfehler nicht wiederholen zu müssen, sondern gleich daraus zu lernen.



Ines Reiche
Saxonia Systems AG
Scrum Master und Coach

Donnerstag, 01.01.1970   |   16:30 - 17:00 Uhr   |    Pause

Kaffeepause / Coffee Break






Donnerstag, 01.01.1970   |   17:00 - 18:00 Uhr   |    Do 1.4

GraphQL eine moderne Lingua Franca für API-Entwicklung

Vor 3 Jahren hat Facebook mit der Veröffentlichung der GraphQL-Spezifikation frischen Wind in das Thema „API-Design zwischen entfernten Diensten und Anwendungen" gebracht. Die wichtigsten Aspekte von GraphQL ermöglichen eine gemeinsame, schema-basierte domänenspezifische Sprache und flexible, dynamische Abfragen an Schnittstellengrenzen.
Im Vortrag möchte ich GraphQL und REST vergleichen und Vorteile für Entwickler und Architekten anhand konkreter Beispiele in Anwendungs- und API-Entwicklung, Datenquellen- und Systemintegration darstellen.

Zielpublikum: Architekten, Entwickler
Voraussetzungen: Kenntnisse in REST, Domänenmodellen, API-Entwicklung
Schwierigkeitsgrad: Anfänger Extended Abstract
Seit dem Abgang von SOAP und der Etablierung von REST und HATEOAS für die Kommunikation von Clients mit Services hat sich auf dem Feld der remote APIs nicht viel getan.
Bis vor 2 Jahren Facebook die Spezifikation und Referenzimplementierung ihres API-Protokolls für mobile Anwendungen namens GraphQL veröffentlichte.
Aus pragmatischen Anforderungen heraus entwickelt, macht die Sprache das Leben für Front- und Backend-Entwickler leichter, indem wichtige Kernaspekte explizit gemacht werden.
Der Hauptvorteil ist, dass mittels eines flexiblen Schemas eine domänenspezifische Sprache definiert wird, die das Vokabular an der Grenze zwischen Services und deren Nutzern definiert. Auf der Basis dieses gemeinsamen Verständnisses können beide Seiten unabhängig voneinander entwickeln, die Infrastruktur kümmert sich um die Abbildung flexibler, dynamisch geschachtelter Abfragen auf die verschiedenen Datenquellen, die die angefragten Informationen in Summe bereitstellen.
In diesem Vortrag möchte ich beleuchten, wie die GraphQL-Sprachspezifikation das Leben für Entwickler leichter macht, welche Vor- und Nachteile GraphQL gegenüber REST besitzt und wie ein weitreichendes Tooling und die Unterstützung durch eine sehr aktive Open-Source-Gemeinschaft diesen neuen Ansatz schnell Verbreitung hat finden lassen. Am praktischen Beispiel werden verschieden Architekturansätze diskutiert, von einfacher Kapselung existierender Dienste bis zur dynamischen Bündelung verschiedener Quellen im Rahmen einer „serverlosen" Infrastruktur. Meine praktischen Erfahrungen aus der Entwicklung einer GraphQL-Backend-Infrastruktur werden das Potenzial, aber auch die noch fehlenden Fähigkeiten des Ansatzes aufzeigen.



Michael Hunger
Neo4j, Inc.
Director Developer Relations Engineering Neo4j

Donnerstag, 01.01.1970   |   17:00 - 18:00 Uhr   |    Do 2.4

Blockchains – Mehr als nur digitale Währungen

Blockchains als eine Form von Datenbanken haben sich bisher oft durch Kryptowährungen wie Bitcoins einen Namen gemacht. Ihre Eigenschaften in Integrität und Verteilung machen sie jedoch auch für andere Anwendungen attraktiv.
Ethereum ist eine auf Blockchains basierende verteilte Plattform. Auch sie kennt mit Ether eine Kryptowährung. Spannender sind jedoch ihre Smart Contracts. Sie bilden die Basis für Distributed Apps - den Dapps. Autonom und unabhängig von nur einem zentralen Anbieter bilden sie das Serverless der nächsten Generation.

Zielpublikum: Architekten, innovative Entwickler
Voraussetzungen: Grundkenntnisse Datenstrukturen und Kryptologie
Schwierigkeitsgrad: Anfänger Extended Abstract
Das Ethereum-Team arbeitet nicht nur an einem Protokoll. Das System reift zu einer robusten Plattform für real verteilte Anwendungen unabhängig von nur einem zentralen Anbieter. Auf dieser Basis entstehen eigene Ökosysteme. Für an einer Form der zukünftigen Architekturen interessierte Entwickler bietet dieser Betrag einen Einblick in die Welt der Blockchains allgemein, Ethereum speziell und hierin Smart Contracts und Dapps.



Frank Müller
Tideland
Entwickler

Donnerstag, 01.01.1970   |   17:00 - 18:00 Uhr   |    Do 3.4

Creating Great Teams – How Self-Selection Lets People Excel

Here’s a radical idea: Trust people to know best and let them decide which team they should work in. Let them Self-Select!
Self-selection is the simplest, fastest and most efficient way to form stable teams, based on the belief that people are at their happiest and most productive if they can choose what they work on and who they work with.
I will share my learnings and experiences from more than four years of running Self-Selection processes in large organisations. I will show you a repeatable process for how to establish efficient teams.

Target Audience: Managers, Decision makers, developers, team members
Prerequisites: none
Level: Practicing Extended Abstract
In October 2013, Trade Me, New Zealand’s largest eCommerce provider ran the biggest Self-Selection event in the world since WWII, using a process which has since been repeated many times in multiple locations across the world.
In this presentation I will share my learnings and experiences from more than four years of running Self-Selection processes in large organisations. I will show you a repeatable process for how to establish efficient teams in growing organisations and will answer questions such as “Why would I do that”? and “How can I convince management?”.



Sandy Mamoli
Nomad8
Agile consultant

Donnerstag, 01.01.1970   |   17:00 - 18:00 Uhr   |    Do 4.4

Scrum skaliert: Wie wir das Exoskelett Nexus mit Leben füllen

Nexus, das Skalierungsframework von Scrum.org, erweitert Scrum um wenige, aber wichtige Elemente, die für die Skalierung notwendig sind. Genau wie beim Scrum-Framework halten sich Ken Schwaber und Scrum.org mit Details zur konkreten, situativen Ausgestaltung bewusst zurück.
Im Vortrag stellen wir kurz diese zu Scrum erweiternden Elemente vor und ergänzen die Definitionen aus dem Nexus Guide mit unseren Erfahrungen sowie vielen Praxistipps.
Fazit: Nexus ist - wie auch Scrum - bewusst einfach gehalten. Die Ausgestaltung ist aber harte Arbeit!

Zielpublikum: Scrum Master, Agile Coach, Manager, Entwickler, Product Owner
Voraussetzungen: Scrum-Kenntnisse
Schwierigkeitsgrad: Fortgeschritten Extended Abstract
Wir sind mittlerweile seit mehreren Jahren in einem Skalierungsprojekt mit Nexus als Scrum Master / Agile Coach aktiv und möchten unsere Erfahrungen und Learnings weitergeben.
Der Vortrag ist dreiteilig aufgebaut, wobei der Fokus auf den Praxiserfahrungen liegt.
Im ersten Teil stellen wir kurz die zu Scrum erweiternden Elemente des Skalierungsframeworks Nexus vor.
Im Hauptteil des Vortrags beantworten wir folgende Fragestellungen:
Wie lange dauern die TimeBoxen für die verschiedenen Events im Nexus? Warum steht das nicht explizit im Nexus Guide? Sind das nicht viel zu viele Meetings?!
Wie gehen wir mit den ganzen Abhängigkeiten um?
Was macht unser Nexus Integration Team (NIT)?
Wie machen wir eine zielgerichtete Sprintplanung mit so vielen Personen?
Was passiert im Nexus Daily?
Wie machen wir ein effektives Review mit so vielen Teams und Stakeholdern?
Wie machen wir eine effektive Retrospektive, auch teamübergreifend?
Im abschließenden Fazit gehen wir darauf ein, wie wir mit den Fragestellungen und Herausforderungen in der Skalierung umgehen und wie uns Nexus dabei hilft.



Marion Gakstatter
andrena objects
Agile Coach

Christoph Adelberger
andrena objects ag
Agile Coach

Donnerstag, 01.01.1970   |   17:00 - 18:00 Uhr   |    Do 5.4

HTTP/2 – Ist das auch gut für Java-basierte Webservice-Architekturen?

Die neue Version 2 des HTTP-Protokolls macht das Netz schneller. Dazu nutzt es viele ausgefeilte technische Raffinessen: Request-Multiplexing, komprimierte Protokoll-Metadaten und Server-Push. All dies macht das Surfen sehr viel angenehmer und sorgt für eine bessere User-Experience.
HTTP/2 zielt darauf ab, die Netzbandbreite besser auszunutzen. Profitieren auch SOAP- und RESTful-Webservices vom neuen HTTP? HTTP/2 bringt Mehraufwand für die Entwickler. Lohnt sich das am Ende? Meist schon, es gibt aber auch Aspekte, die einen echt Nerven kosten.

Zielpublikum: Architekten, Entwickler, Projektleiter
Voraussetzungen: Java-Kenntnisse, SOAP- und RESTful Services, Web-Protokolle, Web-Performance
Schwierigkeitsgrad: Fortgeschritten Extended Abstract
Alle Vorteile von HTTP/2 (Multiplexing, HTTP-Push und auch die HTTP-Header-Komprimierung mit dem HPACK-Algorithmus) haben das Potenzial, auch die Webservice-Kommunikation performanter zu machen. Viele Enterprise-Anwendungen basieren auf SOAP- oder RESTful-Webservices.
Grund genug also, einmal zu untersuchen, ob man neue Webservices nicht gleich auf Basis von HTTP/2 implementieren sollte. Die HTTP-Anfragemethoden, also der Befehlssatz u.a. aus GET, POST, PUT, DELETE, haben sich mit dem Versionssprung nicht geändert. Lohnt für bestehende Anwendungen eventuell sogar eine Migration von HTTP/1.1 auf seinen Nachfolger?
Ein Grund, der dagegen sprechen würde, ist der Einsatz der Verschlüsselung mit HTTPS. Diese ist zwar nicht durch die Protokolldefinition für HTTP/2 vorgeschrieben (RFC 7540 und 7541), allerdings gibt es keine HTTP/2-Implementierung, die HTTPS nicht voraussetzt.
Der Einsatz von HTTP/2 bedeutet folglich immer, dass man sich um das Erzeugen, Verwalten und Verteilen von SSL- bzw. TLS-Zertifikaten Gedanken machen muss.
Die Vorteile von HTTP/2 erkauft man sich für ein IT-System also immer durch ein Mehr an Komplexität.
Rechtfertigen die Vorteile für die Webservice-Kommunikation dieses Mehr an Komplexität?
Wie sieht es mit der Unterstützung von HTTP/2 im aktuellen Java-Umfeld aus? JDK9, Java EE8, Servlet 4.0, JBoss EAP 7, Tomcat 8.5 und 9. Bringen diese Technologien Unterstützung für HTTP/2 mit?
Diese Frage soll in diesem Vortrag diskutiert werden.



Jan Weinschenker
Holisticon AG
Berater

Donnerstag, 01.01.1970   |   17:00 - 18:00 Uhr   |    Do 6.4

Apache Kafka + Apache Mesos = Highly Scalable Streaming Microservices

This session discusses a highly scalable, performant, mission-critical microservice infrastructure with Apache Kafka and Apache Mesos. Apache Kafka brokers are used as distributed messaging backbone. Kafka’s Streams API allows to embed stream processing directly into any external microservice or application; without the need for a dedicated streaming cluster. Apache Mesos can be used as scalable infrastructure for both to leverage the benefits of a cloud native platforms like service discovery, health checks, or fail-over management.

Target Audience: Architects, Developers, Project Leader
Prerequisites: Basic knowledge about distributed systems (e.g. messaging, SOA) is helpful
Level: Introductory Extended Abstract
Microservices establish many benefits like agile, flexible development and deployment of business logic. However, a Microservice architecture also creates many new challenges like increased communication between distributed instances, the need for orchestration, new fail-over requirements, and resiliency design patterns.
This session discusses how to build a highly scalable, performant, mission-critical microservice infrastructure with Apache Kafka and Apache Mesos. Apache Kafka brokers are used as powerful, scalable, distributed message backbone. Kafka’s Streams API allows to embed stream processing directly into any external microservice or business application; without the need for a dedicated streaming cluster. Apache Mesos can be used as scalable infrastructure for both, the Apache Kafka brokers and external applications using the Kafka Streams API, to leverage the benefits of a cloud native platform like service discovery, health checks, or fail-over management.
A live demo shows how to develop real time applications for your core business with Kafka messaging brokers and Kafka Streams API and how to deploy / manage / scale them on a Mesos cluster using different deployment options.



Kai Wähner
Confluent
Technical Lead

Donnerstag, 01.01.1970   |   17:00 - 18:00 Uhr   |    Do 7.4

Absicherung kritischer Systeme bei agiler Entwicklung

Kritische Systeme müssen schnell und trotzdem mit höchster Qualität geliefert werden. Cyber-Security oder funktionale Sicherheit fordern nachweisbare Absicherung mit jeder Iteration und Lieferung. Daher brauchen agile Inkremente oder gar kontinuierliche Liefer-Prozesse wie DevOps und Over-The-Air leichtgewichtige wirksame Freigabeprozesse. Der Praxisbeitrag zeigt Industrieerfahrungen bei Bosch und Vector und bietet branchenübergreifend Impulse bei der kontinuierlichen Absicherung von Konsistenz und Qualität.

Zielpublikum: Entwickler, Tester, Safety/Security Experten, Architekten, Qualitätsmanager, Projektleiter
Voraussetzungen: Kritische Systeme, Projekterfahrung
Schwierigkeitsgrad: Fortgeschritten Extended Abstract
Kritische Systeme müssen schnell und trotzdem mit höchster Qualität geliefert werden. Cyber-Security oder funktionale Sicherheit fordern nachweisbare Absicherung mit jeder Iteration und Lieferung. Daher brauchen agile Inkremente oder gar kontinuierliche Liefer-Prozesse wie DevOps und Over-The-Air leichtgewichtige wirksame Freigabeprozesse. Beispielsweise müssen Regressionstests beginnend mit dem Requirements Engineering und Architekturentwicklung mit teilautomatisierter Traceability und Prüfung der Abhängigkeiten der Lieferungen verzahnt werden. Nur so kann Qualität agiler Entwicklungsprozesse und kontinuierlicher Lieferungen bei kritischen Systemen wirtschaftlich abgesichert werden. Der Praxisbeitrag zeigt Industrieerfahrungen bei Bosch und Vector und bietet branchenübergreifende Impulse bei der kontinuierlichen Absicherung von Konsistenz und Qualität.
Software-intensive Systeme müssen technologisch kompromisslos innovativ sein. Gleichzeitig fordern die Märkte eine immer kürzere Zykluszeit sowie kontinuierliche Effizienzsteigerung. Traditionelle Entwicklungsprozesse, die Innovation und Qualität über einen schwerfälligen Prozess erreichten, sind nicht mehr zeitgemäß. Unsere aktuellen Projekte bei Bosch und Vector zeigen, dass beispielsweise die Kosten für Nacharbeiten über den Produktlebenszyklus hinweg durch agile Vorgehensweisen bei Requirements und Test um 20-50% gesenkt werden können.
Eine besondere Herausforderung bei häufigen Lieferungen ist die kompromisslose Absicherung der Qualität. Mangels Rückfalloptionen muss die Qualität stimmen. Gleichzeitig müssen die Restfälle und Prüfschritte dokumentiert sein. Das macht viel Aufwand, der in modernen Liefermodellen reduziert und optimiert werden muss.
Hier kommt die agile Regressionsprüfung ins Spiel. Bereits die Anforderungen werden bei ihrer Entwicklung testbar spezifiziert und mit Regressions-Testfällen verknüpft. Spätere Lieferschritte werden hinsichtlich der Abhängigkeitsbeziehungen, beispielsweise Schnittstellen und Änderungsauswirkungen abgesichert. Analysen von Architektur und Code decken Hotspots auf, die besondere Tests benötigen. Modelle helfen bei der Durchgängigkeit von den Systemanforderungen zu den Softwareanforderungen und dann zu Design und Validierung. Die zur Governance geforderte Dokumentation wird anhand dieser Abhängigkeitsbeziehungen aktualisiert. Mit der Verknüpfung und teilweise Automatisierung dieser Schritte lassen sich agile Entwicklung und zunehmend kontinuierliche Lieferprozesse auch bei kritischen Systemen effizient und trotzdem wirksam umsetzen.
Unser Vortrag mit Erfahrungen von Bosch und Vector in der Entwicklung kritischer Systeme unterstreicht Herausforderungen, Trends und innovative Vorgehensweisen für mehr Effizienz