Mit Google Dataflow (aka Apache Beam) gibt es seit Kurzem eine Big-Data-Lösung, die mit einem einheitlichen Daten- und Programmiermodell versucht, die Verarbeitung von Batch-Daten und Echtzeitdaten zu synthetisieren. In diesem Vortrag werden die zentralen Konzepte und Möglichkeiten von Dataflow vorgestellt und an mehreren Beispielen demonstriert. Der Schwerpunkt des Vortrags liegt insbesondere auf der Umsetzung von Dataflow Pipelines mit der Dataflow API. Auch werden die Unterschiede zu Spark Jobs, als prominente Alternative für Batch- und Stream-Processing, erläutert.

jetzt-anmelden