Nach Schätzungen wird das weltweite “Datenuniversum” im Jahr 2020 ca. 40 Zettabyte (10^21 Bytes bzw. 1 Mrd. Terrabyte) betragen. Im Zeitraum von 2010 bis 2020 wird sich dieses Volumen verfünzigfacht haben. Somit wird in vielen Anwendungsszenarien das Thema Big Data und Big Processing immer wichtiger. Es fallen sehr viele Daten an, die von immer mehr Benutzern und Systemen konsumiert und ausgewertet werden wollen. Klassische relationale Datenbanksysteme sowie Statistik- und Visualisierungstools sind oft nicht in der Lage, derart große Datenmengen zu verarbeiten. Für Big Data kommt daher eine neue Art von Software zum Einsatz, die parallel auf bis zu hunderten oder tausenden von Prozessoren bzw. Servern arbeitet, wie z.B. Apache Hadoop bzw. Microsoft HDInsight. Im ersten Teil dieser Session werden die Grundlagen zu HDInsight, sowie gängige Anwendungsszenarien aufgezeigt. Der zweite Teil erleichtert, anhand von Codebeispielen, den praktischen Einstieg in das HDInsight Ökosystem.