Training

Allgemeines

All unsere Trainings werden von den Referenten Sönke Liebau oder Lars Francke gehalten. Für den hands-on Teil arbeiten wir mit einem realistischen Cluster in der Cloud und nicht mit VMs auf den Entwicklerlaptops. Alles was sie benötigen um an den hands-on Übungen teilzunehmen ist ein Laptop, der über ein WiFi Modul verfügt.

Wir bieten unsere Trainings sowohl öffentlich als auch in-house an. Unsere Kosten sind transparent und einfach:

  • In-house nehmen wir 4.000€ (netto) pro Tag (plus Spesen) für bis zu zehn Teilnehmer, jeder weitere Teilnehmer kostet 200€ pro Tag extra
  • Öffentliche Kurse kosten pro Person und Tag 600€ (netto)
  • Unsere öffentlichen Trainings finden ab einer Teilnehmerzahl von drei Personen statt, maximal zwölf Personen pro Training
  • Für die in-house Kurse richten wir uns nach Ihnen, empfehlen aber auch hier höchstens fünfzehn Teilnehmer um zu gewährleisten, dass jeder Einzelne betreut werden kann

Warum sollten Sie OpenCore für Ihre Trainings wählen?

  • Unsere Trainer: Wir (Sönke & Lars) sind seit Jahren (~10) im Hadoop & Big Data Bereich unterwegs und selbst aktiv in den Projekten, die wir vorstellen (Lars z.B. ist HBase & Hive committer), wir sind neben den Trainings selbst aktiv bei Kunden und arbeiten fast täglich mit den Tools, die wir vorstellen
  • Glückliche Kunden: Wir haben weltweit diverse langjährige zufriedene Kunden in allen Branchen, die meisten dieser Kunden sind Empfehlungen anderer Kunden
  • Aktualität: Dieses Feld bewegt sich immer noch sehr schnell, wir investieren viel Aufwand um unser Material und Wissen aktuell zu halten
  • Unabhängig: Wir sind nicht an eine bestimmte Distribution gebunden und können über die Pros & Cons von allen Tools reden, einschließlich den, die nicht in einer Distribution sind In-house oder öffentlich:

Sollten sie für sich oder ihr Team ein Training buchen empfehlen wir immer dies in-house zu machen Dies erlaubt uns z.B. die Agenda flexibel an Ihre Wünsche anzupassen Es erlaubt es uns auch über Ihre speziellen Fragen und Probleme zu reden über die sie in der Öffentlichkeit nicht reden können

Stornokosten

  • Stornieren sie mehr als zwei Wochen vor dem Termin berechnen wir Ihnen 10% der Trainingskosten plus alle nicht-erstattbaren Reisekosten
  • Stornieren sie weniger als zwei Wochen vor dem Termin berechnen wir Ihnen 50% der Trainingskosten plus alle nicht-erstattbaren Reisekosten
  • Stornieren sie am Tag oder im Laufe des Trainings erstatten wir Ihnen keinerlei Kosten

Was wir bieten

  • Auf Wunsch: Teilnahmezertifikat
  • Die verwendeten Folien und Übungen als PDF
  • Auf Wunsch erhalten sie für weitere sechs Monate nach dem Training aktualisierte Unterlagen
  • Bei Buchung eines weiteren Trainings innerhalb eines Jahres einen Rabatt von 10%

Maßgeschneiderte Trainings

Unsere Trainings bilden ein breites Spektrum an Themen ab. Aber uns ist natürlich bewusst, dass für sie eventuell eine andere Konstellation an Themen interessanter oder ökonomischer ist. Wir sind daher immer gerne bereit ein auf Ihre Bedürfnisse zugeschnittenes Training auszuarbeiten und durchzuführen. Sprechen sie uns hierfür einfach an.

Voraussetzungen an die Teilnehmer

  • Laptop mit WiFi zur Teilnahme an Übungen
  • ggf. Java Entwicklungsumgebung (z.B. IntelliJ IDEA)
  • Interesse am Thema

Voraussetzungen an den Trainingsraum für In-house Trainings

  • Tisch mit Strom für jeden Teilnehmer
  • Beamer
  • Internet (WiFi oder Kabel, wir bringen einen speziellen WiFi-Repeater mit)
  • Whiteboard
    • inkl. Marker und Eraser
    • alternativ Flipchart
  • Trinken und ggf. Essen bzw. Pläne für ein Mittagessen

Portfolio

Hadoop & Big Data Basics (1-3 Tage)

In diesem Training bringen wir Ihnen an ein bis drei Tagen das Big Data Ökosystem rund um das Apache Hadoop Projekt näher. Bei Hadoop handelt es sich um das weltweit verbreitetste Projekt im Bereich Big Data. Es besteht aus drei Komponenten: Verteiltes Speichern von Daten, berechnen von Daten und Verwalten von Computerresourcen. Aber damit ist es nicht getan: Heute umfasst dieses Ökosystem hunderte von Tools und Frameworks. Die wichtigsten hiervon stellen wir in diesem Training vor. Wir arbeiten hierbei Distributionsunabhängig.

Im hands-on Teil testen wir einfache Befehle um auf HDFS zuzugreifen sowie ggf. auch Spark Jobs auf YARN und SQL Statements mit Hive.

Wir bieten dieses Training in einer Länge von 1-3 Tagen an:

  • Bei einem Tag stellen wir Hadoop selbst ausführlich vor, gehen auf die anderen Tools aber nur kurz ein
  • Bei zwei Tagen bleibt uns mehr Zeit für Fragen und die anderen Tools aus dem Ökosystem sowie ausführlichere Übungen
  • Bei drei Tagen können wir je nach Interesse auch auf Administration oder Security Themen eingehen und vertiefen die Einführung und die Übungen. Auch auf die beiden großen Distributionen (Cloudera CDH, Hortonworks HDP) gehen wir genauer ein.

Inhalt

  • Big Data Einführung, kurze Geschichte
  • Apache Hadoop Einführung (HDFS, YARN, MapReduce)
  • Einführung in das Ökosystem (u.a. HBase, Spark, Kafka, Solr uvm.)
  • Hinweise zu Administration und Security

HBase (3 Tage)

Das Training zum Buch! Wir stellen Ihnen HBase vor und vermitteln dabei die Inhalte des Buchs "HBase: The Definitive Guide (Second Edition)" welches von unserem Partner Lars George geschrieben wurde. Begleitet wird das Training von regelmäßigen Übungen. Wir testen auch die Garantien von HBase zur Hochverfügbarkeit.

Dieses Training wird von einem HBase Committer durchgeführt.

Inhalt

  • Grundlagen: Was ist HBase und wofür verwende ich es?
  • Wie installiere ich es, was gibt es beim Deployment zu beachten?
  • Client API: Wie greife ich als Anwender (und Administrator) auf HBase zu
  • Erweiterte Features: Filter, Counter, Coprocessoren
  • Alternative Clients (REST, Thrift etc.)
  • Hadoop Integration
  • Interna Deep-Dive: Wie funktioniert HBase?
  • Dieses Wissen kann wichtig sein, wenn Sie HBase optimal nutzen wollen
  • Data Modeling/Architektur mit HBase: Key Design & Co.
  • Monitoring & Tuning
  • Administration (Backup, Replication, Decommissioning etc.)
  • Security

Kafka (2 Tage)

In diesem Training werden an zwei Tagen die Grundprinzipien von Kafka, Grundlagen der Administration und ein Einblick in die weiteren Tools des Ökosystems vermittelt, sowie die Unterschiede zwischen Apache Kafka und der Confluent Platform herausgestellt.

Es wird der Umgang mit den Kommandozeilentools zur Verwaltung eines Clusters vermittelt und best practices für die tägliche Arbeit angesprochen. Die Teilnehmer lernen die Theorie von Kafka ausführlich kennen und werden selbst in hands-on Teilen der Schulung auf einem Cluster die entsprechenden Aktionen durchführen um das Gehörte zu festigen. Nach Erlernen der Grundlagen wird ein kurzer Überblick über existierende 3rd Party Tools zum Vereinfachen des Administrationsaufwands gegeben und auf Möglichkeiten des Monitorings von Kafka eingegangen.

Zusätzlich zu Kafka selbst existieren im Kafka Ökosystem noch weitere Tools, die häufig gemeinsam mit Kafka verwendet werden. Der Kurs betrachtet hier die folgenden Projekte sowohl theoretisch, als auch wieder in praktischen Übungen.

  • Kafka Connect
  • Schema Registry
  • Rest Proxy
  • Kafka Streams & KSql

Für die praktischen Teile der Schulung wird die Confluent Platform verwendet, an den relevanten Stellen allerdings auf die Unterschiede die sich bei Verwendung von Apache Kafka ergeben würden eingegangen.