Du hast Fragen? Wir haben Antworten! - Bald findet unser nächster Tag der offenen Tür statt!

Logo site

Tools im Alltag eines Data Engineers

-
3
 Minuten Lesezeit
-
data engineer tools

Im Zeitalter von Big Data haben sich mehrere Berufe herausgebildet, darunter auch der des Data Engineers. Wenn du diesen Beruf noch nicht kennst, empfehle ich dir, diesen Artikel zuerst zu lesen. Für diejenigen, die wissen, was ein Data Engineer macht, werden wir uns mit den Werkzeugen beschäftigen, die er benutzt.

Lass uns von diesem Schema ausgehen, um uns die verschiedenen Phasen, die Daten durchlaufen, vor Augen zu führen. Zur Erinnerung: Der Data Engineer wird vor allem in den ersten drei Phasen tätig sein (die letzte Phase betrifft Data Scientists und Data Analysts). Wir werden auf die Werkzeuge eingehen, die in diesen Phasen verwendet werden, aber sie können von Unternehmen zu Unternehmen unterschiedlich sein.

Die Datenquellen

Der erste Schritt besteht also darin, diese Daten mithilfe von Datenquellen zu sammeln. Es ist üblich, hier Python zu finden, um diese Daten zu sammeln. Wir werden zum Beispiel APIs wie OpenWeatherMap für Wetterdaten oder Binance für Finanzdaten anfordern. Es ist auch möglich, Webscraping zu betreiben, um Daten von Webseiten über die Python-Pakete BeautifulSoup oder Selenium abzurufen.

Mit dem Internet der Dinge werden Daten über Sensoren von vernetzten Objekten gestreamt (kontinuierlich). Daher ist es wichtig, bestimmte Aktionen zum richtigen Zeitpunkt durchzuführen, da sonst unerwartetes Verhalten unserer verbundenen Objekte auftreten kann. Hier kommt Apache Kafka mit seinem Nachrichtensystem ins Spiel. Rabbit MQ wird ebenfalls zur Verarbeitung von Streaming-Daten verwendet, ebenso wie die Programmiersprache Scala.

Die Datenspeicherung ist auch ein Werkzeug, das von Dateningenieuren verwendet wird.

Nachdem die Daten in Form einer Datei gesammelt wurden, müssen sie gespeichert werden. Dies kann in zwei Schritte unterteilt werden, wie es uns das Schema gezeigt hat.
Der erste Schritt besteht darin, die Daten ohne Transformationen zu speichern.

In diesem Fall werden die Daten in ihrem Rohzustand in einem Data Lake für eine mögliche zukünftige Nutzung gespeichert. In diesem Data Lake werden die Daten über Metadaten oder über ein herkömmliches Dateisystem organisiert. Mit Hadoop können wir ein solches zusammenstellen.

Si les données sont destinées à un usage spécifique, l’ingénieur de données peut également les transférer dans un entrepôt de données.

Contrairement à un Data Lake, les données sont structurées dans un entrepôt de données et servent directement à l’analyste de données ou au data scientist.

Enfin, il est également possible d’utiliser des bases de données pour conserver les données. Les bases de données relationnelles sont les plus répandues et nous utilisons SQL pour les traiter. Aujourd’hui, nous traitons aussi de grandes quantités de données et pour les traiter, nous utilisons des bases de données NoSQL.

Pour les données semi-structurées, par exemple, MongoDB se distingue et pour les données représentant des graphes, Neo4j. Ainsi, l’ingénieur de données doit jongler entre différentes bases de données.

In Produktion gehen

Der Data Engineer kann auch bei der Industrialisierung der Lösungen eingreifen. Die Arbeit, die der Data Scientist oder der Data Analyst geleistet hat, ist nämlich noch nicht für alle zugänglich und deshalb wird der Data Engineer eine API für die Lösung erstellen, damit der Kunde eine Schnittstelle nutzen kann, um einfach die Modelle des Data Scientists zu verwenden.

Dann müssen wir einen Container für unsere Lösung erstellen, um sie einzusetzen, aber auch um sie mit anderen Komponenten zu kombinieren, und dafür verwenden wir das Flaggschiff-Tool Docker.

Die Cloud ist ein unverzichtbares Werkzeug für Dateningenieure

Nous avons listé quelques outils open source, mais de nos jours, il est de plus en plus courant d’utiliser un fournisseur de cloud comme AWS, GCP ou Azure pour répondre à nos différents besoins. Par exemple, si nous voulons utiliser un data lake, avec AWS, nous passerons par S3, tandis qu’avec GCP, ce sera Google Cloud Storage et avec Azure, simplement Azure Data Lake.

Automatisierung von Abläufen

Wenn unsere gesamte Datenpipeline funktioniert, müssen wir die verschiedenen Schritte unseres ETL-Systems in einem bestimmten Rhythmus automatisieren. Die Datenquellen werden nämlich Daten senden, die zunächst in einem Data Lake gespeichert und dann in ein Data Warehouse oder eine Datenbank umgewandelt werden müssen.

Um dies zu tun, verwenden wir einen Orchestrator. Der bekannteste ist Airflow, aber wenn du Echtzeitdaten hast, ist es besser, Nifi zu verwenden. Wenn unsere Datenpipeline vollständig ist, gibt es Tools von Cloud-Anbietern wie Cloud Composer von GCP oder Glue von AWS.

Fazit

Jetzt weißt du mehr über die Werkzeuge, die ein Data Engineer am häufigsten benutzt.

Wenn du lernen möchtest, wie du die Tools, die du gerade kennengelernt hast, einsetzen kannst, dann schau dir den Data Engineer-Kurs von DataScientest an.

DataScientest News

Melde Dich jetzt für unseren Newsletter an, um unsere Guides, Tutorials und die neuesten Entwicklungen im Bereich Data Science direkt per E-Mail zu erhalten.

Möchtest Du informiert bleiben?

Schreib uns Deine E-Mail-Adresse, damit wir Dir die neuesten Artikel zum Zeitpunkt der Veröffentlichung zusenden können!
icon newsletter

DataNews

Starte Deine Karriere im Bereich Data: Erhalte regelmäßig Insiderwissen und wertvolle Karrieretipps in Deinem Posteingang.