
Apache Spark: Was ist das und wozu dient es?
Apache Spark ist eine einheitliche, ultraschnelle Analyse-Engine für die Verarbeitung großer Datenmengen. Sie ermöglicht es, große Analysen mithilfe von Clustermaschinen durchzuführen. Sie ist vor allem
Apache Spark ist eine einheitliche, ultraschnelle Analyse-Engine für die Verarbeitung großer Datenmengen. Sie ermöglicht es, große Analysen mithilfe von Clustermaschinen durchzuführen. Sie ist vor allem
Amazon Web Services ist die Cloud-Plattform von Amazon. Hier erfährst Du alles, was Du wissen musst: Definition, Geschichte, Anwendungsfälle, Dienste, Vorteile, Weiterbildungen… Cloud Computing wird
Was ist Apache Storm ? Apache Storm ist ein verteiltes Open-Source-System zur Verarbeitung von Echtzeit-Datenströmen, das hauptsächlich in Clojure entwickelt wurde. Es ermöglicht die Verwaltung
Der Cloud Data Engineer wird in Unternehmen immer häufiger gesucht. Hier erfährst du alles, was du über diesen Beruf wissen musst, der Cloud Computing und
Interessierst du dich für die verschiedenen Cloud-Plattformen? Hier erfährst du alles, was du über Cloud Microsoft Azure wissen musst! Wie in einem früheren Artikel erläutert,
Docker ist ein Werkzeug zum Erstellen und Isolieren von Umgebungen, die als Container bezeichnet werden. Das Ziel ist es, eine Anwendung in einer bestimmten Umgebung
Snowflake ist ein vollständig auf der Cloud basierendes Data Warehouse. Erfahre alles, was du über diese in der Data Science immer beliebter werdende Plattform wissen
In diesem Artikel erfährst Du alles, was Du über Cloud Computing wissen musst: Definition, Funktionsweise, Anwendungsfälle, Leistungen, Vor- und Nachteile. Cloud Computing wird immer häufiger
Amazon S3, also der Speicherdienst von Amazon Web Services, wurde 2006 in den Vereinigten Staaten und ein Jahr später in Europa eingeführt. Nun ist er