Kursinhalt
Einführung in die Datenverarbeitung mit Azure
Einführung in die Datenverarbeitung mit Azure
1. Erste Schritte mit Azure und Kernwerkzeugen
Einführung in Azure Data Factory
Moderne Datenverarbeitung umfasst oft das Verschieben und Transformieren großer Datenmengen aus verschiedenen Quellen zu Zielen, um sicherzustellen, dass sie für Analysen oder Geschäftsanwendungen bereit sind. Hier kommt Azure Data Factory (ADF) ins Spiel - ein leistungsstarker, cloudbasierter Datenintegrationsdienst, der entwickelt wurde, um diese Aufgaben zu vereinfachen und zu automatisieren.
Azure Data Factory (ADF) ist ein Platform as a Service (PaaS)-Angebot von Microsoft, das es Ihnen ermöglicht, ETL/ELT-Datenpipelines zu erstellen, zu verwalten und zu überwachen. Diese Pipelines orchestrieren Workflows, um:
- Daten zu extrahieren aus verschiedenen Quellen wie lokalen Datenbanken, APIs und Cloud-Speichern;
- Die Daten zu transformieren, indem sie bereinigt, aggregiert oder angereichert werden;
- Sie in Ziele zu laden wie Azure SQL-Datenbank, Data Lakes oder Power BI.
Hauptkomponenten von Azure Data Factory
- Pipelines: die Kerneinheit in ADF, in der Sie die Abfolge von Aufgaben (Aktivitäten) zur Verarbeitung Ihrer Daten definieren;
- Datasets: repräsentieren Ihre Datenstruktur, wie eine Datei in Blob Storage oder eine Tabelle in einer Datenbank;
- Linked Services: definieren die Verbindungsdetails zu Ihren Datenquellen und -zielen (z. B. Anmeldeinformationen, Endpunkte).
Warum Azure Data Factory verwenden?
- Nahtlose Datenbewegung: verbindet sich mit über 90 Datenquellen, sowohl cloudbasiert als auch lokal;
- No-Code/Low-Code-Entwicklung: Erstellen Sie Pipelines visuell mit einer Drag-and-Drop-Oberfläche oder definieren Sie Workflows im Code;
- Skalierbarkeit: skaliert automatisch, um große Datensätze und hochfrequente Datenübertragungen zu bewältigen;
- Kosteneffektiv: Pay-as-you-go-Preismodell ohne Vorabkosten.
War alles klar?
Danke für Ihr Feedback!
Abschnitt 1. Kapitel 7