Advanced 7 Schritte 8 Stunden 51 Guthabenpunkte
Diese Aufgabenreihe für Fortgeschrittene unterscheidet sich von allen anderen Qwiklabs-Angeboten. Die Labs sind so gewählt, dass sie IT-Profis praktische Kenntnisse zu Themen und Diensten vermitteln, die Bestandteil der Prüfung zum Google Cloud Certified Professional Data Engineer sind. Die Aufgabenreihe selbst besteht aus Labs zu Themen wie Big Query, Dataproc und Tensorflow, bei denen Ihr Wissen über GCP-Data-Engineering getestet wird. Beachten Sie, dass Sie mithilfe der Labs zwar Ihre Kenntnisse und Fähigkeiten erweitern können, Sie jedoch auch andere Ressourcen für die Vorbereitung nutzen sollten. Zur Vorbereitung auf die anspruchsvolle Prüfung sind allerdings zusätzliche Fachkenntnisse, Erfahrung und ein Hintergrund in Cloud Data Engineering empfehlenswert. Schließe diese Quest ab, einschließlich des Challenge Labs am Ende, um ein exklusives digitales Abzeichen von Google Cloud zu erhalten. Das Challenge Lab bietet keine vorgeschriebenen Schritte, erfordert jedoch die Erstellung von Lösungen mit minimaler Anleitung und stellt Ihre Kenntnisse der Google Cloud-Technologie auf die Probe.
Voraussetzungen:
Für diese Aufgabenreihe werden solide Kenntnisse der Google Cloud-Dienste vorausgesetzt, insbesondere in Bezug auf die Arbeit mit großen Datasets. Teilnehmer sollten zuvor mindestens die praxisorientierten Labs in den Aufgabenreihen Baseline: Data, ML, and AI und/oder GCP Essentials erfolgreich abgeschlossen haben. Zusätzliche Kenntnisse aus den Labs der Aufgabenreihen Scientific Data Processing und Machine Learning APIs sind von Vorteil.Quest Outline
Eine Pipeline zur Datentransformation mit Cloud Dataprep erstellen
Cloud Dataprep von Trifacta ist ein intelligenter Datendienst für die visuelle Untersuchung, Bereinigung und Vorbereitung von Daten für Analysen. In diesem Lab machen Sie sich mit Cloud Dataprep vertraut und erstellen eine Pipeline zur Datentransformation.
IoT-Analysepipeline auf der Google Cloud erstellen
In diesem Lab lernen Sie, wie Sie Geräte mit Cloud IoT Core verbinden und verwalten, ihren Datenstrom mit Cloud Pub/Sub aufnehmen, die IoT-Daten mit Cloud Dataflow verarbeiten und mit BigQuery analysieren. Sehen Sie sich dazu auch dieses kurze Video an: Easily Build an IoT Analytics Pipeline.
ETL-Verarbeitung in der Google Cloud mit Dataflow und BigQuery
In diesem Lab erstellen Sie mehrere Datenpipelines, die Daten aus einem öffentlich verfügbaren Dataset in BigQuery aufnehmen.
Kaufverhalten von Websitebesuchern mit einem Klassifizierungsmodell in BQML vorhersagen
In diesem Lab führen Sie mit einem neu verfügbaren E-Commerce-Dataset einige typische Abfragen aus, die Unternehmen Aufschluss über das Kaufverhalten ihrer Kunden geben.
Immobilienpreise mit TensorFlow und AI Platform vorhersagen
In diesem Lab erstellen Sie mit TensorFlow und AI Platform eine umfassende Lösung für maschinelles Lernen (ML) und nutzen die Cloud für verteiltes Training und Onlinevorhersagen.
Cloud Composer: BigQuery-Tabellen an verschiedene Orte kopieren
In diesem Lab für Fortgeschrittene erstellen Sie einen Apache Airflow-Workflow in Cloud Composer. Mit dem Workflow exportieren Sie dann Tabellen von einem BigQuery-Dataset in Cloud Storage-Buckets in den USA und importieren sie in Cloud Storage-Buckets in der EU. Anschließend importieren Sie die Tabellen in ein BigQuery-Dataset in Europa.
Engineer Data in Google Cloud: Challenge-Lab
In diesem Challenge-Lab testen Sie, was Sie in den Labs der Aufgabenreihe "Engineer Data in Google Cloud" gelernt haben. Sie sollten mit dem Inhalt der Aufgabenreihe vertraut sein, bevor Sie mit diesem Lab beginnen.