최신 DP-203 Deutsch 무료덤프 - Microsoft Data Engineering on Microsoft Azure (DP-203 Deutsch Version)

Sie verfügen über ein Azure-Abonnement, das die in der folgenden Tabelle aufgeführten Ressourcen enthält.

Diagnoseprotokolle von ADF1 werden an LA1 gesendet. ADF1 enthält eine Pipeline namens Pipeline, die Daten (von DB1 nach Dwl) kopiert. Sie müssen die folgenden Aktionen ausführen:
* Erstellen Sie eine Aktionsgruppe mit dem Namen AG1.
* Konfigurieren Sie einen Alarm in ADF1, um AG1 zu verwenden.
In welcher Ressourcengruppe sollten Sie AG1 erstellen?

정답: A
Sie haben einen Apache Spark DataFrame mit dem Namen „temperatures“. Ein Beispiel der Daten ist in der folgenden Tabelle aufgeführt.

Sie müssen die folgende Tabelle mithilfe einer Spark-SQL-Abfrage erstellen.

Wie sollten Sie die Abfrage abschließen? Um zu antworten, ziehen Sie die entsprechenden Werte auf die richtigen Ziele. Jeder Wert kann einmal, mehrmals oder überhaupt nicht verwendet werden. Möglicherweise müssen Sie die Trennleiste zwischen den Fenstern ziehen oder scrollen, um den Inhalt anzuzeigen.
HINWEIS: Jede richtige Auswahl ist einen Punkt wert.
정답:

Explanation:

Box 1: PIVOT
PIVOT rotates a table-valued expression by turning the unique values from one column in the expression into multiple columns in the output. And PIVOT runs aggregations where they're required on any remaining column values that are wanted in the final output.
Reference:
https://learnsql.com/cookbook/how-to-convert-an-integer-to-a-decimal-in-sql-server/
https://docs.microsoft.com/en-us/sql/t-sql/queries/from-using-pivot-and-unpivot
Sie verfügen über ein Azure-Abonnement, das eine Azure Data Factory enthält.
Sie bearbeiten eine Azure Data Factory-Aktivitäts-JSON.
Das Skript muss eine Datei aus Azure Blob Storage an mehrere Ziele kopieren. Die Lösung muss sicherstellen, dass die Quell- und Zieldateien über konsistente Ordnerpfade verfügen.
Wie sollten Sie das Skript vervollständigen? Um die Frage zu beantworten, ziehen Sie die entsprechenden Werte an die richtigen Ziele. Jeder Wert kann einmal, mehrmals oder überhaupt nicht verwendet werden. Möglicherweise müssen Sie die Trennleiste zwischen den Bereichen ziehen oder scrollen, um den Inhalt anzuzeigen.
HINWEIS: Jede richtige Auswahl ist einen Punkt wert
정답:

Explanation:
Sie verfügen über ein Azure-Abonnement, das eine Azure Cosmos DB-Datenbank enthält. Azure Synapse Link ist in der Datenbank implementiert. Sie konfigurieren ein Schema mit voller Genauigkeit für den Analysespeicher. Sie führen die folgenden Aktionen aus:

Wie viele Spalten wird der Analysespeicher enthalten?

정답: D
Sie verwalten ein Enterprise Data Warehouse in Azure Synapse Analytics.
Benutzer melden eine langsame Leistung beim Ausführen häufig verwendeter Abfragen. Benutzer melden keine Leistungsänderungen bei selten verwendeten Abfragen.
Sie müssen die Ressourcennutzung überwachen, um die Ursache der Leistungsprobleme zu ermitteln.
Welche Metrik sollten Sie überwachen?

정답: B
설명: (DumpTOP 회원만 볼 수 있음)
Sie haben eine Aktivität in einer Azure Data Factory-Pipeline. Die Aktivität ruft eine gespeicherte Prozedur in einem Data Warehouse in Azure Synapse Analytics auf und wird täglich ausgeführt.
Sie müssen die Dauer der Aktivität bei ihrer letzten Ausführung überprüfen.
Was sollten Sie verwenden?

정답: C
설명: (DumpTOP 회원만 볼 수 있음)
Sie verfügen über eine Azure Synapse Analytics-Pipeline namens Pipeline1, die eine Datenflussaktivität namens Dataflow1 enthält.
Pipeline1 ruft Dateien von einem Azure Data Lake Storage Gen 2-Konto mit dem Namen „storage1“ ab.
Dataflow1 verwendet die Integration Runtime AutoResolveIntegrationRuntime, die mit einer Kernanzahl von 128 konfiguriert ist.
Sie müssen die Anzahl der von Dataflow1 verwendeten Kerne optimieren, um die Größe der Dateien in Speicher1 zu berücksichtigen.
Was sollten Sie konfigurieren? Um zu antworten, wählen Sie im Antwortbereich die entsprechenden Optionen aus.
정답:

Explanation:
Box 1: A Get Metadata activity
Dynamically size data flow compute at runtime
The Core Count and Compute Type properties can be set dynamically to adjust to the size of your incoming source data at runtime. Use pipeline activities like Lookup or Get Metadata in order to find the size of the source dataset data. Then, use Add Dynamic Content in the Data Flow activity properties.
Box 2: Dynamic content
Reference: https://docs.microsoft.com/en-us/azure/data-factory/control-flow-execute-data-flow-activity
Hinweis: Diese Frage ist Teil einer Reihe von Fragen, die dasselbe Szenario darstellen. Jede Frage in der Reihe enthält eine einzigartige Lösung, die die angegebenen Ziele erreichen könnte. Für einige Fragensätze gibt es möglicherweise mehr als eine richtige Lösung, während für andere möglicherweise keine richtige Lösung vorhanden ist.
Nachdem Sie eine Frage in diesem Abschnitt beantwortet haben, können Sie NICHT mehr darauf zurückkommen. Daher werden diese Fragen nicht im Überprüfungsbildschirm angezeigt.
Sie planen, einen Azure Databricks-Arbeitsbereich mit einer mehrstufigen Struktur zu erstellen. Der Arbeitsbereich enthält die folgenden drei Workloads:
* Eine Arbeitsbelastung für Dateningenieure, die Python und SQL verwenden.
* Eine Arbeitslast für Jobs, die Notebooks ausführen, die Python, Scala und SOL verwenden.
* Eine Arbeitslast, mit der Datenwissenschaftler Ad-hoc-Analysen in Scala und R durchführen.
Das Unternehmensarchitekturteam Ihres Unternehmens identifiziert die folgenden Standards für Databricks-Umgebungen:
* Die Dateningenieure müssen sich einen Cluster teilen.
* Der Job-Cluster wird mithilfe eines Anforderungsprozesses verwaltet, bei dem Datenwissenschaftler und Dateningenieure gepackte Notebooks für die Bereitstellung im Cluster bereitstellen.
* Allen Datenwissenschaftlern muss ein eigener Cluster zugewiesen werden, der nach 120 Minuten Inaktivität automatisch beendet wird. Derzeit gibt es drei Datenwissenschaftler.
Sie müssen die Databricks-Cluster für die Arbeitslasten erstellen.
Lösung: Sie erstellen einen Standardcluster für jeden Datenwissenschaftler, einen High Concurrency-Cluster für die Dateningenieure und einen High Concurrency-Cluster für die Jobs.
Erfüllt dies das Ziel?

정답: A
설명: (DumpTOP 회원만 볼 수 있음)
Sie verwenden Azure Data Factory, um Daten für die Abfrage durch serverlose SQL-Pools von Azure Synapse Analytics vorzubereiten.
Dateien werden zunächst als 10 kleine JSON-Dateien in ein Azure Data Lake Storage Gen2-Konto aufgenommen. Jede Datei enthält dieselben Datenattribute und Daten einer Tochtergesellschaft Ihres Unternehmens.
Sie müssen die Dateien in einen anderen Ordner verschieben und die Daten umwandeln, um die folgenden Anforderungen zu erfüllen:
* Stellen Sie die schnellstmöglichen Abfragezeiten bereit.
* Leiten Sie das Schema automatisch aus den zugrunde liegenden Dateien ab.
Wie sollten Sie die Data Factory-Kopieraktivität konfigurieren? Um zu antworten, wählen Sie im Antwortbereich die entsprechenden Optionen aus.
HINWEIS: Jede richtige Auswahl ist einen Punkt wert.
정답:

Explanation:

Box 1: Preserver herarchy
Compared to the flat namespace on Blob storage, the hierarchical namespace greatly improves the performance of directory management operations, which improves overall job performance.
Box 2: Parquet
Azure Data Factory parquet format is supported for Azure Data Lake Storage Gen2.
Parquet supports the schema property.
Reference:
https://docs.microsoft.com/en-us/azure/storage/blobs/data-lake-storage-introduction
https://docs.microsoft.com/en-us/azure/data-factory/format-parquet
Sie verfügen über ein Azure-Abonnement, das die in der folgenden Tabelle aufgeführten Ressourcen enthält.

Sie müssen die Parquet-Dateien mithilfe von Pipeline1 von Speicher1 in SQL1 aufnehmen. Die Lösung muss folgende Anforderungen erfüllen:
* Komplexität minimieren.
* Stellen Sie sicher, dass zusätzliche Spalten in den Dateien als Zeichenfolgen verarbeitet werden.
* Stellen Sie sicher, dass Dateien, die zusätzliche Spalten enthalten, erfolgreich verarbeitet werden.
Wie sollten Sie Pipeline1 konfigurieren? Um zu antworten, wählen Sie im Antwortbereich die entsprechenden Optionen aus.
HINWEIS: Jede richtige Auswahl ist einen Punkt wert.
정답:

Explanation:
Sie verfügen über einen dedizierten Azure Synapse Analytics-SQL-Pool mit dem Namen „SQL1“, der eine Hash-verteilte Faktentabelle mit dem Namen „Table1“ enthält.
Sie müssen Tabelle1 neu erstellen und eine neue Verteilungsspalte hinzufügen. Die Lösung muss die Verfügbarkeit der Daten maximieren.
Welche vier Aktionen sollten Sie nacheinander ausführen? Um zu antworten, verschieben Sie die entsprechenden Aktionen aus der Aktionsliste in den Antwortbereich und ordnen Sie sie in der richtigen Reihenfolge an.
정답:

Explanation:
Sie verfügen über ein Azure-Abonnement, das einen Azure Synapse Analytics-Arbeitsbereich mit dem Namen „workspace1“ enthält.
Workspace1 stellt eine Verbindung zu einem Azure DevOps-Repository namens repo1 her. Repo1 enthält einen Kollaborationszweig mit dem Namen „main“ und einen Entwicklungszweig mit dem Namen „branch1“. Branch1 enthält eine Azure Synapse-Pipeline mit dem Namen „pipeline1“.
In Arbeitsbereich1 führen Sie den Test von Pipeline1 durch.
Sie müssen Pipeline1 so planen, dass sie täglich um 6 Uhr ausgeführt wird.
Welche vier Aktionen sollten Sie nacheinander ausführen? Um zu antworten, verschieben Sie die entsprechenden Aktionen aus der Aktionsliste in den Antwortbereich und ordnen Sie sie in der richtigen Reihenfolge an.
HINWEIS: Mehr als eine Reihenfolge der Antwortmöglichkeiten ist richtig. Sie erhalten eine Gutschrift für jede der korrekten Bestellungen, die Sie auswählen.
정답:

Explanation:
Sie entwerfen eine Dimensionstabelle in einem dedizierten Azure Synapse Analytics-SQL-Pool.
Sie müssen einen Ersatzschlüssel für die Tabelle erstellen. Die Lösung muss die schnellste Abfrageleistung bieten.
Was sollten Sie für den Ersatzschlüssel verwenden?

정답: C
설명: (DumpTOP 회원만 볼 수 있음)
Sie müssen eine Azure Data Factory-Pipeline erstellen, um Daten für die folgenden drei Abteilungen in Ihrem Unternehmen zu verarbeiten: E-Commerce, Einzelhandel und Großhandel. Die Lösung muss gewährleisten, dass Daten auch unternehmensweit verarbeitet werden können.
Wie sollten Sie das Data Factory-Datenflussskript vervollständigen? Um zu antworten, ziehen Sie die entsprechenden Werte auf die richtigen Ziele. Jeder Wert kann einmal, mehrmals oder überhaupt nicht verwendet werden. Möglicherweise müssen Sie die Trennleiste zwischen den Fenstern ziehen oder scrollen, um den Inhalt anzuzeigen.
HINWEIS: Jede richtige Auswahl ist einen Punkt wert.
정답:

Explanation:

The conditional split transformation routes data rows to different streams based on matching conditions. The conditional split transformation is similar to a CASE decision structure in a programming language. The transformation evaluates expressions, and based on the results, directs the data row to the specified stream.
Box 1: dept=='ecommerce', dept=='retail', dept=='wholesale'
First we put the condition. The order must match the stream labeling we define in Box 3.
Syntax:
<incomingStream>
split(
<conditionalExpression1>
<conditionalExpression2>
disjoint: {true | false}
) ~> <splitTx>@(stream1, stream2, ..., <defaultStream>)
Box 2: discount : false
disjoint is false because the data goes to the first matching condition. All remaining rows matching the third condition go to output stream all.
Box 3: ecommerce, retail, wholesale, all
Label the streams
Reference:
https://docs.microsoft.com/en-us/azure/data-factory/data-flow-conditional-split
Sie entwerfen einen Azure Databricks-Cluster, der benutzerdefinierte lokale Prozesse ausführt. Sie müssen eine Clusterkonfiguration empfehlen, die die folgenden Anforderungen erfüllt:
* Minimieren Sie die Abfragelatenz.
* Maximieren Sie die Anzahl der Benutzer, die gleichzeitig Warteschlangen im Cluster ausführen können. Reduzieren Sie die Gesamtkosten, ohne andere Anforderungen zu beeinträchtigen. Welchen Clustertyp sollten Sie empfehlen?

정답: D
설명: (DumpTOP 회원만 볼 수 있음)
Ein Unternehmen nutzt den Azure Data Lake Storage Gen2-Dienst.
Sie müssen eine Datenarchivierungslösung entwerfen, die die folgenden Anforderungen erfüllt:
Auf Daten, die älter als fünf Jahre sind, wird selten zugegriffen, sie müssen jedoch bei Anforderung innerhalb einer Sekunde verfügbar sein.
Auf Daten, die älter als sieben Jahre sind, wird NICHT zugegriffen.
Bei gleichzeitiger Wahrung der erforderlichen Verfügbarkeit müssen die Kosten minimiert werden.
Wie sollten Sie die Daten verwalten? Um zu antworten, wählen Sie die entsprechende Option im Antwortbereich aus.
HINWEIS: Jede richtige Auswahl ist einen Punkt wert.
정답:

Explanation:
Hinweis: Diese Frage ist Teil einer Reihe von Fragen, die dasselbe Szenario darstellen. Jede Frage in der Reihe enthält eine einzigartige Lösung, die die angegebenen Ziele erreichen könnte. Für einige Fragensätze gibt es möglicherweise mehr als eine richtige Lösung, während für andere möglicherweise keine richtige Lösung vorhanden ist.
Nachdem Sie eine Frage in diesem Abschnitt beantwortet haben, können Sie NICHT mehr darauf zurückkommen. Daher werden diese Fragen nicht im Überprüfungsbildschirm angezeigt.
Sie verfügen über einen dedizierten Azure Synapse Analytics-SQL-Pool, der eine Tabelle mit dem Namen Table1 enthält.
Sie verfügen über Dateien, die erfasst und in einen Azure Data Lake Storage Gen2-Container mit dem Namen „container1“ geladen werden.
Sie planen, Daten aus den Dateien in Container1 in Tabelle1 einzufügen und die Daten umzuwandeln. Jede Datenzeile in den Dateien erzeugt eine Zeile in der Bereitstellungsschicht von Tabelle1.
Sie müssen sicherstellen, dass beim Laden der Quelldatendateien in Container1 die Datums- und Uhrzeitangabe als zusätzliche Spalte in Tabelle1 gespeichert wird.
Lösung: Sie verwenden einen dedizierten SQL-Pool, um eine externe Tabelle zu erstellen, die über eine zusätzliche DateTime-Spalte verfügt.
Erfüllt dies das Ziel?

정답: B
설명: (DumpTOP 회원만 볼 수 있음)
Sie entwerfen eine Echtzeit-Dashboard-Lösung, die Streaming-Daten von Remote-Sensoren visualisiert, die eine Verbindung zum Internet herstellen. Die Streaming-Daten müssen aggregiert werden, um den Durchschnittswert jedes 10-Sekunden-Intervalls anzuzeigen. Die Daten werden nach der Anzeige im Dashboard verworfen.
Die Lösung verwendet Azure Stream Analytics und muss die folgenden Anforderungen erfüllen:
* Minimieren Sie die Latenz von einem Azure Event Hub zum Dashboard.
* Minimieren Sie den erforderlichen Speicherplatz.
* Minimieren Sie den Entwicklungsaufwand.
Was sollten Sie in die Lösung einbeziehen? Um zu antworten, wählen Sie im Antwortbereich die entsprechenden Optionen aus.
HINWEIS: Jede richtige Auswahl ist einen Punkt wert
정답:

Explanation:

Reference:
https://docs.microsoft.com/en-us/azure/stream-analytics/stream-analytics-power-bi-dashboard

우리와 연락하기

문의할 점이 있으시면 메일을 보내오세요. 12시간이내에 답장드리도록 하고 있습니다.

근무시간: ( UTC+9 ) 9:00-24:00
월요일~토요일

서포트: 바로 연락하기