최신 Professional-Data-Engineer日本語 무료덤프 - Google Certified Professional Data Engineer Exam (Professional-Data-Engineer日本語版)
Google の Dataflow SDK を使用して、以下に示すような顧客データを分析する予定です。プロジェクトの要件は、データ ソースから顧客名のみを抽出し、出力 PCollection に書き込むことです。
トム、555 X 通り
ティム、553 Yストリート
サム、111 Z ストリート
上記のデータ処理要件に最適な操作はどれですか?
トム、555 X 通り
ティム、553 Yストリート
サム、111 Z ストリート
上記のデータ処理要件に最適な操作はどれですか?
정답: B
설명: (DumpTOP 회원만 볼 수 있음)
Compute Engine 仮想マシン (n2-standard -32) 上の TensorFlow 機械学習モデルでは、フレーミングを完了するのに 2 日かかります。モデルには、CPU 上で部分的に実行する必要があるカスタム TensorFlow 操作が含まれています。コスト効率の高い方法でトレーニング時間を短縮したいと考えています。どうすればよいでしょうか。
정답: A
Cloud Bigtable のパフォーマンスが低下する正当な理由ではないのはどれですか?
정답: D
설명: (DumpTOP 회원만 볼 수 있음)
パーティション化されたテーブルにデータを格納する方法としてサポートされていないのはどれですか?
정답: B
설명: (DumpTOP 회원만 볼 수 있음)
BigQuery ML を使用して機械学習モデルを作成し、Vertex AI を使用してモデルをホストするためのエンドポイントを作成したいと考えています。これにより、複数のベンダーからの継続的なストリーミング データをほぼリアルタイムで処理できるようになります。データには無効な値が含まれている可能性があります。どうすればよいでしょうか。
정답: D
설명: (DumpTOP 회원만 볼 수 있음)
あなたは、eコマース会社向けのバスケット放棄システムを設計しています。システムは、次のルールに基づいてユーザーにメッセージを送信します。
1時間、サイト上でユーザーによる操作がない
30ドル以上の商品をカートに追加しました
取引が完了していない
Google Cloud Dataflow を使用してデータを処理し、メッセージを送信するかどうかを決定します。パイプラインをどのように設計すればよいでしょうか?
1時間、サイト上でユーザーによる操作がない
30ドル以上の商品をカートに追加しました
取引が完了していない
Google Cloud Dataflow を使用してデータを処理し、メッセージを送信するかどうかを決定します。パイプラインをどのように設計すればよいでしょうか?
정답: C
組織では、6 か月間 Google BigQuery でデータを収集し、分析してきました。分析されたデータの大部分は、events_partitioned という時間パーティション テーブルに格納されています。クエリのコストを削減するために、組織では events というビューを作成しました。このビューは、過去 14 日間のデータのみをクエリします。このビューは、レガシー SQL で記述されています。来月、既存のアプリケーションは BigQuery に接続し、ODBC 接続を介してイベント データを読み取ることになります。アプリケーションが接続できることを確認する必要があります。実行する必要があるアクションはどれですか (2 つ選択してください)。
정답: A,E
図書館の書籍と、著者や出版年などの各書籍の情報を追跡するアプリケーションをオンプレミスのデータ ウェアハウスから BigQuery に移行しています。現在のリレーショナル データベースでは、著者情報は別のテーブルに保存され、共通キーで書籍情報に結合されています。Google が推奨するスキーマ設計方法に基づいて、借りた各書籍の著者に関するクエリの速度を最適化するには、データをどのように構造化すればよいでしょうか。
정답: D
データを Cloud Storage にアーカイブしたいと考えています。一部のデータは非常に機密性が高いため、「Trust No One」(TNO) アプローチを使用してデータを暗号化し、クラウド プロバイダーのスタッフがデータを復号化できないようにしたいと考えています。どうすればよいでしょうか。
정답: A
時系列指標を集約して Cloud Bigtable に書き込む Cloud Dataflow ジョブを含むデータ パイプラインがあります。このデータは、組織全体の何千人ものユーザーが使用するダッシュボードに送られます。同時ユーザー数を増やし、データの書き込みにかかる時間を短縮する必要があります。次の 2 つのアクションのうち、どれを実行する必要がありますか。(2 つ選択してください。)
정답: C,D
설명: (DumpTOP 회원만 볼 수 있음)
Dataproc クラスタにプリエンプティブ ワーカーを追加するときに適用されるルールはどれですか (回答を 2 つ選択してください)。
정답: A,C
설명: (DumpTOP 회원만 볼 수 있음)
会社では、履歴データを Cloud Storage にアップロードする必要があります。セキュリティ ルールにより、外部 IP からオンプレミス リソースへのアクセスは許可されません。最初のアップロード後、既存のオンプレミス アプリケーションから毎日新しいデータが追加されます。どうすればよいでしょうか。
정답: A
BigQuery にデータが保存されています。BigQuery データセットのデータは高可用性である必要があります。コストを最小限に抑えるこのデータの保存、バックアップ、およびリカバリ戦略を定義する必要があります。BigQuery テーブルをどのように構成すればよいでしょうか。
정답: A