최신 Professional-Data-Engineer日本語 무료덤프 - Google Certified Professional Data Engineer Exam (Professional-Data-Engineer日本語版)

分析には BigQuery のデータセットを使用します。サードパーティの企業に同じデータセットへのアクセスを提供したいと考えています。データ共有のコストを低く抑え、データが最新であることを保証する必要があります。どのソリューションを選択すればよいでしょうか。

정답: B
ニューラル ネットワークがトレーニング データセットから学習するときに調整される数値はどれですか (回答を 2 つ選択してください)。

정답: A,D
설명: (DumpTOP 회원만 볼 수 있음)
社内の IT アプリケーションの 1 つと Google BigQuery を統合して、ユーザーがアプリケーションのインターフェースから BigQuery にクエリを実行できるようにします。個々のユーザーに BigQuery への認証を行わせたり、データセットへのアクセス権を与えたりすることは望ましくありません。IT アプリケーションから BigQuery に安全にアクセスする必要があります。
何をすべきでしょうか?

정답: C
テキスト ファイルを取り込んで変換する Dataflow パイプラインをテストしています。ファイルは gzip で圧縮され、エラーはデッドレター キューに書き込まれ、データを結合するために Sidelnputs を使用しています。パイプラインの完了に予想よりも時間がかかっていることに気づきました。Dataflow ジョブを迅速に処理するにはどうすればよいでしょうか。

정답: B
BigQuery にデータが保存されています。BigQuery データセットのデータは高可用性である必要があります。コストを最小限に抑えるこのデータの保存、バックアップ、およびリカバリ戦略を定義する必要があります。BigQuery テーブルをどのように構成すればよいでしょうか。

정답: A
顧客の販売コンバージョンにつながる要因を識別するモデルを開発しています。データ a の処理は完了しました。モデル開発ライフサイクルを続行します。次に何をすべきでしょうか。

정답: A
설명: (DumpTOP 회원만 볼 수 있음)
Cloud Storage には、データ サイエンス チームがモデルで使用したいさまざまなファイルがあります。現在、ユーザーには Cloud Storage 内のデータを探索、クレンジング、検証する方法がありません。データ サイエンス チームが Cloud Storage 内のデータをすばやくクレンジングおよび探索するために使用できるローコード ソリューションを探しています。どうすればよいでしょうか。

정답: C
설명: (DumpTOP 회원만 볼 수 있음)
あなたは大手不動産会社に勤務しており、機械学習に使用する 6 TB の住宅販売データを準備しています。SOL を使用してデータを変換し、BigQuery ML を使用して機械学習モデルを作成します。変換されていない生のデータセットに対する予測にモデルを使用する予定です。予測時に偏りが生じないようにするには、ワークフローをどのように設定すればよいでしょうか。

정답: D
설명: (DumpTOP 회원만 볼 수 있음)
現在、あなたの会社ではキャンペーン用のデータ パイプラインを設定しています。すべての Google Cloud Pub/Sub ストリーミング データについて、キャンペーン中に定期的に入力とそのタイミングを特定できることが重要なビジネス要件の 1 つです。エンジニアは、この目的のために Google Cloud Dataflow のウィンドウ処理と変換を使用することにしました。ただし、この機能をテストすると、すべてのストリーミング挿入で Cloud Dataflow ジョブが失敗することがわかりました。この問題の原因として最も可能性が高いのは何でしょうか。

정답: A
Dataplex を使用して BigQuery と Cloud Storage のデータを管理し、Google Cloud でデータ メッシュを設計しています。データアセットの権限を簡素化したいと考えています。2 つのユーザー グループを持つ顧客仮想レイクを作成しています。
* データエンジニア(データレイクへのアクセスを必要とする)
* キュレーションされたデータへのアクセスを必要とする分析ユーザー
これら 2 つのグループにアクセス権を割り当てる必要があります。どうすればよいでしょうか?

정답: C
설명: (DumpTOP 회원만 볼 수 있음)
Dataproc クラスタには多くの構成ファイルが含まれています。これらのファイルを更新するには、--properties オプションを使用する必要があります。オプションの形式は、file_prefix:property=_____ です。

정답: A
설명: (DumpTOP 회원만 볼 수 있음)
Cloud Bigtable 用の HBase Shell とは何ですか?

정답: D
설명: (DumpTOP 회원만 볼 수 있음)
顧客の住所を含む BigQuery データセットが 1 つあります。データセットからすべての住所を取得したいとします。どうすればよいでしょうか。

정답: B
설명: (DumpTOP 회원만 볼 수 있음)
データ ポイントを取得して GUID を返すサービスを使用して、新しい Web サイトのユーザーにグローバル一意識別子 (GUID) を付与する必要があります。このデータは、パイプライン内のマイクロサービスを介して実行される HTTP 呼び出しを介して、内部システムと外部システムの両方から取得されます。1 秒あたり数万のメッセージがあり、マルチスレッド化できるため、システムのバックプレッシャーが懸念されます。そのバックプレッシャーを最小限に抑えるには、パイプラインをどのように設計すればよいでしょうか。

정답: D
Cloud Bigtable のパフォーマンスが低下する正当な理由ではないのはどれですか?

정답: D
설명: (DumpTOP 회원만 볼 수 있음)
特定の条件が満たされた場合に、ウィンドウのコンテンツをいつ出力するかを決定するデータフローの概念は何ですか?

정답: C
설명: (DumpTOP 회원만 볼 수 있음)
世界中に分散されたオークション アプリケーションでは、ユーザーがアイテムに入札できます。時々、ユーザーがほぼ同時に同じ入札を行い、異なるアプリケーション サーバーがそれらの入札を処理することがあります。各入札イベントには、アイテム、金額、ユーザー、およびタイムスタンプが含まれます。これらの入札イベントをリアルタイムで 1 つの場所に集めて、どのユーザーが最初に入札したかを判断したいとします。どうすればよいでしょうか。

정답: B
설명: (DumpTOP 회원만 볼 수 있음)
名前や住所などの機密情報を含む顧客データを含む BigQuery テーブルがあります。顧客データをデータ分析チームおよび消費者サポート チームと安全に共有する必要があります。データ分析チームはすべての顧客のデータにアクセスする必要がありますが、機密データにはアクセスできないようにする必要があります。消費者サポート チームはすべてのデータ列にアクセスする必要がありますが、契約が無効になった顧客にはアクセスできないようにする必要があります。承認済みデータセットとポリシー タグを使用して、これらの要件を適用しました。これらの手順を実装した後、データ分析チームから、機密列にまだアクセスできることが報告されました。データ分析チームが制限されたデータにアクセスできないようにする必要があります。どうすればよいですか?
2つの回答を選択してください

정답: C,D
설명: (DumpTOP 회원만 볼 수 있음)
パイロット プロジェクトとして、3 つのクリニックの数百人の患者を対象に、患者記録用のデータベースを設計しました。設計では、すべての患者とその診察を 1 つのデータベース テーブルで表し、自己結合を使用してレポートを生成しました。サーバー リソースの使用率は 50% でした。その後、プロジェクトの範囲は拡大しました。データベースには、100 倍の患者記録を保存する必要があります。レポートは実行できなくなりました。時間がかかりすぎるか、コンピューティング リソースが不足してエラーが発生するためです。データベース設計をどのように調整すればよいでしょうか。

정답: A

우리와 연락하기

문의할 점이 있으시면 메일을 보내오세요. 12시간이내에 답장드리도록 하고 있습니다.

근무시간: ( UTC+9 ) 9:00-24:00
월요일~토요일

서포트: 바로 연락하기