日本語での ハドゥープ の質問

日本語での ハドゥープ の質問

これらの Hadup の多肢選択式の質問と回答は、ハドゥープ をより深く理解するのに役立ちます。 ハドゥープ の 100 以上の MCQ を使用して、次の試験や面接の準備をすることができます。
下にスクロールして回答を始めてください。

1: 次のうち、Hadoop WebHDFS REST APIの既存のファイルの複製を設定するために使用されるコマンドの正しい構文はどれですか?

A.   setReplication(String Replication、Path P、fsPermission Primilsion)

B.   setReplication(fspermission許可、短い複製)

C.   setReplication(文字列複製、パスP)

D.   setReplication(PATH SRC、短い複製)

2: 豚では、複製された結合を使用して次のタイプの結合操作を実行できますか?

A.   i)とii)

B.   ii)およびiiiのみ)

C.   i)とiv)のみ

D.   iiiのみ)とiv)

E.   i)、ii)、およびiiiのみ)

3: 次のうち、クライアントからの仕事の提出を受け入れ、ワーカーノードで実行するタスクをスケジュールするマスタープロセスはどれですか?

A.   TaskTracker

B.   JobTracker

C.   糸

D.   ノードマネージャー

4: MapReduceのジョブを実行するために、PIGのHadoopクラスターを決定するために使用される環境変数のうちどれが使用されますか?

A.   YARN_CONF_DIR

B.   hadoop_prefix

C.   hadoop_conf_dir

D.   hadoop_home

5: 次のHDFSコマンドのうち、矛盾をチェックし、さまざまなファイルで問題を報告するために使用されるのはどれですか?

A.   fetchdt

B.   DFS

C.   oiv

D.   fsck

6: 次のコマンドのうち、 /newexample/example1.txtという名前のファイルのコンテンツを表示するために使用されるコマンドはどれですか?

A.   bin/hdfs dfs -cat/newexample/example1.txt

B.   bin/hadoop dfsadmin -ddir/newexample/example1.txt

C.   bin/hadoop dfs -cat /newexample/example1.txt

D.   bin/hdfs dfsadmin -ddir/newexample/example1.txt

7: Hadoopアーキテクチャでは、次のコンポーネントのうち、単一のジョブの計画と実行に責任があるものはどれですか?

A.   リソースマネージャー

B.   ノードマネージャー

C.   アプリケーションマスター

D.   容器

8: ハイブメタストアにアクセスするために使用される次のインターフェイスのうちどれですか?

A.   変身

B.   コマンドライン

C.   ObjectIndeppertor

D.   rift

9: 次のHadoopコマンドの機能は何ですか?du

A.   ファイルの長さの概要を表示します。

B.   ファイルの場合、ファイルの長さを表示しますが、ディレクトリの場合はそのディレクトリに存在するファイルとディレクトリのサイズを表示します。

C.   特定のディレクトリにファイルの数を表示します。

D.   特定のディレクトリに存在するファイルの番号と名前を表示します。

10: Hadoopでは、HDFSスナップショットが次の理由のどれであるかについて取得されますか?i)backup.iii)disaster Recovery.ivを提供するために、ユーザーエラーに対する保護を提供するために)データノードからのデータをコピーするために。

A.   i)とiiiのみ)

B.   ii)とiv)

C.   i)、ii)、およびiii)のみ

D.   i)、iii)、およびivのみ)

E.   すべてi)、ii)、iii)、およびiv)

11: ディスクに挿入される前に、MAPタスクによって放出される中間出力レコードは、円形バッファーを使用してローカルメモリでバッファリングされます。次のプロパティのうち、この円形バッファーのサイズを構成するために使用されるものはどれですか?

A.   mapreduce.task.io.sort.mb

B.   io.record.sort.percent

C.   MapReduce.Partitioner.Class

D.   MapReduce.task.io.mb

12: チャンクで入力を受け入れることにより、UDFSが必要とするメモリの量を減らすことができるのは、次のインターフェイスのうちどれですか?

A.   PigReducerestimatorインターフェイス

B.   storefuncインターフェイス

C.   filterfuncインターフェイス

D.   アキュムレータインターフェイス

13: クエリの結果に合計順序を課すために、次のハイブ条項を使用する必要があるものはどれですか?

A.   注文

B.   並び替え

C.   AまたはBのどちらか

D.   上記のどれでもない

14: MyDataという名前のデータベースを作成するために使用されるHiveコマンドのどれはどれですか?

A.   myDataデータベースを作成します

B.   データベースMyDataを作成

C.   新しいMyDataデータベースを作成します

D.   新しいデータベースMyDataを作成します

15: 指定されたオプションのどれが次のHadoopコマンドの関数ですか?-a

A.   すべてのライブラリが利用可能かどうかを確認するために使用されます。

B.   ワイルドカードの拡張に使用されます。

C.   リソースマネージャーの指定に使用されます。

D.   値をプロパティに割り当てるために使用されます

16: 次の豚の処刑モードのうち、Javaプログラムは、豚の図書館を輸入することで豚の指揮を呼び出すことができますか?

A.   インタラクティブモード

B.   バッチモード

C.   埋め込みモード

D.   インタラクティブモードまたはバッチモードのいずれか

17: 与えられたPIGデータ型のどれが次の特性を持っていますか?i)それはデータ値のコレクションです。ii)これらのデータ値は順序付けられ、固定長を持っています。

A.   bytearray

B.   バッグ

C.   地図

D.   タプル

18: 次の機能のうち、YARNアーキテクチャのリソースマネージャーのスケジューラによって実行されるのはどれですか?

A.   アプリケーションのステータスに関する洞察を提供します。

B.   アプリケーションとハードウェアの障害の再起動を保証します。

C.   クラスター内で実行されているアプリケーションにリソースを割り当てます。

D.   クライアントが提出したアプリケーションを処理します。

19: PIGの組合運営者の特徴は次のうちどれですか?

A.   連結されている2つのデータセットのスキーマに制限はありません。

B.   データセットを連結しながら、重複したタプルを削除します。

C.   データセットを連結しながら、タプルの順序を保存します。

D.   結果にスキーマを提供するために、Onschema予選を使用します

20: 次のオペレーターのうち、シータ結合に使用するために必要なオペレーターはどれですか?

A.   cogroup

B.   foreach

C.   クロス

D.   連合

21: 次のうち、Hadoopストリーミングコマンドの正しいLineコマンドの構文はどれですか?

A.   Hadoopコマンド[StreamingOptions]

B.   コマンド〜hadoop [genericoptions] [streamingoptions]

C.   Hadoopコマンド[genericoptions] [streamingoptions]

D.   コマンド〜hadoop [streamingoptions] [genericoptions]

22: 次のステートメントのうち、ハイブが結合することについて正しいものはどれですか?

A.   ハイブの結合は通勤しています。

B.   Hiveでは、2つ以上のテーブルを結合できます。

C.   参加に参加する最初のテーブルは、デフォルトで削減タスクにストリーミングされます。

D.   すべて正しいです。

23: ファイルのグループを変更するために使用されるのは次のうちどれですか?

A.   hdfs chgrp [所有者] [:[グループ]] [-r]< filepath>< newgroup>

B.   hdfs chgrp [-r]< group> < filepath>

C.   hdfs chgrp [-r]< [group [:[owner]> < filepath>

D.   HDFS chgrp< group> < filepath> [ - r]< newgroup>

E.   hdfs chgrp< group> [ - r]< newgroup>

24: リソースマネージャーの高可用性(RM HA)をサポートするストレージシステムを選択する必要があるとします。この場合、次の種類のストレージを選択する必要があるものはどれですか?

A.   レベルDBベースのステートストア

B.   ファイルシステムベースのステートストア

C.   Zookeeperベースのステートストア

D.   オプションAまたはBのいずれかを使用できます

25: 次のステートメントのうち、Hadoopファイルシステム名空間について正しいものはどれですか?

A.   ユーザーアクセス許可はHDFSには実装されていません。

B.   HDFSでは、ユーザーはディレクトリを作成することは許可されていません。

C.   HDFSはハードリンクをサポートします。

D.   HDFSはユーザーの割り当てを実装します。

26: 次のHadoopコマンドのうち、長さのゼロのファイルを作成するために使用されるのはどれですか?

A.   touchz

B.   しっぽ

C.   文章

D.   テスト

27: デフォルトのブロックサイズ128 MBのABC.DAT.TXTという名前の入力ファイルを検討してください。このファイルを512 MBのブロックサイズのHDFSにアップロードする正しいコマンドは次のうちどれですか?

A.   Hadoop fs〜d blocksize = 536870912 -put abc.dat.txtからabc.dat.newblock.txt

B.   Hadoop fs.blocksize = 536870912 -put abc.dat.txt abc.dat.newblock.txt

C.   Hadoop fs -d dfs.blocksize = 536870912 -put abc.dat.txt abc.dat.newblock.txt

D.   Hadoop fs.blocksize -d = 536870912 -put abc.dat.txtからabc.dat.newblock.txt

28: Yarns Resource Managerの次の構成プロパティの機能は何ですか?Yarn.ResourceManager.ha.id

A.   クライアントが使用するクラスを識別するために使用されます。

B.   リソースマネージャーが使用する論理IDのリストに使用されます。

C.   リソースマネージャーに対応するホスト名を指定するために使用されます。

D.   アンサンブルのリソースマネージャーを識別するために使用されます。

29: 次のうち、MapReduceと従来のRDBMSの正しい違いはどれですか?

A.   MapReduceのスケーリングは非線形ですが、RDBMSでは線形です。

B.   MapReduceでは、読み取り操作は何度も実行できますが、書き込み操作は一度だけ実行できます。従来のRDBMSでは、読み取り操作と書き込み操作の両方を何度も実行できます。

C.   MapReduceの完全性は、RDBMSに比べて高くなっています。

D.   MapReduceのアクセスパターンはバッチですが、RDBMSのアクセスパターンはインタラクティブでバッチです

30: Yarns Webアプリケーションのプロキシについて正しいものは次のうちどれですか?

A.   アプリケーションマネージャーが悪意のある外部サイトへのリンクを提供することを防ぎます。

B.   悪意のあるJavaScriptコードの実行を防ぎます。

C.   ユーザーからCookieをストリップし、それらを単一のCookieに置き換え、ログインしたユーザーのユーザー名を提供します。

D.   リソースマナーの一部として実行されますが、スタンドアロンモードで実行するように構成することはできません。

31: Hadoopストリーミングコマンドの次の2つのパラメーターはオプションですか?

A.   -Output DirectoryName

B.   −cmdenv name = value

C.   -combiner streamingcommand

D.   - レッカーJavaclassName

32: ストリーミングコマンドに環境変数を設定するために使用されるコマンドのうちどれですか?

A.   -file abc =/home/example/

B.   - マッパーabc =/home/inputreader/example/dictionary/

C.   -input abc =/home/directories/example

D.   -cmdenv abc =/home/example/dictionaries/

33: HDFSのディスクレベルの暗号化の利点は次のうちどれですか?

A.   高性能を提供します。

B.   簡単に展開できます。

C.   非常に柔軟です。

D.   ソフトウェアや物理的な脅威から保護できます。

34: ABCという名前のファイルの場合、次のHadoopコマンドのうち、所有者のすべてのアクセス許可を設定し、グループの読み取り権限を設定し、システム内の他のユーザーのアクセス許可を設定するために使用されるものはどれですか?

A.   Hadoop FS -CHMOD ABC 310

B.   hadoop fs -chmod 740 abc

C.   Hadoop fs〜CHMOD 420 ABC

D.   Hadoop FS -CHMOD ABC〜860

35: HDFS許可では、次の許可レベルのどれが許可されていませんか?

A.   読む

B.   書く

C.   実行する

D.   3つの許可レベルはすべて許可されています

36: 次の参加操作のうち、Hiveによってサポートされていないものはどれですか?

A.   左半合流

B.   内側結合

C.   Theta Join

D.   ファジー参加

37: Kerberos認証で使用されるkeyTabファイルを作成するために使用されるコマンドのうちどれですか?

A.   キニット

B.   klist

C.   ktutil

D.   Mradmin

E.   dfsadmin

38: タイムラインストアに存在する老化したデータの削除を可能にするために使用されるYARNの高度なサーバー側の構成プロパティは次のうちどれですか?

A.   Yarn.timeline-service.ttl-enable

B.   Yarn.Timeline-Service.Enabled

C.   Yarn.timeline-service.generic-application-history.enabled

D.   Yarn.timeline-service.recovery.enabled

39: カスタムのユーザーが構築したJARファイルを実行するために、JARコマンドが使用されます。このコマンドの正しい構文は次のうちどれですか?

A.   Yarn node -jar [メインクラス名]< jarファイルパス> [引数…]

B.   Yarn Jar< jarファイルパス> [メインクラス名] [引数…]

C.   YARNアプリケーション-Jar [メインクラス名]< jarファイルパス> [議論…]

D.   YarnログJar< jarファイルパス> [メインクラス名] [議論…]

40: 次のYARNコマンドのうち、デフォルトの構成ディレクトリ$ {hadoop_prefix}/confを上書きするために使用されるのはどれですか?

A.   -config confdir

B.   -config。 Yarnconfiguration

C.   Daemonlog -GetLevel

D.   Daemonlog confdir

41: 次のHIVEQLコマンドのうち、Hiveまたはユーザーによってオーバーラインされた構成変数のリストを印刷するために使用されるのはどれですか?

A.   設定

B.   セット-V

C.   DFS

D.   リセット

42: 指定されたオプションのどれが次のHIVEQLコマンドの正しい関数ですか?! <コマンド>

A.   HiveシェルからDFSコマンドを実行するために使用されます。

B.   CLI内のシェルコマンドを実行するために使用されます。

C.   Hiveシェルからシェルコマンドを実行するために使用されます。

D.   CLI内でDFSコマンドを実行するために使用されます。

43: 次のうち、Hadoopの機能はどれですか?

A.   i)とiiiのみ)

B.   i)とii)

C.   i)、ii)、およびivのみ

D.   すべてi)、ii)、iii)、およびiv)

44: YARNSリソースマネージャーの次の構成プロパティのうち、ホストを指定するために使用されるものはどれですか。クライアントがジョブを送信するポートですか?

A.   Yarn.resourcemanager.ha.rm-ids

B.   Yarn.resourcemanager.address.rm-id

C.   Yarn.resourcemanager.hostname.rm-id

D.   Yarn.resourcemanager.scheduler.address.rm-id

45: 次のHDFSコマンドのうち、ファイルまたはディレクトリの拡張属性名と値を設定するために使用されるのはどれですか?

A.   setgid

B.   SetFile

C.   setfattr

D.   setquota

E.   setconf

46: 次のPIGコマンドのうち、データのサンプリングとクエリの適用に使用されるのはどれですか?

A.   説明

B.   を説明する

C.   説明

D.   AもBも

47: Hadoop Authでドキュメントを作成するために使用されるドキュメントMavenプロファイルの正しい構文は次のうちどれですか?

A.   $ MVNパッケージ - PDOCS

B.   $ mvn pdocs

C.   $ curl -mvn pdocs

D.   $ curl -mvn pdocs-パッケージ

48: Hadoopでのサービスレベルの承認の場合、次のプロパティのうち、データノードがナメノードを通信してアクセスするための許可を付与するために使用されるACEを決定するために使用されるプロパティのどれが使用されますか?

A.   security.client.datanode.protocol.acl

B.   security.namenode.protocol.acl

C.   security.client.protocol.acl

D.   security.datanode.protocol.acl

49: 次のセキュリティ構成プロパティのデフォルト値は何ですか?YARNアーキテクチャのプロパティ?

A.   1日

B.   3日

C.   5日間

D.   7日

50: HadoopでHTTP認証を構成している間、「hadoop.http.filter.initializers」プロパティの値として次のうちどれが設定されていますか?

A.   org.apache.hadoop.security.authenticationInitializerクラス名

B.   org.apache.hadoop.security.shellbasedunixgroupsmappingクラス名

C.   org.apache.hadoop.security.ldapgroupsmappingクラス

D.   org.apache.hadoop.security.sslクラス名

51: 次のHDFSシェルコマンドのうち、特定のファイルまたはディレクトリのグループを設定するために使用されるのはどれですか?

A.   チャウン

B.   chmod

C.   chgrp

D.   Setowner

52: HDFSのOEVコマンドに必要なコマンドライン引数は次のうちどれですか?

A.   -i、 - inputfile arg

B.   -o、-outputfile arg

C.   -p、-processor arg

D.   -f、 - fix-txids

53: クラスターストレージに存在するファイルに関連するメタデータを保存するHadoopディレクトリサービスは次のうちどれですか?

A.   MapReduce

B.   データノード

C.   Quorumpeermain

D.   nameNode

54: MapReduce HadoopジョブのinputFormatクラスによって実行されない次の関数のうち、次の関数のどれが実行されませんか?

A.   入力データを論理チャンクに分割し、これらの各分割をマップタスクに割り当てます。

B.   各inputSplitクラスで動作できるRecordReaderオブジェクトをインスタンス化します。

C.   マップタスクへのデータのレコードビューを提示し、inputsplitクラスから読み取ります。

D.   キー価値のペアとしてマップタスクにレコードを生成します。

55: 次のコマンドのうち、すべてのナメノードに除外されたファイルを配布するために使用されるコマンドはどれですか?

A.   [hdfs] $ $ hadoop_prefix/sbin/distribute-exclude.sh&lt; exclude_file&gt;

B.   $ [hadoop hdfs] sbin/distribute-exclude.sh&lt; exclude_file&gt;

C.   $ [dfsadmin、hdfs] $ hadoop_prefix/sbin/&lt; explude_file&gt;/distribute-exclude.sh

D.   [dfsadmin] $ $ hadoop_prefix/ sbin/&lt; exclude_file&gt;/ distribute-exclude.sh

A.   -uおよび-v

B.   -bおよび-c

C.   -Cおよび-U

D.   -uおよび-c

57: HTTPインターフェイスを介して認証の場合に使用されるhadoop.http.authentication.token.varity性プロパティのデフォルト値は何ですか?

A.   72,000秒

B.   18,000秒

C.   64,000秒

D.   36,000秒

58: マルチキーの実行の場合、次の返品コードのうち、実行のための取得可能なエラーを示しているものはどれですか?

A.   0

B.   1

C.   2

D.   00

59: 次のHadoopコマンドのうち、STDOUTへのソースパスをコピーするために使用されるのはどれですか?

A.   統計

B.   CopyTolocal

C.   CP

D.   猫

60: 次のHadoopDFSADMINコマンドのうち、データロードのリストを生成するのはどれですか?

A.   bin/hdfs dfsadmin -r

B.   bin/hdfs dfsadmin -report

C.   BIN/HDFS DFSADMIN - レポートデータノード

D.   bin/hdfs dfsadmin -r datanodes

61: 次のうち、NodeManager REST APIのアプリ(アプリケーション)オブジェクトのプロパティではないものはどれですか?

A.   containerids

B.   コンテナ

C.   州

D.   ユーザー

E.   アプリ

62: 次のうち、YARN ResourceManager REST APIで使用されているクラスターメトリックオブジェクトの「TotalMb」要素の正しいデータ型はどれですか?

A.   int

B.   弦

C.   長さ

D.   bigint

63: 次のオブジェクトのうち、inputsplitクラスからデータを読み取るためにレコードリーダークラスで使用されているものはどれですか?

A.   fsdatainputStream

B.   Linereader

C.   ファイルシステム

D.   RecordReader

64: ネストされたタプルやバッグのネストを外すために使用されるのは、次のオペレーターのうちどれですか?

A.   説明します

B.   フラットン

C.   cogroup

D.   クロス

65: Hadoopフレームワークは、大規模な問題を解決するための________アルゴリズムで構成されています。

A.   Mapsystem

B.   MapReduce

C.   MapCluster

D.   MapComponent

66: パーティショナーは、どのデータのパーティションを制御しますか?

A.   最終キー

B.   最終値

C.   中間キー

D.   中間値

67: SQLウィンドウ機能は、どのキーワードを使用してHiveに実装されていますか?

A.   ユニオンは異なる、ランク

B.   オーバー、ランク

C.   除く

D.   ユニオンは異なる、ランク

68: ゆっくりと減少するジョブに二次的な種類を追加するのではなく、Hadoopのベストプラクティスはどの最適化を実行しますか?

A.   マップジョブにパーティションシャッフルを追加します。

B.   削減するジョブにパーティションをかけたシャッフルを追加します。

C.   削減ジョブを複数に分割し、ジョブを削減します。

D.   削減ジョブを複数のチェーンマップジョブに分割します。

69: Hadoop Authは、保護されたリソースの認証を強制します。認証が確立されたら、どのようなタイプの認証クッキーを設定しますか?

A.   暗号化されたHTTP

B.   署名されていないHTTP

C.   圧縮HTTP

D.   署名されたhttp

70: MapReduceジョブはどの言語で書くことができますか?

A.   JavaまたはPython

B.   SQLのみ

C.   SQLまたはJava

D.   PythonまたはSQL

71: 中間出力のローカル集約を実行するために、MapReduceユーザーはオプションでどのオブジェクトを指定できますか?

A.   還元剤

B.   コンバイナー

C.   マッパー

D.   カウンター

72: ジョブステータスを確認するには、___の値___を探します。

A.   成功した; syslog

B.   成功した; stdout

C.   終わり; syslog

D.   終わり; stdout

73: MapReduce 2.0の還元剤法を実装するコードのどのラインですか?

A.   public void reduce(テキストキー、iterator値、コンテキストコンテキスト){…}

B.   public static void reduce(テキストキー、intwritable []値、コンテキストコンテキスト){…}

C.   public static void reduce(テキストキー、iterator値、コンテキストコンテキスト){…}

D.   public void reduce(テキストキー、intwritable []値、コンテキストコンテキスト){…}

74: マップジョブタスクでマップされた入力レコードの総数を取得するには、どのカウンターの値を確認する必要がありますか?

A.   FileInputFormatCounter

B.   FilesystemCounter

C.   ジョブカウンター

D.   タスクカウンター(わからない)

75: Hadoop Coreはどのキャップ機能をサポートしていますか?

A.   A、p

B.   C、a

C.   C、p

D.   キャップ

76: 還元剤の主要な段階は何ですか?

A.   組み合わせ、マッピング、および削減します

B.   シャッフル、ソート、削減

C.   削減、並べ替え、組み合わせます

D.   マップ、ソート、結合

77: ディスクとメモリの両方でタスクを処理するジョブ間のデータの同期を備えたHadoopワークフローをセットアップするには、___サービス、つまり___を使用します。

A.   ooozie;オープンソース

B.   ooozie;商用ソフトウェア

C.   Zookeeper;商用ソフトウェア

D.   Zookeeper;オープンソース

78: 高可用性のために、どのタイプの複数のノードを使用しますか?

A.   データ

B.   名前

C.   メモリー

D.   ワーカー

79: DataNodeはどのタイプのドライブをサポートしていますか?

A.   ホットスワップ可能

B.   コールドスワップ可能

C.   温かいスワップ可能

D.   スワッピングできません

80: スパークジョブを実装するために使用される方法はどれですか?

A.   すべての労働者のディスクで

B.   マスターノードのディスク

C.   マスターノードをメモリしています

D.   すべての労働者を記念して

81: MapReduceジョブでは、MAP()機能はどこで実行されますか?

A.   クラスターの還元型ノードに

B.   クラスターのデータノード(わからない)

C.   クラスターのマスターノード

D.   クラスターのすべてのノードで

82: マッピング中にルックアップのマスターファイルを参照するには、どのタイプのキャッシュを使用する必要がありますか?

A.   分散キャッシュ

B.   ローカルキャッシュ

C.   パーティション化されたキャッシュ

D.   クラスターキャッシュ

83: Skip Bad Recordsは、どのタイプのデータを処理するときに一連の悪い入力レコードをスキップできるオプションを提供しますか?

A.   キャッシュ入力

B.   還元器入力

C.   中間値

D.   マップ入力

84: MySQLデータベースからHadoopにデータをインポートするコマンドはどれですか?

A.   Spark Import - Connect JDBC:mysql://mysql.example.com/spark-username spark -warehouse-dir user/hue/oozie/deployments/spark

B.   sqoopインポート - コネクトjdbc:mysql://mysql.example.com/sqoop - username sqoop-warehouse-dir user/hue/oozie/deployments/sqoop

C.   sqoopインポート - コネクトjdbc:mysql://mysql.example.com/sqoop - username sqoop--パスワードsqoop-warehouse user/hue/oozie/deployments/sqoop

D.   Spark Import - Connect JDBC:mysql://mysql.example.com/spark-Username Spark - Password Spark-warehouse-dir user/hue/oozie/deployments/spark

85: 還元剤の出力はどのような形式で提示されますか?

A.   圧縮(わからない)

B.   ソート

C.   ソートされていません

D.   暗号化

86: どのライブラリを使用してMapReduceコードを解決する必要がありますか?

A.   ジュニット

B.   Xunit

C.   mrunit

D.   Hadoopunit

87: あなたがnameNodeを開始した場合、あなたはどの種類のユーザーが必要ですか?

A.   Hadoop-user

B.   スーパーユーザー

C.   ノードユーザー

D.   管理者ユーザー

88: 状態_ MapReduceジョブのJVM間

A.   共有するように構成できます

B.   部分的に共有されています

C.   共有されています

D.   共有されていません(https://www.lynda.com/hadoop-tutorials/understanding-java-virtual-machines-jvms/191942/369545-4.html)

89: MapReduceジョブを作成するには、最初に何をコーディングする必要がありますか?

A.   静的ジョブ()メソッド

B.   ジョブクラスとインスタンス(わからない)

C.   job()メソッド

D.   静的なジョブクラス

90: HadoopをAWS S3に接続するには、どのクライアントを使用する必要がありますか?

A.   S3a

B.   S3n

C.   S3

D.   EMR S3

91: HBaseはどのタイプのスキーマ執行で動作しますか?

A.   書き込みのスキーマ

B.   スキーマはありません

C.   外部スキーマ

D.   読み取りのスキーマ

92: HDFSファイルはどのタイプですか?

A.   読み書き

B.   読み取り専用

C.   書き込み専用

D.   追加のみ

93: 分散キャッシュファイルパスは、どの場所から発生しますか?

A.   HDFまたはトップ

B.   http

C.   hdfsまたはhttp

D.   HDFS

94: ETLタイプのMapReduceジョブを実行するためにどのライブラリを使用する必要がありますか?

A.   ハイブ

B.   豚

C.   インパラ

D.   mahout

95: レデューサーの出力は何ですか?

A.   リレーショナルテーブル

B.   入力ファイルの更新

C.   単一の組み合わせリスト

D.   <キー、値>ペアのセット

96: パブリッククラウドに実装されたとき、Hadoop処理は何を相互作用しますか?

A.   オブジェクトストレージのファイル

B.   グラフデータベースのグラフデータ

C.   管理されたRDBMSシステムのリレーショナルデータ

D.   NOSQLデータベースのJSONデータ

97: Hadoopシステムでは、メンテナンスに使用される管理モードは何ですか?

A.   データモード

B.   セーフモード

C.   シングルユーザーモード

D.   擬似分散モード

98: RecordWriterはどのような形式で出力ファイルを書き込みますか?

A.   <key、value>ペア

B.   キー

C.   値

D.   <値、キー>ペア

99: Mapper Mapは何に入力キー/値のペアを入力しますか?

A.   値の平均キー

B.   値のキーの合計

C.   中間キー/値のペアのセット

D.   一連の最終キー/値ペア

100: 最初の1,000の値を返すHiveクエリはどれですか?

A.   選択…ここで、値= 1000

B.   選択…制限1000

C.   トップ1000を選択します…

D.   最大1000を選択します…