これらの Hadup の多肢選択式の質問と回答は、ハドゥープ をより深く理解するのに役立ちます。 ハドゥープ の 100 以上の MCQ を使用して、次の試験や面接の準備をすることができます。
下にスクロールして回答を始めてください。
A. setReplication(String Replication、Path P、fsPermission Primilsion)
B. setReplication(fspermission許可、短い複製)
C. setReplication(文字列複製、パスP)
D. setReplication(PATH SRC、短い複製)
A. i)とii)
B. ii)およびiiiのみ)
C. i)とiv)のみ
D. iiiのみ)とiv)
E. i)、ii)、およびiiiのみ)
A. TaskTracker
B. JobTracker
C. 糸
D. ノードマネージャー
A. YARN_CONF_DIR
B. hadoop_prefix
C. hadoop_conf_dir
D. hadoop_home
A. fetchdt
B. DFS
C. oiv
D. fsck
A. bin/hdfs dfs -cat/newexample/example1.txt
B. bin/hadoop dfsadmin -ddir/newexample/example1.txt
C. bin/hadoop dfs -cat /newexample/example1.txt
D. bin/hdfs dfsadmin -ddir/newexample/example1.txt
A. リソースマネージャー
B. ノードマネージャー
C. アプリケーションマスター
D. 容器
A. 変身
B. コマンドライン
C. ObjectIndeppertor
D. rift
A. ファイルの長さの概要を表示します。
B. ファイルの場合、ファイルの長さを表示しますが、ディレクトリの場合はそのディレクトリに存在するファイルとディレクトリのサイズを表示します。
C. 特定のディレクトリにファイルの数を表示します。
D. 特定のディレクトリに存在するファイルの番号と名前を表示します。
A. i)とiiiのみ)
B. ii)とiv)
C. i)、ii)、およびiii)のみ
D. i)、iii)、およびivのみ)
E. すべてi)、ii)、iii)、およびiv)
A. mapreduce.task.io.sort.mb
B. io.record.sort.percent
C. MapReduce.Partitioner.Class
D. MapReduce.task.io.mb
A. PigReducerestimatorインターフェイス
B. storefuncインターフェイス
C. filterfuncインターフェイス
D. アキュムレータインターフェイス
A. 注文
B. 並び替え
C. AまたはBのどちらか
D. 上記のどれでもない
A. myDataデータベースを作成します
B. データベースMyDataを作成
C. 新しいMyDataデータベースを作成します
D. 新しいデータベースMyDataを作成します
A. すべてのライブラリが利用可能かどうかを確認するために使用されます。
B. ワイルドカードの拡張に使用されます。
C. リソースマネージャーの指定に使用されます。
D. 値をプロパティに割り当てるために使用されます
A. インタラクティブモード
B. バッチモード
C. 埋め込みモード
D. インタラクティブモードまたはバッチモードのいずれか
A. bytearray
B. バッグ
C. 地図
D. タプル
A. アプリケーションのステータスに関する洞察を提供します。
B. アプリケーションとハードウェアの障害の再起動を保証します。
C. クラスター内で実行されているアプリケーションにリソースを割り当てます。
D. クライアントが提出したアプリケーションを処理します。
A. 連結されている2つのデータセットのスキーマに制限はありません。
B. データセットを連結しながら、重複したタプルを削除します。
C. データセットを連結しながら、タプルの順序を保存します。
D. 結果にスキーマを提供するために、Onschema予選を使用します
A. cogroup
B. foreach
C. クロス
D. 連合
A. Hadoopコマンド[StreamingOptions]
B. コマンド〜hadoop [genericoptions] [streamingoptions]
C. Hadoopコマンド[genericoptions] [streamingoptions]
D. コマンド〜hadoop [streamingoptions] [genericoptions]
A. ハイブの結合は通勤しています。
B. Hiveでは、2つ以上のテーブルを結合できます。
C. 参加に参加する最初のテーブルは、デフォルトで削減タスクにストリーミングされます。
D. すべて正しいです。
A. hdfs chgrp [所有者] [:[グループ]] [-r]< filepath>< newgroup>
B. hdfs chgrp [-r]< group> < filepath>
C. hdfs chgrp [-r]< [group [:[owner]> < filepath>
D. HDFS chgrp< group> < filepath> [ - r]< newgroup>
E. hdfs chgrp< group> [ - r]< newgroup>
A. レベルDBベースのステートストア
B. ファイルシステムベースのステートストア
C. Zookeeperベースのステートストア
D. オプションAまたはBのいずれかを使用できます
A. ユーザーアクセス許可はHDFSには実装されていません。
B. HDFSでは、ユーザーはディレクトリを作成することは許可されていません。
C. HDFSはハードリンクをサポートします。
D. HDFSはユーザーの割り当てを実装します。
A. touchz
B. しっぽ
C. 文章
D. テスト
A. Hadoop fs〜d blocksize = 536870912 -put abc.dat.txtからabc.dat.newblock.txt
B. Hadoop fs.blocksize = 536870912 -put abc.dat.txt abc.dat.newblock.txt
C. Hadoop fs -d dfs.blocksize = 536870912 -put abc.dat.txt abc.dat.newblock.txt
D. Hadoop fs.blocksize -d = 536870912 -put abc.dat.txtからabc.dat.newblock.txt
A. クライアントが使用するクラスを識別するために使用されます。
B. リソースマネージャーが使用する論理IDのリストに使用されます。
C. リソースマネージャーに対応するホスト名を指定するために使用されます。
D. アンサンブルのリソースマネージャーを識別するために使用されます。
A. MapReduceのスケーリングは非線形ですが、RDBMSでは線形です。
B. MapReduceでは、読み取り操作は何度も実行できますが、書き込み操作は一度だけ実行できます。従来のRDBMSでは、読み取り操作と書き込み操作の両方を何度も実行できます。
C. MapReduceの完全性は、RDBMSに比べて高くなっています。
D. MapReduceのアクセスパターンはバッチですが、RDBMSのアクセスパターンはインタラクティブでバッチです
A. アプリケーションマネージャーが悪意のある外部サイトへのリンクを提供することを防ぎます。
B. 悪意のあるJavaScriptコードの実行を防ぎます。
C. ユーザーからCookieをストリップし、それらを単一のCookieに置き換え、ログインしたユーザーのユーザー名を提供します。
D. リソースマナーの一部として実行されますが、スタンドアロンモードで実行するように構成することはできません。
A. -Output DirectoryName
B. −cmdenv name = value
C. -combiner streamingcommand
D. - レッカーJavaclassName
A. -file abc =/home/example/
B. - マッパーabc =/home/inputreader/example/dictionary/
C. -input abc =/home/directories/example
D. -cmdenv abc =/home/example/dictionaries/
A. 高性能を提供します。
B. 簡単に展開できます。
C. 非常に柔軟です。
D. ソフトウェアや物理的な脅威から保護できます。
A. Hadoop FS -CHMOD ABC 310
B. hadoop fs -chmod 740 abc
C. Hadoop fs〜CHMOD 420 ABC
D. Hadoop FS -CHMOD ABC〜860
A. 読む
B. 書く
C. 実行する
D. 3つの許可レベルはすべて許可されています
A. 左半合流
B. 内側結合
C. Theta Join
D. ファジー参加
A. キニット
B. klist
C. ktutil
D. Mradmin
E. dfsadmin
A. Yarn.timeline-service.ttl-enable
B. Yarn.Timeline-Service.Enabled
C. Yarn.timeline-service.generic-application-history.enabled
D. Yarn.timeline-service.recovery.enabled
A. Yarn node -jar [メインクラス名]< jarファイルパス> [引数…]
B. Yarn Jar< jarファイルパス> [メインクラス名] [引数…]
C. YARNアプリケーション-Jar [メインクラス名]< jarファイルパス> [議論…]
D. YarnログJar< jarファイルパス> [メインクラス名] [議論…]
A. -config confdir
B. -config。 Yarnconfiguration
C. Daemonlog -GetLevel
D. Daemonlog confdir
A. 設定
B. セット-V
C. DFS
D. リセット
A. HiveシェルからDFSコマンドを実行するために使用されます。
B. CLI内のシェルコマンドを実行するために使用されます。
C. Hiveシェルからシェルコマンドを実行するために使用されます。
D. CLI内でDFSコマンドを実行するために使用されます。
A. i)とiiiのみ)
B. i)とii)
C. i)、ii)、およびivのみ
D. すべてi)、ii)、iii)、およびiv)
A. Yarn.resourcemanager.ha.rm-ids
B. Yarn.resourcemanager.address.rm-id
C. Yarn.resourcemanager.hostname.rm-id
D. Yarn.resourcemanager.scheduler.address.rm-id
A. setgid
B. SetFile
C. setfattr
D. setquota
E. setconf
A. 説明
B. を説明する
C. 説明
D. AもBも
A. $ MVNパッケージ - PDOCS
B. $ mvn pdocs
C. $ curl -mvn pdocs
D. $ curl -mvn pdocs-パッケージ
A. security.client.datanode.protocol.acl
B. security.namenode.protocol.acl
C. security.client.protocol.acl
D. security.datanode.protocol.acl
A. 1日
B. 3日
C. 5日間
D. 7日
A. org.apache.hadoop.security.authenticationInitializerクラス名
B. org.apache.hadoop.security.shellbasedunixgroupsmappingクラス名
C. org.apache.hadoop.security.ldapgroupsmappingクラス
D. org.apache.hadoop.security.sslクラス名
A. チャウン
B. chmod
C. chgrp
D. Setowner
A. -i、 - inputfile arg
B. -o、-outputfile arg
C. -p、-processor arg
D. -f、 - fix-txids
A. MapReduce
B. データノード
C. Quorumpeermain
D. nameNode
A. 入力データを論理チャンクに分割し、これらの各分割をマップタスクに割り当てます。
B. 各inputSplitクラスで動作できるRecordReaderオブジェクトをインスタンス化します。
C. マップタスクへのデータのレコードビューを提示し、inputsplitクラスから読み取ります。
D. キー価値のペアとしてマップタスクにレコードを生成します。
A. [hdfs] $ $ hadoop_prefix/sbin/distribute-exclude.sh< exclude_file>
B. $ [hadoop hdfs] sbin/distribute-exclude.sh< exclude_file>
C. $ [dfsadmin、hdfs] $ hadoop_prefix/sbin/< explude_file>/distribute-exclude.sh
D. [dfsadmin] $ $ hadoop_prefix/ sbin/< exclude_file>/ distribute-exclude.sh
A. -uおよび-v
B. -bおよび-c
C. -Cおよび-U
D. -uおよび-c
A. 72,000秒
B. 18,000秒
C. 64,000秒
D. 36,000秒
A. 0
B. 1
C. 2
D. 00
A. 統計
B. CopyTolocal
C. CP
D. 猫
A. bin/hdfs dfsadmin -r
B. bin/hdfs dfsadmin -report
C. BIN/HDFS DFSADMIN - レポートデータノード
D. bin/hdfs dfsadmin -r datanodes
A. containerids
B. コンテナ
C. 州
D. ユーザー
E. アプリ
A. int
B. 弦
C. 長さ
D. bigint
A. fsdatainputStream
B. Linereader
C. ファイルシステム
D. RecordReader
A. 説明します
B. フラットン
C. cogroup
D. クロス
A. Mapsystem
B. MapReduce
C. MapCluster
D. MapComponent
A. 最終キー
B. 最終値
C. 中間キー
D. 中間値
A. ユニオンは異なる、ランク
B. オーバー、ランク
C. 除く
D. ユニオンは異なる、ランク
A. マップジョブにパーティションシャッフルを追加します。
B. 削減するジョブにパーティションをかけたシャッフルを追加します。
C. 削減ジョブを複数に分割し、ジョブを削減します。
D. 削減ジョブを複数のチェーンマップジョブに分割します。
A. 暗号化されたHTTP
B. 署名されていないHTTP
C. 圧縮HTTP
D. 署名されたhttp
A. JavaまたはPython
B. SQLのみ
C. SQLまたはJava
D. PythonまたはSQL
A. 還元剤
B. コンバイナー
C. マッパー
D. カウンター
A. 成功した; syslog
B. 成功した; stdout
C. 終わり; syslog
D. 終わり; stdout
A. public void reduce(テキストキー、iterator値、コンテキストコンテキスト){…}
B. public static void reduce(テキストキー、intwritable []値、コンテキストコンテキスト){…}
C. public static void reduce(テキストキー、iterator値、コンテキストコンテキスト){…}
D. public void reduce(テキストキー、intwritable []値、コンテキストコンテキスト){…}
A. FileInputFormatCounter
B. FilesystemCounter
C. ジョブカウンター
D. タスクカウンター(わからない)
A. A、p
B. C、a
C. C、p
D. キャップ
A. 組み合わせ、マッピング、および削減します
B. シャッフル、ソート、削減
C. 削減、並べ替え、組み合わせます
D. マップ、ソート、結合
A. ooozie;オープンソース
B. ooozie;商用ソフトウェア
C. Zookeeper;商用ソフトウェア
D. Zookeeper;オープンソース
A. データ
B. 名前
C. メモリー
D. ワーカー
A. ホットスワップ可能
B. コールドスワップ可能
C. 温かいスワップ可能
D. スワッピングできません
A. すべての労働者のディスクで
B. マスターノードのディスク
C. マスターノードをメモリしています
D. すべての労働者を記念して
A. クラスターの還元型ノードに
B. クラスターのデータノード(わからない)
C. クラスターのマスターノード
D. クラスターのすべてのノードで
A. 分散キャッシュ
B. ローカルキャッシュ
C. パーティション化されたキャッシュ
D. クラスターキャッシュ
A. キャッシュ入力
B. 還元器入力
C. 中間値
D. マップ入力
A. Spark Import - Connect JDBC:mysql://mysql.example.com/spark-username spark -warehouse-dir user/hue/oozie/deployments/spark
B. sqoopインポート - コネクトjdbc:mysql://mysql.example.com/sqoop - username sqoop-warehouse-dir user/hue/oozie/deployments/sqoop
C. sqoopインポート - コネクトjdbc:mysql://mysql.example.com/sqoop - username sqoop--パスワードsqoop-warehouse user/hue/oozie/deployments/sqoop
D. Spark Import - Connect JDBC:mysql://mysql.example.com/spark-Username Spark - Password Spark-warehouse-dir user/hue/oozie/deployments/spark
A. 圧縮(わからない)
B. ソート
C. ソートされていません
D. 暗号化
A. ジュニット
B. Xunit
C. mrunit
D. Hadoopunit
A. Hadoop-user
B. スーパーユーザー
C. ノードユーザー
D. 管理者ユーザー
A. 共有するように構成できます
B. 部分的に共有されています
C. 共有されています
D. 共有されていません(https://www.lynda.com/hadoop-tutorials/understanding-java-virtual-machines-jvms/191942/369545-4.html)
A. 静的ジョブ()メソッド
B. ジョブクラスとインスタンス(わからない)
C. job()メソッド
D. 静的なジョブクラス
A. S3a
B. S3n
C. S3
D. EMR S3
A. 書き込みのスキーマ
B. スキーマはありません
C. 外部スキーマ
D. 読み取りのスキーマ
A. 読み書き
B. 読み取り専用
C. 書き込み専用
D. 追加のみ
A. HDFまたはトップ
B. http
C. hdfsまたはhttp
D. HDFS
A. ハイブ
B. 豚
C. インパラ
D. mahout
A. リレーショナルテーブル
B. 入力ファイルの更新
C. 単一の組み合わせリスト
D. <キー、値>ペアのセット
A. オブジェクトストレージのファイル
B. グラフデータベースのグラフデータ
C. 管理されたRDBMSシステムのリレーショナルデータ
D. NOSQLデータベースのJSONデータ
A. データモード
B. セーフモード
C. シングルユーザーモード
D. 擬似分散モード
A. <key、value>ペア
B. キー
C. 値
D. <値、キー>ペア
A. 値の平均キー
B. 値のキーの合計
C. 中間キー/値のペアのセット
D. 一連の最終キー/値ペア
A. 選択…ここで、値= 1000
B. 選択…制限1000
C. トップ1000を選択します…
D. 最大1000を選択します…