Pertanyaan dan jawaban pilihan ganda Hadoop akan membantu Anda memahami Hadoop dengan lebih baik. Bersiaplah untuk tes atau wawancara Anda berikutnya dengan 100+ soal pilihan ganda Hadoop.
Gulir ke bawah untuk memulai dengan jawabannya.
A. SetReplikasi (Replikasi String, Path P, Izin FSpermisi)
B. SetReplikasi (izin fspermission, replikasi pendek)
C. setReplikasi (replikasi string, jalur p)
D. setReplikasi (jalur src, replikasi pendek)
A. Hanya i) dan ii)
B. Hanya ii) dan iii)
C. Hanya aku) dan iv)
D. Hanya iii) dan iv)
E. Hanya i), ii), dan iii)
A. Tasktracker
B. JobTracker
C. BENANG
D. Manajer Node
A. Yarn_conf_dir
B. HADOOP_PREFIX
C. Hadoop_conf_dir
D. HADOOP_HOME
A. fetchdt
B. dfs
C. oiv
D. fsck
A. bin/hdfs dfs −cat /newexample/example1.txt
B. bin/hadoop dfsadmin -ddir /newexample/example1.txt
C. bin/hadoop dfs -cat /newexample/example1.txt
D. bin/hdfs dfsadmin -ddir /newexample/example1.txt
A. Manajer Sumber Daya
B. Manajer Node
C. Master Aplikasi
D. Wadah
A. Mengubah
B. Garis komando
C. ObjectInspector
D. Penghematan
A. Ini menampilkan ringkasan panjang file.
B. Dalam hal file, ia menampilkan panjang file, sementara dalam kasus direktori, ia menampilkan ukuran file dan direktori yang ada di direktori itu.
C. Ini menampilkan jumlah file dalam direktori tertentu.
D. Ini menampilkan angka dan nama file yang ada di direktori tertentu.
A. Hanya i) dan iii)
B. Hanya ii) dan iv)
C. Hanya i), ii), dan iii)
D. Hanya i), iii), dan iv)
E. Semua i), ii), iii), dan iv)
A. mapreduce.task.io.sort.mb
B. io.record.sort.percent
C. MapReduce.partitioner.class
D. MapReduce.task.io.mb
A. Antarmuka Pigreducerestimator
B. Antarmuka Storefunc
C. Antarmuka filterfunc
D. Antarmuka Akumulator
A. DIPESAN OLEH
B. SORTIR DENGAN
C. Baik A atau B
D. Bukan dari salah satu di atas
A. Buat database MyData
B. Buat database mydata
C. Buat database MyData baru
D. Buat database baru mydata
A. Ini digunakan untuk memeriksa apakah semua perpustakaan tersedia.
B. Ini digunakan untuk memperluas wildcard.
C. Ini digunakan untuk menentukan manajer sumber daya.
D. Ini digunakan untuk memberikan nilai ke properti
A. Mode interaktif
B. Mode batch
C. Mode tertanam
D. Mode interaktif atau batch
A. Bytearray
B. Tas
C. Peta
D. Tuple
A. Ini memberikan wawasan tentang status aplikasi.
B. Ini menjamin restart pada kegagalan aplikasi dan perangkat keras.
C. Ini mengalokasikan sumber daya ke aplikasi yang berjalan di cluster.
D. Ini menangani aplikasi yang dikirimkan oleh klien.
A. Itu tidak memaksakan batasan pada skema dari dua dataset yang sedang digabungkan.
B. Ini menghilangkan duplikat tupel sambil menggabungkan kumpulan data.
C. Ini mempertahankan pemesanan tupel sambil menggabungkan kumpulan data.
D. Itu menggunakan kualifikasi Onschema untuk memberikan skema untuk hasilnya
A. Cogroup
B. Untuk setiap
C. Menyeberang
D. Persatuan
A. Perintah Hadoop [StreamingOptions]
B. Perintah ∼ Hadoop [GenericOptions] [StreamingOptions]
C. Perintah Hadoop [GenericOptions] [StreamingOptions]
D. Perintah ∼ Hadoop [StreamingOptions] [GenericOptions]
A. Join di sarang adalah komutatif.
B. Di Hive, lebih dari dua tabel dapat bergabung.
C. Tabel pertama yang berpartisipasi dalam gabungan dialirkan ke tugas pengurangan secara default.
D. Semua benar.
A. hdfs chgrp [pemilik] [: [grup]] [-r] & lt; filepath & gt; & lt; new-newroup & gt;
B. hdfs chgrp [-r] & lt; grup & gt; & lt; filepath & gt;
C. hdfs chgrp [-r] & lt; [grup [: [pemilik] & gt; & lt; filepath & gt;
D. hdfs chgrp & lt; grup & gt; & lt; filepath & gt; [-r] & lt; new-grup & gt;
E. hdfs chgrp & lt; grup & gt; [-r] & lt; new-grup & gt;
A. LevelDB berbasis toko negara
B. State-store berbasis sistem file
C. Tokoh-toko negara yang berbasis di luar zookeeper
D. Salah satu opsi A atau B dapat digunakan
A. Izin akses pengguna tidak diimplementasikan dalam HDFS.
B. Di HDFS, pengguna tidak diperbolehkan membuat direktori.
C. HDFS mendukung tautan keras.
D. HDFS mengimplementasikan kuota pengguna.
A. Touchz
B. ekor
C. teks
D. tes
A. Hadoop FS ∼ D Blocksize = 536870912 -Put abc.dat.txt ke abc.dat.newblock.txt
B. Hadoop fs.blocksize = 536870912 -put abc.dat.txt abc.dat.newblock.txt
C. HADOOP FS -D DFS.BLOCKSIZE = 536870912 -Put abc.dat.txt abc.dat.newblock.txt
D. Hadoop fs.blocksize −d = 536870912 -put abc.dat.txt ke abc.dat.newblock.txt
A. Ini digunakan untuk mengidentifikasi kelas yang akan digunakan oleh klien.
B. Ini digunakan untuk mendaftar ID logis yang digunakan oleh manajer sumber daya.
C. Ini digunakan untuk menentukan nama host yang sesuai untuk manajer sumber daya.
D. Ini digunakan untuk mengidentifikasi manajer sumber daya dalam ansambel.
A. Penskalaan dalam MapReduce adalah non-linear, sedangkan dalam RDBMS ini linier.
B. Di MapReduce, operasi yang dibaca dapat dilakukan berkali -kali tetapi operasi tulis hanya dapat dilakukan sekali. Dalam RDBM tradisional, baik operasi baca dan tulis dapat dilakukan berkali -kali.
C. Integritas MapReduce lebih tinggi dibandingkan dengan RDBMS.
D. Pola akses MapReduce adalah batch, sedangkan pola akses RDBMS bersifat interaktif dan batch
A. Ini mencegah manajer aplikasi dari menyediakan tautan ke situs eksternal berbahaya.
B. Ini mencegah pelaksanaan kode JavaScript berbahaya.
C. Ini melucuti cookie dari pengguna dan menggantinya dengan satu cookie, memberikan nama pengguna pengguna yang masuk.
D. Ini berjalan sebagai bagian dari sumber sumber daya tetapi tidak dapat dikonfigurasi untuk dijalankan dalam mode yang berdiri sendiri.
A. −Output DirectoryName
B. −cmdenv name = value
C. −merbiner streamingCommand
D. −Reducer JavaClassName
A. -file abc =/home/example/
B. −mapper abc =/home/inputreader/example/kamus/
C. −input abc =/home/directory/contoh
D. -cmdenv abc =/home/example/kamus/
A. Ini memberikan kinerja tinggi.
B. Itu dapat digunakan dengan mudah.
C. Itu sangat fleksibel.
D. Ini dapat melindungi terhadap perangkat lunak serta ancaman fisik.
A. HADOOP FS −CHMOD ABC 310
B. HADOOP FS −CHMOD 740 ABC
C. Hadoop FS ∼ChMod 420 ABC
D. HADOOP FS −CHMOD ABC ∼ 860
A. Membaca
B. Menulis
C. Mengeksekusi
D. Ketiga level izin diizinkan
A. Meninggalkan semi-join
B. Batin bergabung
C. Theta bergabung
D. Fuzzy Bergabung
A. Kinit
B. Klist
C. Ktutil
D. Mradmin
E. dfsadmin
A. yarn.timeline-service.ttl-enable
B. yarn.timeline-service.enabled
C. yarn.timeline-service.generic-application-history.enabled
D. yarn.timeline-service.recovery.enabled
A. Node Yarn -jar [Nama kelas utama] & lt; Jar File Path & gt; [Argumen…]
B. JAR YARN & LT; JAR FILE PATH & GT; [Nama kelas utama] [Argumen…]
C. Aplikasi Yarn -Jar [Nama kelas utama] & lt; Jar File Path & gt; [Argumen…]
D. Log benang jar & lt; Jar file path & gt; [Nama kelas utama] [Argumen…]
A. --config confdir
B. -Config. Konfigurasi Yarn
C. Daemonlog −gelevel
D. Daemonlog confdir
A. mengatur
B. atur −v
C. dfs
D. mengatur ulang
A. Ini digunakan untuk melaksanakan perintah DFS dari hive shell.
B. Ini digunakan untuk menjalankan perintah shell di dalam CLI.
C. Ini digunakan untuk mengeksekusi perintah shell dari hive shell.
D. Ini digunakan untuk menjalankan perintah DFS di dalam CLI.
A. Hanya i) dan iii)
B. Hanya i) dan ii)
C. Hanya i), ii), dan iv)
D. Semua i), ii), iii), dan iv)
A. yarn.resourcemanager.ha.rm-ids
B. Yarn.resourceManager.address.rm-id
C. yarn.resourcemanager.hostname.rm-id
D. yarn.resourcemanager.scheduler.address.rm-id
A. setgid
B. setFile
C. SetFattr
D. setquota
E. setConf
A. MENGGAMBARKAN
B. MENJELASKAN
C. MENJELASKAN
D. Baik A dan B
A. Paket $ MVN - PDOCS
B. $ MVN PDOCS
C. $ curl - mvn pdocs
D. $ CURL - MVN PDOCS - Paket
A. Security.client.datanode.protocol.acl
B. Security.namenode.protocol.acl
C. Security.client.protocol.acl
D. security.datanode.protocol.acl
A. 1 hari
B. 3 hari
C. 5 hari
D. 7 hari
A. org.apache.hadoop.security.authenticationInitializer nama kelas
B. org.apache.hadoop.security.shellbasedunixGroupsmapping nama kelas
C. org.apache.hadoop.security.ldapGroupsmapping kelas
D. org.apache.hadoop.security.ssl Nama kelas
A. chown
B. Chmod
C. chgrp
D. setowner
A. -I, --Pelputfile arg
B. -o, -outputfile arg
C. -p, -Processor Arg
D. -f,--fix-txids
A. Mapreduce
B. DATANODE
C. Quorumpeermain
D. Namenode
A. Ini membagi data input menjadi potongan logis dan memberikan masing -masing pemisahan ini ke tugas peta.
B. Ini membuat instantiasi objek RecordReader yang dapat bekerja pada setiap kelas InputSplit.
C. Ini menyajikan tampilan catatan data ke tugas peta dan dibaca dari kelas InputSplit.
D. Ini menghasilkan catatan untuk tugas peta sebagai pasangan nilai kunci.
A. [hdfs] $ $ hadoop_prefix/sbin/distribute-exclude.sh & lt; tidak termasuk_file & gt;
B. $ [Hadoop HDFS] SBIN/DISTRIBUTE-EXCLUDE.SH & LT; EXCLUDE_FILE & GT;
C. $ [dfsadmin, hdfs] $ hadoop_prefix/sbin/& lt; tidak termasuk_file & gt;/distribute-exclude.sh
D. [dfsadmin] $ $ hadoop_prefix/ sbin/ & lt; tidak termasuk_file & gt;/ distribute-exclude.sh
A. −u dan -v
B. −b dan −c
C. −c dan −U
D. −U dan −C
A. 72.000 detik
B. 18.000 detik
C. 64.000 detik
D. 36.000 detik
A. 0
B. 1
C. 2
D. 00
A. Stat
B. copyTolocal
C. CP
D. kucing
A. bin/hdfs dfsadmin −r
B. bin/hdfs dfsadmin −rapeport
C. bin/hdfs dfsadmin − -leport datasodes
D. Bin/HDFS DFSADMIN −R DataDes
A. containerids
B. wadah
C. negara
D. pengguna
E. aplikasi
A. int
B. rangkaian
C. panjang
D. Bigint
A. Fsdatainputstream
B. Linereader
C. Berkas sistem
D. Recordreader
A. MENJELASKAN
B. Ratakan
C. Cogroup
D. MENYEBERANG
A. MapSystem
B. MapReduce
C. MapCluster
D. Komponen peta
A. Kunci terakhir
B. Nilai akhir
C. Kunci menengah
D. Nilai perantara
A. Persatuan berbeda, peringkat
B. Lebih, peringkat
C. Lebih, kecuali
D. Persatuan berbeda, peringkat
A. Tambahkan shuffle yang dipartisi ke pekerjaan peta.
B. Tambahkan shuffle yang dipartisi ke pekerjaan pengurangan.
C. Pecahkan pengurangan pekerjaan menjadi banyak, dirantai mengurangi pekerjaan.
D. Pecahkan pekerjaan pengurangan menjadi beberapa pekerjaan peta dirantai.
A. Http terenkripsi
B. Http yang tidak ditandatangani
C. Http terkompresi
D. Ditandatangani http
A. Java atau Python
B. SQL saja
C. SQL atau Java
D. Python atau SQL
A. Peredam
B. Combiner
C. Mapper
D. Menangkal
A. Berhasil; Syslog
B. Berhasil; stdout
C. SELESAI; Syslog
D. SELESAI; stdout
A. Public void mengurangi (kunci teks, nilai iterator, konteks konteks) {...}
B. Public static void reduksi (kunci teks, nilai -nilai yang tidak dapat tertulis [], konteks konteks) {...}
C. Public static void mengurangi (kunci teks, nilai iterator, konteks konteks) {...}
D. Void public reduksi (kunci teks, nilai -nilai yang tidak dapat dituntun [], konteks konteks) {...}
A. FileInputFormatCounter
B. FilesystemCounter
C. JobCounter
D. TaskCounter (tidak yakin)
A. A, p
B. C, a
C. C, p
D. C, a, p
A. Menggabungkan, memetakan, dan mengurangi
B. Mengocok, menyortir, dan mengurangi
C. Kurangi, urutkan, dan gabungkan
D. Peta, urutkan, dan gabungkan
A. Oozie; open source
B. Oozie; perangkat lunak komersial
C. Penjaga kebun binatang; perangkat lunak komersial
D. Penjaga kebun binatang; sumber terbuka
A. Data
B. Nama
C. Penyimpanan
D. Pekerja
A. hot swappable
B. SWappable Dingin
C. Swappable hangat
D. Non-Swappable
A. Di disk semua pekerja
B. Pada disk dari node utama
C. Dalam Memori Node Master
D. Untuk mengenang semua pekerja
A. Pada node reduser dari cluster
B. Pada node data cluster (tidak yakin)
C. Di node utama cluster
D. Di setiap node cluster
A. Cache terdistribusi
B. Cache lokal
C. Cache yang dipartisi
D. Cache cluster
A. Input cache
B. Input peredam
C. Nilai perantara
D. Input peta
A. Spark Impor --Connect JDBC: mysql: //mysql.example.com/spark --username spark-warehouse-dire pengguna/hue/oozie/penyebaran/spark
B. SQOOP Impor --Connect JDBC: MySQL: //MySQL.Example.com/sqoop --UserName Sqoop-Warehouse-Dir User/Hue/Oozie/Deployments/Sqoop
C. Impor Sqoop --Connect JDBC: mysql: //mysql.example.com/sqoop --username sqoop --password sqoop-warehouse-muber/hue/oozie/deployments/sqoop
D. Spark Impor --Connect JDBC: mysql: //mysql.example.com/spark --username spark --password spark-warehouse-dir user/hue/oozie/deployments/spark
A. Terkompresi (tidak yakin)
B. Diurutkan
C. Tidak disortir
D. Terenkripsi
A. Junit
B. Xunit
C. Mrunit
D. Hadoopunit
A. Hadoop-User
B. Super-pengguna
C. Pengguna Node
D. Admin-User
A. Dapat dikonfigurasi untuk dibagikan
B. Sebagian dibagikan
C. Dibagikan
D. Tidak dibagikan (https://www.lynda.com/hadoop-tutorials/understanding-java-virtual-machines-jvms/191942/369545-4.html)
A. Metode pekerjaan statis ()
B. Kelas pekerjaan dan contoh (tidak yakin)
C. Metode pekerjaan ()
D. Kelas Pekerjaan Statis
A. S3a
B. S3n
C. S3
D. EMR S3
A. Skema yang ditulis
B. Tidak ada skema
C. Skema eksternal
D. Skema di Baca
A. Baca tulis
B. Hanya baca
C. Hanya menulis
D. Tambahkan saja
A. HDFS atau TOP
B. Http
C. Hdfs atau http
D. HDFS
A. Sarang lebah
B. Babi
C. Impala
D. Sais gajah
A. Tabel relasional
B. Pembaruan ke file input
C. Daftar gabungan tunggal
D. Satu set <key, value> pair
A. File dalam penyimpanan objek
B. Data grafik dalam database grafik
C. Data relasional dalam sistem RDBMS yang dikelola
D. Data JSON di database NoSQL
A. Mode Data
B. Mode aman
C. Mode pengguna tunggal
D. Mode yang didistribusikan pseudo
A. <key, value> pair
B. Kunci
C. Nilai
D. <nilai, kunci> pasangan
A. Rata -rata kunci untuk nilai
B. Jumlah kunci untuk nilai
C. Satu set kunci/nilai kunci menengah
D. Satu set pasangan kunci/nilai akhir
A. Pilih… Where Value = 1000
B. Pilih ... Batasi 1000
C. Pilih Top 1000…
D. Pilih Max 1000…