Soal hadoop bahasa indonesia

Soal hadoop bahasa indonesia

Pertanyaan dan jawaban pilihan ganda Hadoop akan membantu Anda memahami Hadoop dengan lebih baik. Bersiaplah untuk tes atau wawancara Anda berikutnya dengan 100+ soal pilihan ganda Hadoop.
Gulir ke bawah untuk memulai dengan jawabannya.

1: Manakah dari berikut ini yang merupakan sintaks yang benar untuk perintah yang digunakan untuk mengatur replikasi untuk file yang ada di Hadoop WebHDFS REST API?

A.   SetReplikasi (Replikasi String, Path P, Izin FSpermisi)

B.   SetReplikasi (izin fspermission, replikasi pendek)

C.   setReplikasi (replikasi string, jalur p)

D.   setReplikasi (jalur src, replikasi pendek)

2: Di babi, manakah dari jenis operasi gabungan berikut yang dapat dilakukan dengan menggunakan gabungan yang direplikasi? I) joinii dalam) joiniii luar) gabung-outer kanan) gabungan-kidal

A.   Hanya i) dan ii)

B.   Hanya ii) dan iii)

C.   Hanya aku) dan iv)

D.   Hanya iii) dan iv)

E.   Hanya i), ii), dan iii)

3: Manakah dari berikut ini adalah proses master yang menerima pengajuan pekerjaan dari klien dan menjadwalkan tugas untuk dijalankan pada node pekerja?

A.   Tasktracker

B.   JobTracker

C.   BENANG

D.   Manajer Node

4: Manakah dari variabel lingkungan berikut yang digunakan untuk menentukan cluster Hadoop untuk babi, untuk menjalankan pekerjaan MapReduce?

A.   Yarn_conf_dir

B.   HADOOP_PREFIX

C.   Hadoop_conf_dir

D.   HADOOP_HOME

5: Manakah dari perintah HDFS berikut yang digunakan untuk memeriksa ketidakkonsistenan dan melaporkan masalah dengan berbagai file?

A.   fetchdt

B.   dfs

C.   oiv

D.   fsck

6: Manakah dari perintah berikut yang digunakan untuk melihat konten file bernama /NewExample/example1.txt?

A.   bin/hdfs dfs −cat /newexample/example1.txt

B.   bin/hadoop dfsadmin -ddir /newexample/example1.txt

C.   bin/hadoop dfs -cat /newexample/example1.txt

D.   bin/hdfs dfsadmin -ddir /newexample/example1.txt

7: Dalam arsitektur Hadoop, mana dari komponen berikut yang bertanggung jawab untuk perencanaan dan pelaksanaan satu pekerjaan?

A.   Manajer Sumber Daya

B.   Manajer Node

C.   Master Aplikasi

D.   Wadah

8: Manakah dari antarmuka berikut yang digunakan untuk mengakses Hive Metastore?

A.   Mengubah

B.   Garis komando

C.   ObjectInspector

D.   Penghematan

9: Apa fungsi dari perintah Hadoop berikut? DU

A.   Ini menampilkan ringkasan panjang file.

B.   Dalam hal file, ia menampilkan panjang file, sementara dalam kasus direktori, ia menampilkan ukuran file dan direktori yang ada di direktori itu.

C.   Ini menampilkan jumlah file dalam direktori tertentu.

D.   Ini menampilkan angka dan nama file yang ada di direktori tertentu.

10: Di Hadoop, snapshot HDFS diambil untuk alasan berikut? I) Untuk memberikan perlindungan terhadap kesalahan pengguna.ii) untuk menyediakan cadangan.iii) untuk pemulihan bencana.iv) untuk menyalin data dari node data.

A.   Hanya i) dan iii)

B.   Hanya ii) dan iv)

C.   Hanya i), ii), dan iii)

D.   Hanya i), iii), dan iv)

E.   Semua i), ii), iii), dan iv)

11: Sebelum dimasukkan ke disk, catatan output menengah yang dipancarkan oleh tugas peta disangga dalam memori lokal, menggunakan buffer melingkar. Manakah dari properti berikut yang digunakan untuk mengonfigurasi ukuran buffer melingkar ini?

A.   mapreduce.task.io.sort.mb

B.   io.record.sort.percent

C.   MapReduce.partitioner.class

D.   MapReduce.task.io.mb

12: Manakah dari antarmuka berikut yang dapat mengurangi jumlah memori yang dibutuhkan oleh UDF, dengan menerima input dalam potongan?

A.   Antarmuka Pigreducerestimator

B.   Antarmuka Storefunc

C.   Antarmuka filterfunc

D.   Antarmuka Akumulator

13: Manakah dari klausa sarang berikut yang harus digunakan untuk memaksakan urutan total pada hasil kueri?

A.   DIPESAN OLEH

B.   SORTIR DENGAN

C.   Baik A atau B

D.   Bukan dari salah satu di atas

14: Manakah dari perintah Hive berikut yang digunakan untuk membuat database bernama MyData?

A.   Buat database MyData

B.   Buat database mydata

C.   Buat database MyData baru

D.   Buat database baru mydata

15: Manakah dari opsi yang diberikan adalah fungsi dari perintah Hadoop berikut? -A

A.   Ini digunakan untuk memeriksa apakah semua perpustakaan tersedia.

B.   Ini digunakan untuk memperluas wildcard.

C.   Ini digunakan untuk menentukan manajer sumber daya.

D.   Ini digunakan untuk memberikan nilai ke properti

16: Di mana dari mode eksekusi babi berikut, program Java mampu memohon perintah babi dengan mengimpor perpustakaan babi?

A.   Mode interaktif

B.   Mode batch

C.   Mode tertanam

D.   Mode interaktif atau batch

17: Manakah dari tipe data babi yang diberikan yang memiliki karakteristik berikut? I) Ini adalah kumpulan nilai data.ii) Nilai data ini dipesan dan memiliki panjang tetap.

A.   Bytearray

B.   Tas

C.   Peta

D.   Tuple

18: Manakah dari fungsi berikut yang dilakukan oleh penjadwal manajer sumber daya dalam arsitektur benang?

A.   Ini memberikan wawasan tentang status aplikasi.

B.   Ini menjamin restart pada kegagalan aplikasi dan perangkat keras.

C.   Ini mengalokasikan sumber daya ke aplikasi yang berjalan di cluster.

D.   Ini menangani aplikasi yang dikirimkan oleh klien.

19: Manakah dari berikut ini adalah karakteristik operator serikat babi?

A.   Itu tidak memaksakan batasan pada skema dari dua dataset yang sedang digabungkan.

B.   Ini menghilangkan duplikat tupel sambil menggabungkan kumpulan data.

C.   Ini mempertahankan pemesanan tupel sambil menggabungkan kumpulan data.

D.   Itu menggunakan kualifikasi Onschema untuk memberikan skema untuk hasilnya

20: Manakah dari operator berikut yang perlu digunakan untuk Theta-Join?

A.   Cogroup

B.   Untuk setiap

C.   Menyeberang

D.   Persatuan

21: Manakah dari berikut ini yang merupakan sintaks perintah baris yang benar dari perintah streaming Hadoop?

A.   Perintah Hadoop [StreamingOptions]

B.   Perintah ∼ Hadoop [GenericOptions] [StreamingOptions]

C.   Perintah Hadoop [GenericOptions] [StreamingOptions]

D.   Perintah ∼ Hadoop [StreamingOptions] [GenericOptions]

22: Manakah dari pernyataan berikut yang benar tentang hive gabungan?

A.   Join di sarang adalah komutatif.

B.   Di Hive, lebih dari dua tabel dapat bergabung.

C.   Tabel pertama yang berpartisipasi dalam gabungan dialirkan ke tugas pengurangan secara default.

D.   Semua benar.

23: Manakah dari berikut ini yang digunakan untuk mengubah kelompok file?

A.   hdfs chgrp [pemilik] [: [grup]] [-r] & lt; filepath & gt; & lt; new-newroup & gt;

B.   hdfs chgrp [-r] & lt; grup & gt; & lt; filepath & gt;

C.   hdfs chgrp [-r] & lt; [grup [: [pemilik] & gt; & lt; filepath & gt;

D.   hdfs chgrp & lt; grup & gt; & lt; filepath & gt; [-r] & lt; new-grup & gt;

E.   hdfs chgrp & lt; grup & gt; [-r] & lt; new-grup & gt;

24: Misalkan Anda perlu memilih sistem penyimpanan yang mendukung manajer sumber daya ketersediaan tinggi (RM HA). Manakah dari jenis penyimpanan berikut yang harus dipilih dalam kasus ini?

A.   LevelDB berbasis toko negara

B.   State-store berbasis sistem file

C.   Tokoh-toko negara yang berbasis di luar zookeeper

D.   Salah satu opsi A atau B dapat digunakan

25: Manakah dari pernyataan berikut yang benar tentang namespace sistem file Hadoop?

A.   Izin akses pengguna tidak diimplementasikan dalam HDFS.

B.   Di HDFS, pengguna tidak diperbolehkan membuat direktori.

C.   HDFS mendukung tautan keras.

D.   HDFS mengimplementasikan kuota pengguna.

26: Manakah dari perintah Hadoop berikut yang digunakan untuk membuat file dengan panjang nol?

A.   Touchz

B.   ekor

C.   teks

D.   tes

27: Pertimbangkan file input bernama ABC.Dat.txt dengan ukuran blok default 128 MB. Manakah dari berikut ini yang merupakan perintah yang benar yang akan mengunggah file ini ke HDFS, dengan ukuran blok 512 MB?

A.   Hadoop FS ∼ D Blocksize = 536870912 -Put abc.dat.txt ke abc.dat.newblock.txt

B.   Hadoop fs.blocksize = 536870912 -put abc.dat.txt abc.dat.newblock.txt

C.   HADOOP FS -D DFS.BLOCKSIZE = 536870912 -Put abc.dat.txt abc.dat.newblock.txt

D.   Hadoop fs.blocksize −d = 536870912 -put abc.dat.txt ke abc.dat.newblock.txt

28: Apa fungsi dari properti konfigurasi berikut dari manajer sumber daya benang? Yarn.resourcemanager.ha.id

A.   Ini digunakan untuk mengidentifikasi kelas yang akan digunakan oleh klien.

B.   Ini digunakan untuk mendaftar ID logis yang digunakan oleh manajer sumber daya.

C.   Ini digunakan untuk menentukan nama host yang sesuai untuk manajer sumber daya.

D.   Ini digunakan untuk mengidentifikasi manajer sumber daya dalam ansambel.

29: Dua dari berikut ini yang merupakan perbedaan yang benar antara MapReduce dan RDBM tradisional?

A.   Penskalaan dalam MapReduce adalah non-linear, sedangkan dalam RDBMS ini linier.

B.   Di MapReduce, operasi yang dibaca dapat dilakukan berkali -kali tetapi operasi tulis hanya dapat dilakukan sekali. Dalam RDBM tradisional, baik operasi baca dan tulis dapat dilakukan berkali -kali.

C.   Integritas MapReduce lebih tinggi dibandingkan dengan RDBMS.

D.   Pola akses MapReduce adalah batch, sedangkan pola akses RDBMS bersifat interaktif dan batch

30: Manakah dari pernyataan berikut yang benar tentang proxy aplikasi web benang?

A.   Ini mencegah manajer aplikasi dari menyediakan tautan ke situs eksternal berbahaya.

B.   Ini mencegah pelaksanaan kode JavaScript berbahaya.

C.   Ini melucuti cookie dari pengguna dan menggantinya dengan satu cookie, memberikan nama pengguna pengguna yang masuk.

D.   Ini berjalan sebagai bagian dari sumber sumber daya tetapi tidak dapat dikonfigurasi untuk dijalankan dalam mode yang berdiri sendiri.

31: Dua parameter manakah dari perintah streaming Hadoop yang opsional?

A.   −Output DirectoryName

B.   −cmdenv name = value

C.   −merbiner streamingCommand

D.   −Reducer JavaClassName

32: Manakah dari perintah berikut yang digunakan untuk mengatur variabel lingkungan dalam perintah streaming?

A.   -file abc =/home/example/

B.   −mapper abc =/home/inputreader/example/kamus/

C.   −input abc =/home/directory/contoh

D.   -cmdenv abc =/home/example/kamus/

33: Manakah dari berikut ini yang merupakan keuntungan dari enkripsi tingkat disk dalam HDF?

A.   Ini memberikan kinerja tinggi.

B.   Itu dapat digunakan dengan mudah.

C.   Itu sangat fleksibel.

D.   Ini dapat melindungi terhadap perangkat lunak serta ancaman fisik.

34: Untuk file bernama ABC, manakah dari perintah Hadoop berikut yang digunakan untuk mengatur semua izin untuk pemilik, mengatur izin baca untuk grup, dan tidak mengatur izin untuk pengguna lain dalam sistem?

A.   HADOOP FS −CHMOD ABC 310

B.   HADOOP FS −CHMOD 740 ABC

C.   Hadoop FS ∼ChMod 420 ABC

D.   HADOOP FS −CHMOD ABC ∼ 860

35: Manakah dari tingkat izin berikut yang tidak diizinkan dalam otorisasi HDFS?

A.   Membaca

B.   Menulis

C.   Mengeksekusi

D.   Ketiga level izin diizinkan

36: Manakah dari operasi gabungan berikut yang tidak didukung oleh Hive?

A.   Meninggalkan semi-join

B.   Batin bergabung

C.   Theta bergabung

D.   Fuzzy Bergabung

37: Manakah dari perintah berikut yang digunakan untuk membuat file keytab yang digunakan dalam otentikasi Kerberos?

A.   Kinit

B.   Klist

C.   Ktutil

D.   Mradmin

E.   dfsadmin

38: Manakah dari berikut ini yang merupakan properti konfigurasi sisi server canggih dari benang yang digunakan untuk memungkinkan penghapusan data tua yang ada di toko waktu?

A.   yarn.timeline-service.ttl-enable

B.   yarn.timeline-service.enabled

C.   yarn.timeline-service.generic-application-history.enabled

D.   yarn.timeline-service.recovery.enabled

39: Untuk menjalankan file jar yang dibuat khusus, perintah JAR digunakan. Manakah dari berikut ini yang merupakan sintaks yang benar dari perintah ini?

A.   Node Yarn -jar [Nama kelas utama] & lt; Jar File Path & gt; [Argumen…]

B.   JAR YARN & LT; JAR FILE PATH & GT; [Nama kelas utama] [Argumen…]

C.   Aplikasi Yarn -Jar [Nama kelas utama] & lt; Jar File Path & gt; [Argumen…]

D.   Log benang jar & lt; Jar file path & gt; [Nama kelas utama] [Argumen…]

40: Manakah dari perintah benang berikut yang digunakan untuk menimpa direktori konfigurasi default $ {hadoop_prefix}/conf?

A.   --config confdir

B.   -Config. Konfigurasi Yarn

C.   Daemonlog −gelevel

D.   Daemonlog confdir

41: Manakah dari perintah HiveQL berikut yang digunakan untuk mencetak daftar variabel konfigurasi yang ditimpa oleh Hive atau pengguna?

A.   mengatur

B.   atur −v

C.   dfs

D.   mengatur ulang

42: Manakah dari opsi yang diberikan adalah fungsi yang benar dari perintah HiveQL berikut?!

A.   Ini digunakan untuk melaksanakan perintah DFS dari hive shell.

B.   Ini digunakan untuk menjalankan perintah shell di dalam CLI.

C.   Ini digunakan untuk mengeksekusi perintah shell dari hive shell.

D.   Ini digunakan untuk menjalankan perintah DFS di dalam CLI.

43: Manakah dari berikut ini yang merupakan fungsi dari Hadoop? I) Data Searchii) Retensiii Data) SystemsIV) Analytics

A.   Hanya i) dan iii)

B.   Hanya i) dan ii)

C.   Hanya i), ii), dan iv)

D.   Semua i), ii), iii), dan iv)

44: Manakah dari sifat konfigurasi berikut dari Manajer Sumber Daya Benang yang digunakan untuk menentukan host: port untuk klien untuk mengirimkan pekerjaan?

A.   yarn.resourcemanager.ha.rm-ids

B.   Yarn.resourceManager.address.rm-id

C.   yarn.resourcemanager.hostname.rm-id

D.   yarn.resourcemanager.scheduler.address.rm-id

45: Manakah dari perintah HDFS berikut yang digunakan untuk mengatur nama dan nilai atribut yang diperluas untuk file atau direktori?

A.   setgid

B.   setFile

C.   SetFattr

D.   setquota

E.   setConf

46: Manakah dari perintah babi berikut yang digunakan untuk mencicipi data dan menerapkan kueri di atasnya?

A.   MENGGAMBARKAN

B.   MENJELASKAN

C.   MENJELASKAN

D.   Baik A dan B

47: Manakah dari berikut ini yang merupakan sintaks yang benar untuk profil Maven Docs yang digunakan untuk membuat dokumentasi di Hadoop Auth?

A.   Paket $ MVN - PDOCS

B.   $ MVN PDOCS

C.   $ curl - mvn pdocs

D.   $ CURL - MVN PDOCS - Paket

48: Dalam hal otorisasi tingkat layanan di Hadoop, manakah dari properti berikut yang digunakan untuk menentukan ace yang digunakan untuk memberikan izin bagi data untuk berkomunikasi dan mengakses namenode?

A.   Security.client.datanode.protocol.acl

B.   Security.namenode.protocol.acl

C.   Security.client.protocol.acl

D.   security.datanode.protocol.acl

49: Apa nilai default dari properti konfigurasi keamanan berikut dari arsitektur benang? Yarn.timeline-service.delegation.token.renew-interval

A.   1 hari

B.   3 hari

C.   5 hari

D.   7 hari

50: Saat mengkonfigurasi otentikasi HTTP di Hadoop, manakah dari berikut ini yang ditetapkan sebagai nilai properti "Hadoop.http.filter.initializers"?

A.   org.apache.hadoop.security.authenticationInitializer nama kelas

B.   org.apache.hadoop.security.shellbasedunixGroupsmapping nama kelas

C.   org.apache.hadoop.security.ldapGroupsmapping kelas

D.   org.apache.hadoop.security.ssl Nama kelas

51: Manakah dari perintah shell HDFS berikut yang digunakan untuk mengatur grup untuk file atau direktori tertentu?

A.   chown

B.   Chmod

C.   chgrp

D.   setowner

52: Manakah dari berikut ini yang merupakan argumen baris perintah yang diperlukan untuk perintah OEV HDFS?

A.   -I, --Pelputfile arg

B.   -o, -outputfile arg

C.   -p, -Processor Arg

D.   -f,--fix-txids

53: Manakah dari berikut ini adalah layanan direktori Hadoop yang menyimpan metadata yang terkait dengan file yang ada di penyimpanan cluster?

A.   Mapreduce

B.   DATANODE

C.   Quorumpeermain

D.   Namenode

54: Manakah dari fungsi berikut yang tidak dilakukan oleh kelas InputFormat untuk pekerjaan MapReduce Hadoop?

A.   Ini membagi data input menjadi potongan logis dan memberikan masing -masing pemisahan ini ke tugas peta.

B.   Ini membuat instantiasi objek RecordReader yang dapat bekerja pada setiap kelas InputSplit.

C.   Ini menyajikan tampilan catatan data ke tugas peta dan dibaca dari kelas InputSplit.

D.   Ini menghasilkan catatan untuk tugas peta sebagai pasangan nilai kunci.

55: Manakah dari perintah berikut yang digunakan untuk mendistribusikan file yang dikecualikan ke semua namenodes?

A.   [hdfs] $ $ hadoop_prefix/sbin/distribute-exclude.sh & lt; tidak termasuk_file & gt;

B.   $ [Hadoop HDFS] SBIN/DISTRIBUTE-EXCLUDE.SH & LT; EXCLUDE_FILE & GT;

C.   $ [dfsadmin, hdfs] $ hadoop_prefix/sbin/& lt; tidak termasuk_file & gt;/distribute-exclude.sh

D.   [dfsadmin] $ $ hadoop_prefix/ sbin/ & lt; tidak termasuk_file & gt;/ distribute-exclude.sh

A.   −u dan -v

B.   −b dan −c

C.   −c dan −U

D.   −U dan −C

57: Berapa nilai default dari Hadoop.http.authentication.token.validity Properti yang digunakan dalam kasus otentikasi melalui antarmuka http?

A.   72.000 detik

B.   18.000 detik

C.   64.000 detik

D.   36.000 detik

58: Dalam hal eksekusi multi -banyak, manakah dari kode pengembalian berikut yang menunjukkan kesalahan yang dapat diambil untuk eksekusi?

A.   0

B.   1

C.   2

D.   00

59: Manakah dari perintah Hadoop berikut yang digunakan untuk menyalin jalur sumber ke stdout?

A.   Stat

B.   copyTolocal

C.   CP

D.   kucing

60: Manakah dari perintah hadoop dfsadmin berikut yang menghasilkan daftar data?

A.   bin/hdfs dfsadmin −r

B.   bin/hdfs dfsadmin −rapeport

C.   bin/hdfs dfsadmin − -leport datasodes

D.   Bin/HDFS DFSADMIN −R DataDes

61: Manakah dari berikut ini yang bukan properti dari objek aplikasi (aplikasi) dari Nodemanager REST API?

A.   containerids

B.   wadah

C.   negara

D.   pengguna

E.   aplikasi

62: Manakah dari berikut ini yang merupakan tipe data yang benar dari elemen "TotalMB" dari objek clustermetrics yang digunakan dalam API REST YARN ResourceManager REST?

A.   int

B.   rangkaian

C.   panjang

D.   Bigint

63: Manakah dari objek berikut yang digunakan oleh kelas RecordReader untuk membaca data dari kelas InputSplit?

A.   Fsdatainputstream

B.   Linereader

C.   Berkas sistem

D.   Recordreader

64: Manakah dari operator berikut yang digunakan untuk tidak bersarang tupel dan tas bersarang?

A.   MENJELASKAN

B.   Ratakan

C.   Cogroup

D.   MENYEBERANG

65: Kerangka Hadoop terdiri dari algoritma ________ untuk menyelesaikan masalah skala besar.

A.   MapSystem

B.   MapReduce

C.   MapCluster

D.   Komponen peta

66: Partisi mengontrol partisi data apa?

A.   Kunci terakhir

B.   Nilai akhir

C.   Kunci menengah

D.   Nilai perantara

67: Fungsi Windowing SQL diimplementasikan di Hive menggunakan kata kunci yang mana?

A.   Persatuan berbeda, peringkat

B.   Lebih, peringkat

C.   Lebih, kecuali

D.   Persatuan berbeda, peringkat

68: Daripada menambahkan jenis sekunder ke pekerjaan pengurangan yang lambat, itu adalah praktik terbaik Hadoop untuk melakukan optimasi yang mana?

A.   Tambahkan shuffle yang dipartisi ke pekerjaan peta.

B.   Tambahkan shuffle yang dipartisi ke pekerjaan pengurangan.

C.   Pecahkan pengurangan pekerjaan menjadi banyak, dirantai mengurangi pekerjaan.

D.   Pecahkan pekerjaan pengurangan menjadi beberapa pekerjaan peta dirantai.

A.   Http terenkripsi

B.   Http yang tidak ditandatangani

C.   Http terkompresi

D.   Ditandatangani http

70: Pekerjaan MapReduce dapat ditulis dalam bahasa mana?

A.   Java atau Python

B.   SQL saja

C.   SQL atau Java

D.   Python atau SQL

71: Untuk melakukan agregasi lokal dari output menengah, pengguna MapReduce dapat secara opsional menentukan objek mana?

A.   Peredam

B.   Combiner

C.   Mapper

D.   Menangkal

72: Untuk memverifikasi status pekerjaan, cari nilai ___ di ___.

A.   Berhasil; Syslog

B.   Berhasil; stdout

C.   SELESAI; Syslog

D.   SELESAI; stdout

73: Baris kode mana yang mengimplementasikan metode peredam di MapReduce 2.0?

A.   Public void mengurangi (kunci teks, nilai iterator, konteks konteks) {...}

B.   Public static void reduksi (kunci teks, nilai -nilai yang tidak dapat tertulis [], konteks konteks) {...}

C.   Public static void mengurangi (kunci teks, nilai iterator, konteks konteks) {...}

D.   Void public reduksi (kunci teks, nilai -nilai yang tidak dapat dituntun [], konteks konteks) {...}

74: Untuk mendapatkan jumlah total catatan input yang dipetakan dalam tugas pekerjaan peta, Anda harus meninjau nilai penghitung yang mana?

A.   FileInputFormatCounter

B.   FilesystemCounter

C.   JobCounter

D.   TaskCounter (tidak yakin)

75: Hadoop Core mendukung kemampuan tutup yang mana?

A.   A, p

B.   C, a

C.   C, p

D.   C, a, p

76: Apa fase utama peredam?

A.   Menggabungkan, memetakan, dan mengurangi

B.   Mengocok, menyortir, dan mengurangi

C.   Kurangi, urutkan, dan gabungkan

D.   Peta, urutkan, dan gabungkan

77: Untuk mengatur alur kerja Hadoop dengan sinkronisasi data antara pekerjaan yang memproses tugas baik pada disk dan dalam memori, gunakan layanan ___, yaitu ___.

A.   Oozie; open source

B.   Oozie; perangkat lunak komersial

C.   Penjaga kebun binatang; perangkat lunak komersial

D.   Penjaga kebun binatang; sumber terbuka

78: Untuk ketersediaan tinggi, gunakan beberapa node dari jenis apa?

A.   Data

B.   Nama

C.   Penyimpanan

D.   Pekerja

79: Datasode mendukung jenis drive apa?

A.   hot swappable

B.   SWappable Dingin

C.   Swappable hangat

D.   Non-Swappable

80: Metode mana yang digunakan untuk mengimplementasikan pekerjaan percikan?

A.   Di disk semua pekerja

B.   Pada disk dari node utama

C.   Dalam Memori Node Master

D.   Untuk mengenang semua pekerja

81: Dalam pekerjaan MapReduce, di mana fungsi MAP () berjalan?

A.   Pada node reduser dari cluster

B.   Pada node data cluster (tidak yakin)

C.   Di node utama cluster

D.   Di setiap node cluster

82: Untuk merujuk file master untuk pencarian selama pemetaan, jenis cache apa yang harus digunakan?

A.   Cache terdistribusi

B.   Cache lokal

C.   Cache yang dipartisi

D.   Cache cluster

83: Lewati catatan buruk menyediakan opsi di mana satu set catatan input yang buruk dapat dilewati saat memproses jenis data apa?

A.   Input cache

B.   Input peredam

C.   Nilai perantara

D.   Input peta

84: Perintah mana yang mengimpor data ke Hadoop dari database MySQL?

A.   Spark Impor --Connect JDBC: mysql: //mysql.example.com/spark --username spark-warehouse-dire pengguna/hue/oozie/penyebaran/spark

B.   SQOOP Impor --Connect JDBC: MySQL: //MySQL.Example.com/sqoop --UserName Sqoop-Warehouse-Dir User/Hue/Oozie/Deployments/Sqoop

C.   Impor Sqoop --Connect JDBC: mysql: //mysql.example.com/sqoop --username sqoop --password sqoop-warehouse-muber/hue/oozie/deployments/sqoop

D.   Spark Impor --Connect JDBC: mysql: //mysql.example.com/spark --username spark --password spark-warehouse-dir user/hue/oozie/deployments/spark

85: Dalam bentuk apa output peredam disajikan?

A.   Terkompresi (tidak yakin)

B.   Diurutkan

C.   Tidak disortir

D.   Terenkripsi

86: Perpustakaan mana yang harus digunakan untuk uji unit kode MapReduce?

A.   Junit

B.   Xunit

C.   Mrunit

D.   Hadoopunit

87: Jika Anda memulai namenode, maka Anda harus menjadi pengguna seperti apa?

A.   Hadoop-User

B.   Super-pengguna

C.   Pengguna Node

D.   Admin-User

88: Status _ antara JVM dalam pekerjaan MapReduce

A.   Dapat dikonfigurasi untuk dibagikan

B.   Sebagian dibagikan

C.   Dibagikan

D.   Tidak dibagikan (https://www.lynda.com/hadoop-tutorials/understanding-java-virtual-machines-jvms/191942/369545-4.html)

89: Untuk membuat pekerjaan MapReduce, apa yang harus dikodekan terlebih dahulu?

A.   Metode pekerjaan statis ()

B.   Kelas pekerjaan dan contoh (tidak yakin)

C.   Metode pekerjaan ()

D.   Kelas Pekerjaan Statis

90: Untuk menghubungkan Hadoop ke AWS S3, klien mana yang harus Anda gunakan?

A.   S3a

B.   S3n

C.   S3

D.   EMR S3

91: HBase bekerja dengan jenis penegakan skema apa?

A.   Skema yang ditulis

B.   Tidak ada skema

C.   Skema eksternal

D.   Skema di Baca

92: File HDFS adalah jenis apa?

A.   Baca tulis

B.   Hanya baca

C.   Hanya menulis

D.   Tambahkan saja

93: Jalur file cache terdistribusi dapat berasal dari lokasi apa?

A.   HDFS atau TOP

B.   Http

C.   Hdfs atau http

D.   HDFS

94: Perpustakaan mana yang harus Anda gunakan untuk melakukan pekerjaan MapReduce tipe ETL?

A.   Sarang lebah

B.   Babi

C.   Impala

D.   Sais gajah

95: Apa output dari peredam?

A.   Tabel relasional

B.   Pembaruan ke file input

C.   Daftar gabungan tunggal

D.   Satu set <key, value> pair

96: Ketika diimplementasikan di cloud publik, dengan apa yang berinteraksi dengan Hadoop Processing?

A.   File dalam penyimpanan objek

B.   Data grafik dalam database grafik

C.   Data relasional dalam sistem RDBMS yang dikelola

D.   Data JSON di database NoSQL

97: Dalam sistem Hadoop, mode administrasi apa yang digunakan untuk pemeliharaan?

A.   Mode Data

B.   Mode aman

C.   Mode pengguna tunggal

D.   Mode yang didistribusikan pseudo

98: Dalam format apa RecordWriter menulis file output?

A.   <key, value> pair

B.   Kunci

C.   Nilai

D.   <nilai, kunci> pasangan

99: Untuk apa pasangan input/nilai input peta mapper?

A.   Rata -rata kunci untuk nilai

B.   Jumlah kunci untuk nilai

C.   Satu set kunci/nilai kunci menengah

D.   Satu set pasangan kunci/nilai akhir

100: Permintaan sarang mana yang mengembalikan 1.000 nilai pertama?

A.   Pilih… Where Value = 1000

B.   Pilih ... Batasi 1000

C.   Pilih Top 1000…

D.   Pilih Max 1000…