Domande Hadoop in lingua italiana

Domande Hadoop in lingua italiana

Queste domande e risposte a scelta multipla di Hadup ti aiuteranno a capire meglio Hadup. Preparati per il tuo prossimo esame o colloquio con oltre 100 MCQ di Hadoop.
Scorri verso il basso per iniziare a rispondere.

1: Quale delle seguenti è la sintassi corretta per il comando utilizzato per l'impostazione della replica per un file esistente nell'API REST WebHDFS Hadoop?

A.   setReplication (replica della stringa, percorso P, autorizzazione di FSPermission)

B.   setReplication (autorizzazione FSPermission, Short Replication)

C.   setReplication (replica della stringa, percorso P)

D.   setReplication (Path Src, Short Replication)

2: In Pig, quale dei seguenti tipi di operazioni di join può essere eseguita utilizzando il join replicato?

A.   Solo i) e ii)

B.   Solo ii) e iii)

C.   Solo i) e iv)

D.   Solo iii) e iv)

E.   Solo i), ii) e iii)

3: Quale dei seguenti è il processo principale che accetta le presentazioni di lavoro dai clienti e pianifica le attività da eseguire sui nodi del lavoratore?

A.   TaskTracker

B.   JobTracker

C.   FILATO

D.   Manager nodo

4: Quale delle seguenti variabili di ambiente viene utilizzata per determinare il cluster Hadoop per Pig, al fine di eseguire i lavori MapReduce?

A.   YARN_CONF_DIR

B.   Hadoop_prefix

C.   Hadoop_conf_dir

D.   Hadoop_home

5: Quale dei seguenti comandi HDFS viene utilizzato per controllare le incoerenze e i problemi di segnalazione con vari file?

A.   fetchdt

B.   dfs

C.   oiv

D.   fsck

6: Quale dei seguenti comandi viene utilizzato per visualizzare il contenuto di un file denominato /Newexample/example1.txt?

A.   bin/hdfs dfs −cat /newexample/example1.txt

B.   bin/hadoop dfsadmin -ddir /newexample/example1.txt

C.   bin/hadoop dfs -cat /newexample/example1.txt

D.   bin/hdfs dfsadmin -ddir /newexample/example1.txt

7: Nell'architettura Hadoop, quale dei seguenti componenti è responsabile della pianificazione e dell'esecuzione di un singolo lavoro?

A.   Responsabile delle risorse

B.   Manager nodo

C.   Applicazione Master

D.   Contenitore

8: Quale delle seguenti interfacce viene utilizzata per accedere al metastotore dell'alveare?

A.   Trasformare

B.   Riga di comando

C.   Objecinspector

D.   Parsimonia

9: Qual è la funzione del seguente comando Hadoop? Du

A.   Visualizza il riepilogo delle lunghezze dei file.

B.   In caso di un file, visualizza la lunghezza del file, mentre in caso di directory, visualizza le dimensioni dei file e delle directory presenti in quella directory.

C.   Visualizza il numero di file in una particolare directory.

D.   Visualizza i numeri e i nomi dei file presenti in una particolare directory.

10: In Hadoop, le istantanee HDFS vengono prese per quali dei seguenti motivi?

A.   Solo i) e iii)

B.   Solo ii) e iv)

C.   Solo i), ii) e iii)

D.   Solo i), iii) e iv)

E.   Tutti i), ii), iii) e iv)

11: Prima di essere inseriti su un disco, i record di output intermedi emessi dall'attività della mappa sono bufferiti nella memoria locale, usando un buffer circolare. Quale delle seguenti proprietà viene utilizzata per configurare la dimensione di questo buffer circolare?

A.   mapReduce.task.io.sort.mb

B.   io.record.sort.percent

C.   mapReduce.partitioner.class

D.   mapReduce.task.io.MB

12: Quale delle seguenti interfacce può ridurre la quantità di memoria richiesta dagli UDF, accettando l'input in blocchi?

A.   Interfaccia PigReduceRestimator

B.   Interfaccia StoreFunc

C.   Interfaccia FilterFunc

D.   Interfaccia Accumulator

13: Quale delle seguenti clausole di alveare dovrebbe essere utilizzata per imporre un ordine totale sui risultati della query?

A.   ORDINATO DA

B.   ORDINA PER

C.   O A o B

D.   Nessuna delle precedenti

14: Quale dei seguenti comandi Hive viene utilizzato per la creazione di un database chiamato MyData?

A.   Crea database myData

B.   Crea database myData

C.   Crea nuovo database MyData

D.   Crea nuovo database myData

15: Quale delle opzioni indicate è la funzione del seguente comando Hadoop? -A

A.   Viene utilizzato per verificare se tutte le biblioteche sono disponibili.

B.   Viene utilizzato per espandere i caratteri jolly.

C.   Viene utilizzato per specificare un gestore delle risorse.

D.   Viene utilizzato per assegnare un valore a una proprietà

16: In quale delle seguenti modalità di esecuzione di maiale, un programma Java è in grado di invocare i comandi di suini importando le librerie di suini?

A.   Modalità interattiva

B.   Modalità batch

C.   Modalità incorporata

D.   Modalità interattiva o batch

17: Quale dei tipi di dati di maiale indicati ha le seguenti caratteristiche? I) È una raccolta di valori di dati. II) questi valori di dati sono ordinati e hanno una lunghezza fissa.

A.   bytearray

B.   Borsa

C.   Carta geografica

D.   Tuple

18: Quale delle seguenti funzioni viene eseguita dallo scheduler di Resource Manager nell'architettura del filo?

A.   Fornisce approfondimenti sullo stato dell'applicazione.

B.   Garantisce il riavvio sugli errori di applicazione e hardware.

C.   Assegna risorse alle applicazioni in esecuzione nel cluster.

D.   Gestisce le domande presentate dai clienti.

19: Quali delle seguenti sono le caratteristiche dell'operatore sindacale di Pig?

A.   Non impone alcuna restrizione allo schema dei due set di dati che vengono concatenati.

B.   Rimuove le tuple duplicate durante la concatensione dei set di dati.

C.   Preserva l'ordinamento delle tuple durante la concatensione dei set di dati.

D.   Usa il qualificatore Onschema per dare uno schema al risultato

20: Quale dei seguenti operatori è necessario per essere utilizzati per Theta-Join?

A.   Cogruppo

B.   Per ciascuno

C.   Attraverso

D.   Unione

21: Quale delle seguenti è la sintassi del comando della riga corretta del comando di streaming Hadoop?

A.   comando Hadoop [streamingoptions]

B.   Comando ∼ Hadoop [genericoptions] [streamingoptions]

C.   comando hadoop [genericoptions] [streamingoptions]

D.   Comando ∼ Hadoop [streamingoptions] [genericoptions]

22: Quale delle seguenti affermazioni è corretta sui join Hive?

A.   I join in alveare sono commutativi.

B.   In alveare, possono essere uniti più di due tavoli.

C.   La prima tabella che partecipa al join è trasmesso in streaming all'attività di riduzione per impostazione predefinita.

D.   Tutti sono corretti.

23: Quale dei seguenti viene utilizzato per modificare il gruppo di un file?

A.   HDFS CHGRP [Proprietario] [: [Group]] [-r] & lt; FilePath & gt; & lt; Newgroup & gt;

B.   HDFS CHGRP [-r] & lt; Group & gt; & lt; FilePath & gt;

C.   HDFS CHGRP [-r] & lt; [gruppo [: [proprietario] & gt; & lt; FilePath & gt;

D.   HDFS CHGRP & LT; GROUP & GT; & lt; filepath & gt; [-r] & lt; newgroup & gt;

E.   HDFS Chgrp & lt; Group & gt; [-r] & lt; Newgroup & gt;

24: Supponiamo che sia necessario selezionare un sistema di archiviazione che supporti Resource Manager ad alta disponibilità (RM HA). Quale dei seguenti tipi di archiviazione dovrebbe essere selezionato in questo caso?

A.   Store di stato basato su LevelDB

B.   Store di stato basato su filesystem

C.   Store di stato basato sullo zookeeper

D.   Entrambe le opzioni A o B potrebbero essere utilizzate

25: Quale delle seguenti affermazioni è corretta sullo spazio dei nomi del file system Hadoop?

A.   L'autorizzazione di accesso all'utente non è implementata in HDFS.

B.   In HDFS, un utente non è autorizzato a creare directory.

C.   HDFS supporta collegamenti difficili.

D.   HDFS implementa le quote utente.

26: Quale dei seguenti comandi Hadoop viene utilizzato per la creazione di un file di lunghezza zero?

A.   touchz

B.   coda

C.   testo

D.   test

27: Prendi in considerazione un file di input chiamato ABC.dat.txt con dimensione del blocco predefinita 128 MB. Quale dei seguenti è il comando corretto che caricherà questo file in un HDFS, con una dimensione del blocco di 512 MB?

A.   Hadoop FS ∼ D Blocksize = 536870912 -Put Abc.dat.txt to Abc.dat.newlock.txt

B.   Hadoop fs.blockSize = 536870912 -put abc.dat.txt abc.dat.newlock.txt

C.   Hadoop fs -d dfs.blocksize = 536870912 -put abc.dat.txt abc.dat.newblock.txt

D.   Hadoop fs.blockSize −d = 536870912 -put abc.dat.txt to abc.dat.newblock.txt

28: Qual è la funzione della seguente proprietà di configurazione di Yarns Resource Manager? Yarn.resourceManager.ha.id

A.   Viene utilizzato per identificare la classe da utilizzare dal client.

B.   È stato utilizzato per elencare l'ID logico utilizzato dai gestori delle risorse.

C.   Viene utilizzato per specificare il nome host corrispondente per Resource Manager.

D.   Viene utilizzato per identificare il gestore delle risorse in ensemble.

29: Quali due delle seguenti sono le differenze corrette tra MapReduce e RDBM tradizionali?

A.   Il ridimensionamento in mapReduce non è lineare, mentre in RDBMS è lineare.

B.   In MapReduce, l'operazione di lettura può essere eseguita più volte, ma l'operazione di scrittura può essere eseguita una sola volta. Nei RDBM tradizionali, sia le operazioni di lettura che di scrittura possono essere eseguite molte volte.

C.   L'integrità di MapReduce è più elevata rispetto a RDBMS.

D.   Il modello di accesso di MapReduce è batch, mentre il modello di accesso di RDBM è interattivo e batch

30: Quale delle seguenti affermazioni è corretta sul proxy dell'applicazione Web di Yarns?

A.   Impedisce al gestore delle applicazioni di fornire collegamenti ai siti esterni dannosi.

B.   Previene l'esecuzione del codice JavaScript dannoso.

C.   Strina i cookie dall'utente e li sostituisce con un singolo cookie, fornendo il nome utente dell'utente registrato.

D.   Funziona come parte della mangiatoia di risorse ma non può essere configurato per essere eseguito in modalità autonoma.

31: Quali due dei seguenti parametri del comando di streaming Hadoop sono opzionali?

A.   −output DirectoryName

B.   −cmdenv name = value

C.   −Combiner StreamingCommand

D.   −Reducer JavaclassName

32: Quale dei seguenti comandi viene utilizzato per l'impostazione di una variabile di ambiente in un comando di streaming?

A.   -FILE ABC =/Home/Esempio/

B.   −Mapper ABC =/Home/InputReader/Esempio/Dizionari/

C.   −input ABC =/home/directory/esempio

D.   -Cmdenv ABC =/Home/Esempio/Dictionaries/

33: Quali dei seguenti sono i vantaggi della crittografia a livello del disco negli HDF?

A.   Fornisce prestazioni elevate.

B.   Può essere distribuito facilmente.

C.   È altamente flessibile.

D.   Può proteggere dal software e dalle minacce fisiche.

34: Per un file denominato ABC, quale dei seguenti comandi Hadoop viene utilizzato per l'impostazione di tutte le autorizzazioni per il proprietario, l'impostazione delle autorizzazioni di lettura per il gruppo e l'impostazione delle autorizzazioni per gli altri utenti nel sistema?

A.   Hadoop FS −chmod ABC 310

B.   Hadoop fs −chmod 740 ABC

C.   Hadoop FS ∼chmod 420 ABC

D.   Hadoop FS −chmod ABC ∼ 860

35: Quale dei seguenti livelli di autorizzazione non è consentito nell'autorizzazione HDFS?

A.   Leggere

B.   Scrivere

C.   Eseguire

D.   Tutti e tre i livelli di autorizzazione sono consentiti

36: Quale delle seguenti operazioni di join non è supportata da Hive?

A.   Semi-join lasciato

B.   Unisciti interni

C.   Theta jay

D.   Fuzzy unisciti

37: Quale dei seguenti comandi viene utilizzato per la creazione di un file keytab utilizzato nell'autenticazione Kerberos?

A.   Kinit

B.   Klist

C.   ktutil

D.   Mradmin

E.   dfsadmin

38: Quale delle seguenti è la proprietà di configurazione lato server avanzata del filato utilizzato per abilitare la cancellazione di dati anziani presenti nell'archivio della sequenza temporale?

A.   Yarn.Timeline-service.ttl-enable

B.   Yarn.Timeline-Service.Nable

C.   filato

D.   Yarn.Timeline-service.Recovery.Nabled

39: Per eseguire un file JAR personalizzato e costruito dall'utente, viene utilizzato il comando jar. Quale delle seguenti è la sintassi corretta di questo comando?

A.   nodo filato -jar [nome classe principale] & lt; jar file percorso & gt; [argomenti…]

B.   filato jar & lt; jar file percorso & gt; [Nome della classe principale] [Argomenti ...]

C.   Applicazione del filato -jar [nome classe principale] & lt; jar file percorso & gt; [argomenti…]

D.   Log del filo Jar & lt; Jar File Path & gt; [Nome della classe principale] [Argomenti ...]

40: Quale dei seguenti comandi di filato viene utilizzato per sovrascrivere la directory di configurazione predefinita $ {hadoop_prefix}/conf?

A.   -Config Confdir

B.   -Config. Filato

C.   daemonlog −getlevel

D.   Daemonlog Confdir

41: Quale dei seguenti comandi HiveQL viene utilizzato per stampare l'elenco delle variabili di configurazione sovrascritte da Hive o dall'utente?

A.   impostato

B.   Imposta −v

C.   dfs

D.   Ripristina

42: Quale delle opzioni fornite è la funzione corretta del seguente comando HiveQL?!

A.   Viene utilizzato per eseguire un comando DFS dalla shell dell'alveare.

B.   Viene utilizzato per eseguire un comando shell all'interno della CLI.

C.   Viene utilizzato per eseguire un comando shell dalla shell dell'alveare.

D.   Viene utilizzato per eseguire un comando DFS all'interno della CLI.

43: Quali delle seguenti sono le funzioni di Hadoop? I) SearchIi) Retenzione dei dati) Sistema di raccomandazione) Analytics)

A.   Solo i) e iii)

B.   Solo i) e ii)

C.   Solo i), ii) e iv)

D.   Tutti i), ii), iii) e iv)

44: Quale delle seguenti proprietà di configurazione di Yarns Resource Manager viene utilizzata per specificare l'host: porta per i clienti per inviare lavori?

A.   Yarn.resourcemanager.ha.rm-ids

B.   Yarn.resourcemanager.address.rm-id

C.   Yarn.resourcemanager.hostname.rm-id

D.   Yarn.resourcemanager.scheduler.address.rm-id

45: Quale dei seguenti comandi HDFS viene utilizzato per l'impostazione di un nome e valore di attributo esteso per un file o una directory?

A.   setgid

B.   Setfile

C.   setfattr

D.   setquota

E.   setconf

46: Quale dei seguenti comandi di maiale è/viene utilizzato per campionamento di un dati e applicare una query su di esso?

A.   DESCRIVERE

B.   Illustra

C.   SPIEGARE

D.   Sia a che B

47: Quale delle seguenti è la sintassi corretta per il profilo DOCS Maven che viene utilizzato per la creazione di documentazione in Auth Hadoop?

A.   pacchetto $ mvn - pdocs

B.   $ mvn pdocs

C.   $ CURL - MVN PDOCS

D.   $ CURL - MVN PDOCS - pacchetto

48: In caso di autorizzazione a livello di servizio in Hadoop, quale delle seguenti proprietà viene utilizzata per determinare gli ACE utilizzati per la concessione delle autorizzazioni per i DataNodes per comunicare e accedere al Namenode?

A.   Security.client.datanode.protocol.acl

B.   Security.namenode.protocol.acl

C.   Security.client.protocol.acl

D.   Security.datanode.protocol.acl

49: Qual è il valore predefinito della seguente proprietà di configurazione di sicurezza dell'architettura del filo? Yarn.Timeline-service.Delegation.Token.renew-Interval

A.   1 giorno

B.   3 giorni

C.   5 giorni

D.   7 giorni

50: Durante la configurazione dell'autenticazione HTTP in Hadoop, quale dei seguenti è impostato come valore della proprietà "Hadoop.http.filter.initializers"?

A.   org.apache.hadoop.security.authenticationinitializer Classe Nome

B.   org.apache.hadoop.security.shellbasedunixgroupsmapping Class Nome

C.   org.apache.hadoop.security.ldapGroupsmapping Class

D.   org.apache.hadoop.security.ssl Nome classe

51: Quale dei seguenti comandi Shell HDFS viene utilizzato per l'impostazione di un gruppo per un determinato file o directory?

A.   chown

B.   chmod

C.   chgrp

D.   setwrener

52: Quali dei seguenti sono gli argomenti della riga di comando richiesti per il comando OEV di HDFS?

A.   -i, - -inputfile arg

B.   -o, --outputfile arg

C.   -P, -Processore Arg

D.   -f,--fix-txids

53: Quale dei seguenti è il servizio di directory Hadoop che memorizza i metadati relativi ai file presenti nell'archiviazione del cluster?

A.   Riduci mappa

B.   DataNode

C.   Quorumpeermain

D.   Namenode

54: Quale delle seguenti funzioni non viene eseguita dalla classe InputFormat per un lavoro di MapReduce Hadoop?

A.   Scatta i dati di input in blocchi logici e assegna ciascuna di queste divisioni a un'attività di mappa.

B.   Istanzia l'oggetto ricorreader che può funzionare su ciascuna classe di inputSplit.

C.   Presenta una vista record dei dati nell'attività della mappa e legge da una classe di input.

D.   Produce i record all'attività MAP come coppie di valore chiave.

55: Quale dei seguenti comandi viene utilizzato per distribuire un file escluso a tutti i namenodes?

A.   [HDFS] $ $ HADOOP_PREFIX/SBIN/Distribute-Exclude.sh & Lt; Exclude_File & Gt;

B.   $ [Hadoop HDFS] sbin/Distribute-exclude.sh & lt; esclude_file & gt;

C.   $ [dfsadmin, hdfs] $ hadoop_prefix/sbin/& lt; esclude_file & gt;/distribute-exclude.sh

D.   [dfsadmin] $ $ hadoop_prefix/ sbin/ & lt; esclude_file & gt;/ distribute-exclude.sh

A.   −u e -v

B.   −b e −c

C.   −c e −u

D.   −u e −c

57: Qual è il valore predefinito di Hadoop.http.authentication.token.validità proprietà utilizzata in caso di autenticazione tramite l'interfaccia HTTP?

A.   72.000 secondi

B.   18.000 secondi

C.   64.000 secondi

D.   36.000 secondi

58: In caso di esecuzione multiquery, quale dei seguenti codici di ritorno indica errori recuperabili per un'esecuzione?

A.   0

B.   1

C.   2

D.   00

59: Quale dei seguenti comandi Hadoop viene utilizzato per copiare un percorso di origine verso StDout?

A.   statistica

B.   CopyTolocal

C.   cp

D.   gatto

60: Quale dei seguenti comandi Hadoop DFSADMIN genera un elenco di DataNodes?

A.   bin/hdfs dfsadmin −r

B.   bin/hdfs dfsadmin −report

C.   bin/hdfs dfsadmin −Report DaNodes

D.   bin/hdfs dfsadmin −r datanodes

61: Quali delle seguenti non sono le proprietà dell'oggetto app (applicazione) dell'API REST NodeManager?

A.   containeridi

B.   Contenitori

C.   stato

D.   utente

E.   app

62: Quale dei seguenti è il tipo di dati corretto dell'elemento "TotalMB" dell'oggetto ClusterMetrics utilizzato nell'API REST Resto ResourceManager?

A.   int

B.   corda

C.   lungo

D.   bigint

63: Quale dei seguenti oggetti viene utilizzato dalla classe RECORDREADER per la lettura dei dati da una classe di input?

A.   Fsdatainputstream

B.   Lineereader

C.   Filesystem

D.   RECORDREADER

64: Quale dei seguenti operatori viene utilizzato per non nidificare le tuple e le borse nidificate?

A.   ILLUSTRARE

B.   Appiattire

C.   Cogruppo

D.   ATTRAVERSO

65: Il framework Hadoop è costituito dall'algoritmo ________ per risolvere problemi su larga scala.

A.   MAPSYSTEM

B.   Riduci mappa

C.   MapCluster

D.   MapComponent

66: Il partizionatore controlla il partizionamento di quali dati?

A.   Tasti finali

B.   Valori finali

C.   Tasti intermedi

D.   Valori intermedi

67: Le funzioni di finestra SQL sono implementate in Hive usando quali parole chiave?

A.   Unione distinta, rango

B.   Over, rank

C.   Oltre, tranne

D.   Unione distinta, rango

68: Invece di aggiungere un tipo secondario a un lavoro a riduzione lenta, è Hadoop Best Practice eseguire quale ottimizzazione?

A.   Aggiungi un shuffle partizionato al lavoro della mappa.

B.   Aggiungi un shuffle partizionato al lavoro di riduzione.

C.   Rompere il lavoro di riduzione in più e incatenato riduce i lavori.

D.   Rompi il lavoro di riduzione in più lavori di mappa incatenato.

A.   Http crittografato

B.   HTTP non firmato

C.   HTTP compresso

D.   Firmato http

70: I lavori mapReduce possono essere scritti in quale lingua?

A.   Java o Python

B.   Solo SQL

C.   Sql o java

D.   Python o SQL

71: Per eseguire l'aggregazione locale delle uscite intermedie, gli utenti MapReduce possono opzionalmente specificare quale oggetto?

A.   Riduttore

B.   Combiner

C.   Mapper

D.   Contatore

72: Per verificare lo stato del lavoro, cerca il valore ___ in ___.

A.   SUCCESSO; syslog

B.   SUCCESSO; stdout

C.   FATTO; syslog

D.   FATTO; stdout

73: Quale riga di codice implementa un metodo riduttore in MapReduce 2.0?

A.   Public void ridotto (chiave di testo, valori dell'iteratore, contesto del contesto) {…}

B.   Public static void ridotto (chiave di testo, valori intwritable [], contesto del contesto) {…}

C.   Public Static Void Riduci (chiave di testo, valori dell'iteratore, contesto del contesto) {…}

D.   Public void ridotto (chiave di testo, valori intwritable [], contesto del contesto) {…}

74: Per ottenere il numero totale di record di input mappati in un'attività di lavoro della mappa, è necessario rivedere il valore di quale contatore?

A.   FILEINPUTFORMATCOUNTER

B.   Filesystemcounter

C.   JobCounter

D.   TaskCounter (non sono sicuro)

75: Hadoop Core supporta quali capacità CAP?

A.   A, p

B.   CIRCA

C.   C, p

D.   C, a, p

76: Quali sono le fasi primarie di un riduttore?

A.   Combina, mappa e riduci

B.   Shuffle, ordina e riduci

C.   Riduci, ordina e combina

D.   Mappa, ordina e combina

77: Per impostare il flusso di lavoro Hadoop con la sincronizzazione dei dati tra lavori che elaborano attività sia sul disco che in memoria, utilizzare il servizio ___, che è ___.

A.   Oozie; open source

B.   Oozie; software commerciale

C.   Zookeeper; software commerciale

D.   Zookeeper; open source

78: Per alta disponibilità, utilizzare più nodi di quale tipo?

A.   Dati

B.   Nome

C.   Memoria

D.   Lavoratore

79: DataNode supporta quale tipo di unità?

A.   Calda scambiabile

B.   Cold Swappable

C.   Caloroso scambiabile

D.   Non swappabile

80: Quale metodo viene utilizzato per implementare i lavori di scintilla?

A.   Sul disco di tutti i lavoratori

B.   Sul disco del nodo principale

C.   In memoria del nodo principale

D.   In memoria di tutti i lavoratori

81: In un lavoro MapReduce, dove funziona la funzione Map ()?

A.   Sui nodi di riduttore del cluster

B.   Sui nodi di dati del cluster (non sono sicuro)

C.   Sul nodo principale del cluster

D.   Su ogni nodo del cluster

82: Per fare riferimento a un file master per le ricerche durante la mappatura, che tipo di cache dovrebbe essere utilizzato?

A.   Cache distribuita

B.   Cache locale

C.   Cache partizionata

D.   Cache del cluster

83: Skip Bad Records fornisce un'opzione in cui una determinata serie di record di input cattivi può essere saltato durante l'elaborazione del tipo di dati?

A.   Input di cache

B.   Input di riduttore

C.   Valori intermedi

D.   Ingressi della mappa

84: Quale comando importa i dati su Hadoop da un database MySQL?

A.   Spark Import-Connect JDBC: mysql: //mysql.example.com/spark-Username Spark --Warehouse-dir Utente/Hue/Oozie/Deployments/Spark

B.   SQOop Import-Connect JDBC: mysql: //mysql.example.com/sqoop --username sqoop --warehouse-dir utente/hue/oottie/spollations/sqoop

C.   SQOop Import-Connect JDBC: mysql: //mysql.example.com/sqoop --username sqoop--password sqoop --warehouse-dir utente/hue/oozie/desekments/sqoop

D.   Spark Import-Connect JDBC: mysql: //mysql.example.com/spark-Username Spark-Password Spark --Warehouse-Dir Utente/Hue/Oozie/Deployments/Spark

85: In quale forma viene presentata l'output del riduttore?

A.   Compresso (non sono sicuro)

B.   smistato

C.   Non ordinato

D.   Crittografato

86: Quale libreria dovrebbe essere utilizzata per testare unità il codice mapReduce?

A.   Junit

B.   XUNIT

C.   Mrunit

D.   Hadoopunit

87: Se hai avviato Namenode, allora quale tipo di utente devi essere?

A.   Hadoop-utente

B.   Super-utente

C.   Utente nodo

D.   Utente amministrativo

88: Stato _ tra i JVM in un lavoro MapReduce

A.   Può essere configurato per essere condiviso

B.   È parzialmente condiviso

C.   È condiviso

D.   Non è condiviso (https://www.lynda.com/hadoop-tutorials/understanding-java-virtual-machines-jvms/191942/369545-4.html)

89: Per creare un lavoro MapReduce, cosa dovrebbe essere codificato per primo?

A.   Un metodo statico di lavoro ()

B.   Una classe di lavoro e un'istanza (non sono sicuro)

C.   Un metodo di lavoro ()

D.   Una classe di lavoro statica

90: Per collegare Hadoop a AWS S3, quale client dovresti usare?

A.   S3a

B.   S3N

C.   S3

D.   L'EMR S3

91: Hbase funziona con quale tipo di applicazione dello schema?

A.   Schema sulla scrittura

B.   Nessun schema

C.   Schema esterno

D.   Schema su Leggi

92: Il file HDFS è di quale tipo?

A.   Leggere scrivere

B.   Sola lettura

C.   Solo scrittura

D.   Append solo

93: Un percorso del file di cache distribuito può provenire da quale posizione?

A.   HDFS o TOP

B.   Http

C.   Hdfs o http

D.   HDFS

94: Quale libreria dovresti utilizzare per eseguire lavori mapReduce di tipo ETL?

A.   Alveare

B.   Maiale

C.   Impala

D.   Mahout

95: Qual è l'output del riduttore?

A.   Una tabella relazionale

B.   Un aggiornamento al file di input

C.   Un unico elenco combinato

D.   Un set di <take, valore> coppie

96: Se implementato su un cloud pubblico, con cosa interagisce l'elaborazione Hadoop?

A.   File in oggetti archiviazione

B.   Dati grafici nei database grafici

C.   Dati relazionali nei sistemi RDBMS gestiti

D.   Dati JSON in database NoSQL

97: Nel sistema Hadoop, quale modalità amministrativa viene utilizzata per la manutenzione?

A.   Modalità dati

B.   Modalità sicura

C.   Modalità singolo utente

D.   Modalità pseudo-distribuita

98: In quale formato recordwriter scrive un file di output?

A.   <chiave, valore> coppie

B.   Chiavi

C.   Valori

D.   <valore, chiave> coppie

99: A cosa è il tasto di ingresso/valori della mappa mapper?

A.   Una media delle chiavi per i valori

B.   Una somma di chiavi per i valori

C.   Un set di coppie di tasti/valore intermedi

D.   Un set di coppie di tasti/valore finale

100: Quale query Hive restituisce i primi 1.000 valori?

A.   Seleziona ... dove valore = 1000

B.   Seleziona ... limite 1000

C.   Seleziona Top 1000 ...

D.   Seleziona Max 1000 ...