Queste domande e risposte a scelta multipla di Hadup ti aiuteranno a capire meglio Hadup. Preparati per il tuo prossimo esame o colloquio con oltre 100 MCQ di Hadoop.
Scorri verso il basso per iniziare a rispondere.
A. setReplication (replica della stringa, percorso P, autorizzazione di FSPermission)
B. setReplication (autorizzazione FSPermission, Short Replication)
C. setReplication (replica della stringa, percorso P)
D. setReplication (Path Src, Short Replication)
A. Solo i) e ii)
B. Solo ii) e iii)
C. Solo i) e iv)
D. Solo iii) e iv)
E. Solo i), ii) e iii)
A. TaskTracker
B. JobTracker
C. FILATO
D. Manager nodo
A. YARN_CONF_DIR
B. Hadoop_prefix
C. Hadoop_conf_dir
D. Hadoop_home
A. fetchdt
B. dfs
C. oiv
D. fsck
A. bin/hdfs dfs −cat /newexample/example1.txt
B. bin/hadoop dfsadmin -ddir /newexample/example1.txt
C. bin/hadoop dfs -cat /newexample/example1.txt
D. bin/hdfs dfsadmin -ddir /newexample/example1.txt
A. Responsabile delle risorse
B. Manager nodo
C. Applicazione Master
D. Contenitore
A. Trasformare
B. Riga di comando
C. Objecinspector
D. Parsimonia
A. Visualizza il riepilogo delle lunghezze dei file.
B. In caso di un file, visualizza la lunghezza del file, mentre in caso di directory, visualizza le dimensioni dei file e delle directory presenti in quella directory.
C. Visualizza il numero di file in una particolare directory.
D. Visualizza i numeri e i nomi dei file presenti in una particolare directory.
A. Solo i) e iii)
B. Solo ii) e iv)
C. Solo i), ii) e iii)
D. Solo i), iii) e iv)
E. Tutti i), ii), iii) e iv)
A. mapReduce.task.io.sort.mb
B. io.record.sort.percent
C. mapReduce.partitioner.class
D. mapReduce.task.io.MB
A. Interfaccia PigReduceRestimator
B. Interfaccia StoreFunc
C. Interfaccia FilterFunc
D. Interfaccia Accumulator
A. ORDINATO DA
B. ORDINA PER
C. O A o B
D. Nessuna delle precedenti
A. Crea database myData
B. Crea database myData
C. Crea nuovo database MyData
D. Crea nuovo database myData
A. Viene utilizzato per verificare se tutte le biblioteche sono disponibili.
B. Viene utilizzato per espandere i caratteri jolly.
C. Viene utilizzato per specificare un gestore delle risorse.
D. Viene utilizzato per assegnare un valore a una proprietà
A. Modalità interattiva
B. Modalità batch
C. Modalità incorporata
D. Modalità interattiva o batch
A. bytearray
B. Borsa
C. Carta geografica
D. Tuple
A. Fornisce approfondimenti sullo stato dell'applicazione.
B. Garantisce il riavvio sugli errori di applicazione e hardware.
C. Assegna risorse alle applicazioni in esecuzione nel cluster.
D. Gestisce le domande presentate dai clienti.
A. Non impone alcuna restrizione allo schema dei due set di dati che vengono concatenati.
B. Rimuove le tuple duplicate durante la concatensione dei set di dati.
C. Preserva l'ordinamento delle tuple durante la concatensione dei set di dati.
D. Usa il qualificatore Onschema per dare uno schema al risultato
A. Cogruppo
B. Per ciascuno
C. Attraverso
D. Unione
A. comando Hadoop [streamingoptions]
B. Comando ∼ Hadoop [genericoptions] [streamingoptions]
C. comando hadoop [genericoptions] [streamingoptions]
D. Comando ∼ Hadoop [streamingoptions] [genericoptions]
A. I join in alveare sono commutativi.
B. In alveare, possono essere uniti più di due tavoli.
C. La prima tabella che partecipa al join è trasmesso in streaming all'attività di riduzione per impostazione predefinita.
D. Tutti sono corretti.
A. HDFS CHGRP [Proprietario] [: [Group]] [-r] & lt; FilePath & gt; & lt; Newgroup & gt;
B. HDFS CHGRP [-r] & lt; Group & gt; & lt; FilePath & gt;
C. HDFS CHGRP [-r] & lt; [gruppo [: [proprietario] & gt; & lt; FilePath & gt;
D. HDFS CHGRP & LT; GROUP & GT; & lt; filepath & gt; [-r] & lt; newgroup & gt;
E. HDFS Chgrp & lt; Group & gt; [-r] & lt; Newgroup & gt;
A. Store di stato basato su LevelDB
B. Store di stato basato su filesystem
C. Store di stato basato sullo zookeeper
D. Entrambe le opzioni A o B potrebbero essere utilizzate
A. L'autorizzazione di accesso all'utente non è implementata in HDFS.
B. In HDFS, un utente non è autorizzato a creare directory.
C. HDFS supporta collegamenti difficili.
D. HDFS implementa le quote utente.
A. touchz
B. coda
C. testo
D. test
A. Hadoop FS ∼ D Blocksize = 536870912 -Put Abc.dat.txt to Abc.dat.newlock.txt
B. Hadoop fs.blockSize = 536870912 -put abc.dat.txt abc.dat.newlock.txt
C. Hadoop fs -d dfs.blocksize = 536870912 -put abc.dat.txt abc.dat.newblock.txt
D. Hadoop fs.blockSize −d = 536870912 -put abc.dat.txt to abc.dat.newblock.txt
A. Viene utilizzato per identificare la classe da utilizzare dal client.
B. È stato utilizzato per elencare l'ID logico utilizzato dai gestori delle risorse.
C. Viene utilizzato per specificare il nome host corrispondente per Resource Manager.
D. Viene utilizzato per identificare il gestore delle risorse in ensemble.
A. Il ridimensionamento in mapReduce non è lineare, mentre in RDBMS è lineare.
B. In MapReduce, l'operazione di lettura può essere eseguita più volte, ma l'operazione di scrittura può essere eseguita una sola volta. Nei RDBM tradizionali, sia le operazioni di lettura che di scrittura possono essere eseguite molte volte.
C. L'integrità di MapReduce è più elevata rispetto a RDBMS.
D. Il modello di accesso di MapReduce è batch, mentre il modello di accesso di RDBM è interattivo e batch
A. Impedisce al gestore delle applicazioni di fornire collegamenti ai siti esterni dannosi.
B. Previene l'esecuzione del codice JavaScript dannoso.
C. Strina i cookie dall'utente e li sostituisce con un singolo cookie, fornendo il nome utente dell'utente registrato.
D. Funziona come parte della mangiatoia di risorse ma non può essere configurato per essere eseguito in modalità autonoma.
A. −output DirectoryName
B. −cmdenv name = value
C. −Combiner StreamingCommand
D. −Reducer JavaclassName
A. -FILE ABC =/Home/Esempio/
B. −Mapper ABC =/Home/InputReader/Esempio/Dizionari/
C. −input ABC =/home/directory/esempio
D. -Cmdenv ABC =/Home/Esempio/Dictionaries/
A. Fornisce prestazioni elevate.
B. Può essere distribuito facilmente.
C. È altamente flessibile.
D. Può proteggere dal software e dalle minacce fisiche.
A. Hadoop FS −chmod ABC 310
B. Hadoop fs −chmod 740 ABC
C. Hadoop FS ∼chmod 420 ABC
D. Hadoop FS −chmod ABC ∼ 860
A. Leggere
B. Scrivere
C. Eseguire
D. Tutti e tre i livelli di autorizzazione sono consentiti
A. Semi-join lasciato
B. Unisciti interni
C. Theta jay
D. Fuzzy unisciti
A. Kinit
B. Klist
C. ktutil
D. Mradmin
E. dfsadmin
A. Yarn.Timeline-service.ttl-enable
B. Yarn.Timeline-Service.Nable
C. filato
D. Yarn.Timeline-service.Recovery.Nabled
A. nodo filato -jar [nome classe principale] & lt; jar file percorso & gt; [argomenti…]
B. filato jar & lt; jar file percorso & gt; [Nome della classe principale] [Argomenti ...]
C. Applicazione del filato -jar [nome classe principale] & lt; jar file percorso & gt; [argomenti…]
D. Log del filo Jar & lt; Jar File Path & gt; [Nome della classe principale] [Argomenti ...]
A. -Config Confdir
B. -Config. Filato
C. daemonlog −getlevel
D. Daemonlog Confdir
A. impostato
B. Imposta −v
C. dfs
D. Ripristina
A. Viene utilizzato per eseguire un comando DFS dalla shell dell'alveare.
B. Viene utilizzato per eseguire un comando shell all'interno della CLI.
C. Viene utilizzato per eseguire un comando shell dalla shell dell'alveare.
D. Viene utilizzato per eseguire un comando DFS all'interno della CLI.
A. Solo i) e iii)
B. Solo i) e ii)
C. Solo i), ii) e iv)
D. Tutti i), ii), iii) e iv)
A. Yarn.resourcemanager.ha.rm-ids
B. Yarn.resourcemanager.address.rm-id
C. Yarn.resourcemanager.hostname.rm-id
D. Yarn.resourcemanager.scheduler.address.rm-id
A. setgid
B. Setfile
C. setfattr
D. setquota
E. setconf
A. DESCRIVERE
B. Illustra
C. SPIEGARE
D. Sia a che B
A. pacchetto $ mvn - pdocs
B. $ mvn pdocs
C. $ CURL - MVN PDOCS
D. $ CURL - MVN PDOCS - pacchetto
A. Security.client.datanode.protocol.acl
B. Security.namenode.protocol.acl
C. Security.client.protocol.acl
D. Security.datanode.protocol.acl
A. 1 giorno
B. 3 giorni
C. 5 giorni
D. 7 giorni
A. org.apache.hadoop.security.authenticationinitializer Classe Nome
B. org.apache.hadoop.security.shellbasedunixgroupsmapping Class Nome
C. org.apache.hadoop.security.ldapGroupsmapping Class
D. org.apache.hadoop.security.ssl Nome classe
A. chown
B. chmod
C. chgrp
D. setwrener
A. -i, - -inputfile arg
B. -o, --outputfile arg
C. -P, -Processore Arg
D. -f,--fix-txids
A. Riduci mappa
B. DataNode
C. Quorumpeermain
D. Namenode
A. Scatta i dati di input in blocchi logici e assegna ciascuna di queste divisioni a un'attività di mappa.
B. Istanzia l'oggetto ricorreader che può funzionare su ciascuna classe di inputSplit.
C. Presenta una vista record dei dati nell'attività della mappa e legge da una classe di input.
D. Produce i record all'attività MAP come coppie di valore chiave.
A. [HDFS] $ $ HADOOP_PREFIX/SBIN/Distribute-Exclude.sh & Lt; Exclude_File & Gt;
B. $ [Hadoop HDFS] sbin/Distribute-exclude.sh & lt; esclude_file & gt;
C. $ [dfsadmin, hdfs] $ hadoop_prefix/sbin/& lt; esclude_file & gt;/distribute-exclude.sh
D. [dfsadmin] $ $ hadoop_prefix/ sbin/ & lt; esclude_file & gt;/ distribute-exclude.sh
A. −u e -v
B. −b e −c
C. −c e −u
D. −u e −c
A. 72.000 secondi
B. 18.000 secondi
C. 64.000 secondi
D. 36.000 secondi
A. 0
B. 1
C. 2
D. 00
A. statistica
B. CopyTolocal
C. cp
D. gatto
A. bin/hdfs dfsadmin −r
B. bin/hdfs dfsadmin −report
C. bin/hdfs dfsadmin −Report DaNodes
D. bin/hdfs dfsadmin −r datanodes
A. containeridi
B. Contenitori
C. stato
D. utente
E. app
A. int
B. corda
C. lungo
D. bigint
A. Fsdatainputstream
B. Lineereader
C. Filesystem
D. RECORDREADER
A. ILLUSTRARE
B. Appiattire
C. Cogruppo
D. ATTRAVERSO
A. MAPSYSTEM
B. Riduci mappa
C. MapCluster
D. MapComponent
A. Tasti finali
B. Valori finali
C. Tasti intermedi
D. Valori intermedi
A. Unione distinta, rango
B. Over, rank
C. Oltre, tranne
D. Unione distinta, rango
A. Aggiungi un shuffle partizionato al lavoro della mappa.
B. Aggiungi un shuffle partizionato al lavoro di riduzione.
C. Rompere il lavoro di riduzione in più e incatenato riduce i lavori.
D. Rompi il lavoro di riduzione in più lavori di mappa incatenato.
A. Http crittografato
B. HTTP non firmato
C. HTTP compresso
D. Firmato http
A. Java o Python
B. Solo SQL
C. Sql o java
D. Python o SQL
A. Riduttore
B. Combiner
C. Mapper
D. Contatore
A. SUCCESSO; syslog
B. SUCCESSO; stdout
C. FATTO; syslog
D. FATTO; stdout
A. Public void ridotto (chiave di testo, valori dell'iteratore, contesto del contesto) {…}
B. Public static void ridotto (chiave di testo, valori intwritable [], contesto del contesto) {…}
C. Public Static Void Riduci (chiave di testo, valori dell'iteratore, contesto del contesto) {…}
D. Public void ridotto (chiave di testo, valori intwritable [], contesto del contesto) {…}
A. FILEINPUTFORMATCOUNTER
B. Filesystemcounter
C. JobCounter
D. TaskCounter (non sono sicuro)
A. A, p
B. CIRCA
C. C, p
D. C, a, p
A. Combina, mappa e riduci
B. Shuffle, ordina e riduci
C. Riduci, ordina e combina
D. Mappa, ordina e combina
A. Oozie; open source
B. Oozie; software commerciale
C. Zookeeper; software commerciale
D. Zookeeper; open source
A. Dati
B. Nome
C. Memoria
D. Lavoratore
A. Calda scambiabile
B. Cold Swappable
C. Caloroso scambiabile
D. Non swappabile
A. Sul disco di tutti i lavoratori
B. Sul disco del nodo principale
C. In memoria del nodo principale
D. In memoria di tutti i lavoratori
A. Sui nodi di riduttore del cluster
B. Sui nodi di dati del cluster (non sono sicuro)
C. Sul nodo principale del cluster
D. Su ogni nodo del cluster
A. Cache distribuita
B. Cache locale
C. Cache partizionata
D. Cache del cluster
A. Input di cache
B. Input di riduttore
C. Valori intermedi
D. Ingressi della mappa
A. Spark Import-Connect JDBC: mysql: //mysql.example.com/spark-Username Spark --Warehouse-dir Utente/Hue/Oozie/Deployments/Spark
B. SQOop Import-Connect JDBC: mysql: //mysql.example.com/sqoop --username sqoop --warehouse-dir utente/hue/oottie/spollations/sqoop
C. SQOop Import-Connect JDBC: mysql: //mysql.example.com/sqoop --username sqoop--password sqoop --warehouse-dir utente/hue/oozie/desekments/sqoop
D. Spark Import-Connect JDBC: mysql: //mysql.example.com/spark-Username Spark-Password Spark --Warehouse-Dir Utente/Hue/Oozie/Deployments/Spark
A. Compresso (non sono sicuro)
B. smistato
C. Non ordinato
D. Crittografato
A. Junit
B. XUNIT
C. Mrunit
D. Hadoopunit
A. Hadoop-utente
B. Super-utente
C. Utente nodo
D. Utente amministrativo
A. Può essere configurato per essere condiviso
B. È parzialmente condiviso
C. È condiviso
D. Non è condiviso (https://www.lynda.com/hadoop-tutorials/understanding-java-virtual-machines-jvms/191942/369545-4.html)
A. Un metodo statico di lavoro ()
B. Una classe di lavoro e un'istanza (non sono sicuro)
C. Un metodo di lavoro ()
D. Una classe di lavoro statica
A. S3a
B. S3N
C. S3
D. L'EMR S3
A. Schema sulla scrittura
B. Nessun schema
C. Schema esterno
D. Schema su Leggi
A. Leggere scrivere
B. Sola lettura
C. Solo scrittura
D. Append solo
A. HDFS o TOP
B. Http
C. Hdfs o http
D. HDFS
A. Alveare
B. Maiale
C. Impala
D. Mahout
A. Una tabella relazionale
B. Un aggiornamento al file di input
C. Un unico elenco combinato
D. Un set di <take, valore> coppie
A. File in oggetti archiviazione
B. Dati grafici nei database grafici
C. Dati relazionali nei sistemi RDBMS gestiti
D. Dati JSON in database NoSQL
A. Modalità dati
B. Modalità sicura
C. Modalità singolo utente
D. Modalità pseudo-distribuita
A. <chiave, valore> coppie
B. Chiavi
C. Valori
D. <valore, chiave> coppie
A. Una media delle chiavi per i valori
B. Una somma di chiavi per i valori
C. Un set di coppie di tasti/valore intermedi
D. Un set di coppie di tasti/valore finale
A. Seleziona ... dove valore = 1000
B. Seleziona ... limite 1000
C. Seleziona Top 1000 ...
D. Seleziona Max 1000 ...