Essas perguntas e respostas de múltipla escolha do Hadup ajudarão você a entender melhor o Hadup. Prepare-se para seu próximo exame ou entrevista com mais de 100 MCQs do Hadoop.
Role para baixo para começar a responder.
A. SetReplication (replicação da string, Caminho P, permissão de fspermission)
B. SetReplication (permissão de fspermission, replicação curta)
C. SetReplication (replicação da string, caminho P)
D. setReplication (caminho src, replicação curta)
A. Só i) e ii)
B. Apenas ii) e iii)
C. Apenas eu) e iv)
D. Apenas iii) e iv)
E. Apenas eu), ii) e iii)
A. TaskTracker
B. JobTracker
C. FIO
D. Gerente de nó
A. Yarn_conf_dir
B. Hadoop_prefix
C. Hadoop_conf_dir
D. Hadoop_home
A. Fetchdt
B. dfs
C. OIV
D. fsck
A. bin/hdfs dfs −cat /newexample/example1.txt
B. bin/hadoop dfsadmin -ddir /newexample/example1.txt
C. bin/hadoop dfs -cat /newexample/example1.txt
D. bin/hdfs dfsadmin -ddir /newexample/example1.txt
A. Gerente de Recursos
B. Gerente de nó
C. Aplicativo mestre
D. Recipiente
A. Transformar
B. Linha de comando
C. ObjectInspector
D. Thrift
A. Ele exibe o resumo dos comprimentos de arquivo.
B. No caso de um arquivo, ele exibe o comprimento do arquivo, enquanto, em caso de um diretório, exibe os tamanhos dos arquivos e diretórios presentes nesse diretório.
C. Ele exibe o número de arquivos em um diretório específico.
D. Ele exibe os números e nomes dos arquivos presentes em um diretório específico.
A. Só i) e iii)
B. Apenas ii) e iv)
C. Apenas eu), ii) e iii)
D. Apenas eu), iii) e iv)
E. Tudo i), ii), iii) e iv)
A. mapReduce.task.io.sort.mb
B. io.record.sort.cent
C. MapReduce.Partitioner.class
D. mapReduce.task.io.mb
A. Interface de PigDredcerrestimator
B. Interface do StoreFunc
C. Interface filtrofunc
D. Interface acumuladora
A. ORDENAR POR
B. ORDENAR POR
C. Ou a ou B
D. Nenhuma das acima
A. Crie um banco de dados MyData
B. Crie banco de dados mydata
C. Crie um novo banco de dados MyData
D. Crie novo banco de dados mydata
A. É usado para verificar se todas as bibliotecas estão disponíveis.
B. É usado para expandir os curingas.
C. É usado para especificar um gerente de recursos.
D. É usado para atribuir um valor a uma propriedade
A. Modo interativo
B. Modo de lote
C. Modo incorporado
D. Modo interativo ou em lote
A. Bytearray
B. Bolsa
C. Mapa
D. Tupla
A. Ele fornece informações sobre o status do aplicativo.
B. Ele garante o reinício das falhas de aplicativo e hardware.
C. Ele aloca recursos para os aplicativos em execução no cluster.
D. Ele lida com os aplicativos enviados pelos clientes.
A. Não impõe nenhuma restrição ao esquema dos dois conjuntos de dados que estão sendo concatenados.
B. Ele remove as tuplas duplicadas ao concatenar os conjuntos de dados.
C. Ele preserva a ordem das tuplas enquanto concorda os conjuntos de dados.
D. Ele usa o qualificador onschema para dar um esquema ao resultado
A. Cogroup
B. Para cada
C. Cruzar
D. União
A. Comando Hadoop [StreamingOptions]
B. Comando ∼ Hadoop [genéricos] [StreamingOptions]
C. Comando Hadoop [GenericOptions] [StreamingOptions]
D. Comando ∼ Hadoop [StreamingOptions] [GenericOptions]
A. As junções na Hive são comutativas.
B. Na Hive, mais de duas tabelas podem ser unidas.
C. A primeira tabela que participa da junção é transmitida para a tarefa de redução por padrão.
D. Todos estão corretos.
A. hdfs chgrp [proprietário] [: [grupo]] [-r] & lt; filepath & gt; & lt; newgroup & gt;
B. hdfs chgrp [-r] & lt; grupo & gt; & lt; filepath & gt;
C. hdfs chgrp [-r] & lt; [grupo [: [proprietário] & gt; & lt; filepath & gt;
D. HDFS CHGRP & LT; GRUPO & GT; & lt; filepath & gt; [-r] & lt; newgroup & gt;
E. hdfs chgrp & lt; grupo & gt; [-r] & lt; newgroup & gt;
A. Store de Estado baseada em NívelDB
B. File System State-Store
C. A imagem está disponível
D. A opção A ou B pode ser usada
A. A permissão de acesso ao usuário não é implementada no HDFS.
B. No HDFS, um usuário não tem permissão para criar diretórios.
C. O HDFS suporta links rígidos.
D. HDFS implementa cotas de usuário.
A. touchz
B. cauda
C. texto
D. teste
A. Hadoop fs ∼ d blocksize = 536870912 -put abc.dat.txt para abc.dat.newblock.txt
B. hadoop fs.blocksize = 536870912 -put abc.dat.txt abc.dat.newblock.txt
C. hadoop fs -d dfs.blocksize = 536870912 -put abc.dat.txt abc.dat.newblock.txt
D. hadoop fs.blocksize −d = 536870912 -put abc.dat.txt para abc.dat.newblock.txt
A. É usado para identificar a classe a ser usada pelo cliente.
B. Utilizou para listar os IDs lógicos usados pelos gerentes de recursos.
C. É usado para especificar o nome do host correspondente para gerenciador de recursos.
D. É usado para identificar o gerente de recursos no Ensemble.
A. A escala no MapReduce não é linear, enquanto no RDBMS é linear.
B. No MapReduce, a operação de leitura pode ser realizada muitas vezes, mas a operação de gravação pode ser executada apenas uma vez. No RDBMS tradicional, as operações de leitura e gravação podem ser executadas muitas vezes.
C. A integridade do MapReduce é maior em comparação com o RDBMS.
D. O padrão de acesso do MapReduce é em lote, enquanto o padrão de acesso do RDBMS é interativo e em lote
A. Ele impede que o gerenciador de aplicativos forneça links para os sites externos maliciosos.
B. Impede a execução do código JavaScript malicioso.
C. Ele tira os cookies do usuário e os substitui por um único cookie, fornecendo o nome de usuário do usuário logado.
D. Ele é executado como parte da manjedoura de recursos, mas não pode ser configurado para executar no modo independente.
A. −Ortput DirectoryName
B. −cmdenv nome = valor
C. −Combiner StreamingCommand
D. -Redutor JavaclassName
A. -File abc =/home/exemplo/
B. −mapper abc =/home/inputReader/exemplo/dicionários/
C. -Input abc =/home/diretórios/exemplo
D. -cmdenv abc =/home/exemplo/dicionários/
A. Fornece alto desempenho.
B. Pode ser implantado facilmente.
C. É altamente flexível.
D. Pode proteger contra software e ameaças físicas.
A. Hadoop FS - Chmod ABC 310
B. Hadoop FS - Chmod 740 ABC
C. Hadoop FS ∼CHMOD 420 ABC
D. Hadoop FS - Chmod ABC ∼ 860
A. Ler
B. Escrever
C. Executar
D. Todos os três níveis de permissão são permitidos
A. Semi-jogue esquerdo
B. Junção interna
C. Teta ingressar
D. Junção difusa
A. Kinit
B. Klist
C. ktutil
D. MRADMIN
E. dfsadmin
A. yarn.timeline-ervice.ttl-enable
B. yarn.timeline-ervice.enabled
C. yarn.timeline-ervice.generic-aplication-history.enabled
D. yarn.timeline-ervice.recovery.enabled
A. Nó do fio -Jar [Nome da classe principal] & lt; Jar File Path & gt; [Argumentos…]
B. Jar de fios & lt; Jar File Path & gt; [Nome da classe principal] [Argumentos…]
C. aplicativo de fio -Jar [nome da classe principal] & lt; caminho do arquivo jar & gt; [Argumentos ...]
D. LONS LONS jar & lt; Jar File Path & gt; [Nome da classe principal] [Argumentos…]
A. -Config confdir
B. -Config. YarnConfiguration
C. Daemonlog - GetLevel
D. DaemonLog Confdir
A. definir
B. Definir −v
C. dfs
D. reiniciar
A. É usado para executar um comando dfs no shell de hive.
B. É usado para executar um comando Shell dentro da CLI.
C. É usado para executar um comando de shell a partir do shell de colméia.
D. É usado para executar um comando DFS dentro da CLI.
A. Só i) e iii)
B. Só i) e ii)
C. Apenas eu), ii) e iv)
D. Tudo i), ii), iii) e iv)
A. yarn.resourceManager.ha.rm-ids
B. yarn.resourceManager.address.rm-id
C. yarn.resourceManager.hostname.rm-id
D. yarn.resourceManager.scheduler.address.rm-id
A. setGid
B. setfile
C. setfattr
D. setquota
E. setConf
A. DESCREVER
B. Ilustrar
C. EXPLICAR
D. Ambos a e B
A. $ mvn pacote - pdocs
B. $ mvn pdocs
C. $ CURL - MVN PDOCS
D. $ CURL - MVN PDOCS - pacote
A. segurança.client.datanode.protocol.acl
B. segurança.namenode.protocol.acl
C. segurança.client.protocol.acl
D. segurança.datanode.protocol.acl
A. 1 dia
B. 3 dias
C. 5 dias
D. 7 dias
A. org.apache.hadoop.security.authenticationinitializer Nome da classe
B. org.apache.hadoop.security.shellbasedunixGroupsMapping Nome da classe
C. org.apache.hadoop.security.ldapgroupsmapping classe
D. org.apache.hadoop.security.ssl Nome da classe
A. chown
B. chmod
C. chgrp
D. setrowner
A. -i, - -inputfile arg
B. -o, - -outputfile arg
C. -p, --processor arg
D. -f,--fix-txids
A. MapReduce
B. DataNode
C. Quorumpemain
D. Namenode
A. Ele divide os dados de entrada em pedaços lógicos e atribui cada uma dessas divisões a uma tarefa de mapa.
B. Ele instancia o objeto RecordReader que pode funcionar em cada classe InputSplit.
C. Ele apresenta uma visualização de registro dos dados para a tarefa do mapa e lê de uma classe InputSplit.
D. Ele produz os registros para a tarefa do mapa como pares de valor-chave.
A. [hdfs] $ $ hadoop_prefix/sbin/distribute-exclude.sh & lt; exclude_file & gt;
B. $ [Hadoop hdfs] sbin/distribute-exclude.sh & lt; exclude_file & gt;
C. $ [dfsadmin, hdfs] $ hadoop_prefix/sbin/& lt; exclude_file & gt;/distribute-exclude.sh
D. [dfsadmin] $ $ hadoop_prefix/ sbin/ & lt; exclude_file & gt;/ distribute-exclude.sh
A. −u e -v
B. −b e −c
C. −c e −u
D. −u e −c
A. 72.000 segundos
B. 18.000 segundos
C. 64.000 segundos
D. 36.000 segundos
A. 0
B. 1
C. 2
D. 00
A. Estado
B. CopyTolocal
C. cp
D. gato
A. bin/hdfs dfsadmin −r
B. bin/hdfs dfsadmin - relato
C. bin/hdfs dfsadmin - relato de datanodes
D. bin/hdfs dfsadmin - r datanodes
A. contêinerids
B. containers
C. estado
D. do utilizador
E. aplicativo
A. int
B. corda
C. longo
D. bigint
A. FsdatainputStream
B. LineReader
C. Sistema de arquivo
D. RecordReader
A. ILUSTRAR
B. Achatar
C. Cogroup
D. CRUZAR
A. MapSystem
B. MapReduce
C. MapCluster
D. MapComponent
A. Chaves finais
B. Valores finais
C. Chaves intermediárias
D. Valores intermediários
A. Union distinto, classificação
B. Sobre, classificar
C. Acima, exceto
D. Union distinto, classificação
A. Adicione um shuffle particionado ao trabalho do mapa.
B. Adicione um shuffle particionado ao trabalho de redução.
C. Divida o trabalho de redução em múltiplos e encadeados empregos.
D. Divida o trabalho de redução em vários trabalhos de mapa acorrentado.
A. Http criptografado
B. HTTP não assinado
C. HTTP compactado
D. HTTP assinado
A. Java ou python
B. Apenas SQL
C. SQL ou Java
D. Python ou SQL
A. Redutor
B. Combiner
C. Mapeador
D. Contador
A. Conseguiu; syslog
B. Conseguiu; stdout
C. FEITO; syslog
D. FEITO; stdout
A. Public void Reduce (chave de texto, valores do iterador, contexto de contexto) {…}
B. Public static void Reduce (Chave de texto, Valores Intwritable [], contexto de contexto) {…}
C. Public static void Reduce (chave de texto, valores do iterador, contexto de contexto) {…}
D. Public void Reduce (chave de texto, valores intrawrity [], contexto de contexto) {…}
A. FileInputFormatCounter
B. FilesystemCounter
C. JobCounter
D. TaskCounter (não tenho certeza)
A. A, p
B. C, a
C. C, p
D. BONÉ
A. Combine, mapeie e reduza
B. Embaralhar, classificar e reduzir
C. Reduzir, classificar e combinar
D. Mapear, classificar e combinar
A. Oozie; Código aberto
B. Oozie; software comercial
C. Funcionário do zoológico; software comercial
D. Funcionário do zoológico; Código aberto
A. Dados
B. Nome
C. Memória
D. Trabalhador
A. Hot Swappable
B. Swappable frio
C. Swappable quente
D. Não trocável
A. No disco de todos os trabalhadores
B. No disco do nó principal
C. Em memória do nó principal
D. Em memória de todos os trabalhadores
A. Nos nós do redutor do cluster
B. Nos dados de dados do cluster (não tenho certeza)
C. No nó mestre do cluster
D. Em cada nó do cluster
A. Cache distribuído
B. Cache local
C. Cache particionado
D. Cache de cluster
A. Entradas de cache
B. Entradas redutoras
C. Valores intermediários
D. Entradas de mapa
A. Importação de faíscas-Conconecte jdbc: mysql: //mysql.example.com/spark --sename spark-warehouse-dir user/hue/oozie/implantações/spark
B. SQOOP IMPORT-CONNECT JDBC: mysql: //mysql.example.com/Sqoop-Name Sqoop-Usuário/Hue/Hue/Oozie/Sqoop
C. Sqoop Import-Conconect jdbc: mysql: //mysql.example.com/sqoop --username sqoop ---sassword sqoop-warehouse-dir user/hue/oozie/implantações/sqoop
D. Importação de faísca-Conconecte jdbc: mysql: //mysql.example.com/spark --sename spark-pasassword spark-warehouse-dir user/hue/oozie/implantações/faísca
A. Comprimido (não tenho certeza)
B. Classificado
C. Não foi classificado
D. Criptografado
A. Junit
B. Xunit
C. Mrunit
D. Hadoopunit
A. Hadoop-User
B. Superusuário
C. Usuário do Nó
D. Admin-User
A. Pode ser configurado para ser compartilhado
B. É parcialmente compartilhado
C. É compartilhado
D. Não é compartilhado (https://www.lynda.com/hadoop-tutorials/understanding-java-virtual-machines-jvms/191942/369545-4html)
A. Um método de emprego estático ()
B. Uma aula de emprego e instância (não tenho certeza)
C. Um método de emprego ()
D. Uma aula de emprego estático
A. S3a
B. S3n
C. S3
D. O EMR S3
A. Esquema em Write
B. Sem esquema
C. Esquema externo
D. Esquema em Read
A. Ler escrever
B. Somente leitura
C. Apenas gravação
D. Apêndice somente
A. Hdfs ou topo
B. Http
C. Hdfs ou http
D. HDFS
A. Hive
B. Porco
C. Impala
D. Mahout
A. Uma tabela relacional
B. Uma atualização para o arquivo de entrada
C. Uma única lista combinada
D. Um conjunto de pares <key, valor>
A. Arquivos no armazenamento de objetos
B. Dados do gráfico em bancos de dados gráficos
C. Dados relacionais em sistemas RDBMS gerenciados
D. Dados JSON em bancos de dados NoSQL
A. Modo de dados
B. Modo de segurança
C. Modo de usuário único
D. Modo pseudo-distribuído
A. <chave, valor> pares
B. Chaves
C. Valores
D. <valor, chave> pares
A. Uma média de chaves para valores
B. Uma soma de chaves para valores
C. Um conjunto de pares intermediários de chave/valor
D. Um conjunto de pares finais de chave/valor
A. Selecione… onde valor = 1000
B. Selecione… limite 1000
C. Selecione Top 1000…
D. Selecione o máximo 1000…