Perguntas do Hadoop em idiomas portugueses

Perguntas do Hadoop em idiomas portugueses

Essas perguntas e respostas de múltipla escolha do Hadup ajudarão você a entender melhor o Hadup. Prepare-se para seu próximo exame ou entrevista com mais de 100 MCQs do Hadoop.
Role para baixo para começar a responder.

1: Qual das alternativas a seguir é a sintaxe correta para o comando usado para definir a replicação para um arquivo existente na API REST WEBHDFS HADOOP?

A.   SetReplication (replicação da string, Caminho P, permissão de fspermission)

B.   SetReplication (permissão de fspermission, replicação curta)

C.   SetReplication (replicação da string, caminho P)

D.   setReplication (caminho src, replicação curta)

2: Em Pig, qual dos seguintes tipos de operações de junção pode ser executado usando a junção replicada?

A.   Só i) e ii)

B.   Apenas ii) e iii)

C.   Apenas eu) e iv)

D.   Apenas iii) e iv)

E.   Apenas eu), ii) e iii)

3: Qual das alternativas a seguir é o processo mestre que aceita os envios de emprego dos clientes e agende as tarefas para executar nos nós do trabalhador?

A.   TaskTracker

B.   JobTracker

C.   FIO

D.   Gerente de nó

4: Qual das seguintes variáveis ​​de ambiente é usada para determinar o cluster Hadoop para porco, a fim de executar os trabalhos do MapReduce?

A.   Yarn_conf_dir

B.   Hadoop_prefix

C.   Hadoop_conf_dir

D.   Hadoop_home

5: Qual dos seguintes comandos HDFS é usado para verificar inconsistências e relatar problemas com vários arquivos?

A.   Fetchdt

B.   dfs

C.   OIV

D.   fsck

6: Qual dos seguintes comandos é usado para visualizar o conteúdo de um arquivo chamado /newexample/example1.txt?

A.   bin/hdfs dfs −cat /newexample/example1.txt

B.   bin/hadoop dfsadmin -ddir /newexample/example1.txt

C.   bin/hadoop dfs -cat /newexample/example1.txt

D.   bin/hdfs dfsadmin -ddir /newexample/example1.txt

7: Na arquitetura Hadoop, qual dos seguintes componentes é responsável pelo planejamento e execução de um único emprego?

A.   Gerente de Recursos

B.   Gerente de nó

C.   Aplicativo mestre

D.   Recipiente

8: Qual das seguintes interfaces é usada para acessar a Metastore Hive?

A.   Transformar

B.   Linha de comando

C.   ObjectInspector

D.   Thrift

9: Qual é a função do seguinte comando hadoop? Du?

A.   Ele exibe o resumo dos comprimentos de arquivo.

B.   No caso de um arquivo, ele exibe o comprimento do arquivo, enquanto, em caso de um diretório, exibe os tamanhos dos arquivos e diretórios presentes nesse diretório.

C.   Ele exibe o número de arquivos em um diretório específico.

D.   Ele exibe os números e nomes dos arquivos presentes em um diretório específico.

10: No Hadoop, os instantâneos do HDFS são tirados por qual dos seguintes motivos?

A.   Só i) e iii)

B.   Apenas ii) e iv)

C.   Apenas eu), ii) e iii)

D.   Apenas eu), iii) e iv)

E.   Tudo i), ii), iii) e iv)

11: Antes de serem inseridos em um disco, os registros de saída intermediários emitidos pela tarefa do mapa são bobes na memória local, usando um tampão circular. Qual das seguintes propriedades é usada para configurar o tamanho desse tampão circular?

A.   mapReduce.task.io.sort.mb

B.   io.record.sort.cent

C.   MapReduce.Partitioner.class

D.   mapReduce.task.io.mb

12: Qual das interfaces a seguir pode diminuir a quantidade de memória exigida pelos UDFs, aceitando a entrada em pedaços?

A.   Interface de PigDredcerrestimator

B.   Interface do StoreFunc

C.   Interface filtrofunc

D.   Interface acumuladora

13: Qual das seguintes cláusulas de colméia deve ser usada para impor uma ordem total aos resultados da consulta?

A.   ORDENAR POR

B.   ORDENAR POR

C.   Ou a ou B

D.   Nenhuma das acima

14: Qual dos seguintes comandos Hive é usado para criar um banco de dados chamado MyData?

A.   Crie um banco de dados MyData

B.   Crie banco de dados mydata

C.   Crie um novo banco de dados MyData

D.   Crie novo banco de dados mydata

15: Qual das opções dadas é a função do seguinte comando hadoop? -A

A.   É usado para verificar se todas as bibliotecas estão disponíveis.

B.   É usado para expandir os curingas.

C.   É usado para especificar um gerente de recursos.

D.   É usado para atribuir um valor a uma propriedade

16: Em qual dos seguintes modos de execução de porcos, um programa Java é capaz de invocar os comandos de porco importando as bibliotecas de porcos?

A.   Modo interativo

B.   Modo de lote

C.   Modo incorporado

D.   Modo interativo ou em lote

17: Qual dos tipos de dados de porco fornecidos têm as seguintes características?

A.   Bytearray

B.   Bolsa

C.   Mapa

D.   Tupla

18: Qual das seguintes funções é executada pelo agendador de gerente de recursos na arquitetura de fios?

A.   Ele fornece informações sobre o status do aplicativo.

B.   Ele garante o reinício das falhas de aplicativo e hardware.

C.   Ele aloca recursos para os aplicativos em execução no cluster.

D.   Ele lida com os aplicativos enviados pelos clientes.

19: Qual das alternativas a seguir são as características do operador sindical de Pig?

A.   Não impõe nenhuma restrição ao esquema dos dois conjuntos de dados que estão sendo concatenados.

B.   Ele remove as tuplas duplicadas ao concatenar os conjuntos de dados.

C.   Ele preserva a ordem das tuplas enquanto concorda os conjuntos de dados.

D.   Ele usa o qualificador onschema para dar um esquema ao resultado

20: Qual dos seguintes operadores é necessária para ser usada para teta-joa?

A.   Cogroup

B.   Para cada

C.   Cruzar

D.   União

21: Qual das alternativas a seguir é a sintaxe do comando de linha correta do comando Hadoop Streaming?

A.   Comando Hadoop [StreamingOptions]

B.   Comando ∼ Hadoop [genéricos] [StreamingOptions]

C.   Comando Hadoop [GenericOptions] [StreamingOptions]

D.   Comando ∼ Hadoop [StreamingOptions] [GenericOptions]

22: Qual das seguintes afirmações está correta sobre a colméia se junta?

A.   As junções na Hive são comutativas.

B.   Na Hive, mais de duas tabelas podem ser unidas.

C.   A primeira tabela que participa da junção é transmitida para a tarefa de redução por padrão.

D.   Todos estão corretos.

23: Qual das alternativas a seguir é usada para alterar o grupo de um arquivo?

A.   hdfs chgrp [proprietário] [: [grupo]] [-r] & lt; filepath & gt; & lt; newgroup & gt;

B.   hdfs chgrp [-r] & lt; grupo & gt; & lt; filepath & gt;

C.   hdfs chgrp [-r] & lt; [grupo [: [proprietário] & gt; & lt; filepath & gt;

D.   HDFS CHGRP & LT; GRUPO & GT; & lt; filepath & gt; [-r] & lt; newgroup & gt;

E.   hdfs chgrp & lt; grupo & gt; [-r] & lt; newgroup & gt;

24: Suponha que você precise selecionar um sistema de armazenamento que suporta alta disponibilidade de gerenciador de recursos (RM HA). Qual dos seguintes tipos de armazenamento deve ser selecionado neste caso?

A.   Store de Estado baseada em NívelDB

B.   File System State-Store

C.   A imagem está disponível

D.   A opção A ou B pode ser usada

25: Qual das seguintes afirmações está correta sobre o espaço para nome do sistema de arquivos Hadoop?

A.   A permissão de acesso ao usuário não é implementada no HDFS.

B.   No HDFS, um usuário não tem permissão para criar diretórios.

C.   O HDFS suporta links rígidos.

D.   HDFS implementa cotas de usuário.

26: Qual dos seguintes comandos Hadoop é usado para criar um arquivo de comprimento zero?

A.   touchz

B.   cauda

C.   texto

D.   teste

27: Considere um arquivo de entrada chamado abc.dat.txt com tamanho padrão do bloco 128 MB. Qual das alternativas a seguir é o comando correto que enviará esse arquivo em um HDFS, com um tamanho de bloco de 512 MB?

A.   Hadoop fs ∼ d blocksize = 536870912 -put abc.dat.txt para abc.dat.newblock.txt

B.   hadoop fs.blocksize = 536870912 -put abc.dat.txt abc.dat.newblock.txt

C.   hadoop fs -d dfs.blocksize = 536870912 -put abc.dat.txt abc.dat.newblock.txt

D.   hadoop fs.blocksize −d = 536870912 -put abc.dat.txt para abc.dat.newblock.txt

28: Qual é a função da seguinte propriedade de configuração do Yarns Resource Manager? Yarn.resourceManager.ha.id

A.   É usado para identificar a classe a ser usada pelo cliente.

B.   Utilizou para listar os IDs lógicos usados ​​pelos gerentes de recursos.

C.   É usado para especificar o nome do host correspondente para gerenciador de recursos.

D.   É usado para identificar o gerente de recursos no Ensemble.

29: Quais são as duas seguintes diferenças corretas entre o MapReduce e o RDBMS tradicional?

A.   A escala no MapReduce não é linear, enquanto no RDBMS é linear.

B.   No MapReduce, a operação de leitura pode ser realizada muitas vezes, mas a operação de gravação pode ser executada apenas uma vez. No RDBMS tradicional, as operações de leitura e gravação podem ser executadas muitas vezes.

C.   A integridade do MapReduce é maior em comparação com o RDBMS.

D.   O padrão de acesso do MapReduce é em lote, enquanto o padrão de acesso do RDBMS é interativo e em lote

30: Qual das seguintes afirmações está correta sobre o proxy de aplicativos da web de Yarns?

A.   Ele impede que o gerenciador de aplicativos forneça links para os sites externos maliciosos.

B.   Impede a execução do código JavaScript malicioso.

C.   Ele tira os cookies do usuário e os substitui por um único cookie, fornecendo o nome de usuário do usuário logado.

D.   Ele é executado como parte da manjedoura de recursos, mas não pode ser configurado para executar no modo independente.

31: Quais dois dos seguintes parâmetros do comando Hadoop Streaming são opcionais?

A.   −Ortput DirectoryName

B.   −cmdenv nome = valor

C.   −Combiner StreamingCommand

D.   -Redutor JavaclassName

32: Qual dos seguintes comandos é usado para definir uma variável de ambiente em um comando de streaming?

A.   -File abc =/home/exemplo/

B.   −mapper abc =/home/inputReader/exemplo/dicionários/

C.   -Input abc =/home/diretórios/exemplo

D.   -cmdenv abc =/home/exemplo/dicionários/

33: Qual das alternativas a seguir são as vantagens da criptografia em nível de disco em HDFs?

A.   Fornece alto desempenho.

B.   Pode ser implantado facilmente.

C.   É altamente flexível.

D.   Pode proteger contra software e ameaças físicas.

34: Para um arquivo chamado ABC, qual dos seguintes comandos Hadoop é usado para definir todas as permissões para o proprietário, definir permissões de leitura para grupo e definir nenhuma permissões para outros usuários no sistema?

A.   Hadoop FS - Chmod ABC 310

B.   Hadoop FS - Chmod 740 ABC

C.   Hadoop FS ∼CHMOD 420 ABC

D.   Hadoop FS - Chmod ABC ∼ 860

35: Qual dos seguintes níveis de permissão não é permitido na autorização do HDFS?

A.   Ler

B.   Escrever

C.   Executar

D.   Todos os três níveis de permissão são permitidos

36: Quais das seguintes operações de junção não são suportadas pelo Hive?

A.   Semi-jogue esquerdo

B.   Junção interna

C.   Teta ingressar

D.   Junção difusa

37: Qual dos seguintes comandos é usado para criar um arquivo keytab usado na autenticação Kerberos?

A.   Kinit

B.   Klist

C.   ktutil

D.   MRADMIN

E.   dfsadmin

38: Qual das alternativas a seguir é a propriedade avançada de configuração do servidor do fio usada para permitir a exclusão de dados envelhecidos presentes no armazenamento da linha do tempo?

A.   yarn.timeline-ervice.ttl-enable

B.   yarn.timeline-ervice.enabled

C.   yarn.timeline-ervice.generic-aplication-history.enabled

D.   yarn.timeline-ervice.recovery.enabled

39: Para executar um arquivo JAR personalizado e construído pelo usuário, o comando jar é usado. Qual das alternativas a seguir é a sintaxe correta deste comando?

A.   Nó do fio -Jar [Nome da classe principal] & lt; Jar File Path & gt; [Argumentos…]

B.   Jar de fios & lt; Jar File Path & gt; [Nome da classe principal] [Argumentos…]

C.   aplicativo de fio -Jar [nome da classe principal] & lt; caminho do arquivo jar & gt; [Argumentos ...]

D.   LONS LONS jar & lt; Jar File Path & gt; [Nome da classe principal] [Argumentos…]

40: Qual dos seguintes comandos do YARN é usado para substituir o diretório de configuração padrão $ {hadoop_prefix}/conf?

A.   -Config confdir

B.   -Config. YarnConfiguration

C.   Daemonlog - GetLevel

D.   DaemonLog Confdir

41: Qual dos seguintes comandos HiveQL é usado para imprimir a lista de variáveis ​​de configuração substituídas pelo Hive ou pelo usuário?

A.   definir

B.   Definir −v

C.   dfs

D.   reiniciar

42: Qual das opções fornecidas é a função correta do seguinte comando hiveql?!

A.   É usado para executar um comando dfs no shell de hive.

B.   É usado para executar um comando Shell dentro da CLI.

C.   É usado para executar um comando de shell a partir do shell de colméia.

D.   É usado para executar um comando DFS dentro da CLI.

43: Qual das alternativas a seguir são as funções do Hadoop? I) Pesquisa de dados) Retenção de dados)

A.   Só i) e iii)

B.   Só i) e ii)

C.   Apenas eu), ii) e iv)

D.   Tudo i), ii), iii) e iv)

44: Qual das seguintes propriedades de configuração do Yarns Resource Manager é usada para especificar o host: Port para os clientes enviarem trabalhos?

A.   yarn.resourceManager.ha.rm-ids

B.   yarn.resourceManager.address.rm-id

C.   yarn.resourceManager.hostname.rm-id

D.   yarn.resourceManager.scheduler.address.rm-id

45: Qual dos seguintes comandos HDFS é usado para definir um nome e valor de atributo estendido para um arquivo ou um diretório?

A.   setGid

B.   setfile

C.   setfattr

D.   setquota

E.   setConf

46: Qual dos seguintes comandos Pig é/são usados ​​para amostrar dados e aplicar uma consulta nele?

A.   DESCREVER

B.   Ilustrar

C.   EXPLICAR

D.   Ambos a e B

47: Qual das alternativas a seguir é a sintaxe correta para o perfil do MAVEN DOCS que é usado para criar documentação em Auth Hadoop?

A.   $ mvn pacote - pdocs

B.   $ mvn pdocs

C.   $ CURL - MVN PDOCS

D.   $ CURL - MVN PDOCS - pacote

48: Em caso de autorização no nível de serviço no Hadoop, quais das seguintes propriedades são usadas para determinar os ases usados ​​para conceder permissões para os Datanodes se comunicarem e acessarem o Namenode?

A.   segurança.client.datanode.protocol.acl

B.   segurança.namenode.protocol.acl

C.   segurança.client.protocol.acl

D.   segurança.datanode.protocol.acl

49: Qual é o valor padrão da seguinte propriedade de configuração de segurança da arquitetura de fios?

A.   1 dia

B.   3 dias

C.   5 dias

D.   7 dias

50: Ao configurar a autenticação HTTP no Hadoop, qual das alternativas a seguir é definida como o valor da propriedade "Hadoop.http.filter.initializers"?

A.   org.apache.hadoop.security.authenticationinitializer Nome da classe

B.   org.apache.hadoop.security.shellbasedunixGroupsMapping Nome da classe

C.   org.apache.hadoop.security.ldapgroupsmapping classe

D.   org.apache.hadoop.security.ssl Nome da classe

51: Qual dos seguintes comandos HDFS Shell é usado para definir um grupo para um arquivo ou diretório específico?

A.   chown

B.   chmod

C.   chgrp

D.   setrowner

52: Qual das alternativas a seguir são os argumentos da linha de comando necessários para o comando OEV do HDFS?

A.   -i, - -inputfile arg

B.   -o, - -outputfile arg

C.   -p, --processor arg

D.   -f,--fix-txids

53: Qual das alternativas a seguir é o serviço de diretório Hadoop que armazena os metadados relacionados aos arquivos presentes no armazenamento do cluster?

A.   MapReduce

B.   DataNode

C.   Quorumpemain

D.   Namenode

54: Qual das seguintes funções não é executada pela classe InputFormat para um emprego no MapReduce Hadoop?

A.   Ele divide os dados de entrada em pedaços lógicos e atribui cada uma dessas divisões a uma tarefa de mapa.

B.   Ele instancia o objeto RecordReader que pode funcionar em cada classe InputSplit.

C.   Ele apresenta uma visualização de registro dos dados para a tarefa do mapa e lê de uma classe InputSplit.

D.   Ele produz os registros para a tarefa do mapa como pares de valor-chave.

55: Qual dos seguintes comandos é usado para distribuir um arquivo excluído a todos os namenodos?

A.   [hdfs] $ $ hadoop_prefix/sbin/distribute-exclude.sh & lt; exclude_file & gt;

B.   $ [Hadoop hdfs] sbin/distribute-exclude.sh & lt; exclude_file & gt;

C.   $ [dfsadmin, hdfs] $ hadoop_prefix/sbin/& lt; exclude_file & gt;/distribute-exclude.sh

D.   [dfsadmin] $ $ hadoop_prefix/ sbin/ & lt; exclude_file & gt;/ distribute-exclude.sh

56: Ao acessar um URL do protocolo de autenticação Hadoop usando o CURL, qual das seguintes opções de comando são usadas para armazenar e enviar cookies HTTP?

A.   −u e -v

B.   −b e −c

C.   −c e −u

D.   −u e −c

57: Qual é o valor padrão da propriedade Hadoop.http.authentication.token.valididade que é usada em caso de autenticação via interface HTTP?

A.   72.000 segundos

B.   18.000 segundos

C.   64.000 segundos

D.   36.000 segundos

58: No caso de uma execução de multiques, qual dos seguintes códigos de retorno indica erros recuperáveis ​​para uma execução?

A.   0

B.   1

C.   2

D.   00

59: Qual dos seguintes comandos Hadoop é usado para copiar um caminho de origem para Stdout?

A.   Estado

B.   CopyTolocal

C.   cp

D.   gato

60: Qual dos seguintes comandos Hadoop DFSadmin gera uma lista de Datanodes?

A.   bin/hdfs dfsadmin −r

B.   bin/hdfs dfsadmin - relato

C.   bin/hdfs dfsadmin - relato de datanodes

D.   bin/hdfs dfsadmin - r datanodes

61: Quais das seguintes opções não são as propriedades do objeto App (Application) da API Rest Nodemanager?

A.   contêinerids

B.   containers

C.   estado

D.   do utilizador

E.   aplicativo

62: Qual das alternativas a seguir é o tipo de dados correto do elemento "TotalMb" do objeto ClusterMetrics usado na API REST RECLEMEMANAGER YARN?

A.   int

B.   corda

C.   longo

D.   bigint

63: Qual dos seguintes objetos é usado pela classe RecordReader para leitura de dados de uma classe InputSplit?

A.   FsdatainputStream

B.   LineReader

C.   Sistema de arquivo

D.   RecordReader

64: Qual dos seguintes operadores é usada para não levar as tuplas e as sacolas aninhadas?

A.   ILUSTRAR

B.   Achatar

C.   Cogroup

D.   CRUZAR

65: A estrutura do Hadoop consiste no algoritmo ________ para resolver problemas em larga escala.

A.   MapSystem

B.   MapReduce

C.   MapCluster

D.   MapComponent

66: O Partiote controla a partição de quais dados?

A.   Chaves finais

B.   Valores finais

C.   Chaves intermediárias

D.   Valores intermediários

67: As funções de janela SQL são implementadas no Hive usando quais palavras -chave?

A.   Union distinto, classificação

B.   Sobre, classificar

C.   Acima, exceto

D.   Union distinto, classificação

68: Em vez de adicionar um tipo secundário a um trabalho lento, é o Hadoop Best Practice realizar qual otimização?

A.   Adicione um shuffle particionado ao trabalho do mapa.

B.   Adicione um shuffle particionado ao trabalho de redução.

C.   Divida o trabalho de redução em múltiplos e encadeados empregos.

D.   Divida o trabalho de redução em vários trabalhos de mapa acorrentado.

A.   Http criptografado

B.   HTTP não assinado

C.   HTTP compactado

D.   HTTP assinado

70: MapReduce Jobs pode ser escrito em qual idioma?

A.   Java ou python

B.   Apenas SQL

C.   SQL ou Java

D.   Python ou SQL

71: Para executar a agregação local das saídas intermediárias, os usuários do MapReduce podem opcionalmente especificar qual objeto?

A.   Redutor

B.   Combiner

C.   Mapeador

D.   Contador

72: Para verificar o status do trabalho, procure o valor ___ no ___.

A.   Conseguiu; syslog

B.   Conseguiu; stdout

C.   FEITO; syslog

D.   FEITO; stdout

73: Qual linha de código implementa um método redutor no MapReduce 2.0?

A.   Public void Reduce (chave de texto, valores do iterador, contexto de contexto) {…}

B.   Public static void Reduce (Chave de texto, Valores Intwritable [], contexto de contexto) {…}

C.   Public static void Reduce (chave de texto, valores do iterador, contexto de contexto) {…}

D.   Public void Reduce (chave de texto, valores intrawrity [], contexto de contexto) {…}

74: Para obter o número total de registros de entrada mapeados em uma tarefa de trabalho de mapa, você deve revisar o valor de qual contador?

A.   FileInputFormatCounter

B.   FilesystemCounter

C.   JobCounter

D.   TaskCounter (não tenho certeza)

75: O Hadoop Core suporta quais capacidades do CAP?

A.   A, p

B.   C, a

C.   C, p

D.   BONÉ

76: Quais são as fases primárias de um redutor?

A.   Combine, mapeie e reduza

B.   Embaralhar, classificar e reduzir

C.   Reduzir, classificar e combinar

D.   Mapear, classificar e combinar

77: Para configurar o fluxo de trabalho do Hadoop com a sincronização de dados entre trabalhos que processam tarefas tanto no disco quanto na memória, use o serviço ___, que é ___.

A.   Oozie; Código aberto

B.   Oozie; software comercial

C.   Funcionário do zoológico; software comercial

D.   Funcionário do zoológico; Código aberto

78: Para alta disponibilidade, use vários nós de que tipo?

A.   Dados

B.   Nome

C.   Memória

D.   Trabalhador

79: DataNode suporta que tipo de unidades?

A.   Hot Swappable

B.   Swappable frio

C.   Swappable quente

D.   Não trocável

80: Qual método é usado para implementar trabalhos de faísca?

A.   No disco de todos os trabalhadores

B.   No disco do nó principal

C.   Em memória do nó principal

D.   Em memória de todos os trabalhadores

81: Em um trabalho MapReduce, onde a função map () é executada?

A.   Nos nós do redutor do cluster

B.   Nos dados de dados do cluster (não tenho certeza)

C.   No nó mestre do cluster

D.   Em cada nó do cluster

82: Para fazer referência a um arquivo mestre para pesquisas durante o mapeamento, que tipo de cache deve ser usado?

A.   Cache distribuído

B.   Cache local

C.   Cache particionado

D.   Cache de cluster

83: O Skip Bad Records oferece uma opção em que um certo conjunto de registros de entrada ruim pode ser ignorado ao processar que tipo de dados?

A.   Entradas de cache

B.   Entradas redutoras

C.   Valores intermediários

D.   Entradas de mapa

84: Qual comando importa dados para Hadoop de um banco de dados MySQL?

A.   Importação de faíscas-Conconecte jdbc: mysql: //mysql.example.com/spark --sename spark-warehouse-dir user/hue/oozie/implantações/spark

B.   SQOOP IMPORT-CONNECT JDBC: mysql: //mysql.example.com/Sqoop-Name Sqoop-Usuário/Hue/Hue/Oozie/Sqoop

C.   Sqoop Import-Conconect jdbc: mysql: //mysql.example.com/sqoop --username sqoop ---sassword sqoop-warehouse-dir user/hue/oozie/implantações/sqoop

D.   Importação de faísca-Conconecte jdbc: mysql: //mysql.example.com/spark --sename spark-pasassword spark-warehouse-dir user/hue/oozie/implantações/faísca

85: De que forma é apresentada a saída do redutor?

A.   Comprimido (não tenho certeza)

B.   Classificado

C.   Não foi classificado

D.   Criptografado

86: Qual biblioteca deve ser usada para testar o código MapReduce?

A.   Junit

B.   Xunit

C.   Mrunit

D.   Hadoopunit

87: Se você iniciou o Namenode, então que tipo de usuário você deve ser?

A.   Hadoop-User

B.   Superusuário

C.   Usuário do Nó

D.   Admin-User

88: Estado _ entre os JVMs em um trabalho MapReduce

A.   Pode ser configurado para ser compartilhado

B.   É parcialmente compartilhado

C.   É compartilhado

D.   Não é compartilhado (https://www.lynda.com/hadoop-tutorials/understanding-java-virtual-machines-jvms/191942/369545-4html)

89: Para criar um trabalho MapReduce, o que deve ser codificado primeiro?

A.   Um método de emprego estático ()

B.   Uma aula de emprego e instância (não tenho certeza)

C.   Um método de emprego ()

D.   Uma aula de emprego estático

90: Para conectar o Hadoop ao AWS S3, qual cliente você deve usar?

A.   S3a

B.   S3n

C.   S3

D.   O EMR S3

91: O HBase funciona com que tipo de aplicação do esquema?

A.   Esquema em Write

B.   Sem esquema

C.   Esquema externo

D.   Esquema em Read

92: O arquivo HDFS é do que tipo?

A.   Ler escrever

B.   Somente leitura

C.   Apenas gravação

D.   Apêndice somente

93: Um caminho de arquivo de cache distribuído pode se originar de qual local?

A.   Hdfs ou topo

B.   Http

C.   Hdfs ou http

D.   HDFS

94: Qual biblioteca você deve usar para realizar trabalhos MapReduce do tipo ETL?

A.   Hive

B.   Porco

C.   Impala

D.   Mahout

95: Qual é a saída do redutor?

A.   Uma tabela relacional

B.   Uma atualização para o arquivo de entrada

C.   Uma única lista combinada

D.   Um conjunto de pares <key, valor>

96: Quando implementado em uma nuvem pública, com o que o Processamento do Hadoop interage?

A.   Arquivos no armazenamento de objetos

B.   Dados do gráfico em bancos de dados gráficos

C.   Dados relacionais em sistemas RDBMS gerenciados

D.   Dados JSON em bancos de dados NoSQL

97: No sistema Hadoop, que modo administrativo é usado para manutenção?

A.   Modo de dados

B.   Modo de segurança

C.   Modo de usuário único

D.   Modo pseudo-distribuído

98: Em que formato o registroWriter escreve um arquivo de saída?

A.   <chave, valor> pares

B.   Chaves

C.   Valores

D.   <valor, chave> pares

99: Para o que a chave de entrada do mapa do mapeador pares/valores?

A.   Uma média de chaves para valores

B.   Uma soma de chaves para valores

C.   Um conjunto de pares intermediários de chave/valor

D.   Um conjunto de pares finais de chave/valor

100: Qual consulta Hive retorna os primeiros 1.000 valores?

A.   Selecione… onde valor = 1000

B.   Selecione… limite 1000

C.   Selecione Top 1000…

D.   Selecione o máximo 1000…