Preguntas de Hadoop en idiomas españoles

Preguntas de Hadoop en idiomas españoles

Estas preguntas y respuestas de opción múltiple de Hadup lo ayudarán a comprender mejor a Hadup. Puede prepararse para su próximo examen o entrevista con estos más de 100 MCQ de Hadup.
Así que desplácese hacia abajo y comience a responder.

1: ¿Cuál de las siguientes es la sintaxis correcta para el comando utilizado para configurar la replicación para un archivo existente en Hadoop WebHDFS REST API?

A.   setReplication (replicación de cadenas, ruta P, permiso de FSPermission)

B.   SetReplication (permiso de FSPermission, replicación corta)

C.   setReplication (replicación de cadenas, ruta p)

D.   setReplication (ruta src, replicación corta)

2: En el cerdo, ¿cuál de los siguientes tipos de operaciones de unión se puede realizar utilizando la unión replicada? I) unión interna)

A.   Solo i) y ii)

B.   Solo ii) y iii)

C.   Solo i) y iv)

D.   Solo iii) y IV)

E.   Solo i), ii) y iii)

3: ¿Cuál de los siguientes es el proceso maestro que acepta las presentaciones de trabajo de los clientes y programa las tareas que se ejecutarán en nodos de trabajadores?

A.   Tasktracker

B.   Jobtracker

C.   HILO

D.   Gerente de nodo

4: ¿Cuál de las siguientes variables de entorno se usa para determinar el clúster Hadoop para el cerdo, para ejecutar los trabajos de MapReduce?

A.   Yarn_conf_dir

B.   Hadoop_prefix

C.   Hadoop_conf_dir

D.   Hadoop_home

5: ¿Cuál de los siguientes comandos HDFS se utiliza para verificar inconsistencias e informar problemas con varios archivos?

A.   fethdt

B.   DFS

C.   OIV

D.   FSCK

6: ¿Cuál de los siguientes comandos se usa para ver el contenido de un archivo llamado /Newexample/Example1.txt?

A.   bin/hdfs dfs −cat /newexample/example1.txt

B.   bin/hadoop dfsadmin -ddir /newexample/example1.txt

C.   bin/hadoop dfs -cat /newexample/example1.txt

D.   bin/hdfs dfsadmin -ddir /newexample/example1.txt

7: En la arquitectura de Hadoop, ¿cuál de los siguientes componentes es responsable de la planificación y ejecución de un solo trabajo?

A.   Administrador de recursos

B.   Gerente de nodo

C.   Aplicación maestro

D.   Envase

8: ¿Cuál de las siguientes interfaces se usa para acceder al Metastore Hive?

A.   Transformar

B.   Línea de comando

C.   Objeto

D.   Ahorro de ahorro

9: ¿Cuál es la función del siguiente comando Hadoop?

A.   Muestra el resumen de las longitudes de archivo.

B.   En el caso de un archivo, muestra la longitud del archivo, mientras que en el caso de un directorio, muestra los tamaños de los archivos y directorios presentes en ese directorio.

C.   Muestra el número de archivos en un directorio particular.

D.   Muestra los números y nombres de los archivos presentes en un directorio particular.

10: En Hadoop, las instantáneas de HDFS se toman por cuál de las siguientes razones? I) para proporcionar protección contra el error del usuario. II) para proporcionar copia de seguridad.iii) para la recuperación de desastres.iv) para copiar datos de los nodos de datos.

A.   Solo i) y iii)

B.   Solo ii) y IV)

C.   Solo i), ii) y iii)

D.   Solo i), iii) y IV)

E.   Todo i), ii), iii) y iv)

11: Antes de ser insertado en un disco, los registros de salida intermedios emitidos por la tarea del mapa se almacenan en la memoria local, utilizando un búfer circular. ¿Cuál de las siguientes propiedades se usa para configurar el tamaño de este búfer circular?

A.   mapreduce.task.io.sort.mb

B.   io.Record.Sort.PORTER

C.   MapReduce.Partitioner.Class

D.   mapreduce.task.io.mb

12: ¿Cuál de las siguientes interfaces puede disminuir la cantidad de memoria requerida por los UDF, al aceptar la entrada en fragmentos?

A.   Interfaz Pigreducerestimator

B.   Interfaz de StoreFunc

C.   Interfaz FilterFunc

D.   Interfaz de acumulador

13: ¿Cuál de las siguientes cláusulas de colmena debe usarse para imponer un orden total en los resultados de la consulta?

A.   Ordenar

B.   ORDENAR POR

C.   Cualquiera a o B

D.   Ninguna de las anteriores

14: ¿Cuál de los siguientes comandos de colmena se usa para crear una base de datos llamada MyData?

A.   Crear base de datos MyData

B.   Crear base de datos MyData

C.   Crear nueva base de datos MyData

D.   Crear nuevos myData de base de datos

15: ¿Cuál de las opciones dadas es la función del siguiente comando Hadoop?

A.   Se utiliza para verificar si todas las bibliotecas están disponibles.

B.   Se usa para expandir los comodines.

C.   Se utiliza para especificar un administrador de recursos.

D.   Se usa para asignar un valor a una propiedad

16: ¿En cuál de los siguientes modos de ejecución de cerdos, un programa Java es capaz de invocar comandos de cerdo importando las bibliotecas de cerdos?

A.   Modo interactivo

B.   Por lotes

C.   Modo incrustado

D.   Ya sea interactivo o en modo por lotes

17: ¿Cuál de los tipos de datos de cerdo dados tiene las siguientes características? I) Es una colección de valores de datos. II) Estos valores de datos están ordenados y tienen una longitud fija.

A.   bytearray

B.   Bolsa

C.   Mapa

D.   Tuple

18: ¿Cuál de las siguientes funciones es realizada por el planificador del administrador de recursos en la arquitectura del hilo?

A.   Proporciona información sobre el estado de la aplicación.

B.   Garantiza el reinicio de las fallas de la aplicación y el hardware.

C.   Asigna recursos a las aplicaciones que se ejecutan en el clúster.

D.   Maneja las solicitudes presentadas por los clientes.

19: ¿Cuáles de las siguientes son las características del Operador Union de Pig?

A.   No impone ninguna restricción al esquema de los dos conjuntos de datos que se están concatenando.

B.   Elimina las tuplicadas tuplicas mientras concatena los conjuntos de datos.

C.   Preserva el orden de las tuplas mientras concatena los conjuntos de datos.

D.   Utiliza el calificador de Onschema para dar un esquema al resultado

20: ¿Cuál de los siguientes operadores es necesario para ser utilizado para unir?

A.   Flogo

B.   Para cada

C.   Cruz

D.   Unión

21: ¿Cuál de las siguientes es la sintaxis del comando de línea correcta del comando de transmisión Hadoop?

A.   Comando Hadoop [StreamingOptions]

B.   Comando ∼ Hadoop [GenericOptions] [StreamingOptions]

C.   Comando Hadoop [GenericOptions] [StreamingOptions]

D.   Comando ∼ Hadoop [streamingOptions] [genicOptions]

22: ¿Cuál de las siguientes afirmaciones es correcta sobre las uniones de colmena?

A.   Las uniones en Hive son conmutativas.

B.   En Hive, se pueden unir más de dos tablas.

C.   La primera tabla que participa en la unión se transmite a la tarea Reducir de forma predeterminada.

D.   Todas son correctas.

23: ¿Cuál de los siguientes se usa para cambiar el grupo de un archivo?

A.   hdfs chgrp [propietario] [: [grupo]] [-r] & lt; filepath & gt; & lt; newgroup & gt;

B.   hdfs chgrp [-r] & lt; group & gt; & lt; filepath & gt;

C.   hdfs chgrp [-r] & lt; [grupo [: [propietario] & gt; & lt; filepath & gt;

D.   hdfs chgrp & lt; group & gt; & lt; filepath & gt; [-r] & lt; newgroup & gt;

E.   hdfs chgrp & lt; group & gt; [-r] & lt; newgroup & gt;

24: Suponga que necesita seleccionar un sistema de almacenamiento que admita la alta disponibilidad de Resource Manager (RM HA). ¿Cuál de los siguientes tipos de almacenamiento debe seleccionarse en este caso?

A.   Tienda estatal basada en niveles

B.   Store estatal basado en el sistema de archivos

C.   STATIS-STORE basado en Zookeeper

D.   Se podría usar la opción A o B

25: ¿Cuál de las siguientes afirmaciones es correcta sobre el espacio de nombres del sistema de archivos Hadoop?

A.   El permiso de acceso al usuario no se implementa en HDFS.

B.   En HDFS, un usuario no puede crear directorios.

C.   HDFS admite enlaces duros.

D.   HDFS implementa cuotas de usuario.

26: ¿Cuál de los siguientes comandos de Hadoop se usa para crear un archivo de longitud cero?

A.   touchz

B.   cola

C.   texto

D.   prueba

27: Considere un archivo de entrada llamado abc.dat.txt con el tamaño de bloque predeterminado 128 MB. ¿Cuál de los siguientes es el comando correcto que cargará este archivo en un HDFS, con un tamaño de bloque de 512 MB?

A.   Hadoop fs ∼ D blocksize = 536870912 -put abc.dat.txt a abc.dat.newblock.txt

B.   Hadoop Fs.BlockSize = 536870912 -put abc.dat.txt abc.dat.newblock.txt

C.   Hadoop fs -d dfs.blockSize = 536870912 -put abc.dat.txt abc.dat.newblock.txt

D.   Hadoop Fs.BlockSize −D = 536870912 -put abc.dat.txt a abc.dat.newblock.txt

28: ¿Cuál es la función de la siguiente propiedad de configuración de Yarns Resource Manager? Yarn.resourcanager.ha.id

A.   Se utiliza para identificar la clase para ser utilizada por el cliente.

B.   Se utilizó para enumerar las ID lógicas utilizadas por los gerentes de recursos.

C.   Se utiliza para especificar el nombre de host correspondiente para el administrador de recursos.

D.   Se utiliza para identificar el administrador de recursos en el conjunto.

29: ¿Cuáles de las dos de las siguientes son las diferencias correctas entre MapReduce y los RDBM tradicionales?

A.   La escala en MapReduce no es lineal, mientras que en RDBMS es lineal.

B.   En MapReduce, la operación de lectura se puede realizar muchas veces, pero la operación de escritura se puede realizar solo una vez. En los RDBM tradicionales, las operaciones de lectura y escritura se pueden realizar muchas veces.

C.   La integridad de MapReduce es mayor en comparación con RDBMS.

D.   El patrón de acceso de MapReduce es por lotes, mientras que el patrón de acceso de RDBMS es interactivo y por lotes

30: ¿Cuál de las siguientes afirmaciones es correcta sobre el proxy de la aplicación web de hilos?

A.   Evita que el administrador de aplicaciones proporcione enlaces a los sitios externos maliciosos.

B.   Evita la ejecución del código malicioso de JavaScript.

C.   Quita las cookies del usuario y las reemplaza con una sola cookie, proporcionando el nombre de usuario del usuario registrado.

D.   Se ejecuta como parte del Manger de recursos, pero no se puede configurar para ejecutarse en el modo independiente.

31: ¿Qué dos de los siguientes parámetros del comando de transmisión Hadoop son opcionales?

A.   Nombre de directorio de utopput

B.   −cmdenv name = valor

C.   −Combiner Streaming Command

D.   -Ducer javaclassname

32: ¿Cuál de los siguientes comandos se utiliza para establecer una variable de entorno en un comando de transmisión?

A.   -File ABC =/Home/Ejemplo/

B.   −mapper ABC =/Home/InputReader/Ejemplo/Diccionarios/

C.   −Input ABC =/Home/Directorios/Ejemplo

D.   -Cmdenv ABC =/Home/Ejemplo/Dictionaries/

33: ¿Cuáles de las siguientes son las ventajas del cifrado a nivel de disco en HDF?

A.   Proporciona alto rendimiento.

B.   Se puede implementar fácilmente.

C.   Es altamente flexible.

D.   Puede proteger contra el software y las amenazas físicas.

34: Para un archivo llamado ABC, ¿cuál de los siguientes comandos de Hadoop se utiliza para configurar todos los permisos para el propietario, establecer permisos de lectura para el grupo y establecer permisos para otros usuarios en el sistema?

A.   Hadoop FS −CHMOD ABC 310

B.   Hadoop FS −CHMOD 740 ABC

C.   Hadoop fs ∼chmod 420 ABC

D.   Hadoop FS −Chmod ABC ∼ 860

35: ¿Cuál de los siguientes niveles de permiso no está permitido en la autorización de HDFS?

A.   Leer

B.   Escribir

C.   Ejecutar

D.   Se permiten los tres niveles de permiso

36: ¿Cuál de las siguientes operaciones de unión no es compatible con Hive?

A.   Semi-unido a la izquierda

B.   Unir internamente

C.   Theta Únete

D.   Fuzzy Join

37: ¿Cuál de los siguientes comandos se utiliza para crear un archivo KeyTab utilizado en la autenticación de Kerberos?

A.   pariente

B.   klist

C.   ktutil

D.   mradmin

E.   dfsadmin

38: ¿Cuál de los siguientes es la propiedad de configuración avanzada del hilo del lado del servidor que se utiliza para habilitar la eliminación de datos de edad avanzada presente en el almacén de la línea de tiempo?

A.   yarn.timeline-service.ttl-enable

B.   yarn.timeline-service.Enabled

C.   Yarn.timeline-service.Generic-aplicaciones-History.Enabled

D.   yarn.timeline-service.covery.Enabled

39: Para ejecutar un archivo jAR personalizado y construido por el usuario, se utiliza el comando jAR. ¿Cuál de las siguientes es la sintaxis correcta de este comando?

A.   Yarn nodo -jar [nombre de clase principal] & lt; jar archivo rath & gt; [argumentos ...]

B.   yarn jar & lt; jar archivo ruta & gt; [Nombre de la clase principal] [Argumentos ...]

C.   Aplicación de hilo -jar [nombre de clase principal] & lt; jar archivo ruta & gt; [Argumentos ...]

D.   Registros de hilo jar & lt; jar archivo ruta & gt; [Nombre de la clase principal] [Argumentos ...]

40: ¿Cuál de los siguientes comandos de hilo se usa para sobrescribir el directorio de configuración predeterminado $ {hadoop_prefix}/conf?

A.   -config confdir

B.   --Config. Colegio de hilos

C.   Daemonlog -getLevel

D.   Daemonlog confdir

41: ¿Cuál de los siguientes comandos HiveQL se utiliza para imprimir la lista de variables de configuración anuladas por Hive o el usuario?

A.   colocar

B.   establecer −v

C.   DFS

D.   reiniciar

42: ¿Cuál de las opciones dadas es la función correcta del siguiente comando Hiveql?

A.   Se usa para ejecutar un comando DFS desde el shell de colmena.

B.   Se usa para ejecutar un comando shell dentro de la CLI.

C.   Se usa para ejecutar un comando shell desde el shell de colmena.

D.   Se usa para ejecutar un comando DFS dentro de la CLI.

43: ¿Cuáles de las siguientes son las funciones de Hadoop? I) búsqueda de datos) retención de datos)

A.   Solo i) y iii)

B.   Solo i) y ii)

C.   Solo i), ii) y IV)

D.   Todo i), ii), iii) y iv)

44: ¿Cuál de las siguientes propiedades de configuración del Administrador de recursos de Yarns se utiliza para especificar el host: puerto para que los clientes envíen trabajos?

A.   yarn.resourcemanager.ha.rm-ids

B.   yarn.resourcemanager.address.rm-id

C.   yarn.resourcemanager.hostname.rm-id

D.   yarn.resourcemanager.scheduler.address.rm-id

45: ¿Cuál de los siguientes comandos HDFS se utiliza para establecer un nombre y valor de atributo extendido para un archivo o un directorio?

A.   setgid

B.   archivo de set

C.   setfattr

D.   setquota

E.   setconf

46: ¿Cuál de los siguientes comandos de cerdo se usa/se usa para muestrear los datos y aplicar una consulta en él?

A.   DESCRIBIR

B.   Ilustrar

C.   EXPLICAR

D.   Tanto a como B

47: ¿Cuál de las siguientes es la sintaxis correcta para el perfil Docs Maven que se utiliza para crear documentación en Hadoop Auth?

A.   Paquete de $ MVN - PDOC

B.   $ MVN PDOCS

C.   $ curl - mvn pdocs

D.   Paquete de $ curl - MVN -

48: En caso de autorización a nivel de servicio en Hadoop, ¿cuál de las siguientes propiedades se utiliza para determinar los ACE utilizados para otorgar permisos para los Datanodes para comunicar y acceder al Namenode?

A.   Security.client.datanode.protocol.acl

B.   Security.namenode.protocol.acl

C.   Security.client.protocol.acl

D.   Security.datanode.protocol.acl

49: ¿Cuál es el valor predeterminado de la siguiente propiedad de configuración de seguridad de la arquitectura del hilo? Yarn.timeline-service.delegation.token.renew-interval

A.   1 día

B.   3 días

C.   5 dias

D.   7 días

50: Al configurar la autenticación HTTP en Hadoop, ¿cuál de los siguientes se establece como el valor de la propiedad "Hadoop.http.filter.initializers"?

A.   org.apache.hadoop.security.authenticationInitializer nombre de clase

B.   org.apache.hadoop.security.shellbasedUnixGroupSmapping Nombre

C.   org.apache.hadoop.security.dapGroupSmapping clase

D.   org.apache.hadoop.security.ssl nombre de clase

51: ¿Cuál de los siguientes comandos de shell HDFS se usa para configurar un grupo para un archivo o directorio en particular?

A.   chown

B.   chmod

C.   CHGRP

D.   propietario

52: ¿Cuáles de los siguientes son los argumentos de línea de comandos requeridos para el comando OEV de HDFS?

A.   -i, - -Inputfile arg

B.   -o, -outputfile arg

C.   -p, -procesador arg

D.   -f,--fix-txids

53: ¿Cuál de los siguientes es el servicio de directorio Hadoop que almacena los metadatos relacionados con los archivos presentes en el almacenamiento del clúster?

A.   Mapa reducido

B.   Datanode

C.   Quorupermoin

D.   Namenode

54: ¿Cuál de las siguientes funciones no es realizada por la clase InputFormat para un trabajo de MapReduce Hadoop?

A.   Dirige los datos de entrada en fragmentos lógicos y asigna cada una de estas divisiones a una tarea de mapa.

B.   Instancia el objeto Recordreader que puede funcionar en cada clase InputSplit.

C.   Presenta una vista de registro de los datos a la tarea del mapa y lee desde una clase InputSplit.

D.   Produce los registros en la tarea del mapa como pares de valor clave.

55: ¿Cuál de los siguientes comandos se usa para distribuir un archivo excluido a todos los Namenodes?

A.   [hdfs] $ $ hadoop_prefix/sbin/distribute-Exclude.sh & lt; exclues_file & gt;

B.   $ [Hadoop HDFS] sbin/distributibute-Exclude.sh & lt; exclues_file & gt;

C.   $ [dfsadmin, hdfs] $ hadoop_prefix/sbin/& lt; exclues_file & gt;/distribute-Exclude.sh

D.   [dfsadmin] $ $ hadoop_prefix/ sbin/ & lt; exclues_file & gt;/ distributibrute-Exclude.sh

56: Mientras accede a una URL de protocolo de Auth Hadoop usando Curl, ¿cuál de las siguientes opciones de comando se usa para almacenar y enviar cookies HTTP?

A.   −u y -v

B.   −b y −c

C.   −c y −u

D.   −u y −c

57: ¿Cuál es el valor predeterminado del hadoop.http.authentication.token.validez propiedad que se utiliza en caso de autenticación a través de la interfaz HTTP?

A.   72,000 segundos

B.   18,000 segundos

C.   64,000 segundos

D.   36,000 segundos

58: En el caso de una ejecución multígual, ¿cuál de los siguientes códigos de retorno indica errores recuperables para una ejecución?

A.   0

B.   1

C.   2

D.   00

59: ¿Cuál de los siguientes comandos de Hadoop se usa para copiar una ruta fuente a Stdout?

A.   estadística

B.   copytolocal

C.   CP

D.   gato

60: ¿Cuál de los siguientes comandos Hadoop Dfsadmin genera una lista de Datanodes?

A.   bin/hdfs dfsadmin −r

B.   bin/hdfs dfsadmin -eport

C.   bin/hdfs dfsadmin -preport datanodes

D.   bin/hdfs dfsadmin −r datanodes

61: ¿Cuáles de las siguientes no son las propiedades del objeto APP (Aplicación) de Nodemanager REST API?

A.   contenedores

B.   contenedores

C.   estado

D.   usuario

E.   aplicación

62: ¿Cuál de los siguientes es el tipo de datos correcto del elemento "TotalMB" del objeto ClusterMetrics utilizado en la API REST de ResourceManager de hilo?

A.   En t

B.   cadena

C.   largo

D.   Empezando

63: ¿Cuál de los siguientes objetos es utilizado por la clase RegistroReader para leer datos de una clase InputSplit?

A.   Fsdatainputstream

B.   Linreader

C.   Sistema de archivos

D.   Lector de registro

64: ¿Cuál de los siguientes operadores se usa para no anular las tuplas y bolsas anidadas?

A.   ILUSTRAR

B.   Aplanar

C.   Flogo

D.   CRUZ

65: El marco Hadoop consiste en el algoritmo ________ para resolver problemas a gran escala.

A.   Sistema de mapas

B.   Mapa reducido

C.   Mapluster

D.   Componente map

66: Parcionador controla la partición de qué datos?

A.   Llaves finales

B.   Valores finales

C.   Claves intermedias

D.   Valores intermedios

67: Las funciones de ventanas SQL se implementan en Hive utilizando qué palabras clave?

A.   Sindicato distinto, rango

B.   Terminado, rango

C.   Terminado, excepto

D.   Sindicato distinto, rango

68: En lugar de agregar un tipo secundario a un trabajo de reducción lenta, ¿es la mejor práctica de Hadoop realizar qué optimización?

A.   Agregue una baraja dividida al trabajo del mapa.

B.   Agregue una baraja dividida al trabajo de reducción.

C.   Romper el trabajo de reducir en múltiples trabajos de reducción de múltiples encadenados.

D.   Romper el trabajo de reducir en múltiples trabajos de mapa encadenados.

A.   Http encriptado

B.   HTTP sin firmar

C.   Http comprimido

D.   HTTP firmado

70: ¿Se pueden escribir trabajos de MapReduce en qué idioma?

A.   Java o Python

B.   SQL solo

C.   SQL o Java

D.   Python o SQL

71: Para realizar la agregación local de las salidas intermedias, los usuarios de MapReduce pueden especificar opcionalmente qué objeto.

A.   Reductor

B.   Combinador

C.   Mapabón

D.   Encimera

72: Para verificar el estado del trabajo, busque el valor ___ en ___.

A.   Sucedido; syslog

B.   Sucedido; stdout

C.   HECHO; syslog

D.   HECHO; stdout

73: ¿Qué línea de código implementa un método reductor en MapReduce 2.0?

A.   Public void Reduce (clave de texto, valores de iterador, contexto de contexto) {…}

B.   Public static void reduce (clave de texto, valores intwritables [], contexto de contexto) {...}

C.   Public static void Reduce (clave de texto, valores de iterador, contexto de contexto) {...}

D.   Public void reduce (clave de texto, valores intwritables [], contexto de contexto) {...}

74: Para obtener el número total de registros de entrada asignados en una tarea de trabajo de mapa, ¿debe revisar el valor de qué contador?

A.   FileInputFormatCounter

B.   Archivosystemcounter

C.   Trabajo de trabajo

D.   Taskcounter (no estoy seguro)

75: ¿Hadoop Core admite qué capacidades de tapa?

A.   A, p

B.   C, A

C.   C, P

D.   GORRA

76: ¿Cuáles son las fases principales de un reductor?

A.   Combinar, mapear y reducir

B.   Barajar, clasificar y reducir

C.   Reducir, clasificar y combinar

D.   Mapear, clasificar y combinar

77: Para configurar el flujo de trabajo de Hadoop con la sincronización de datos entre trabajos que procesan las tareas tanto en el disco como en la memoria, use el servicio ___, que es ___.

A.   Oozie; fuente abierta

B.   Oozie; software comercial

C.   Zookeeper; software comercial

D.   Zookeeper; fuente abierta

78: Para alta disponibilidad, ¿usa múltiples nodos de qué tipo?

A.   Datos

B.   Nombre

C.   Memoria

D.   Obrero

79: Datanode admite ¿qué tipo de unidades?

A.   Intercambiables en caliente

B.   Fría ajustable

C.   Cálido intercambiable

D.   No ajustable

80: ¿Qué método se utiliza para implementar trabajos de chispa?

A.   En el disco de todos los trabajadores

B.   En el disco del nodo maestro

C.   En memoria del nodo maestro

D.   En memoria de todos los trabajadores

81: En un trabajo de MapReduce, ¿dónde se ejecuta la función MAP ()?

A.   En los nodos reductores del clúster

B.   En los nodos de datos del clúster (no estoy seguro)

C.   En el nodo maestro del clúster

D.   En cada nodo del clúster

82: Para hacer referencia a un archivo maestro para las búsquedas durante la asignación, ¿qué tipo de caché se debe usar?

A.   Caché distribuido

B.   Caché local

C.   Caché

D.   Caché de clúster

83: Skip Bad Records proporciona una opción en la que se puede omitir un cierto conjunto de registros de entrada malos al procesar ¿qué tipo de datos?

A.   Entradas de caché

B.   Entradas de reductores

C.   Valores intermedios

D.   Entradas de mapa

84: ¿Qué comando importa datos a Hadoop desde una base de datos MySQL?

A.   Spark Importación --connect JDBC: mysql: //mysql.example.com/spark --Username Spark ---warehouse-dir user/hue/oozie/implementaciones/chispa

B.   SQOOP IMPORT-CONNECT JDBC: mysql: //mysql.example.com/sqoop --username sqoop ---warehouse-diir user/hue/oozie/implementaciones/sqoop

C.   SQOOP IMPORT-CONNECT JDBC: mysql: //mysql.example.com/sqoop --username sqoop --password sqoop-warehouse-diir user/hue/oozie/implementaciones/sqoop

D.   Spark Import-Connect JDBC: mysql: //mysql.example.com/spark --Username Spark-Password Spark--Warehouse-Dir User/Hue/Oozie/Implements/Spark

85: ¿En qué forma se presenta la salida de reductores?

A.   Comprimido (no seguro)

B.   Ordenado

C.   No ordenado

D.   Encriptado

86: ¿Qué biblioteca debe usarse para probar el código MapReduce?

A.   Junit

B.   Xunit

C.   Mrunit

D.   Hadoopunit

87: Si comenzó el NameNode, ¿qué tipo de usuario debe ser?

A.   Usuario de Hadoop

B.   Súper usuario

C.   Nodo

D.   Usuario administrativo

88: Estado _ entre los JVM en un trabajo de MapReduce

A.   Se puede configurar para compartir

B.   Se comparte parcialmente

C.   Está compartido

D.   No está compartido (https://www.lynda.com/hadoop-tutorials/understanding-java-virtual-machines-jvms/191942/369545-4.html)

89: Para crear un trabajo de MapReduce, ¿qué debe codificarse primero?

A.   Un método de trabajo estático ()

B.   Una clase de trabajo e instancia (no estoy seguro)

C.   Un método de trabajo ()

D.   Una clase de trabajo estática

90: Para conectar Hadoop a AWS S3, ¿qué cliente debe usar?

A.   S3a

B.   S3n

C.   S3

D.   El EMR S3

91: HBase funciona con qué tipo de aplicación de esquema?

A.   Esquema al escribir

B.   Sin esquema

C.   Esquema externo

D.   Esquema en lectura

92: El archivo HDFS es de qué tipo?

A.   Leer escribir

B.   Solo lectura

C.   Escribir solamente

D.   Append solo

93: Una ruta de archivo de caché distribuido puede originarse en qué ubicación?

A.   HDFS o TOP

B.   Http

C.   Hdfs o http

D.   HDFS

94: ¿Qué biblioteca debe usar para realizar trabajos de MapReduce de tipo ETL?

A.   Colmena

B.   Cerdo

C.   Impala

D.   Cuidador de elefantes

95: ¿Cuál es la salida del reductor?

A.   Una mesa relacional

B.   Una actualización del archivo de entrada

C.   Una sola lista combinada

D.   Un conjunto de <clave, valor> pares

96: Cuando se implementa en una nube pública, ¿con qué interactúa el procesamiento de Hadoop?

A.   Archivos en almacenamiento de objetos

B.   Datos de gráficos en bases de datos de gráficos

C.   Datos relacionales en sistemas RDBMS administrados

D.   Datos JSON en bases de datos NoSQL

97: En el sistema Hadoop, ¿qué modo administrativo se usa para el mantenimiento?

A.   Modo de datos

B.   Modo seguro

C.   Modo de usuario único

D.   Modo pseudo-distribuido

98: ¿En qué formato se registra el escritor de registro un archivo de salida?

A.   <clave, valor> pares

B.   Llaves

C.   Valores

D.   <valor, clave> pares

99: ¿A qué se trata de la tecla de entrada/valor de entrada del mapa mapper?

A.   Un promedio de claves para valores

B.   Una suma de claves para valores

C.   Un conjunto de pares de clave/valor intermedios

D.   Un conjunto de pares de clave/valor final

100: ¿Qué consulta de colmena devuelve los primeros 1,000 valores?

A.   Seleccione ... donde valor = 1000

B.   Seleccione ... Límite 1000

C.   Seleccione Top 1000 ...

D.   Seleccione Max 1000 ...