Estas preguntas y respuestas de opción múltiple de Hadup lo ayudarán a comprender mejor a Hadup. Puede prepararse para su próximo examen o entrevista con estos más de 100 MCQ de Hadup.
Así que desplácese hacia abajo y comience a responder.
A. setReplication (replicación de cadenas, ruta P, permiso de FSPermission)
B. SetReplication (permiso de FSPermission, replicación corta)
C. setReplication (replicación de cadenas, ruta p)
D. setReplication (ruta src, replicación corta)
A. Solo i) y ii)
B. Solo ii) y iii)
C. Solo i) y iv)
D. Solo iii) y IV)
E. Solo i), ii) y iii)
A. Tasktracker
B. Jobtracker
C. HILO
D. Gerente de nodo
A. Yarn_conf_dir
B. Hadoop_prefix
C. Hadoop_conf_dir
D. Hadoop_home
A. fethdt
B. DFS
C. OIV
D. FSCK
A. bin/hdfs dfs −cat /newexample/example1.txt
B. bin/hadoop dfsadmin -ddir /newexample/example1.txt
C. bin/hadoop dfs -cat /newexample/example1.txt
D. bin/hdfs dfsadmin -ddir /newexample/example1.txt
A. Administrador de recursos
B. Gerente de nodo
C. Aplicación maestro
D. Envase
A. Transformar
B. Línea de comando
C. Objeto
D. Ahorro de ahorro
A. Muestra el resumen de las longitudes de archivo.
B. En el caso de un archivo, muestra la longitud del archivo, mientras que en el caso de un directorio, muestra los tamaños de los archivos y directorios presentes en ese directorio.
C. Muestra el número de archivos en un directorio particular.
D. Muestra los números y nombres de los archivos presentes en un directorio particular.
A. Solo i) y iii)
B. Solo ii) y IV)
C. Solo i), ii) y iii)
D. Solo i), iii) y IV)
E. Todo i), ii), iii) y iv)
A. mapreduce.task.io.sort.mb
B. io.Record.Sort.PORTER
C. MapReduce.Partitioner.Class
D. mapreduce.task.io.mb
A. Interfaz Pigreducerestimator
B. Interfaz de StoreFunc
C. Interfaz FilterFunc
D. Interfaz de acumulador
A. Ordenar
B. ORDENAR POR
C. Cualquiera a o B
D. Ninguna de las anteriores
A. Crear base de datos MyData
B. Crear base de datos MyData
C. Crear nueva base de datos MyData
D. Crear nuevos myData de base de datos
A. Se utiliza para verificar si todas las bibliotecas están disponibles.
B. Se usa para expandir los comodines.
C. Se utiliza para especificar un administrador de recursos.
D. Se usa para asignar un valor a una propiedad
A. Modo interactivo
B. Por lotes
C. Modo incrustado
D. Ya sea interactivo o en modo por lotes
A. bytearray
B. Bolsa
C. Mapa
D. Tuple
A. Proporciona información sobre el estado de la aplicación.
B. Garantiza el reinicio de las fallas de la aplicación y el hardware.
C. Asigna recursos a las aplicaciones que se ejecutan en el clúster.
D. Maneja las solicitudes presentadas por los clientes.
A. No impone ninguna restricción al esquema de los dos conjuntos de datos que se están concatenando.
B. Elimina las tuplicadas tuplicas mientras concatena los conjuntos de datos.
C. Preserva el orden de las tuplas mientras concatena los conjuntos de datos.
D. Utiliza el calificador de Onschema para dar un esquema al resultado
A. Flogo
B. Para cada
C. Cruz
D. Unión
A. Comando Hadoop [StreamingOptions]
B. Comando ∼ Hadoop [GenericOptions] [StreamingOptions]
C. Comando Hadoop [GenericOptions] [StreamingOptions]
D. Comando ∼ Hadoop [streamingOptions] [genicOptions]
A. Las uniones en Hive son conmutativas.
B. En Hive, se pueden unir más de dos tablas.
C. La primera tabla que participa en la unión se transmite a la tarea Reducir de forma predeterminada.
D. Todas son correctas.
A. hdfs chgrp [propietario] [: [grupo]] [-r] & lt; filepath & gt; & lt; newgroup & gt;
B. hdfs chgrp [-r] & lt; group & gt; & lt; filepath & gt;
C. hdfs chgrp [-r] & lt; [grupo [: [propietario] & gt; & lt; filepath & gt;
D. hdfs chgrp & lt; group & gt; & lt; filepath & gt; [-r] & lt; newgroup & gt;
E. hdfs chgrp & lt; group & gt; [-r] & lt; newgroup & gt;
A. Tienda estatal basada en niveles
B. Store estatal basado en el sistema de archivos
C. STATIS-STORE basado en Zookeeper
D. Se podría usar la opción A o B
A. El permiso de acceso al usuario no se implementa en HDFS.
B. En HDFS, un usuario no puede crear directorios.
C. HDFS admite enlaces duros.
D. HDFS implementa cuotas de usuario.
A. touchz
B. cola
C. texto
D. prueba
A. Hadoop fs ∼ D blocksize = 536870912 -put abc.dat.txt a abc.dat.newblock.txt
B. Hadoop Fs.BlockSize = 536870912 -put abc.dat.txt abc.dat.newblock.txt
C. Hadoop fs -d dfs.blockSize = 536870912 -put abc.dat.txt abc.dat.newblock.txt
D. Hadoop Fs.BlockSize −D = 536870912 -put abc.dat.txt a abc.dat.newblock.txt
A. Se utiliza para identificar la clase para ser utilizada por el cliente.
B. Se utilizó para enumerar las ID lógicas utilizadas por los gerentes de recursos.
C. Se utiliza para especificar el nombre de host correspondiente para el administrador de recursos.
D. Se utiliza para identificar el administrador de recursos en el conjunto.
A. La escala en MapReduce no es lineal, mientras que en RDBMS es lineal.
B. En MapReduce, la operación de lectura se puede realizar muchas veces, pero la operación de escritura se puede realizar solo una vez. En los RDBM tradicionales, las operaciones de lectura y escritura se pueden realizar muchas veces.
C. La integridad de MapReduce es mayor en comparación con RDBMS.
D. El patrón de acceso de MapReduce es por lotes, mientras que el patrón de acceso de RDBMS es interactivo y por lotes
A. Evita que el administrador de aplicaciones proporcione enlaces a los sitios externos maliciosos.
B. Evita la ejecución del código malicioso de JavaScript.
C. Quita las cookies del usuario y las reemplaza con una sola cookie, proporcionando el nombre de usuario del usuario registrado.
D. Se ejecuta como parte del Manger de recursos, pero no se puede configurar para ejecutarse en el modo independiente.
A. Nombre de directorio de utopput
B. −cmdenv name = valor
C. −Combiner Streaming Command
D. -Ducer javaclassname
A. -File ABC =/Home/Ejemplo/
B. −mapper ABC =/Home/InputReader/Ejemplo/Diccionarios/
C. −Input ABC =/Home/Directorios/Ejemplo
D. -Cmdenv ABC =/Home/Ejemplo/Dictionaries/
A. Proporciona alto rendimiento.
B. Se puede implementar fácilmente.
C. Es altamente flexible.
D. Puede proteger contra el software y las amenazas físicas.
A. Hadoop FS −CHMOD ABC 310
B. Hadoop FS −CHMOD 740 ABC
C. Hadoop fs ∼chmod 420 ABC
D. Hadoop FS −Chmod ABC ∼ 860
A. Leer
B. Escribir
C. Ejecutar
D. Se permiten los tres niveles de permiso
A. Semi-unido a la izquierda
B. Unir internamente
C. Theta Únete
D. Fuzzy Join
A. pariente
B. klist
C. ktutil
D. mradmin
E. dfsadmin
A. yarn.timeline-service.ttl-enable
B. yarn.timeline-service.Enabled
C. Yarn.timeline-service.Generic-aplicaciones-History.Enabled
D. yarn.timeline-service.covery.Enabled
A. Yarn nodo -jar [nombre de clase principal] & lt; jar archivo rath & gt; [argumentos ...]
B. yarn jar & lt; jar archivo ruta & gt; [Nombre de la clase principal] [Argumentos ...]
C. Aplicación de hilo -jar [nombre de clase principal] & lt; jar archivo ruta & gt; [Argumentos ...]
D. Registros de hilo jar & lt; jar archivo ruta & gt; [Nombre de la clase principal] [Argumentos ...]
A. -config confdir
B. --Config. Colegio de hilos
C. Daemonlog -getLevel
D. Daemonlog confdir
A. colocar
B. establecer −v
C. DFS
D. reiniciar
A. Se usa para ejecutar un comando DFS desde el shell de colmena.
B. Se usa para ejecutar un comando shell dentro de la CLI.
C. Se usa para ejecutar un comando shell desde el shell de colmena.
D. Se usa para ejecutar un comando DFS dentro de la CLI.
A. Solo i) y iii)
B. Solo i) y ii)
C. Solo i), ii) y IV)
D. Todo i), ii), iii) y iv)
A. yarn.resourcemanager.ha.rm-ids
B. yarn.resourcemanager.address.rm-id
C. yarn.resourcemanager.hostname.rm-id
D. yarn.resourcemanager.scheduler.address.rm-id
A. setgid
B. archivo de set
C. setfattr
D. setquota
E. setconf
A. DESCRIBIR
B. Ilustrar
C. EXPLICAR
D. Tanto a como B
A. Paquete de $ MVN - PDOC
B. $ MVN PDOCS
C. $ curl - mvn pdocs
D. Paquete de $ curl - MVN -
A. Security.client.datanode.protocol.acl
B. Security.namenode.protocol.acl
C. Security.client.protocol.acl
D. Security.datanode.protocol.acl
A. 1 día
B. 3 días
C. 5 dias
D. 7 días
A. org.apache.hadoop.security.authenticationInitializer nombre de clase
B. org.apache.hadoop.security.shellbasedUnixGroupSmapping Nombre
C. org.apache.hadoop.security.dapGroupSmapping clase
D. org.apache.hadoop.security.ssl nombre de clase
A. chown
B. chmod
C. CHGRP
D. propietario
A. -i, - -Inputfile arg
B. -o, -outputfile arg
C. -p, -procesador arg
D. -f,--fix-txids
A. Mapa reducido
B. Datanode
C. Quorupermoin
D. Namenode
A. Dirige los datos de entrada en fragmentos lógicos y asigna cada una de estas divisiones a una tarea de mapa.
B. Instancia el objeto Recordreader que puede funcionar en cada clase InputSplit.
C. Presenta una vista de registro de los datos a la tarea del mapa y lee desde una clase InputSplit.
D. Produce los registros en la tarea del mapa como pares de valor clave.
A. [hdfs] $ $ hadoop_prefix/sbin/distribute-Exclude.sh & lt; exclues_file & gt;
B. $ [Hadoop HDFS] sbin/distributibute-Exclude.sh & lt; exclues_file & gt;
C. $ [dfsadmin, hdfs] $ hadoop_prefix/sbin/& lt; exclues_file & gt;/distribute-Exclude.sh
D. [dfsadmin] $ $ hadoop_prefix/ sbin/ & lt; exclues_file & gt;/ distributibrute-Exclude.sh
A. −u y -v
B. −b y −c
C. −c y −u
D. −u y −c
A. 72,000 segundos
B. 18,000 segundos
C. 64,000 segundos
D. 36,000 segundos
A. 0
B. 1
C. 2
D. 00
A. estadística
B. copytolocal
C. CP
D. gato
A. bin/hdfs dfsadmin −r
B. bin/hdfs dfsadmin -eport
C. bin/hdfs dfsadmin -preport datanodes
D. bin/hdfs dfsadmin −r datanodes
A. contenedores
B. contenedores
C. estado
D. usuario
E. aplicación
A. En t
B. cadena
C. largo
D. Empezando
A. Fsdatainputstream
B. Linreader
C. Sistema de archivos
D. Lector de registro
A. ILUSTRAR
B. Aplanar
C. Flogo
D. CRUZ
A. Sistema de mapas
B. Mapa reducido
C. Mapluster
D. Componente map
A. Llaves finales
B. Valores finales
C. Claves intermedias
D. Valores intermedios
A. Sindicato distinto, rango
B. Terminado, rango
C. Terminado, excepto
D. Sindicato distinto, rango
A. Agregue una baraja dividida al trabajo del mapa.
B. Agregue una baraja dividida al trabajo de reducción.
C. Romper el trabajo de reducir en múltiples trabajos de reducción de múltiples encadenados.
D. Romper el trabajo de reducir en múltiples trabajos de mapa encadenados.
A. Http encriptado
B. HTTP sin firmar
C. Http comprimido
D. HTTP firmado
A. Java o Python
B. SQL solo
C. SQL o Java
D. Python o SQL
A. Reductor
B. Combinador
C. Mapabón
D. Encimera
A. Sucedido; syslog
B. Sucedido; stdout
C. HECHO; syslog
D. HECHO; stdout
A. Public void Reduce (clave de texto, valores de iterador, contexto de contexto) {…}
B. Public static void reduce (clave de texto, valores intwritables [], contexto de contexto) {...}
C. Public static void Reduce (clave de texto, valores de iterador, contexto de contexto) {...}
D. Public void reduce (clave de texto, valores intwritables [], contexto de contexto) {...}
A. FileInputFormatCounter
B. Archivosystemcounter
C. Trabajo de trabajo
D. Taskcounter (no estoy seguro)
A. A, p
B. C, A
C. C, P
D. GORRA
A. Combinar, mapear y reducir
B. Barajar, clasificar y reducir
C. Reducir, clasificar y combinar
D. Mapear, clasificar y combinar
A. Oozie; fuente abierta
B. Oozie; software comercial
C. Zookeeper; software comercial
D. Zookeeper; fuente abierta
A. Datos
B. Nombre
C. Memoria
D. Obrero
A. Intercambiables en caliente
B. Fría ajustable
C. Cálido intercambiable
D. No ajustable
A. En el disco de todos los trabajadores
B. En el disco del nodo maestro
C. En memoria del nodo maestro
D. En memoria de todos los trabajadores
A. En los nodos reductores del clúster
B. En los nodos de datos del clúster (no estoy seguro)
C. En el nodo maestro del clúster
D. En cada nodo del clúster
A. Caché distribuido
B. Caché local
C. Caché
D. Caché de clúster
A. Entradas de caché
B. Entradas de reductores
C. Valores intermedios
D. Entradas de mapa
A. Spark Importación --connect JDBC: mysql: //mysql.example.com/spark --Username Spark ---warehouse-dir user/hue/oozie/implementaciones/chispa
B. SQOOP IMPORT-CONNECT JDBC: mysql: //mysql.example.com/sqoop --username sqoop ---warehouse-diir user/hue/oozie/implementaciones/sqoop
C. SQOOP IMPORT-CONNECT JDBC: mysql: //mysql.example.com/sqoop --username sqoop --password sqoop-warehouse-diir user/hue/oozie/implementaciones/sqoop
D. Spark Import-Connect JDBC: mysql: //mysql.example.com/spark --Username Spark-Password Spark--Warehouse-Dir User/Hue/Oozie/Implements/Spark
A. Comprimido (no seguro)
B. Ordenado
C. No ordenado
D. Encriptado
A. Junit
B. Xunit
C. Mrunit
D. Hadoopunit
A. Usuario de Hadoop
B. Súper usuario
C. Nodo
D. Usuario administrativo
A. Se puede configurar para compartir
B. Se comparte parcialmente
C. Está compartido
D. No está compartido (https://www.lynda.com/hadoop-tutorials/understanding-java-virtual-machines-jvms/191942/369545-4.html)
A. Un método de trabajo estático ()
B. Una clase de trabajo e instancia (no estoy seguro)
C. Un método de trabajo ()
D. Una clase de trabajo estática
A. S3a
B. S3n
C. S3
D. El EMR S3
A. Esquema al escribir
B. Sin esquema
C. Esquema externo
D. Esquema en lectura
A. Leer escribir
B. Solo lectura
C. Escribir solamente
D. Append solo
A. HDFS o TOP
B. Http
C. Hdfs o http
D. HDFS
A. Colmena
B. Cerdo
C. Impala
D. Cuidador de elefantes
A. Una mesa relacional
B. Una actualización del archivo de entrada
C. Una sola lista combinada
D. Un conjunto de <clave, valor> pares
A. Archivos en almacenamiento de objetos
B. Datos de gráficos en bases de datos de gráficos
C. Datos relacionales en sistemas RDBMS administrados
D. Datos JSON en bases de datos NoSQL
A. Modo de datos
B. Modo seguro
C. Modo de usuario único
D. Modo pseudo-distribuido
A. <clave, valor> pares
B. Llaves
C. Valores
D. <valor, clave> pares
A. Un promedio de claves para valores
B. Una suma de claves para valores
C. Un conjunto de pares de clave/valor intermedios
D. Un conjunto de pares de clave/valor final
A. Seleccione ... donde valor = 1000
B. Seleccione ... Límite 1000
C. Seleccione Top 1000 ...
D. Seleccione Max 1000 ...