Ces questions et réponses Hadup à choix multiples vous aideront à mieux comprendre Hadup. Préparez votre prochain examen ou entretien avec plus de 100 QCM de Hadoop.
Faites défiler vers le bas pour commencer à répondre.
A. setReplication (réplication de la chaîne, Path P, permission fspermission)
B. setReplication (permission fspermission, reproduction courte)
C. setReplication (réplication de la chaîne, chemin P)
D. setReplication (chemin Src, courte réplication)
A. Uniquement i) et ii)
B. Seulement ii) et iii)
C. Seulement i) et iv)
D. Uniquement iii) et iv)
E. Uniquement i), ii) et iii)
A. Tasktracker
B. Jobracker
C. FIL
D. Gestionnaire de nœuds
A. Yarn_conf_dir
B. Hadoop_prefix
C. Hadoop_conf_dir
D. Hadoop_home
A. fetchdt
B. DFS
C. oiv
D. fsck
A. bin / hdfs dfs −cat /newexample/example1.txt
B. bin / hadoop dfsadmin -ddir /newexample/example1.txt
C. bin / hadoop dfs -cat /newexample/example1.txt
D. bin / hdfs dfsadmin -ddir /newexample/example1.txt
A. Gestionnaire de ressources
B. Gestionnaire de nœuds
C. Maître d'application
D. Récipient
A. Transformer
B. Ligne de commande
C. Objectinspector
D. Thrift
A. Il affiche le résumé des longueurs de fichiers.
B. En cas de fichier, il affiche la longueur du fichier, tandis qu'en cas de répertoire, il affiche les tailles des fichiers et répertoires présents dans ce répertoire.
C. Il affiche le nombre de fichiers dans un répertoire particulier.
D. Il affiche les numéros et les noms des fichiers présents dans un répertoire particulier.
A. Uniquement i) et iii)
B. Seulement ii) et iv)
C. Uniquement i), ii) et iii)
D. Uniquement i), iii) et iv)
E. Tout i), ii), iii) et iv)
A. mapreduce.task.io.sort.mb
B. io.record.sort.percent
C. MapReduce.Partitioner.class
D. mapReduce.task.io.mb
A. Interface pigreducerestimator
B. Interface StoreFunc
C. Interface filtrefunc
D. Interface d'accumulateur
A. COMMANDÉ PAR
B. TRIER PAR
C. A ou B
D. Aucune de ces réponses
A. Créer une base de données MyData
B. Créer une base de données MyData
C. Créer une nouvelle base de données MyData
D. Créer une nouvelle base de données MyData
A. Il est utilisé pour vérifier si toutes les bibliothèques sont disponibles.
B. Il est utilisé pour élargir les caractères génériques.
C. Il est utilisé pour spécifier un gestionnaire de ressources.
D. Il est utilisé pour attribuer une valeur à une propriété
A. Mode interactif
B. Temps différé
C. Mode intégré
D. Mode interactif ou lot
A. bytearray
B. Sac
C. Carte
D. Tuple
A. Il fournit des informations sur l'état de l'application.
B. Il garantit le redémarrage sur les défaillances de l'application et du matériel.
C. Il attribue des ressources aux applications exécutées dans le cluster.
D. Il gère les candidatures soumises par les clients.
A. Il n'impose aucune restriction au schéma des deux ensembles de données qui sont concaténés.
B. Il supprime les tuples en double tout en concaténant les ensembles de données.
C. Il préserve l'ordre des tuples tout en concaténant les ensembles de données.
D. Il utilise la qualification Onschema pour donner un schéma au résultat
A. Coagroupe
B. Pour chaque
C. Croix
D. syndicat
A. Commande Hadoop [StreamingOptions]
B. Command ∼ Hadoop [généricoptions] [StreamingOptions]
C. Commande Hadoop [généricoptions] [StreamingOptions]
D. Command ∼ Hadoop [StreamingOptions] [généricoptions]
A. Les jointures à Hive sont commutatives.
B. Dans Hive, plus de deux tables peuvent être jointes.
C. Le premier tableau participant à la jointure est diffusé par défaut à la tâche de réduction.
D. Tout est correct.
A. hdfs chgrp [propriétaire] [: [groupe]] [-r] & lt; filepath & gt; & lt; newgroup & gt;
B. hdfs chgrp [-r] & lt; groupe & gt; & lt; filepath & gt;
C. hdfs chgrp [-r] & lt; [groupe [: [propriétaire] & gt; & lt; filepath & gt;
D. HDFS CHGRP & LT; Group & GT; & lt; filepath & gt; [- r] & lt; newgroup & gt;
E. hdfs chgrp & lt; groupe & gt; [- r] & lt; newgroup & gt;
A. Magasin d'État basé sur le niveau
B. Magasin d'État basé sur le système de fichiers
C. State-magasin d'État basé sur Zookeeper
D. L'option A ou B pourrait être utilisée
A. L'autorisation d'accès utilisateur n'est pas implémentée dans HDFS.
B. Dans HDFS, un utilisateur n'est pas autorisé à créer des répertoires.
C. HDFS prend en charge les liens durs.
D. HDFS implémente les quotas utilisateur.
A. Touchz
B. queue
C. texte
D. test
A. HADOOP FS ∼ D BlockSize = 536870912 -PUT ABC.DAT.TXT À ABC.DAT.NEWBLOCK.TXT
B. Hadoop Fs.blockSize = 536870912 -PUT ABC.DAT.TXT ABC.DAT.NEWBLOCK.TXT
C. hadoop fs -d dfs.blockSize = 536870912 -put abc.dat.txt abc.dat.newblock.txt
D. HADOOP FS.BLOCKSIZE −D = 536870912 -PUT ABC.DAT.TXT à ABC.DAT.NEWBLOCK.TXT
A. Il est utilisé pour identifier la classe à utiliser par le client.
B. Il a utilisé pour inscrire les ID logiques utilisés par les gestionnaires de ressources.
C. Il est utilisé pour spécifier le nom d'hôte correspondant pour Resource Manager.
D. Il est utilisé pour identifier le gestionnaire de ressources dans Ensemble.
A. La mise à l'échelle de MapReduce est non linéaire, tandis que dans les SGBDR, il est linéaire.
B. Dans MapReduce, l'opération de lecture peut être effectuée plusieurs fois, mais l'opération d'écriture ne peut être effectuée qu'une seule fois. Dans les SGBDR traditionnels, les opérations de lecture et d'écriture peuvent être effectuées à plusieurs reprises.
C. L'intégrité de MapReduce est plus élevée par rapport aux SGBDR.
D. Le modèle d'accès de MapReduce est un lot, tandis que le modèle d'accès des SGBDR est interactif et lot
A. Il empêche le gestionnaire d'applications de fournir des liens vers les sites externes malveillants.
B. Il empêche l'exécution du code JavaScript malveillant.
C. Il dépouille les cookies de l'utilisateur et les remplace par un seul cookie, fournissant le nom d'utilisateur de l'utilisateur connecté.
D. Il fait partie de Resource Manger mais ne peut pas être configuré pour s'exécuter en mode autonome.
A. −Autput DirectoryName
B. −cmdenv name = valeur
C. −COMBINER Streaming Command
D. −reducer javaclassname
A. -File ABC = / Home / Exemple /
B. −Mapper ABC = / Home / InputReader / Exemple / Dictionnaires /
C. −pout ABC = / Home / Directories / Exemple
D. -Cmdenv ABC = / Home / Exemple / Dictionnaires /
A. Il offre des performances élevées.
B. Il peut être déployé facilement.
C. Il est très flexible.
D. Il peut protéger contre les logiciels ainsi que les menaces physiques.
A. Hadoop FS −Chmod ABC 310
B. Hadoop FS −Chmod 740 ABC
C. Hadoop FS ∼Chmod 420 ABC
D. Hadoop FS −Chmod ABC ∼ 860
A. Lire
B. Écrire
C. Exécuter
D. Les trois niveaux d'autorisation sont autorisés
A. Semi-join
B. Jointure interne
C. Thêta join
D. Jointure floue
A. kinite
B. klist
C. Ktutil
D. mradmin
E. dfsadmin
A. yarn.timeline-service.ttl-enable
B. yarn.timeline-Service.Enabled
C. yarn.timeline-service.generic-application-history.enabled
D. yarn.timeline-service.recovery.enabled
A. Node de yarn -jar [nom de classe principale] & lt; cheminement de fichier jar & gt; [arguments…]
B. yarn jar & lt; cheminement de fichier jar & gt; [Nom de la classe principale] [Arguments…]
C. application de yarn -jar [nom de classe principale] & lt; cheminement de fichier jar & gt; [arguments…]
D. JORS JORS JARS & LT; PATH FILE JAR & GT; [Nom de la classe principale] [Arguments…]
A. --config confdir
B. - Config. Yarnconfiguration
C. daemonlog −getlevel
D. confdir de daemon
A. ensemble
B. Définir −v
C. DFS
D. réinitialiser
A. Il est utilisé pour exécuter une commande DFS à partir du shell Hive.
B. Il est utilisé pour exécuter une commande shell à l'intérieur de la CLI.
C. Il est utilisé pour exécuter une commande shell à partir du shell Hive.
D. Il est utilisé pour exécuter une commande DFS à l'intérieur de la CLI.
A. Uniquement i) et iii)
B. Uniquement i) et ii)
C. Uniquement i), ii) et iv)
D. Tout i), ii), iii) et iv)
A. yarn.resourcemanager.ha.rm-ids
B. yarn.resourcemanager.address.rm-id
C. yarn.resourcemanager.hostname.rm-id
D. yarn.resourcemanager.scheduler.address.rm-id
A. setgid
B. set
C. setfattr
D. setquota
E. setConf
A. DÉCRIRE
B. ILLUSTRER
C. EXPLIQUER
D. Les deux, A et B
A. $ package mvn - pdocs
B. $ mvn pdocs
C. $ curl - mvn pdocs
D. $ curl - mvn pdocs - package
A. security.client.datanode.protocol.acl
B. Security.NaMenode.protocol.ACL
C. security.client.protocol.acl
D. security.datanode.protocol.acl
A. Un jour
B. 3 jours
C. 5 jours
D. 7 jours
A. org.apache.hadoop.security.authenticationInitializer Nom de la classe
B. org.apache.hadop
C. org.apache.hadoop.security.ldapgroupsmapping class
D. org.apache.hadoop.security.ssl Nom de la classe
A. chown
B. chod
C. chgrp
D. propriétaire de secours
A. -i, - inputfile arg
B. -o, - TOutputFile Arg
C. -p, --processor arg
D. -f, --fix-txids
A. Mapreduce
B. Code de données
C. Quorumpeermain
D. Namenode
A. Il divise les données d'entrée dans des morceaux logiques et attribue chacun de ces divisions à une tâche de carte.
B. Il instancie l'objet RecordReader qui peut fonctionner sur chaque classe InputSplit.
C. Il présente une vue d'enregistrement des données dans la tâche MAP et lit à partir d'une classe InputSplit.
D. Il produit les enregistrements de la tâche MAP sous forme de paires de valeurs clés.
A. [HDFS] $ $ HADOOP_PREFIX / SBIN / Distribue-Exclude.sh & lt; Exclude_file & gt;
B. $ [Hadoop hdfs] sbin / distribution-exclude.sh & lt; exclure_file & gt;
C. $ [dfsadmin, hdfs] $ hadoop_prefix / sbin / & lt; exclude_file & gt; / distribuer-exclude.sh
D. [dfsadmin] $ $ hadoop_prefix / sbin / & lt; exclude_file & gt; / distribution-exclude.sh
A. −u et -v
B. −b et −c
C. −c et −u
D. −u et −c
A. 72 000 secondes
B. 18 000 secondes
C. 64 000 secondes
D. 36 000 secondes
A. 0
B. 1
C. 2
D. 00
A. stat
B. copytolocal
C. CP
D. chat
A. bin / hdfs dfsadmin −r
B. bin / hdfs dfsadmin −Report
C. bin / hdfs dfsadmin-report datanodes
D. bin / hdfs dfsadmin −r datanodes
A. contenerides
B. conteneurs
C. État
D. utilisateur
E. appliquer
A. int
B. chaîne
C. long
D. grand
A. FsdatainputStream
B. Liner
C. Système de fichiers
D. Lecteur d'enregistrement
A. ILLUSTRER
B. Aplatir
C. Coagroupe
D. CROIX
A. MapSystem
B. MapReduce
C. Mapcluster
D. Mapcomponent
A. Clés finales
B. Valeurs finales
C. Clés intermédiaires
D. Valeurs intermédiaires
A. Union distinct, rang
B. Fini, rang
C. Sur, sauf
D. Union distinct, rang
A. Ajoutez un shuffle partitionné au travail de carte.
B. Ajoutez un shuffle partitionné au travail de réduction.
C. Cassez le travail de réduction en plusieurs travaux réduits multiples.
D. Cassez le travail de réduction en plusieurs travaux de carte trafiqués.
A. HTTP crypté
B. Http non signé
C. Http comprimé
D. Signé http
A. Java ou Python
B. SQL uniquement
C. SQL ou Java
D. Python ou SQL
A. Réducteur
B. Combiner
C. Tabac
D. Comptoir
A. RÉUSSI; syslog
B. RÉUSSI; stdout
C. FAIT; syslog
D. FAIT; stdout
A. Public Void Redis (clé texte, valeurs d'itérateur, contexte de contexte) {…}
B. Public Static Void Reduce (clé de texte, valeurs [] intrwitables, contexte de contexte) {…}
C. Public Static Void Redis (clé de texte, valeurs d'itérateur, contexte de contexte) {…}
D. VOID PUBLIQUE Réduisez (clé de texte, valeurs [] intrwitables, contexte de contexte) {…}
A. FileInputFormatCounter
B. FilesystemCounter
C. Emploi
D. TaskCounter (pas sûr)
A. A, p
B. CALIFORNIE
C. C, P
D. CASQUETTE
A. Combiner, cartographier et réduire
B. Remanier, trier et réduire
C. Réduire, trier et combiner
D. Carte, trier et combiner
A. Oozie; Open source
B. Oozie; logiciel commercial
C. Zookeeper; logiciel commercial
D. Zookeeper; Open source
A. Données
B. Nom
C. Mémoire
D. Ouvrier
A. Remplaçables à chaud
B. Cold Swappable
C. Chaleureux swappable
D. Non swappable
A. Sur le disque de tous les travailleurs
B. Sur le disque du nœud maître
C. En mémoire du nœud maître
D. En mémoire de tous les travailleurs
A. Sur les nœuds de réducteur du cluster
B. Sur les nœuds de données du cluster (pas sûr)
C. Sur le nœud maître du cluster
D. Sur chaque nœud du cluster
A. Cache distribuée
B. Cache local
C. Cache partitionné
D. Cache de cluster
A. Entrées de cache
B. Entrées de réducteur
C. Valeurs intermédiaires
D. Entrées de carte
A. Importation de l'étincelle - Connect JDBC: mysql: //mysql.example.com/park --Username Spark - Warehouse-Dir User / Hue / Oozie / Deployments / Spark
B. SQOOP IMPORT - Connect JDBC: mysql: //mysql.example.com/sqoop --Username Sqoop - Warehouse-Dir User / Hue / Oozie / Deployments / Sqoop
C. SQOOP IMPORT - Connect JDBC: mysql: //mysql.example.com/sqoop --Username sqoop ---Spassword Sqoop - Warehouse-Dir User / Hue / Oozie / Deployments / Sqoop
D. Importation de l'étincelle - Connect JDBC: mysql: //mysql.example.com/park --Username Spark - Password Spark - Warehouse-Dir User / Hue / Oozie / Deployments / Spark
A. Comprimé (pas sûr)
B. Trié
C. Pas trié
D. Crypté
A. Junite
B. Xunit
C. Munit
D. Hadoopunit
A. Hadoop-utilisateur
B. Super-utilisateur
C. Utilisateur de nœud
D. Administrateur
A. Peut être configuré pour être partagé
B. Est partiellement partagé
C. Est partagé
D. N'est pas partagé (https://www.lynda.com/hadoop-tutorials/understanding-java-virtual-machines-jvms/191942/369545-4.html)
A. Une méthode de travail statique ()
B. Une classe d'emploi et une instance (pas sûr)
C. Une méthode de travail ()
D. Une classe d'emploi statique
A. S3A
B. S3N
C. S3
D. L'EMR S3
A. Schéma sur l'écriture
B. Pas de schéma
C. Schéma externe
D. Schéma sur lecture
A. Lire écrire
B. Lecture seulement
C. Écrire uniquement
D. APPENDE uniquement
A. HDFS ou TOP
B. Http
C. HDFS ou HTTP
D. HDFS
A. Ruche
B. Cochon
C. Impala
D. Cornac
A. Une table relationnelle
B. Une mise à jour du fichier d'entrée
C. Une seule liste combinée
D. Un ensemble de <clé, valeur> paires
A. Fichiers dans le stockage d'objets
B. Données graphiques dans les bases de données graphiques
C. Données relationnelles dans les systèmes de SMBRM gérés
D. Données JSON dans les bases de données NoSQL
A. Mode de données
B. Mode sûr
C. Mode utilisateur unique
D. Mode pseudo-distribué
A. <clé, valeur> paires
B. Clés
C. Valeurs
D. <valeur, clé> paires
A. Une moyenne de clés pour les valeurs
B. Une somme de clés pour les valeurs
C. Un ensemble de paires de clés / valeur intermédiaires
D. Un ensemble de paires de clés / valeur finales
A. Sélectionnez… où valeur = 1000
B. Sélectionnez… limiter 1000
C. Sélectionnez 1000 supérieurs…
D. Sélectionnez Max 1000…