Questions Hadoop en langues françaises

Questions Hadoop en langues françaises

Ces questions et réponses Hadup à choix multiples vous aideront à mieux comprendre Hadup. Préparez votre prochain examen ou entretien avec plus de 100 QCM de Hadoop.
Faites défiler vers le bas pour commencer à répondre.

1: Lequel des éléments suivants est la syntaxe correcte pour la commande utilisée pour définir la réplication pour un fichier existant dans l'API Hadoop WebHDFS REST?

A.   setReplication (réplication de la chaîne, Path P, permission fspermission)

B.   setReplication (permission fspermission, reproduction courte)

C.   setReplication (réplication de la chaîne, chemin P)

D.   setReplication (chemin Src, courte réplication)

2: En porc, lequel des types d'opérations de jointure suivants peut être effectué à l'aide de la jointure répliquée? I) joini intérieur) joinii)

A.   Uniquement i) et ii)

B.   Seulement ii) et iii)

C.   Seulement i) et iv)

D.   Uniquement iii) et iv)

E.   Uniquement i), ii) et iii)

3: Lequel des éléments suivants est le processus de maître qui accepte les soumissions d'emploi des clients et planifie les tâches pour s'exécuter sur les nœuds de travail?

A.   Tasktracker

B.   Jobracker

C.   FIL

D.   Gestionnaire de nœuds

4: Laquelle des variables d'environnement suivantes est utilisée pour déterminer le cluster Hadoop pour Pig, afin d'exécuter les travaux MapReduce?

A.   Yarn_conf_dir

B.   Hadoop_prefix

C.   Hadoop_conf_dir

D.   Hadoop_home

5: Laquelle des commandes HDFS suivantes est utilisée pour vérifier les incohérences et les problèmes de rapport avec divers fichiers?

A.   fetchdt

B.   DFS

C.   oiv

D.   fsck

6: Laquelle des commandes suivantes est utilisée pour afficher le contenu d'un fichier nommé /newexample/example1.txt?

A.   bin / hdfs dfs −cat /newexample/example1.txt

B.   bin / hadoop dfsadmin -ddir /newexample/example1.txt

C.   bin / hadoop dfs -cat /newexample/example1.txt

D.   bin / hdfs dfsadmin -ddir /newexample/example1.txt

7: Dans l'architecture Hadoop, lequel des composants suivants est responsable de la planification et de l'exécution d'un seul travail?

A.   Gestionnaire de ressources

B.   Gestionnaire de nœuds

C.   Maître d'application

D.   Récipient

8: Laquelle des interfaces suivantes est utilisée pour accéder au métastore Hive?

A.   Transformer

B.   Ligne de commande

C.   Objectinspector

D.   Thrift

9: Quelle est la fonction de la commande hadoop suivante?

A.   Il affiche le résumé des longueurs de fichiers.

B.   En cas de fichier, il affiche la longueur du fichier, tandis qu'en cas de répertoire, il affiche les tailles des fichiers et répertoires présents dans ce répertoire.

C.   Il affiche le nombre de fichiers dans un répertoire particulier.

D.   Il affiche les numéros et les noms des fichiers présents dans un répertoire particulier.

10: Dans Hadoop, les instantanés HDFS sont pris pour laquelle des raisons suivantes? I) pour assurer une protection contre l'erreur utilisateur.II) pour fournir une sauvegarde.III) pour la reprise après sinistre.iv) pour la copie des données à partir des nœuds de données.

A.   Uniquement i) et iii)

B.   Seulement ii) et iv)

C.   Uniquement i), ii) et iii)

D.   Uniquement i), iii) et iv)

E.   Tout i), ii), iii) et iv)

11: Avant d'être inséré sur un disque, les enregistrements de sortie intermédiaires émis par la tâche de carte sont tamponnés dans la mémoire locale, en utilisant un tampon circulaire. Laquelle des propriétés suivantes est utilisée pour configurer la taille de ce tampon circulaire?

A.   mapreduce.task.io.sort.mb

B.   io.record.sort.percent

C.   MapReduce.Partitioner.class

D.   mapReduce.task.io.mb

12: Laquelle des interfaces suivantes peut réduire la quantité de mémoire requise par les UDF, en acceptant l'entrée en morceaux?

A.   Interface pigreducerestimator

B.   Interface StoreFunc

C.   Interface filtrefunc

D.   Interface d'accumulateur

13: Laquelle des clauses de ruche suivantes doit être utilisée pour imposer une commande totale aux résultats de la requête?

A.   COMMANDÉ PAR

B.   TRIER PAR

C.   A ou B

D.   Aucune de ces réponses

14: Laquelle des commandes Hive suivantes est utilisée pour créer une base de données nommée MyData?

A.   Créer une base de données MyData

B.   Créer une base de données MyData

C.   Créer une nouvelle base de données MyData

D.   Créer une nouvelle base de données MyData

15: Laquelle des options données est la fonction de la commande hadoop suivante? -A

A.   Il est utilisé pour vérifier si toutes les bibliothèques sont disponibles.

B.   Il est utilisé pour élargir les caractères génériques.

C.   Il est utilisé pour spécifier un gestionnaire de ressources.

D.   Il est utilisé pour attribuer une valeur à une propriété

16: Dans lequel des modes d'exécution des porcs suivants, un programme Java est capable d'invoquer des commandes de porcs en important les bibliothèques de porcs?

A.   Mode interactif

B.   Temps différé

C.   Mode intégré

D.   Mode interactif ou lot

17: Lequel des types de données de porc donnés a les caractéristiques suivantes? I) Il s'agit d'une collection de valeurs de données.II) Ces valeurs de données sont commandées et ont une longueur fixe.

A.   bytearray

B.   Sac

C.   Carte

D.   Tuple

18: Laquelle des fonctions suivantes est remplie par le planificateur de Resource Manager dans l'architecture YARN?

A.   Il fournit des informations sur l'état de l'application.

B.   Il garantit le redémarrage sur les défaillances de l'application et du matériel.

C.   Il attribue des ressources aux applications exécutées dans le cluster.

D.   Il gère les candidatures soumises par les clients.

19: Lesquelles des caractéristiques suivantes sont les caractéristiques de l'opérateur syndical du porc?

A.   Il n'impose aucune restriction au schéma des deux ensembles de données qui sont concaténés.

B.   Il supprime les tuples en double tout en concaténant les ensembles de données.

C.   Il préserve l'ordre des tuples tout en concaténant les ensembles de données.

D.   Il utilise la qualification Onschema pour donner un schéma au résultat

20: Lequel des opérateurs suivants doit être utilisé pour le thea-join?

A.   Coagroupe

B.   Pour chaque

C.   Croix

D.   syndicat

21: Lequel des éléments suivants est la syntaxe de commande de ligne correcte de la commande hadoop streaming?

A.   Commande Hadoop [StreamingOptions]

B.   Command ∼ Hadoop [généricoptions] [StreamingOptions]

C.   Commande Hadoop [généricoptions] [StreamingOptions]

D.   Command ∼ Hadoop [StreamingOptions] [généricoptions]

22: Laquelle des affirmations suivantes est correcte à propos de la ruche se joint?

A.   Les jointures à Hive sont commutatives.

B.   Dans Hive, plus de deux tables peuvent être jointes.

C.   Le premier tableau participant à la jointure est diffusé par défaut à la tâche de réduction.

D.   Tout est correct.

23: Lequel des éléments suivants est utilisé pour modifier le groupe d'un fichier?

A.   hdfs chgrp [propriétaire] [: [groupe]] [-r] & lt; filepath & gt; & lt; newgroup & gt;

B.   hdfs chgrp [-r] & lt; groupe & gt; & lt; filepath & gt;

C.   hdfs chgrp [-r] & lt; [groupe [: [propriétaire] & gt; & lt; filepath & gt;

D.   HDFS CHGRP & LT; Group & GT; & lt; filepath & gt; [- r] & lt; newgroup & gt;

E.   hdfs chgrp & lt; groupe & gt; [- r] & lt; newgroup & gt;

24: Supposons que vous ayez besoin de sélectionner un système de stockage qui prend en charge la haute disponibilité du gestionnaire de ressources (RM HA). Lequel des types de stockage suivants doit être sélectionné dans ce cas?

A.   Magasin d'État basé sur le niveau

B.   Magasin d'État basé sur le système de fichiers

C.   State-magasin d'État basé sur Zookeeper

D.   L'option A ou B pourrait être utilisée

25: Laquelle des affirmations suivantes est correcte sur l'espace de noms du système de fichiers Hadoop?

A.   L'autorisation d'accès utilisateur n'est pas implémentée dans HDFS.

B.   Dans HDFS, un utilisateur n'est pas autorisé à créer des répertoires.

C.   HDFS prend en charge les liens durs.

D.   HDFS implémente les quotas utilisateur.

26: Laquelle des commandes Hadoop suivantes est utilisée pour créer un fichier de longueur zéro?

A.   Touchz

B.   queue

C.   texte

D.   test

27: Considérez un fichier d'entrée nommé abc.dat.txt avec une taille de bloc par défaut 128 Mo. Lequel des éléments suivants est la commande correcte qui téléchargera ce fichier dans un HDFS, avec une taille de bloc de 512 Mo?

A.   HADOOP FS ∼ D BlockSize = 536870912 -PUT ABC.DAT.TXT À ABC.DAT.NEWBLOCK.TXT

B.   Hadoop Fs.blockSize = 536870912 -PUT ABC.DAT.TXT ABC.DAT.NEWBLOCK.TXT

C.   hadoop fs -d dfs.blockSize = 536870912 -put abc.dat.txt abc.dat.newblock.txt

D.   HADOOP FS.BLOCKSIZE −D = 536870912 -PUT ABC.DAT.TXT à ABC.DAT.NEWBLOCK.TXT

28: Quelle est la fonction de la propriété de configuration suivante de Yarns Resource Manager? Yarn.ResourceManager.ha.id

A.   Il est utilisé pour identifier la classe à utiliser par le client.

B.   Il a utilisé pour inscrire les ID logiques utilisés par les gestionnaires de ressources.

C.   Il est utilisé pour spécifier le nom d'hôte correspondant pour Resource Manager.

D.   Il est utilisé pour identifier le gestionnaire de ressources dans Ensemble.

29: Les deux des deux éléments suivants sont les bonnes différences entre MapReduce et les SGBDR traditionnels?

A.   La mise à l'échelle de MapReduce est non linéaire, tandis que dans les SGBDR, il est linéaire.

B.   Dans MapReduce, l'opération de lecture peut être effectuée plusieurs fois, mais l'opération d'écriture ne peut être effectuée qu'une seule fois. Dans les SGBDR traditionnels, les opérations de lecture et d'écriture peuvent être effectuées à plusieurs reprises.

C.   L'intégrité de MapReduce est plus élevée par rapport aux SGBDR.

D.   Le modèle d'accès de MapReduce est un lot, tandis que le modèle d'accès des SGBDR est interactif et lot

30: Laquelle des affirmations suivantes est correcte sur le proxy d'application Web des fils?

A.   Il empêche le gestionnaire d'applications de fournir des liens vers les sites externes malveillants.

B.   Il empêche l'exécution du code JavaScript malveillant.

C.   Il dépouille les cookies de l'utilisateur et les remplace par un seul cookie, fournissant le nom d'utilisateur de l'utilisateur connecté.

D.   Il fait partie de Resource Manger mais ne peut pas être configuré pour s'exécuter en mode autonome.

31: Quels deux des paramètres suivants de la commande de streaming Hadoop sont facultatifs?

A.   −Autput DirectoryName

B.   −cmdenv name = valeur

C.   −COMBINER Streaming Command

D.   −reducer javaclassname

32: Laquelle des commandes suivantes est utilisée pour définir une variable d'environnement dans une commande de streaming?

A.   -File ABC = / Home / Exemple /

B.   −Mapper ABC = / Home / InputReader / Exemple / Dictionnaires /

C.   −pout ABC = / Home / Directories / Exemple

D.   -Cmdenv ABC = / Home / Exemple / Dictionnaires /

33: Lequel des éléments suivants sont les avantages du chiffrement au niveau du disque dans les HDF?

A.   Il offre des performances élevées.

B.   Il peut être déployé facilement.

C.   Il est très flexible.

D.   Il peut protéger contre les logiciels ainsi que les menaces physiques.

34: Pour un fichier nommé ABC, lequel des commandes Hadoop suivants est utilisé pour définir toutes les autorisations pour le propriétaire, définir des autorisations de lecture pour le groupe et définir aucune autorisation pour les autres utilisateurs du système?

A.   Hadoop FS −Chmod ABC 310

B.   Hadoop FS −Chmod 740 ABC

C.   Hadoop FS ∼Chmod 420 ABC

D.   Hadoop FS −Chmod ABC ∼ 860

35: Lequel des niveaux d'autorisation suivants n'est pas autorisé dans l'autorisation HDFS?

A.   Lire

B.   Écrire

C.   Exécuter

D.   Les trois niveaux d'autorisation sont autorisés

36: Lesquelles des opérations de jointure suivantes ne sont pas soutenues par Hive?

A.   Semi-join

B.   Jointure interne

C.   Thêta join

D.   Jointure floue

37: Laquelle des commandes suivantes est utilisée pour créer un fichier Keytab utilisé dans l'authentification Kerberos?

A.   kinite

B.   klist

C.   Ktutil

D.   mradmin

E.   dfsadmin

38: Laquelle des éléments suivants est la propriété avancée de configuration côté serveur du fil qui est utilisée pour permettre la suppression des données âgées présentes dans le magasin Timeline?

A.   yarn.timeline-service.ttl-enable

B.   yarn.timeline-Service.Enabled

C.   yarn.timeline-service.generic-application-history.enabled

D.   yarn.timeline-service.recovery.enabled

39: Afin d'exécuter un fichier JAR personnalisé construit par l'utilisateur, la commande jar est utilisée. Lequel des éléments suivants est la syntaxe correcte de cette commande?

A.   Node de yarn -jar [nom de classe principale] & lt; cheminement de fichier jar & gt; [arguments…]

B.   yarn jar & lt; cheminement de fichier jar & gt; [Nom de la classe principale] [Arguments…]

C.   application de yarn -jar [nom de classe principale] & lt; cheminement de fichier jar & gt; [arguments…]

D.   JORS JORS JARS & LT; PATH FILE JAR & GT; [Nom de la classe principale] [Arguments…]

40: Laquelle des commandes de fil suivantes est utilisée pour écraser le répertoire de configuration par défaut $ {hadoop_prefix} / conf?

A.   --config confdir

B.   - Config. Yarnconfiguration

C.   daemonlog −getlevel

D.   confdir de daemon

41: Laquelle des commandes HIVEQL suivantes est utilisée pour imprimer la liste des variables de configuration remplacées par Hive ou l'utilisateur?

A.   ensemble

B.   Définir −v

C.   DFS

D.   réinitialiser

42: Laquelle des options données est la fonction correcte de la commande HIVEQL suivante ?!

A.   Il est utilisé pour exécuter une commande DFS à partir du shell Hive.

B.   Il est utilisé pour exécuter une commande shell à l'intérieur de la CLI.

C.   Il est utilisé pour exécuter une commande shell à partir du shell Hive.

D.   Il est utilisé pour exécuter une commande DFS à l'intérieur de la CLI.

43: Lesquelles des fonctions suivantes sont les fonctions de Hadoop? I) Recherche de données) Rétention des donnéesiii) Recommandation SystemsIV) Analytique

A.   Uniquement i) et iii)

B.   Uniquement i) et ii)

C.   Uniquement i), ii) et iv)

D.   Tout i), ii), iii) et iv)

44: Laquelle des propriétés de configuration suivantes de Yarns Resource Manager est utilisée pour spécifier l'hôte: port pour les clients pour soumettre des travaux?

A.   yarn.resourcemanager.ha.rm-ids

B.   yarn.resourcemanager.address.rm-id

C.   yarn.resourcemanager.hostname.rm-id

D.   yarn.resourcemanager.scheduler.address.rm-id

45: Laquelle des commandes HDFS suivantes est utilisée pour définir un nom et une valeur d'attribut étendu pour un fichier ou un répertoire?

A.   setgid

B.   set

C.   setfattr

D.   setquota

E.   setConf

46: Laquelle des commandes de porc suivantes est / est utilisée pour échantillonner une données et y appliquer une requête?

A.   DÉCRIRE

B.   ILLUSTRER

C.   EXPLIQUER

D.   Les deux, A et B

47: Lequel des éléments suivants est la syntaxe correcte pour le profil Docs Maven qui est utilisé pour créer une documentation dans Hadoop Auth?

A.   $ package mvn - pdocs

B.   $ mvn pdocs

C.   $ curl - mvn pdocs

D.   $ curl - mvn pdocs - package

48: En cas d'autorisation au niveau du service dans Hadoop, lesquelles des propriétés suivantes sont utilisées pour déterminer les as utilisés pour accorder des autorisations pour que lesodes de données puissent communiquer et accéder au namenode?

A.   security.client.datanode.protocol.acl

B.   Security.NaMenode.protocol.ACL

C.   security.client.protocol.acl

D.   security.datanode.protocol.acl

49: Quelle est la valeur par défaut de la propriété de configuration de sécurité suivante de l'architecture de fil?

A.   Un jour

B.   3 jours

C.   5 jours

D.   7 jours

50: Lors de la configuration de l'authentification HTTP dans Hadoop, lequel des éléments suivants est défini comme la valeur de la propriété "Hadoop.http.Filter.Initialisers"?

A.   org.apache.hadoop.security.authenticationInitializer Nom de la classe

B.   org.apache.hadop

C.   org.apache.hadoop.security.ldapgroupsmapping class

D.   org.apache.hadoop.security.ssl Nom de la classe

51: Laquelle des commandes Shell HDFS suivantes est utilisée pour définir un groupe pour un fichier ou un répertoire particulier?

A.   chown

B.   chod

C.   chgrp

D.   propriétaire de secours

52: Lesquels des éléments suivants sont les arguments de ligne de commande requis pour la commande OEV de HDFS?

A.   -i, - inputfile arg

B.   -o, - TOutputFile Arg

C.   -p, --processor arg

D.   -f, --fix-txids

53: Lequel des éléments suivants est le service d'annuaire Hadoop qui stocke les métadonnées liées aux fichiers présents dans le stockage du cluster?

A.   Mapreduce

B.   Code de données

C.   Quorumpeermain

D.   Namenode

54: Laquelle des fonctions suivantes n'est pas remplie par la classe InputFormat pour un travail MapReduce Hadoop?

A.   Il divise les données d'entrée dans des morceaux logiques et attribue chacun de ces divisions à une tâche de carte.

B.   Il instancie l'objet RecordReader qui peut fonctionner sur chaque classe InputSplit.

C.   Il présente une vue d'enregistrement des données dans la tâche MAP et lit à partir d'une classe InputSplit.

D.   Il produit les enregistrements de la tâche MAP sous forme de paires de valeurs clés.

55: Laquelle des commandes suivantes est utilisée pour distribuer un fichier exclu à tous les Namenodes?

A.   [HDFS] $ $ HADOOP_PREFIX / SBIN / Distribue-Exclude.sh & lt; Exclude_file & gt;

B.   $ [Hadoop hdfs] sbin / distribution-exclude.sh & lt; exclure_file & gt;

C.   $ [dfsadmin, hdfs] $ hadoop_prefix / sbin / & lt; exclude_file & gt; / distribuer-exclude.sh

D.   [dfsadmin] $ $ hadoop_prefix / sbin / & lt; exclude_file & gt; / distribution-exclude.sh

56: Lors de l'accès à une URL du protocole Hadoop Auth à l'aide de Curl, lesquelles des options de commande suivantes sont utilisées pour stocker et envoyer des cookies HTTP?

A.   −u et -v

B.   −b et −c

C.   −c et −u

D.   −u et −c

57: Quelle est la valeur par défaut de la propriété hadoop.http.authentication.token.validité utilisée en cas d'authentification via l'interface HTTP?

A.   72 000 secondes

B.   18 000 secondes

C.   64 000 secondes

D.   36 000 secondes

58: En cas d'exécution multiple, lequel des codes de retour suivants indique des erreurs récupérables pour une exécution?

A.   0

B.   1

C.   2

D.   00

59: Laquelle des commandes Hadoop suivantes est utilisée pour copier un chemin source vers STDOUT?

A.   stat

B.   copytolocal

C.   CP

D.   chat

60: Laquelle des commandes Hadoop DFSADMIN suivantes génère une liste de Datanodes?

A.   bin / hdfs dfsadmin −r

B.   bin / hdfs dfsadmin −Report

C.   bin / hdfs dfsadmin-report datanodes

D.   bin / hdfs dfsadmin −r datanodes

61: Lesquelles des propriétés suivantes ne sont pas les propriétés de l'application (application) objet de l'API REST NodeManager?

A.   contenerides

B.   conteneurs

C.   État

D.   utilisateur

E.   appliquer

62: Lequel des éléments suivants est le type de données correct de l'élément "TotalMB" de l'objet ClusterMetrics utilisé dans l'API RESTRERCEMANGER RERSECERCEMANGER?

A.   int

B.   chaîne

C.   long

D.   grand

63: Lequel des objets suivants est utilisé par la classe RecordReader pour lire les données d'une classe InputSplit?

A.   FsdatainputStream

B.   Liner

C.   Système de fichiers

D.   Lecteur d'enregistrement

64: Lequel des opérateurs suivants est utilisé pour ne pas nicher les tuples et les sacs imbriqués?

A.   ILLUSTRER

B.   Aplatir

C.   Coagroupe

D.   CROIX

65: Le cadre Hadoop se compose de l'algorithme ________ pour résoudre des problèmes à grande échelle.

A.   MapSystem

B.   MapReduce

C.   Mapcluster

D.   Mapcomponent

66: Le partitionnaire contrôle le partitionnement de quelles données?

A.   Clés finales

B.   Valeurs finales

C.   Clés intermédiaires

D.   Valeurs intermédiaires

67: Les fonctions de fenêtre SQL sont implémentées dans Hive en utilisant quels mots clés?

A.   Union distinct, rang

B.   Fini, rang

C.   Sur, sauf

D.   Union distinct, rang

68: Plutôt que d'ajouter un type secondaire à un travail lent à réduire, c'est la meilleure pratique de Hadoop d'effectuer quelle optimisation?

A.   Ajoutez un shuffle partitionné au travail de carte.

B.   Ajoutez un shuffle partitionné au travail de réduction.

C.   Cassez le travail de réduction en plusieurs travaux réduits multiples.

D.   Cassez le travail de réduction en plusieurs travaux de carte trafiqués.

A.   HTTP crypté

B.   Http non signé

C.   Http comprimé

D.   Signé http

70: Les travaux de MapReduce peuvent être écrits dans quelle langue?

A.   Java ou Python

B.   SQL uniquement

C.   SQL ou Java

D.   Python ou SQL

71: Pour effectuer une agrégation locale des sorties intermédiaires, les utilisateurs de MapReduce peuvent éventuellement spécifier quel objet?

A.   Réducteur

B.   Combiner

C.   Tabac

D.   Comptoir

72: Pour vérifier l'état du travail, recherchez la valeur ___ dans le ___.

A.   RÉUSSI; syslog

B.   RÉUSSI; stdout

C.   FAIT; syslog

D.   FAIT; stdout

73: Quelle ligne de code implémente une méthode de réducteur dans MapReduce 2.0?

A.   Public Void Redis (clé texte, valeurs d'itérateur, contexte de contexte) {…}

B.   Public Static Void Reduce (clé de texte, valeurs [] intrwitables, contexte de contexte) {…}

C.   Public Static Void Redis (clé de texte, valeurs d'itérateur, contexte de contexte) {…}

D.   VOID PUBLIQUE Réduisez (clé de texte, valeurs [] intrwitables, contexte de contexte) {…}

74: Pour obtenir le nombre total d'enregistrements d'entrée mappés dans une tâche de travail MAP, vous devriez revoir la valeur de quel compteur?

A.   FileInputFormatCounter

B.   FilesystemCounter

C.   Emploi

D.   TaskCounter (pas sûr)

75: Hadoop Core prend en charge les capacités CAP?

A.   A, p

B.   CALIFORNIE

C.   C, P

D.   CASQUETTE

76: Quelles sont les principales phases d'un réducteur?

A.   Combiner, cartographier et réduire

B.   Remanier, trier et réduire

C.   Réduire, trier et combiner

D.   Carte, trier et combiner

77: Pour configurer Hadoop Workflow avec la synchronisation des données entre les travaux qui traitent les tâches à la fois sur le disque et en mémoire, utilisez le service ___, qui est ___.

A.   Oozie; Open source

B.   Oozie; logiciel commercial

C.   Zookeeper; logiciel commercial

D.   Zookeeper; Open source

78: Pour une haute disponibilité, utilisez plusieurs nœuds de quel type?

A.   Données

B.   Nom

C.   Mémoire

D.   Ouvrier

79: Datanode prend en charge quel type de disques?

A.   Remplaçables à chaud

B.   Cold Swappable

C.   Chaleureux swappable

D.   Non swappable

80: Quelle méthode est utilisée pour implémenter des travaux Spark?

A.   Sur le disque de tous les travailleurs

B.   Sur le disque du nœud maître

C.   En mémoire du nœud maître

D.   En mémoire de tous les travailleurs

81: Dans un travail MapReduce, où fonctionne la fonction map ()?

A.   Sur les nœuds de réducteur du cluster

B.   Sur les nœuds de données du cluster (pas sûr)

C.   Sur le nœud maître du cluster

D.   Sur chaque nœud du cluster

82: Pour référencer un fichier maître pour les recherches pendant le mappage, quel type de cache devrait être utilisé?

A.   Cache distribuée

B.   Cache local

C.   Cache partitionné

D.   Cache de cluster

83: Skip Bad Records offre une option où un certain ensemble de mauvais enregistrements d'entrée peut être ignoré lors du traitement du type de données?

A.   Entrées de cache

B.   Entrées de réducteur

C.   Valeurs intermédiaires

D.   Entrées de carte

84: Quelle commande importe des données à Hadoop à partir d'une base de données MySQL?

A.   Importation de l'étincelle - Connect JDBC: mysql: //mysql.example.com/park --Username Spark - Warehouse-Dir User / Hue / Oozie / Deployments / Spark

B.   SQOOP IMPORT - Connect JDBC: mysql: //mysql.example.com/sqoop --Username Sqoop - Warehouse-Dir User / Hue / Oozie / Deployments / Sqoop

C.   SQOOP IMPORT - Connect JDBC: mysql: //mysql.example.com/sqoop --Username sqoop ---Spassword Sqoop - Warehouse-Dir User / Hue / Oozie / Deployments / Sqoop

D.   Importation de l'étincelle - Connect JDBC: mysql: //mysql.example.com/park --Username Spark - Password Spark - Warehouse-Dir User / Hue / Oozie / Deployments / Spark

85: Dans quelle forme la sortie de réducteur est-elle présentée?

A.   Comprimé (pas sûr)

B.   Trié

C.   Pas trié

D.   Crypté

86: Quelle bibliothèque doit être utilisée pour un code MapReduce de test unitaire?

A.   Junite

B.   Xunit

C.   Munit

D.   Hadoopunit

87: Si vous avez commencé le namenode, alors quel type d'utilisateur devez-vous être?

A.   Hadoop-utilisateur

B.   Super-utilisateur

C.   Utilisateur de nœud

D.   Administrateur

88: État _ entre les JVM dans un travail MapReduce

A.   Peut être configuré pour être partagé

B.   Est partiellement partagé

C.   Est partagé

D.   N'est pas partagé (https://www.lynda.com/hadoop-tutorials/understanding-java-virtual-machines-jvms/191942/369545-4.html)

89: Pour créer un travail MapReduce, que devrait être codé en premier?

A.   Une méthode de travail statique ()

B.   Une classe d'emploi et une instance (pas sûr)

C.   Une méthode de travail ()

D.   Une classe d'emploi statique

90: Pour connecter Hadoop à AWS S3, quel client devez-vous utiliser?

A.   S3A

B.   S3N

C.   S3

D.   L'EMR S3

91: HBASE travaille avec quel type d'application du schéma?

A.   Schéma sur l'écriture

B.   Pas de schéma

C.   Schéma externe

D.   Schéma sur lecture

92: Le fichier hdfs est de quel type?

A.   Lire écrire

B.   Lecture seulement

C.   Écrire uniquement

D.   APPENDE uniquement

93: Un chemin de fichier de cache distribué peut provenir de quel emplacement?

A.   HDFS ou TOP

B.   Http

C.   HDFS ou HTTP

D.   HDFS

94: Quelle bibliothèque devez-vous utiliser pour effectuer des travaux MapReduce de type ETL?

A.   Ruche

B.   Cochon

C.   Impala

D.   Cornac

95: Quelle est la sortie du réducteur?

A.   Une table relationnelle

B.   Une mise à jour du fichier d'entrée

C.   Une seule liste combinée

D.   Un ensemble de <clé, valeur> paires

96: Lorsqu'il est mis en œuvre sur un cloud public, qu'interagit le traitement de Hadoop?

A.   Fichiers dans le stockage d'objets

B.   Données graphiques dans les bases de données graphiques

C.   Données relationnelles dans les systèmes de SMBRM gérés

D.   Données JSON dans les bases de données NoSQL

97: Dans le système Hadoop, quel mode administratif est utilisé pour la maintenance?

A.   Mode de données

B.   Mode sûr

C.   Mode utilisateur unique

D.   Mode pseudo-distribué

98: Dans quel format RecordWriter écrit-il un fichier de sortie?

A.   <clé, valeur> paires

B.   Clés

C.   Valeurs

D.   <valeur, clé> paires

99: À quelles paires la clé d'entrée / valeur de la carte du mappeur?

A.   Une moyenne de clés pour les valeurs

B.   Une somme de clés pour les valeurs

C.   Un ensemble de paires de clés / valeur intermédiaires

D.   Un ensemble de paires de clés / valeur finales

100: Quelle requête Hive renvoie les 1 000 premières valeurs?

A.   Sélectionnez… où valeur = 1000

B.   Sélectionnez… limiter 1000

C.   Sélectionnez 1000 supérieurs…

D.   Sélectionnez Max 1000…