Hadoop-Fragen in deutschen Sprachen

Hadoop-Fragen in deutschen Sprachen

Diese Hadup-Multiple-Choice-Fragen und -Antworten helfen Ihnen, Hadup besser zu verstehen. Bereiten Sie sich mit über 100 Hadoop-MCQs auf Ihre nächste Prüfung oder Ihr nächstes Vorstellungsgespräch vor.
Scrollen Sie nach unten, um mit der Antwort zu beginnen.

1: Welche der folgenden Aussagen ist die korrekte Syntax für den Befehl zum Einstellen der Replikation für eine vorhandene Datei in Hadoop webhdfs rest api?

A.   SetReplikation (String -Replikation, Pfad P, FSPERMISMENT -Erlaubnis)

B.   Setreplikation (FSPERMISMENT -Erlaubnis, kurze Replikation)

C.   setReplication (String -Replikation, Pfad p)

D.   setreplication (Pfad SRC, kurze Replikation)

A.   Nur i) und ii)

B.   Nur ii) und iii)

C.   Nur i) und iv)

D.   Nur iii) und iv)

E.   Nur i), ii) und iii)

3: Welche der folgenden Aussagen ist der Hauptprozess, der die Stellenangebote von den Kunden akzeptiert und die Aufgaben plant, um auf Arbeiterknoten auszuführen?

A.   Tasktracker

B.   JobTracker

C.   GARN

D.   Knotenmanager

4: Welche der folgenden Umgebungsvariablen wird verwendet, um den Hadoop -Cluster für Schwein zu bestimmen, um die MapReduce -Jobs auszuführen?

A.   Marn_conf_dir

B.   Hadoop_Prefix

C.   Hadoop_conf_dir

D.   Hadoop_Home

5: Welche der folgenden HDFS -Befehle wird zur Überprüfung von Inkonsistenzen und Berichtensproblemen mit verschiedenen Dateien verwendet?

A.   Fetchdt

B.   DFS

C.   oiv

D.   fsck

6: Mit welcher der folgenden Befehle wird der Inhalt einer Datei mit dem Namen /newExample/example1.txt angezeigt?

A.   bin/hdfs dfs −cat /newExample/example1.txt

B.   bin/hadoop dfsadmin -ddir /newexample/example1.txt

C.   bin/hadoop dfs -cat /newexample/example1.txt

D.   bin/hdfs dfsadmin -ddir /newExample/example1.txt

7: Welche der folgenden Komponenten ist in der Hadoop -Architektur für die Planung und Ausführung eines einzelnen Jobs verantwortlich?

A.   Ressourcenmanager

B.   Knotenmanager

C.   Anwendungsmaster

D.   Container

8: Welche der folgenden Schnittstellen wird zum Zugriff auf den Hive -Metastore verwendet?

A.   Verwandeln

B.   Befehlszeile

C.   ObjectInspector

D.   Sparsamkeit

9: Was ist die Funktion des folgenden Hadoop -Befehls?

A.   Es wird die Zusammenfassung der Dateilängen angezeigt.

B.   Im Falle einer Datei werden die Länge der Datei angezeigt, während im Falle eines Verzeichnisses die Größen der in diesem Verzeichnis vorhandenen Dateien und Verzeichnisse angezeigt werden.

C.   Es zeigt die Anzahl der Dateien in einem bestimmten Verzeichnis an.

D.   Es zeigt die Zahlen und Namen von Dateien an, die in einem bestimmten Verzeichnis vorhanden sind.

10: In Hadoop werden HDFS -Schnappschüsse für welche der folgenden Gründe entnommen? I) Für den Schutz vor Benutzerfehler.II) zur Bereitstellung von Backup.III) für die Disaster Recovery.iv) zum Kopieren von Daten von Datenknoten.

A.   Nur i) und iii)

B.   Nur ii) und iv)

C.   Nur i), ii) und iii)

D.   Nur i), iii) und iv)

E.   Alles i), ii), iii) und iv)

11: Bevor die von der MAP -Aufgabe emittierten Zwischenausgangsdatensätze in eine Festplatte eingefügt werden, werden im lokalen Speicher unter Verwendung eines kreisförmigen Puffers gepuffert. Welche der folgenden Eigenschaften wird verwendet, um die Größe dieses kreisförmigen Puffers zu konfigurieren?

A.   MapReduce.task.io.sort.mb

B.   io.record.sort.percent

C.   MAPREDUCE.Partitioner.Class

D.   MapReduce.task.io.mb

12: Welche der folgenden Schnittstellen kann die von UDFs erforderliche Speichermenge verringern, indem die Eingabe in Stücken akzeptiert wird?

A.   PigReducerestimator -Schnittstelle

B.   StoreFunc -Schnittstelle

C.   Filterfunc -Schnittstelle

D.   Akkumulatorschnittstelle

13: Welche der folgenden Bienenstockklauseln sollte verwendet werden, um den Abfrageergebnissen eine Gesamtreihenfolge aufzuerlegen?

A.   SORTIEREN NACH

B.   SORTIERE NACH

C.   Entweder a oder B

D.   Nichts des oben Genannten

14: Welche der folgenden Hive -Befehle wird zum Erstellen einer Datenbank namens MyData verwendet?

A.   Erstellen Sie die MyData -Datenbank

B.   Datenbank erstellen mydata

C.   Erstellen Sie eine neue MyData -Datenbank

D.   Erstellen Sie neue Datenbank mydata

15: Welche der angegebenen Optionen ist die Funktion des folgenden Hadoop-Befehls? -A

A.   Es wird verwendet, um zu überprüfen, ob alle Bibliotheken verfügbar sind.

B.   Es wird zur Erweiterung der Wildcards verwendet.

C.   Es wird verwendet, um einen Ressourcenmanager anzugeben.

D.   Es wird verwendet, um einer Eigenschaft einen Wert zuzuweisen

16: In welchem ​​der folgenden Schweineausführungsmodi kann ein Java -Programm durch Importieren der Schweinebibliotheken Schweinehäute anrufen?

A.   Interaktiver Modus

B.   Stapelmodus

C.   Eingebetteter Modus

D.   Entweder interaktiv oder Stapelmodus

17: Welcher der angegebenen Schweinedatentypen hat die folgenden Eigenschaften? I) Es handelt sich um eine Sammlung von Datenwerten.II) Diese Datenwerte sind geordnet und haben eine feste Länge.

A.   Bytearray

B.   Tasche

C.   Karte

D.   Tupel

18: Welche der folgenden Funktionen wird vom Scheduler des Ressourcenmanagers in der Garnarchitektur ausgeführt?

A.   Es bietet Einblicke in den Status der Anwendung.

B.   Es garantiert den Neustart der Anwendungs- und Hardwarefehler.

C.   Es gibt den im Cluster ausgeführten Anwendungen Ressourcen zu.

D.   Es behandelt die von den Kunden eingereichten Bewerbungen.

19: Welche der folgenden Merkmale des Gewerkschaftsbetreibers von Schwein?

A.   Das Schema der beiden Datensätze, die verkettet werden, werden keine Einschränkungen auferlegen.

B.   Es entfernt die doppelten Tupel, während die Datensätze verkettet werden.

C.   Es bewahrt die Bestellung der Tupel und verkettet die Datensätze.

D.   Es verwendet das Onschema -Qualifikationsspiel, um das Ergebnis ein Schema zu geben

20: Welcher der folgenden Operatoren ist erforderlich, um für Theta-join verwendet zu werden?

A.   CoGroup

B.   Für jede

C.   Kreuzen

D.   Union

21: Welche der folgenden Zeilenbefehlssyntax des Hadoop -Streaming -Befehls ist die folgende Zeilenbefehlsbefehl?

A.   Hadoop -Befehl [Streamingoptions]

B.   Befehl ∼ Hadoop [Generikoptionen] [Streamingoptionen]

C.   Hadoop -Befehl [Generikoptionen] [Streamingoptions]

D.   Befehl ∼ Hadoop [Streamingoptionen] [Generikoptionen]

22: Welche der folgenden Aussagen ist richtig für die Bienenstockanschlüsse?

A.   Die Verbindungen in Bienenstock sind kommutativ.

B.   In Hive können mehr als zwei Tische verbunden werden.

C.   Die erste am Join teilnehmende Tabelle wird standardmäßig zur Reduzierung der Aufgabe reduziert.

D.   Alle sind richtig.

23: Welche der folgenden Aussagen wird verwendet, um die Gruppe einer Datei zu ändern?

A.   HDFS CHGRP [Eigentümer] [: [Gruppe]] [-r] & lt; filepath & gt; & lt; Newgroup & gt;

B.   HDFS CHGRP [-r] & lt; Group & gt; & lt; filepath & gt;

C.   HDFS CHGRP [-r] & lt; [Gruppe [: [Eigentümer] & gt; & lt; filepath & gt;

D.   HDFS CHGRP & lt; Group & Gt; & lt; filepath & gt; [-r] & lt; Newgroup & gt;

E.   HDFS CHGRP & lt; Group & gt; [-r] & lt; Newgroup & gt;

24: Angenommen, Sie müssen ein Speichersystem auswählen, das die hohe Verfügbarkeit von Ressourcenmanager (RM HA) unterstützt. Welche der folgenden Speichertypen sollte in diesem Fall ausgewählt werden?

A.   Stufe basiert

B.   Dateisystembasierte State-Shop

C.   Zookeeper-basierter Staatsgeschäft

D.   Entweder Option A oder B könnte verwendet werden

25: Welche der folgenden Aussagen ist im Hadoop -Dateisystem -Namespace korrekt?

A.   Die Berechtigung des Benutzerzugriffs wird in HDFS nicht implementiert.

B.   In HDFs darf ein Benutzer keine Verzeichnisse erstellen.

C.   HDFS unterstützt harte Links.

D.   HDFS implementiert Benutzerquoten.

26: Welche der folgenden Hadoop -Befehle wird zum Erstellen einer Datei mit Nulllänge verwendet?

A.   Touchz

B.   Schwanz

C.   Text

D.   prüfen

27: Betrachten Sie eine Eingabedatei mit dem Namen ABC.Dat.txt mit der Standardblockgröße 128 MB. Welcher der folgenden Befehl ist der richtige Befehl, der diese Datei mit einer Blockgröße von 512 MB in einen HDFS hochladen wird?

A.   Hadoop fs ∼ D blockiert = 536870912 -put abc.dat.txt an abc.dat.newblock.txt

B.   Hadoop fs.blocksize = 536870912 -Put abc.dat.txt abc.dat.newblock.txt

C.   Hadoop fs -d dfs.blocksize = 536870912 -put abc.dat.txt abc.dat.newblock.txt

D.   Hadoop fs.blocksize −d = 536870912 -put abc.dat.txt an abc.dat.newblock.txt

28: Was ist die Funktion der folgenden Konfigurationseigenschaft von YARNS Resource Manager? Garn.ResourceManager.ha.id

A.   Es wird verwendet, um die Klasse zu identifizieren, die vom Client verwendet werden soll.

B.   Es wurde zum Auflisten der von Ressourcenverwaltungen verwendeten logischen IDs verwendet.

C.   Es wird verwendet, um den entsprechenden Hostnamen für Resource Manager anzugeben.

D.   Es wird verwendet, um den Ressourcenmanager im Ensemble zu identifizieren.

29: Welche zwei der folgenden Unterschiede zwischen MapReduce und herkömmlichen RDBMs sind die korrekten Unterschiede?

A.   Die Skalierung in MapReduce ist nichtlinear, während sie in RDBMs linear ist.

B.   In MapReduce kann der Lesevorgang mehrmals durchgeführt werden, aber der Schreibvorgang kann nur einmal durchgeführt werden. In herkömmlichen RDBMs können sowohl Lesen als auch Schreibvorgänge mehrfach ausgeführt werden.

C.   Die Integrität von MapReduce ist im Vergleich zu RDBMs höher.

D.   Das Zugriffsmuster von MapReduce ist Stapel, während das Zugriffsmuster von RDBMS interaktiv und stapel ist

30: Welche der folgenden Aussagen ist für Garns -Webanwendungs ​​-Proxy korrekt?

A.   Es verhindert, dass der Anwendungsmanager Links zu den böswilligen externen Websites bereitstellt.

B.   Es verhindert die Ausführung des böswilligen JavaScript -Code.

C.   Es streift die Cookies vom Benutzer und ersetzt sie durch ein einzelnes Cookie, wodurch der Benutzername des angemeldeten Benutzers angegeben ist.

D.   Es läuft als Teil von Ressourcenbekleidung, kann jedoch nicht so konfiguriert werden, dass sie im eigenständigen Modus ausgeführt werden.

31: Welche zwei der folgenden Parameter des Hadoop -Streaming -Befehls sind optional?

A.   - Output DirectoryName

B.   −cmdenv name = value

C.   - Kombiner StreamingCommand

D.   Reduzierer JavaclassName

32: Welche der folgenden Befehle wird zum Festlegen einer Umgebungsvariablen in einem Streaming -Befehl verwendet?

A.   -File ABC =/home/Beispiel/

B.   −mapper ABC =/home/InputReader/Beispiel/Wörterbücher/

C.   –Input ABC =/Home/Verzeichnisse/Beispiel

D.   -cmdenv ABC =/home/Beispiel/Wörterbücher/

33: Welche der folgenden Vorteile sind die Vorteile der Verschlüsselung auf Scheibenebene in HDFs?

A.   Es bietet hohe Leistung.

B.   Es kann leicht eingesetzt werden.

C.   Es ist sehr flexibel.

D.   Es kann sowohl vor Software als auch vor physischen Bedrohungen schützen.

34: Welche der folgenden Hadoop -Befehle wird für eine Datei namens ABC verwendet, um alle Berechtigungen für den Eigentümer festzulegen, die Leseberechtigungen für die Gruppe zu setzen und keine Berechtigungen für andere Benutzer im System festzulegen?

A.   Hadoop fs - Chmod ABC 310

B.   Hadoop fs - chmod 740 ABC

C.   Hadoop fs ∼chmod 420 ABC

D.   Hadoop fs - Chmod ABC ∼ 860

35: Welche der folgenden Erlaubnisstufen ist in der HDFS -Autorisierung nicht zulässig?

A.   Lesen

B.   Schreiben

C.   Ausführen

D.   Alle drei Berechtigungsstufen sind erlaubt

36: Welche der folgenden Beiträge wird von Hive nicht unterstützt?

A.   Links semi-join

B.   Innerer Join

C.   Theta beitreten

D.   Fuzzy Join

37: Welche der folgenden Befehle wird zum Erstellen einer KeyTab -Datei verwendet, die in der Kerberos -Authentifizierung verwendet wird?

A.   Kinit

B.   KLIST

C.   ktutil

D.   mradmin

E.   dfsadmin

38: Welche der folgenden folgenden Konfigurationseigenschaften von YARN ist die erweiterte serverseitige Konfigurationseigenschaft, mit der die Löschung der im Timelinespeicher vorhandenen Löschdaten aktiviert werden?

A.   marn.timeline-service.ttl-enable

B.   marn.timeline-service.enabled

C.   marn.timeline-service.generic-application-history.enabled

D.   marn.timeline-service.recovery.enabled

39: Um eine benutzerdefinierte JAR-Datei auszuführen, wird der Befehl jar verwendet. Welche der folgenden Aussagen ist die richtige Syntax dieses Befehls?

A.   Garnknoten -Jar [Hauptklassenname] & lt; JAR -Dateipfad & gt; [Argumente…]

B.   Garn jar & lt; JAR -Dateipfad & gt; [Name der Hauptklasse] [Argumente…]

C.   Garnanwendung -Jar [Name der Hauptklasse] & lt; JAR -Dateipfad & gt; [Argumente…]

D.   Garnprotokolle Jar & lt; JAR -Dateipfad & gt; [Name der Hauptklasse] [Argumente…]

40: Welches der folgenden Garnbefehle wird zum Überschreiben des Standardkonfigurationsverzeichnisses $ {Hadoop_Prefix}/conf verwendet?

A.   -Konfiguration Confdir

B.   -Konfiguration. Garnkonfiguration

C.   Daemonlog -Getlevel

D.   Daemonlog Confdir

41: Welche der folgenden Hiveql -Befehle wird zum Drucken der Liste der Konfigurationsvariablen verwendet, die von Hive oder dem Benutzer überschrieben wurden?

A.   Satz

B.   SET −v

C.   DFS

D.   zurücksetzen

42: Welche der angegebenen Optionen ist die korrekte Funktion des folgenden Hiveql -Befehls?!

A.   Es wird zum Ausführen eines DFS -Befehls aus der Hive -Shell verwendet.

B.   Es wird zum Ausführen eines Shell -Befehls in der CLI verwendet.

C.   Es wird zum Ausführen eines Shell -Befehls aus der Hive -Shell verwendet.

D.   Es wird zum Ausführen eines DFS -Befehls in der CLI verwendet.

43: Welche der folgenden Funktionen sind die Funktionen von Hadoop? I) Datensuche) Datenretentioniiiiiiii) Analytics)

A.   Nur i) und iii)

B.   Nur i) und ii)

C.   Nur i), ii) und iv)

D.   Alles i), ii), iii) und iv)

44: Welche der folgenden Konfigurationseigenschaften von Garns Resource Manager wird zum Angeben des Hosts verwendet: Port für Kunden, um Jobs einzureichen?

A.   Yarn.Resourcemanager.ha.rm-ids

B.   Yarn.ResourceManager.address.rm-id

C.   marn.resourceManager.hostname.rm-id

D.   marn.resourceManager.scheduler.address.rm-id

45: Welche der folgenden HDFS -Befehle wird zum Festlegen eines erweiterten Attributnamens und -werts für eine Datei oder ein Verzeichnis verwendet?

A.   setgid

B.   Setfile

C.   setfattr

D.   setquota

E.   setConf

46: Welche der folgenden Schweinebefehle werden/werden verwendet, um Daten zu probieren und eine Abfrage darauf anzuwenden?

A.   BESCHREIBEN

B.   Illustrate

C.   ERKLÄREN

D.   Sowohl A als auch B

47: Welche der folgenden Aussagen ist die korrekte Syntax für das DOCS -Maven -Profil, das zum Erstellen von Dokumentationen in Hadoop -Auth verwendet wird?

A.   $ mvn Paket - pdocs

B.   $ mvn pdocs

C.   $ curl - mvn pdocs

D.   $ curl - mvn pdocs - Paket

48: Welche der folgenden Eigenschaften in Hadoop in Hadoop wird im Falle einer Autorisierung auf Serviceebene zur Bestimmung der Asse verwendet, die für die Gewährung von Berechtigungen für die Datenanodien verwendet werden, um zu kommunizieren und auf den Namenode zuzugreifen?

A.   Security.client.datanode.protocol.acl

B.   Security.namenode.Protocol.acl

C.   Security.client.Protocol.acl

D.   Security.Datanode.Protocol.acl

49: Was ist der Standardwert der folgenden Sicherheitskonfigurationseigenschaft der Garnarchitektur?

A.   1 Tag

B.   3 Tage

C.   5 Tage

D.   7 Tage

50: Welche der folgenden Eigenschaften ist bei der Konfiguration der HTTP -Authentifizierung in Hadoop als Wert der Eigenschaft "Hadoop.http.filter.initializer" festgelegt?

A.   org.apache.hadoop.security.AuthenticationInitializer Klasse Name

B.   org.apache.hadoop.security.shellBasedunixGroupsmapping -Klassenname

C.   org.apache.hadoop.security.ldapgroupsmapping class

D.   org.apache.hadoop.security.ssl Klasse Name

51: Welche der folgenden HDFS -Shell -Befehle wird zum Einstellen einer Gruppe für eine bestimmte Datei oder ein bestimmtes Verzeichnis verwendet?

A.   Chown

B.   Chmod

C.   chgrp

D.   Setowner

52: Welche der folgenden Aussagen sind die erforderlichen Befehlszeilenargumente für den OEV -Befehl von HDFs?

A.   -i, -Inputfile arg

B.   -O, -Outputfile arg

C.   -p, -Prozessor arg

D.   -f,--fix-txids

53: Welcher der folgenden Hadoop -Verzeichnisdienst ist der in der Clusterspeicher vorhandene Metadaten in Bezug auf die Dateien gespeichert?

A.   Karte verkleinern

B.   Datanode

C.   Quorumphain

D.   Namenode

54: Welche der folgenden Funktionen wird von der InputFormat -Klasse für einen MapReduce Hadoop -Job nicht ausgeführt?

A.   Es spaltet die Eingabedaten in logische Stücke auf und weist jede dieser Spaltungen einer Kartenaufgabe zu.

B.   Es instanziiert das RecordReader -Objekt, das an jeder InputSplit -Klasse funktionieren kann.

C.   Es enthält eine Datensatzansicht der Daten zur Kartenaufgabe und liest aus einer InputSplit -Klasse.

D.   Es erzeugt die Datensätze zur Kartenaufgabe als Schlüsselwertpaare.

55: Welche der folgenden Befehle wird zum Verteilen einer ausgeschlossenen Datei an alle Namenoden verwendet?

A.   [HDFS] $ $ hadoop_prefix/sbin/Distribute-exclude.sh & lt; exklude_file & gt;

B.   $ [Hadoop HDFS] SBIN/Distribute-exclude.sh & lt; exclude_file & gt;

C.   $ [dfsadmin, hdfs] $ hadoop_prefix/sbin/& lt; exklued_file & gt;/Distribute-exclude.sh

D.   [dfsadmin] $ $ hadoop_prefix/ sbin/ & lt; exclude_file & gt;/ Distribute-exclude.sh

56: Welche der folgenden Befehlsoptionen werden beim Zugriff auf eine Hadoop -Auth -Protokoll -URL mit Curl zum Speichern und Senden von HTTP -Cookies verwendet?

A.   –U und -V

B.   −b und −c

C.   −c und −U

D.   –U und −C

57: Was ist der Standardwert der Hadoop.http.Authentication.token.Validity -Eigenschaft, die bei der Authentifizierung über die HTTP -Schnittstelle verwendet wird?

A.   72.000 Sekunden

B.   18.000 Sekunden

C.   64.000 Sekunden

D.   36.000 Sekunden

58: Welche der folgenden Rückgabecodes zeigt im Falle einer Multiquery -Ausführung abrufbare Fehler für eine Ausführung an?

A.   0

B.   1

C.   2

D.   00

59: Welche der folgenden Hadoop -Befehle wird zum Kopieren eines Quellwegs zu Stdout verwendet?

A.   Stat

B.   kopieren

C.   CP

D.   Katze

60: Welche der folgenden Hadoop -DFSADMIN -Befehle generiert eine Liste von Datanodien?

A.   bin/hdfs dfsadmin −r

B.   bin/hdfs dfsadmin -report

C.   Bin/HDFS DFSADMIN -Report -Datanodes

D.   Bin/HDFS DFSADMIN -R -DATANODES

61: Welche der folgenden Eigenschaften des App (Application) Objekt der NodeManager -Rest -API sind nicht die Eigenschaften des App (Application)?

A.   Containeriden

B.   Behälter

C.   Zustand

D.   Benutzer

E.   App

62: Welches der folgenden Datentypen des "TotalMB" -Elements des Clustermetrics -Objekts, das in der Garnressourcemanager -REST -API verwendet wird?

A.   int

B.   Saite

C.   lang

D.   Bigint

63: Welche der folgenden Objekte wird von der RecordReader -Klasse zum Lesen von Daten aus einer InputSPlit -Klasse verwendet?

A.   Fsdatainputstream

B.   Linerader

C.   Dateisystem

D.   Rekordreader

64: Welcher der folgenden Operatoren wird verwendet, um die verschachtelten Tupel und Beutel zu entfernen?

A.   VERANSCHAULICHEN

B.   EBNEN

C.   CoGroup

D.   KREUZEN

65: Der Hadoop -Framework besteht aus dem ________ Algorithmus, um große Probleme zu lösen.

A.   MapSystem

B.   Karte verkleinern

C.   MAPCLUSTER

D.   MapComponent

66: Partitioner kontrolliert die Partitionierung welcher Daten?

A.   Endschlüssel

B.   Endwerte

C.   Zwischenschlüssel

D.   Zwischenwerte

67: SQL -Fensterfunktionen werden in Hive mit welchen Schlüsselwörtern implementiert?

A.   Union unterschiedlich, Rang

B.   Vorbei, rang

C.   Über, außer dass

D.   Union unterschiedlich, Rang

68: Anstatt eine sekundäre Sortierung zu einem langsam reduzierten Job hinzuzufügen, ist es Hadoop -Best Practice, die Optimierung durchzuführen?

A.   Fügen Sie dem Kartenjob einen partitionierten Shuffle hinzu.

B.   Fügen Sie eine partitionierte Shuffle in die Reduzierung des Auftrags hinzu.

C.   Brechen Sie den Job in mehrere, gekettete reduzierte Arbeitsplätze ein.

D.   Brechen Sie den Job in mehrere, gekettete Kartenjobs ein.

A.   Verschlüsselt http

B.   Unsigned http

C.   Komprimiertes HTTP

D.   Signiert http

70: MapReduce -Jobs können in welcher Sprache geschrieben werden?

A.   Java oder Python

B.   Nur SQL

C.   SQL oder Java

D.   Python oder SQL

71: Um die lokale Aggregation der Zwischenausgaben durchzuführen, können MapReduce -Benutzer optional angeben, welches Objekt?

A.   Reduzierer

B.   Kombinierer

C.   Mapper

D.   Schalter

72: Um den Jobstatus zu überprüfen, suchen Sie nach dem Wert ___ im ___.

A.   Erfolgreich; Syslog

B.   Erfolgreich; stdout

C.   ERLEDIGT; Syslog

D.   ERLEDIGT; Stdout

73: Welche Codezeile implementiert eine Reduziermethode in MapReduce 2.0?

A.   Public void Reduzierung (Textschlüssel, Iteratorwerte, Kontextkontext) {…}

B.   Öffentliche statische Leere Reduzierung (Textschlüssel, intRabitable [] Werte, Kontextkontext) {…}

C.   Öffentliche statische Leere Reduzierung (Textschlüssel, Iteratorwerte, Kontextkontext) {…}

D.   Public void Reduzierung (Textschlüssel, intwritable [] Werte, Kontextkontext) {…}

74: Um die Gesamtzahl der zugeordneten Eingabeaufzeichnungen in einer Kartenaufgabe zu erhalten, sollten Sie den Wert von welchem ​​Zähler überprüfen?

A.   FileInputFormatCounter

B.   Dateisystemcounter

C.   Jobcounter

D.   Task Counter (nicht sicher)

75: Hadoop Core unterstützt welche CAP -Funktionen?

A.   A, p

B.   C, a

C.   C, p

D.   DECKEL

76: Was sind die primären Phasen eines Reduzierers?

A.   Kombinieren, kartieren und reduzieren

B.   Mischen, sortieren und reduzieren

C.   Reduzieren, sortieren und kombinieren

D.   Karte, sortieren und kombinieren

77: Um den Hadoop -Workflow mit der Synchronisation von Daten zwischen Jobs einzurichten, die Aufgaben sowohl auf der Festplatte als auch im Speicher verarbeiten, verwenden Sie den ___ Dienst, der ___ ist.

A.   Oozie; Open Source

B.   Oozie; kommerzielle Software

C.   Zookeeper; kommerzielle Software

D.   Zookeeper; Open Source

78: Verwenden Sie für hohe Verfügbarkeit mehrere Knoten von welchem ​​Typ?

A.   Daten

B.   Name

C.   Speicher

D.   Arbeiter

79: Datanode unterstützt welche Art von Laufwerken?

A.   Heißer Swappable

B.   Kaltes Austausch

C.   Warmer Swappbar

D.   Nicht abschwach

80: Welche Methode wird verwendet, um Spark Jobs zu implementieren?

A.   Auf der Festplatte aller Arbeiter

B.   Auf der Festplatte des Masterknotens

C.   Im Gedächtnis des Masterknotens

D.   In Erinnerung an alle Arbeiter

81: Wo wird in einem MapReduce -Job die Funktion map () ausgeführt?

A.   Auf den Reduzierknoten des Clusters

B.   Auf den Datenknoten des Clusters (nicht sicher)

C.   Auf dem Masterknoten des Clusters

D.   Auf jedem Knoten des Clusters

82: Um auf eine Masterdatei für Such -während des Mappings zu verweisen, welche Art von Cache sollte verwendet werden?

A.   Verteilter Cache

B.   Lokaler Cache

C.   Partitionierter Cache

D.   Cluster -Cache

83: Skip Bad Records bietet eine Option, bei der ein bestimmter Satz schlechter Eingangsdatensätze bei der Verarbeitung von Datentypen übersprungen werden kann?

A.   Cache -Eingänge

B.   Reduziereingänge

C.   Zwischenwerte

D.   Karteneingänge

84: Welcher Befehl importiert Daten aus einer MySQL -Datenbank in Hadoop?

A.   Spark Import--Connect JDBC: MySQL: //mysql.example.com/spark --username Spark-Warehouse-Dir-Benutzer/Hue/Oozie/Deployments/Spark

B.   SQOOP-Import-CONNECT JDBC: MySQL: //mysql.example.com/sqoop --username SQOOP-Warehouse-Dir-Benutzer/Hue/Oozie/Deployments/SQOOP

C.   SQOOP Import--Connect JDBC: MySQL: //mysql.example.com/sqoop --username SQOOP--Password SQOOP-Warehouse-Dir-Benutzer/Hue/Oozie/Deployments/SQOOP

D.   Spark Import--Connect JDBC: MySQL: //mysql.example.com/spark --username Spark--Password Spark-Warehouse-Dir-Benutzer/Hue/Oozie/Deployments/Spark

85: In welcher Form wird die Reduzierausgabe vorgestellt?

A.   Komprimiert (nicht sicher)

B.   Sortiert

C.   Nicht sortiert

D.   Verschlüsselt

86: Welche Bibliothek sollte verwendet werden, um den MapReduce -Code von Unit -Tests zu testen?

A.   Jung

B.   Xunit

C.   Mrunit

D.   Hadoopunit

87: Wenn Sie den Namenode gestartet haben, welche Art von Benutzer müssen Sie dann sein?

A.   Hadoop-Benutzer

B.   Super-Benutzer

C.   Knotenbenutzer

D.   Administrator

88: Geben Sie zwischen den JVMs in einem MapReduce -Job an

A.   Kann so konfiguriert werden, dass sie gemeinsam genutzt werden

B.   Ist teilweise geteilt

C.   Wird geteilt

D.   Wird nicht geteilt (https://www.lynda.com/hadoop-tutorials/undalling-java-virtual-machines-jvms/191942/369545-4.html)

89: Was sollte zuerst codiert werden, um einen MapReduce -Job zu erstellen?

A.   Eine statische Job () -Methode

B.   Eine Jobklasse und eine Instanz (nicht sicher)

C.   Eine Job () Methode

D.   Eine statische Jobklasse

90: Welchen Client sollten Sie Hadoop mit AWS S3 anschließen?

A.   S3a

B.   S3n

C.   S3

D.   Die EMR S3

91: HBase arbeitet mit welcher Art der Schema -Durchsetzung?

A.   Schema auf Schreiben

B.   Kein Schema

C.   Externes Schema

D.   Schema auf Read

92: Die HDFS -Datei ist von welchem ​​Typ?

A.   Lesen Schreiben

B.   Schreibgeschützt

C.   Schreibschreiber

D.   Nur anhängen

93: Ein verteilter Cache -Dateipfad kann von welchem ​​Ort stammen?

A.   HDFS oder TOP

B.   Http

C.   HDFS oder HTTP

D.   HDFS

94: Mit welcher Bibliothek sollten Sie MapReduce-Jobs vom ETL-Typ ausführen?

A.   Bienenstock

B.   Schwein

C.   Impala

D.   Mahout

95: Was ist die Ausgabe des Reduzierers?

A.   Eine relationale Tabelle

B.   Ein Update in der Eingabedatei

C.   Eine einzelne, kombinierte Liste

D.   Ein Satz von <schlüssel, Wert> Paare

96: Was interagiert die Hadoop -Verarbeitung in einer öffentlichen Cloud mit der Hadoop -Verarbeitung?

A.   Dateien im Objektspeicher

B.   Grafikdaten in Graph -Datenbanken

C.   Relationale Daten in verwalteten RDBMS -Systemen

D.   JSON -Daten in NoSQL -Datenbanken

97: Welchen Verwaltungsmodus wird im Hadoop -System für die Wartung verwendet?

A.   Datenmodus

B.   Sicherheitsmodus

C.   Einzelbenutzermodus

D.   Pseudo-verteilter Modus

98: In welchem ​​Format schreibt RecordWriter eine Ausgabedatei?

A.   <Schlüssel, Wert> Paare

B.   Schlüssel

C.   Werte

D.   <Wert, Schlüssel> Paare

99: Was kostet der Mapper -Karten -Eingangstaste/Wertpaar?

A.   Ein Durchschnitt der Schlüssel für Werte

B.   Eine Summe von Schlüssel für Werte

C.   Eine Reihe von Zwischenschlüssel-/Wertpaaren

D.   Ein Satz endgültiger Schlüssel-/Wertpaare

100: Welche Hive -Abfrage gibt die ersten 1.000 Werte zurück?

A.   Wählen Sie… wobei Value = 1000

B.   Wählen Sie… Limit 1000

C.   Wählen Sie Top 1000…

D.   Wählen Sie max 1000…