Diese Hadup-Multiple-Choice-Fragen und -Antworten helfen Ihnen, Hadup besser zu verstehen. Bereiten Sie sich mit über 100 Hadoop-MCQs auf Ihre nächste Prüfung oder Ihr nächstes Vorstellungsgespräch vor.
Scrollen Sie nach unten, um mit der Antwort zu beginnen.
A. SetReplikation (String -Replikation, Pfad P, FSPERMISMENT -Erlaubnis)
B. Setreplikation (FSPERMISMENT -Erlaubnis, kurze Replikation)
C. setReplication (String -Replikation, Pfad p)
D. setreplication (Pfad SRC, kurze Replikation)
A. Nur i) und ii)
B. Nur ii) und iii)
C. Nur i) und iv)
D. Nur iii) und iv)
E. Nur i), ii) und iii)
A. Tasktracker
B. JobTracker
C. GARN
D. Knotenmanager
A. Marn_conf_dir
B. Hadoop_Prefix
C. Hadoop_conf_dir
D. Hadoop_Home
A. Fetchdt
B. DFS
C. oiv
D. fsck
A. bin/hdfs dfs −cat /newExample/example1.txt
B. bin/hadoop dfsadmin -ddir /newexample/example1.txt
C. bin/hadoop dfs -cat /newexample/example1.txt
D. bin/hdfs dfsadmin -ddir /newExample/example1.txt
A. Ressourcenmanager
B. Knotenmanager
C. Anwendungsmaster
D. Container
A. Verwandeln
B. Befehlszeile
C. ObjectInspector
D. Sparsamkeit
A. Es wird die Zusammenfassung der Dateilängen angezeigt.
B. Im Falle einer Datei werden die Länge der Datei angezeigt, während im Falle eines Verzeichnisses die Größen der in diesem Verzeichnis vorhandenen Dateien und Verzeichnisse angezeigt werden.
C. Es zeigt die Anzahl der Dateien in einem bestimmten Verzeichnis an.
D. Es zeigt die Zahlen und Namen von Dateien an, die in einem bestimmten Verzeichnis vorhanden sind.
A. Nur i) und iii)
B. Nur ii) und iv)
C. Nur i), ii) und iii)
D. Nur i), iii) und iv)
E. Alles i), ii), iii) und iv)
A. MapReduce.task.io.sort.mb
B. io.record.sort.percent
C. MAPREDUCE.Partitioner.Class
D. MapReduce.task.io.mb
A. PigReducerestimator -Schnittstelle
B. StoreFunc -Schnittstelle
C. Filterfunc -Schnittstelle
D. Akkumulatorschnittstelle
A. SORTIEREN NACH
B. SORTIERE NACH
C. Entweder a oder B
D. Nichts des oben Genannten
A. Erstellen Sie die MyData -Datenbank
B. Datenbank erstellen mydata
C. Erstellen Sie eine neue MyData -Datenbank
D. Erstellen Sie neue Datenbank mydata
A. Es wird verwendet, um zu überprüfen, ob alle Bibliotheken verfügbar sind.
B. Es wird zur Erweiterung der Wildcards verwendet.
C. Es wird verwendet, um einen Ressourcenmanager anzugeben.
D. Es wird verwendet, um einer Eigenschaft einen Wert zuzuweisen
A. Interaktiver Modus
B. Stapelmodus
C. Eingebetteter Modus
D. Entweder interaktiv oder Stapelmodus
A. Bytearray
B. Tasche
C. Karte
D. Tupel
A. Es bietet Einblicke in den Status der Anwendung.
B. Es garantiert den Neustart der Anwendungs- und Hardwarefehler.
C. Es gibt den im Cluster ausgeführten Anwendungen Ressourcen zu.
D. Es behandelt die von den Kunden eingereichten Bewerbungen.
A. Das Schema der beiden Datensätze, die verkettet werden, werden keine Einschränkungen auferlegen.
B. Es entfernt die doppelten Tupel, während die Datensätze verkettet werden.
C. Es bewahrt die Bestellung der Tupel und verkettet die Datensätze.
D. Es verwendet das Onschema -Qualifikationsspiel, um das Ergebnis ein Schema zu geben
A. CoGroup
B. Für jede
C. Kreuzen
D. Union
A. Hadoop -Befehl [Streamingoptions]
B. Befehl ∼ Hadoop [Generikoptionen] [Streamingoptionen]
C. Hadoop -Befehl [Generikoptionen] [Streamingoptions]
D. Befehl ∼ Hadoop [Streamingoptionen] [Generikoptionen]
A. Die Verbindungen in Bienenstock sind kommutativ.
B. In Hive können mehr als zwei Tische verbunden werden.
C. Die erste am Join teilnehmende Tabelle wird standardmäßig zur Reduzierung der Aufgabe reduziert.
D. Alle sind richtig.
A. HDFS CHGRP [Eigentümer] [: [Gruppe]] [-r] & lt; filepath & gt; & lt; Newgroup & gt;
B. HDFS CHGRP [-r] & lt; Group & gt; & lt; filepath & gt;
C. HDFS CHGRP [-r] & lt; [Gruppe [: [Eigentümer] & gt; & lt; filepath & gt;
D. HDFS CHGRP & lt; Group & Gt; & lt; filepath & gt; [-r] & lt; Newgroup & gt;
E. HDFS CHGRP & lt; Group & gt; [-r] & lt; Newgroup & gt;
A. Stufe basiert
B. Dateisystembasierte State-Shop
C. Zookeeper-basierter Staatsgeschäft
D. Entweder Option A oder B könnte verwendet werden
A. Die Berechtigung des Benutzerzugriffs wird in HDFS nicht implementiert.
B. In HDFs darf ein Benutzer keine Verzeichnisse erstellen.
C. HDFS unterstützt harte Links.
D. HDFS implementiert Benutzerquoten.
A. Touchz
B. Schwanz
C. Text
D. prüfen
A. Hadoop fs ∼ D blockiert = 536870912 -put abc.dat.txt an abc.dat.newblock.txt
B. Hadoop fs.blocksize = 536870912 -Put abc.dat.txt abc.dat.newblock.txt
C. Hadoop fs -d dfs.blocksize = 536870912 -put abc.dat.txt abc.dat.newblock.txt
D. Hadoop fs.blocksize −d = 536870912 -put abc.dat.txt an abc.dat.newblock.txt
A. Es wird verwendet, um die Klasse zu identifizieren, die vom Client verwendet werden soll.
B. Es wurde zum Auflisten der von Ressourcenverwaltungen verwendeten logischen IDs verwendet.
C. Es wird verwendet, um den entsprechenden Hostnamen für Resource Manager anzugeben.
D. Es wird verwendet, um den Ressourcenmanager im Ensemble zu identifizieren.
A. Die Skalierung in MapReduce ist nichtlinear, während sie in RDBMs linear ist.
B. In MapReduce kann der Lesevorgang mehrmals durchgeführt werden, aber der Schreibvorgang kann nur einmal durchgeführt werden. In herkömmlichen RDBMs können sowohl Lesen als auch Schreibvorgänge mehrfach ausgeführt werden.
C. Die Integrität von MapReduce ist im Vergleich zu RDBMs höher.
D. Das Zugriffsmuster von MapReduce ist Stapel, während das Zugriffsmuster von RDBMS interaktiv und stapel ist
A. Es verhindert, dass der Anwendungsmanager Links zu den böswilligen externen Websites bereitstellt.
B. Es verhindert die Ausführung des böswilligen JavaScript -Code.
C. Es streift die Cookies vom Benutzer und ersetzt sie durch ein einzelnes Cookie, wodurch der Benutzername des angemeldeten Benutzers angegeben ist.
D. Es läuft als Teil von Ressourcenbekleidung, kann jedoch nicht so konfiguriert werden, dass sie im eigenständigen Modus ausgeführt werden.
A. - Output DirectoryName
B. −cmdenv name = value
C. - Kombiner StreamingCommand
D. Reduzierer JavaclassName
A. -File ABC =/home/Beispiel/
B. −mapper ABC =/home/InputReader/Beispiel/Wörterbücher/
C. –Input ABC =/Home/Verzeichnisse/Beispiel
D. -cmdenv ABC =/home/Beispiel/Wörterbücher/
A. Es bietet hohe Leistung.
B. Es kann leicht eingesetzt werden.
C. Es ist sehr flexibel.
D. Es kann sowohl vor Software als auch vor physischen Bedrohungen schützen.
A. Hadoop fs - Chmod ABC 310
B. Hadoop fs - chmod 740 ABC
C. Hadoop fs ∼chmod 420 ABC
D. Hadoop fs - Chmod ABC ∼ 860
A. Lesen
B. Schreiben
C. Ausführen
D. Alle drei Berechtigungsstufen sind erlaubt
A. Links semi-join
B. Innerer Join
C. Theta beitreten
D. Fuzzy Join
A. Kinit
B. KLIST
C. ktutil
D. mradmin
E. dfsadmin
A. marn.timeline-service.ttl-enable
B. marn.timeline-service.enabled
C. marn.timeline-service.generic-application-history.enabled
D. marn.timeline-service.recovery.enabled
A. Garnknoten -Jar [Hauptklassenname] & lt; JAR -Dateipfad & gt; [Argumente…]
B. Garn jar & lt; JAR -Dateipfad & gt; [Name der Hauptklasse] [Argumente…]
C. Garnanwendung -Jar [Name der Hauptklasse] & lt; JAR -Dateipfad & gt; [Argumente…]
D. Garnprotokolle Jar & lt; JAR -Dateipfad & gt; [Name der Hauptklasse] [Argumente…]
A. -Konfiguration Confdir
B. -Konfiguration. Garnkonfiguration
C. Daemonlog -Getlevel
D. Daemonlog Confdir
A. Satz
B. SET −v
C. DFS
D. zurücksetzen
A. Es wird zum Ausführen eines DFS -Befehls aus der Hive -Shell verwendet.
B. Es wird zum Ausführen eines Shell -Befehls in der CLI verwendet.
C. Es wird zum Ausführen eines Shell -Befehls aus der Hive -Shell verwendet.
D. Es wird zum Ausführen eines DFS -Befehls in der CLI verwendet.
A. Nur i) und iii)
B. Nur i) und ii)
C. Nur i), ii) und iv)
D. Alles i), ii), iii) und iv)
A. Yarn.Resourcemanager.ha.rm-ids
B. Yarn.ResourceManager.address.rm-id
C. marn.resourceManager.hostname.rm-id
D. marn.resourceManager.scheduler.address.rm-id
A. setgid
B. Setfile
C. setfattr
D. setquota
E. setConf
A. BESCHREIBEN
B. Illustrate
C. ERKLÄREN
D. Sowohl A als auch B
A. $ mvn Paket - pdocs
B. $ mvn pdocs
C. $ curl - mvn pdocs
D. $ curl - mvn pdocs - Paket
A. Security.client.datanode.protocol.acl
B. Security.namenode.Protocol.acl
C. Security.client.Protocol.acl
D. Security.Datanode.Protocol.acl
A. 1 Tag
B. 3 Tage
C. 5 Tage
D. 7 Tage
A. org.apache.hadoop.security.AuthenticationInitializer Klasse Name
B. org.apache.hadoop.security.shellBasedunixGroupsmapping -Klassenname
C. org.apache.hadoop.security.ldapgroupsmapping class
D. org.apache.hadoop.security.ssl Klasse Name
A. Chown
B. Chmod
C. chgrp
D. Setowner
A. -i, -Inputfile arg
B. -O, -Outputfile arg
C. -p, -Prozessor arg
D. -f,--fix-txids
A. Karte verkleinern
B. Datanode
C. Quorumphain
D. Namenode
A. Es spaltet die Eingabedaten in logische Stücke auf und weist jede dieser Spaltungen einer Kartenaufgabe zu.
B. Es instanziiert das RecordReader -Objekt, das an jeder InputSplit -Klasse funktionieren kann.
C. Es enthält eine Datensatzansicht der Daten zur Kartenaufgabe und liest aus einer InputSplit -Klasse.
D. Es erzeugt die Datensätze zur Kartenaufgabe als Schlüsselwertpaare.
A. [HDFS] $ $ hadoop_prefix/sbin/Distribute-exclude.sh & lt; exklude_file & gt;
B. $ [Hadoop HDFS] SBIN/Distribute-exclude.sh & lt; exclude_file & gt;
C. $ [dfsadmin, hdfs] $ hadoop_prefix/sbin/& lt; exklued_file & gt;/Distribute-exclude.sh
D. [dfsadmin] $ $ hadoop_prefix/ sbin/ & lt; exclude_file & gt;/ Distribute-exclude.sh
A. –U und -V
B. −b und −c
C. −c und −U
D. –U und −C
A. 72.000 Sekunden
B. 18.000 Sekunden
C. 64.000 Sekunden
D. 36.000 Sekunden
A. 0
B. 1
C. 2
D. 00
A. Stat
B. kopieren
C. CP
D. Katze
A. bin/hdfs dfsadmin −r
B. bin/hdfs dfsadmin -report
C. Bin/HDFS DFSADMIN -Report -Datanodes
D. Bin/HDFS DFSADMIN -R -DATANODES
A. Containeriden
B. Behälter
C. Zustand
D. Benutzer
E. App
A. int
B. Saite
C. lang
D. Bigint
A. Fsdatainputstream
B. Linerader
C. Dateisystem
D. Rekordreader
A. VERANSCHAULICHEN
B. EBNEN
C. CoGroup
D. KREUZEN
A. MapSystem
B. Karte verkleinern
C. MAPCLUSTER
D. MapComponent
A. Endschlüssel
B. Endwerte
C. Zwischenschlüssel
D. Zwischenwerte
A. Union unterschiedlich, Rang
B. Vorbei, rang
C. Über, außer dass
D. Union unterschiedlich, Rang
A. Fügen Sie dem Kartenjob einen partitionierten Shuffle hinzu.
B. Fügen Sie eine partitionierte Shuffle in die Reduzierung des Auftrags hinzu.
C. Brechen Sie den Job in mehrere, gekettete reduzierte Arbeitsplätze ein.
D. Brechen Sie den Job in mehrere, gekettete Kartenjobs ein.
A. Verschlüsselt http
B. Unsigned http
C. Komprimiertes HTTP
D. Signiert http
A. Java oder Python
B. Nur SQL
C. SQL oder Java
D. Python oder SQL
A. Reduzierer
B. Kombinierer
C. Mapper
D. Schalter
A. Erfolgreich; Syslog
B. Erfolgreich; stdout
C. ERLEDIGT; Syslog
D. ERLEDIGT; Stdout
A. Public void Reduzierung (Textschlüssel, Iteratorwerte, Kontextkontext) {…}
B. Öffentliche statische Leere Reduzierung (Textschlüssel, intRabitable [] Werte, Kontextkontext) {…}
C. Öffentliche statische Leere Reduzierung (Textschlüssel, Iteratorwerte, Kontextkontext) {…}
D. Public void Reduzierung (Textschlüssel, intwritable [] Werte, Kontextkontext) {…}
A. FileInputFormatCounter
B. Dateisystemcounter
C. Jobcounter
D. Task Counter (nicht sicher)
A. A, p
B. C, a
C. C, p
D. DECKEL
A. Kombinieren, kartieren und reduzieren
B. Mischen, sortieren und reduzieren
C. Reduzieren, sortieren und kombinieren
D. Karte, sortieren und kombinieren
A. Oozie; Open Source
B. Oozie; kommerzielle Software
C. Zookeeper; kommerzielle Software
D. Zookeeper; Open Source
A. Daten
B. Name
C. Speicher
D. Arbeiter
A. Heißer Swappable
B. Kaltes Austausch
C. Warmer Swappbar
D. Nicht abschwach
A. Auf der Festplatte aller Arbeiter
B. Auf der Festplatte des Masterknotens
C. Im Gedächtnis des Masterknotens
D. In Erinnerung an alle Arbeiter
A. Auf den Reduzierknoten des Clusters
B. Auf den Datenknoten des Clusters (nicht sicher)
C. Auf dem Masterknoten des Clusters
D. Auf jedem Knoten des Clusters
A. Verteilter Cache
B. Lokaler Cache
C. Partitionierter Cache
D. Cluster -Cache
A. Cache -Eingänge
B. Reduziereingänge
C. Zwischenwerte
D. Karteneingänge
A. Spark Import--Connect JDBC: MySQL: //mysql.example.com/spark --username Spark-Warehouse-Dir-Benutzer/Hue/Oozie/Deployments/Spark
B. SQOOP-Import-CONNECT JDBC: MySQL: //mysql.example.com/sqoop --username SQOOP-Warehouse-Dir-Benutzer/Hue/Oozie/Deployments/SQOOP
C. SQOOP Import--Connect JDBC: MySQL: //mysql.example.com/sqoop --username SQOOP--Password SQOOP-Warehouse-Dir-Benutzer/Hue/Oozie/Deployments/SQOOP
D. Spark Import--Connect JDBC: MySQL: //mysql.example.com/spark --username Spark--Password Spark-Warehouse-Dir-Benutzer/Hue/Oozie/Deployments/Spark
A. Komprimiert (nicht sicher)
B. Sortiert
C. Nicht sortiert
D. Verschlüsselt
A. Jung
B. Xunit
C. Mrunit
D. Hadoopunit
A. Hadoop-Benutzer
B. Super-Benutzer
C. Knotenbenutzer
D. Administrator
A. Kann so konfiguriert werden, dass sie gemeinsam genutzt werden
B. Ist teilweise geteilt
C. Wird geteilt
D. Wird nicht geteilt (https://www.lynda.com/hadoop-tutorials/undalling-java-virtual-machines-jvms/191942/369545-4.html)
A. Eine statische Job () -Methode
B. Eine Jobklasse und eine Instanz (nicht sicher)
C. Eine Job () Methode
D. Eine statische Jobklasse
A. S3a
B. S3n
C. S3
D. Die EMR S3
A. Schema auf Schreiben
B. Kein Schema
C. Externes Schema
D. Schema auf Read
A. Lesen Schreiben
B. Schreibgeschützt
C. Schreibschreiber
D. Nur anhängen
A. HDFS oder TOP
B. Http
C. HDFS oder HTTP
D. HDFS
A. Bienenstock
B. Schwein
C. Impala
D. Mahout
A. Eine relationale Tabelle
B. Ein Update in der Eingabedatei
C. Eine einzelne, kombinierte Liste
D. Ein Satz von <schlüssel, Wert> Paare
A. Dateien im Objektspeicher
B. Grafikdaten in Graph -Datenbanken
C. Relationale Daten in verwalteten RDBMS -Systemen
D. JSON -Daten in NoSQL -Datenbanken
A. Datenmodus
B. Sicherheitsmodus
C. Einzelbenutzermodus
D. Pseudo-verteilter Modus
A. <Schlüssel, Wert> Paare
B. Schlüssel
C. Werte
D. <Wert, Schlüssel> Paare
A. Ein Durchschnitt der Schlüssel für Werte
B. Eine Summe von Schlüssel für Werte
C. Eine Reihe von Zwischenschlüssel-/Wertpaaren
D. Ein Satz endgültiger Schlüssel-/Wertpaare
A. Wählen Sie… wobei Value = 1000
B. Wählen Sie… Limit 1000
C. Wählen Sie Top 1000…
D. Wählen Sie max 1000…