Эти вопросы Хадуп с несколькими вариантами ответов и ответы на них помогут вам лучше понять тему Хадуп. Вы можете подготовиться к предстоящему экзамену или собеседованию с помощью этих более чем 100 MCQ Хадуп.
Так что прокрутите вниз и начните отвечать.
A. SetReplication (репликация строки, путь P, разрешение fspermission)
B. SetReplication (разрешение на fspermission, короткая репликация)
C. setReplication (репликация строки, путь p)
D. SetReplication (Path Src, короткая репликация)
A. Только i) и ii)
B. Только ii) и iii)
C. Только i) и iv)
D. Только iii) и iv)
E. Только i), ii) и iii)
A. Asktracker
B. JobTracker
C. Пряжа
D. Узел менеджер
A. Yarn_conf_dir
B. Hadoop_prefix
C. Hadoop_conf_dir
D. Hadoop_home
A. fetchdt
B. DFS
C. о
D. fsck
A. bin/hdfs dfs −cat/newexample/example1.txt
B. bin/hadoop dfsadmin -ddir /newexample/example1.txt
C. bin/hadoop dfs -cat/newexample/example1.txt
D. bin/hdfs dfsadmin -ddir /newexample/example1.txt
A. Менеджер ресурсов
B. Узел менеджер
C. Мастер приложения
D. Контейнер
A. Преобразование
B. Командная строка
C. Объектно -проверка
D. Запись
A. Он отображает сводку длины файлов.
B. В случае файла он отображает длину файла, в то время как в случае каталога он отображает размеры файлов и каталогов, присутствующих в этом каталоге.
C. Он отображает количество файлов в определенном каталоге.
D. Он отображает номера и имена файлов, присутствующих в определенном каталоге.
A. Только i) и iii)
B. Только ii) и iv)
C. Только i), ii) и iii)
D. Только i), iii) и iv)
E. Все i), ii), iii) и iv)
A. mapreduce.task.io.sort.mb
B. io.record.sort.percent
C. mapreduce.partitioner.class
D. mapreduce.task.io.mb
A. Интерфейс pigreducerestimator
B. Интерфейс StoreFunc
C. Интерфейс FilterFunc
D. Интерфейс аккумулятора
A. СОРТИРОВАТЬ ПО
B. СОРТИРОВАТЬ ПО
C. Либо a, либо b
D. Ни один из вышеперечисленных
A. Создайте базу данных MyData
B. Создать базу данных mydata
C. Создать новую базу данных MyData
D. Создайте новую базу данных MyData
A. Он используется для проверки того, доступны ли все библиотеки.
B. Он используется для расширения подстановки.
C. Он используется для указания диспетчера ресурсов.
D. Он используется для назначения значения свойству
A. Интерактивный режим
B. Пакетный режим
C. Встроенный режим
D. Либо интерактивный или пакетный режим
A. Байтаррей
B. Сумка
C. карта
D. Кортеж
A. Это дает представление о состоянии приложения.
B. Это гарантирует перезапуск на сбоях приложения и оборудования.
C. Он выделяет ресурсы для приложений, работающих в кластере.
D. Он обрабатывает заявки, представленные клиентами.
A. Это не налагает никаких ограничений на схему двух наборов данных, которые объединяются.
B. Это удаляет дублируемые кортежи при сознании наборов данных.
C. Он сохраняет упорядочение кортежей при сознании наборов данных.
D. Он использует квалификатор оншема для получения схемы в результате
A. Cogroup
B. Для каждого
C. Крест
D. Союз
A. Команда Hadoop [Streamingoptions]
B. Команда ∼ Hadoop [Genericoptions] [Streatingoptions]
C. Команда Hadoop [Genericoptions] [Streatingoptions]
D. Команда ∼ Hadoop [Streatingoptions] [Genericoptions]
A. Соединения в улья являются коммутативными.
B. В Hive можно объединить более двух таблиц.
C. Первая таблица, участвующая в соединении, по умолчанию передается по умолчанию.
D. Все верно.
A. hdfs chgrp [владелец] [: [группа]] [-r] & lt; filepath & gt; & lt; newgroup & gt;
B. hdfs chgrp [-r] & lt; group & gt; & lt; filepath & gt;
C. HDFS CHGRP [-r] & lt; [Group [: [владелец] & gt; & lt; filepath & gt;
D. hdfs chgrp & lt; group & gt; & lt; filepath & gt; [-r] & lt; newgroup & gt;
E. hdfs chgrp & lt; group & gt; [-r] & lt; newgroup & gt;
A. Государственный магазин на основе уровня
B. Государственный магазин на основе файловой системы
C. Государственный магазин на базе Zookeeper
D. Либо вариант A, либо B может быть использован
A. Разрешение на доступ к пользователю не реализовано в HDFS.
B. В HDFS пользователю не разрешается создавать каталоги.
C. HDFS поддерживает жесткие ссылки.
D. HDFS реализует квоты пользователей.
A. Touchz
B. хвост
C. текст
D. тест
A. Hadoop fs ∼ D блокируется = 536870912 -put abc.dat.txt to abc.dat.newblock.txt
B. Hadoop fs.blocksize = 536870912 -put abc.dat.txt abc.dat.newblock.txt
C. Hadoop fs -d dfs.blocksize = 536870912 -put abc.dat.txt abc.dat.newblock.txt
D. Hadoop fs.blocksize -d = 536870912 -put abc.dat.txt to abc.dat.newblock.txt
A. Он используется для идентификации класса, который будет использоваться клиентом.
B. Он использовался для перечисления логических идентификаторов, используемых менеджерами ресурсов.
C. Он используется для указания соответствующего имени хоста для диспетчера ресурсов.
D. Он используется для определения менеджера ресурсов в ансамбле.
A. Масштабирование в MapReduce не линейно, тогда как в RDBMS оно линейно.
B. В MapReduce операция чтения может быть выполнена много раз, но операцию записи можно выполнять только один раз. В традиционных ОРБМС как операции чтения, так и записи могут выполняться много раз.
C. Целостность MapReduce выше по сравнению с RDBMS.
D. Паттерн доступа MapReduce - это партия, тогда как паттерн доступа в RDBMS является интерактивным и партийным
A. Это мешает менеджеру приложений предоставлять ссылки на злонамеренные внешние сайты.
B. Это предотвращает выполнение вредоносного кода JavaScript.
C. Он снимает файлы cookie от пользователя и заменяет их одним файлом cookie, предоставляя имя пользователя пользователя.
D. Он работает как часть управляющего ресурсами, но не может быть настроен для запуска в автономном режиме.
A. –Ooutput DirectoryName
B. −cmdenv name = value
C. −combiner StreamingCommand
D. −redicer javaclassname
A. -file ABC =/Home/Пример/
B. −mapper abc =/home/inputreader/example/dictionares/
C. −input abc =/home/каталоги/пример
D. -cmdenv abc =/home/Пример/Словарии/
A. Это обеспечивает высокую производительность.
B. Это может быть развернуто легко.
C. Это очень гибкий.
D. Он может защитить от программного обеспечения, а также физических угроз.
A. Hadoop FS -чмод ABC 310
B. Hadoop Fs -Chmod 740 ABC
C. Hadoop FS ∼Chmod 420 ABC
D. Hadoop FS -Chmod ABC ∼ 860
A. Читать
B. Писать
C. Выполнять
D. Все три уровня разрешения разрешены
A. Оставленный полу-младший
B. Внутреннее соединение
C. Тета присоединяйтесь
D. Нечеткое соединение
A. Кинит
B. klist
C. ktutil
D. мрадмин
E. dfsadmin
A. yarn.timeline-service.ttl-enable
B. yarn.timeline-service.enabled
C. yarn.timeline-service.generic-application-history.enabled
D. yarn.timeline-service.recovery.enabled
A. Node -node -Jar [Имя основного класса] & lt; jar file path & gt; [аргументы…]
B. пряжа jar & lt; jar file path & gt; [Имя основного класса] [Аргументы…]
C. Приложение пряжи -jar [имя основного класса] & lt; jar file path & gt; [аргументы…]
D. Logs Logs jar & lt; jar file path & gt; [Имя основного класса] [Аргументы…]
A. -config confdir
B. -Конфиг. Yarnconfiguration
C. Daemonlog -Getlevel
D. Daemonlog Confdir
A. набор
B. установить −v
C. DFS
D. перезагрузить
A. Он используется для выполнения команды DFS из оболочки Hive.
B. Он используется для выполнения команды оболочки внутри CLI.
C. Он используется для выполнения команды оболочки из оболочки улья.
D. Он используется для выполнения команды DFS внутри CLI.
A. Только i) и iii)
B. Только i) и ii)
C. Только i), ii) и iv)
D. Все i), ii), iii) и iv)
A. yarn.resourcemanager.ha.rm-ids
B. yarn.resourcemanager.address.rm-id
C. yarn.resourcemanager.hostname.rm-id
D. yarn.resourcemanager.scheduler.address.rm-id
A. setgid
B. SetFile
C. setfattr
D. setquota
E. setConf
A. ОПИСЫВАТЬ
B. Иллюстрировать
C. ОБЪЯСНЯТЬ
D. Оба а и Б
A. $ mvn пакет - pdocs
B. $ MVN PDOCS
C. $ curl - mvn pdocs
D. $ curl - mvn pdocs - пакет
A. Security.client.datanode.protocol.acl
B. Security.namenode.protocol.Acl
C. Security.client.protocol.Acl
D. Security.datanode.protocol.Acl
A. 1 день
B. 3 дня
C. 5 дней
D. 7 дней
A. org.apache.hadoop.security.authenticationInitializer Class Имя
B. org.apache.hadoop.security.shellbasedunixgroupsmapping name
C. org.apache.hadoop.security.ldapgroupsmapping Class
D. org.apache.hadoop.security.ssl Class name
A. Чун
B. chmod
C. Chgrp
D. SETOWNER
A. -i, -inputfile arg
B. -О, - -O -OutputFile arg
C. -p, -processor arg
D. -f,--fix-txids
A. Уменьшение карты
B. DataNode
C. Кворупперман
D. Наменод
A. Он разделяет входные данные на логические куски и назначает каждое из этих разделений на задачу карты.
B. Он создает инстанции объекта RecordRearder, который может работать на каждом классе inputSplit.
C. Он представляет запись данных о задаче карты и считывается из класса InputSplit.
D. Он создает записи для задачи карты в виде пары клавиш.
A. [hdfs] $ $ hadoop_prefix/sbin/distruite-exclude.sh & lt; exclide_file & gt;
B. $ [Hadoop hdfs] sbin/distruict-exclude.sh & lt; exclide_file & gt;
C. $ [dfsadmin, hdfs] $ hadoop_prefix/sbin/& lt; exclide_file & gt;/distruite-exclude.sh
D. [DFSADMIN] $ $ HADOOP_PREFIX/ SBIN/ & LT; EXCEDUDE_FILE & gt;/ Distruict-Exclude.sh
A. −u и -v
B. −b и −c
C. −c и −u
D. −u и −c
A. 72 000 секунд
B. 18 000 секунд
C. 64 000 секунд
D. 36 000 секунд
A. 0
B. 1
C. 2
D. 00
A. статистика
B. Copytolocal
C. сн
D. кот
A. bin/hdfs dfsadmin -r
B. bin/hdfs dfsadmin −report
C. bin/hdfs dfsadmin -report datanodes
D. bin/hdfs dfsadmin -r datanodes
A. контейнериды
B. контейнеры
C. состояние
D. пользователь
E. приложение
A. инт
B. нить
C. длинный
D. bigint
A. Fsdatainputstream
B. LineReader
C. Файловая система
D. RecordReader
A. Иллюстрировать
B. Сглаживать
C. Cogroup
D. КРЕСТ
A. Mapsystem
B. Уменьшение карты
C. MAPCluster
D. MapComponent
A. Последние ключи
B. Окончательные значения
C. Промежуточные ключи
D. Промежуточные значения
A. Союз отличается, ранга
B. Через рейтинг
C. За исключением
D. Союз отличается, ранга
A. Добавьте перегородку к работе на карте.
B. Добавьте перегородку для уменьшения работы.
C. Разбейте работу уменьшения работы на несколько цепных заданий.
D. Разбейте работу уменьшения работы на несколько заданий по карту цепью.
A. Зашифровано http
B. Unsigned http
C. Сжатый http
D. Подписано http
A. Java или Python
B. Только SQL
C. SQL или Java
D. Python или SQL
A. Редуктор
B. Комбинезон
C. Карт
D. Прилавок
A. Преуспел; системный журнал
B. Преуспел; stdout
C. СДЕЛАННЫЙ; системный журнал
D. СДЕЛАННЫЙ; stdout
A. Public void уменьшить (текстовый ключ, значения итератора, контекст контекста) {…}
B. Public static void Crement (текстовый ключ, нерастворимые [] значения, контекст контекста) {…}
C. Public static void уменьшить (текстовый ключ, значения итератора, контекст контекста) {…}
D. Public void Crement (текстовый ключ, Intwrable [] значения, контекст контекста) {…}
A. FileInputFormatCounter
B. FileSystemCounter
C. Jobcounter
D. TaskCounter (не уверен)
A. А, p
B. С, а
C. C, p
D. КЕПКА
A. Объединить, карту и уменьшить
B. Перетасовать, сортировать и уменьшить
C. Уменьшить, сортировать и объединить
D. Карта, сортируйте и комбинируйте
A. Оози; Открытый исходный код
B. Оози; коммерческое программное обеспечение
C. Работник зоопарка; коммерческое программное обеспечение
D. Работник зоопарка; Открытый исходный код
A. Данные
B. Имя
C. Память
D. Работник
A. С возможностью горячей замены
B. Холодный смену
C. Теплый заблокированный
D. Непереспетимый
A. На диске всех работников
B. На диске мастер -узла
C. В память о главном узле
D. В память о всех работниках
A. На узлах редуктора кластера
B. На узлах данных кластера (не уверен)
C. На главном узле кластера
D. На каждом узле кластера
A. Распределенный кеш
B. Местный кеш
C. Разделенный кеш
D. Кластерный кеш
A. Кэш -входы
B. Редакторные входы
C. Промежуточные значения
D. Карта входы
A. Spark Import-connect jdbc: mysql: //mysql.example.com/spark-usernam
B. SQOOP Import-Connect JDBC: mysql: //mysql.example.com/sqoop-usernam
C. SQOOP Import-Connect JDBC: mysql: //mysql.example.com/sqoop-username sqoop-password sqoop-warehouse-dir user/hue/oozie/deploments/sqoop
D. Spark Import-Connect JDBC: MySQL: //mysql.example.com/spark-usernam
A. Сжатый (не уверен)
B. Отсортировано
C. Не отсортировано
D. Зашифровано
A. Юнит
B. XUNIT
C. Мрюнит
D. Hadoopunit
A. Hadoop-User
B. Супер пользователь
C. Узел узел
D. Администратор
A. Может быть настроен, чтобы быть обменом
B. Частично обмен
C. Общий
D. Не совместно используется (https://www.lynda.com/hadoop-tutorials/understanding-java-virtual-machines-jvms/191942/369545-4.html)
A. Метод статического задания ()
B. Класс работы и экземпляр (не уверен)
C. Метод работы ()
D. Статический класс работы
A. S3A
B. S3N
C. S3
D. EMR S3
A. Схема на записи
B. Нет схемы
C. Внешняя схема
D. Схема на чтении
A. Читай пиши
B. Только для чтения
C. Только для записи
D. Только для приложения
A. HDFS или Top
B. Http
C. HDFS или http
D. HDFS
A. Улей
B. Свинья
C. Импала
D. Махат
A. Реляционная таблица
B. Обновление входного файла
C. Один, комбинированный список
D. Набор <ключа, значение> Пары
A. Файлы в хранилище объектов
B. Графические данные в графических базах данных
C. Реляционные данные в управляемых системах RDBMS
D. Данные JSON в базах данных NOSQL
A. Режим данных
B. Безопасный режим
C. Однопользовательский режим
D. Псевдо-распределенный режим
A. <ключ, значение> Пары
B. Ключи
C. Ценности
D. <value, ключ> пары
A. Среднее из ключей для значений
B. Сумма ключей для значений
C. Набор пары промежуточного ключа/значения
D. Набор окончательных паров ключей/значений
A. Выберите… где значение = 1000
B. Выберите… Предел 1000
C. Выберите Top 1000…
D. Выберите Max 1000…