这些 Hadup 选择题和答案将帮助您更好地了解 Hadup。 通过 100 多个 Hadoop MCQ 为您的下一次考试或面试做准备。
向下滚动以从答案开始。
A. setReplication(字符串复制,路径P,fspermission权限)
B. SetReplication(FSPermission许可,简短复制)
C. setReplication(字符串复制,路径P)
D. setReplication(路径SRC,短复制)
A. 只有i)和ii)
B. 只有ii)和iii)
C. 只有i)和iv)
D. 只有iii)和iv)
E. 只有i),ii)和iii)
A. 任务跟踪器
B. JobTracker
C. 纱
D. 节点管理器
A. yarn_conf_dir
B. hadoop_prefix
C. hadoop_conf_dir
D. hadoop_home
A. fetchdt
B. DFS
C. oiv
D. FSCK
A. bin/hdfs dfs -cat/newexample/example1.txt
B. bin/hadoop dfsadmin -ddir/newexample/example1.txt
C. bin/hadoop dfs -cat/newexample/example1.txt
D. bin/hdfs dfsadmin -ddir/newexample/example1.txt
A. 资源管理器
B. 节点管理器
C. 应用程序主
D. 容器
A. 转换
B. 命令行
C. Objectinspector
D. 节俭
A. 它显示文件长度的摘要。
B. 如果文件为文件,则显示文件的长度,而在目录的情况下,它显示该目录中存在的文件和目录的大小。
C. 它显示特定目录中的文件数。
D. 它显示特定目录中存在的文件的数字和名称。
A. 只有i)和iii)
B. 只有ii)和iv)
C. 只有i),ii)和iii)
D. 只有i),iii)和iv)
E. 所有i),ii),iii)和iv)
A. mapReduce.task.io.sort.mb
B. io.record.sort.percent
C. MapReduce.Partitioner.Class
D. mapReduce.task.io.mb
A. 五核试验器界面
B. 仓库界面
C. FilterFunc接口
D. 累加器接口
A. 订购
B. 排序方式
C. A或B
D. 以上都不是
A. 创建MyData数据库
B. 创建数据库mydata
C. 创建新的myData数据库
D. 创建新数据库mydata
A. 它用于检查是否所有库可用。
B. 它用于扩展通配符。
C. 它用于指定资源管理器。
D. 它用于为属性分配值
A. 交互式模式
B. 批处理模式
C. 嵌入式模式
D. 交互式或批处理模式
A. Bytearray
B. 包
C. 地图
D. 元组
A. 它提供了有关应用程序状态的见解。
B. 它可以保证重新启动应用程序和硬件故障。
C. 它将资源分配给集群中运行的应用程序。
D. 它处理客户提交的应用程序。
A. 它没有对要连接的两个数据集的模式施加任何限制。
B. 它在串联数据集时删除了重复的元组。
C. 它在串联数据集时保留了元组的排序。
D. 它使用Onschema预选赛为结果提供架构
A. cogroup
B. foreach
C. 叉
D. 联盟
A. hadoop命令[流媒体]
B. 命令〜hadoop [genericoptions] [流媒体]
C. hadoop命令[genericoptions] [streamoptions]
D. 命令〜hadoop [流媒体] [genericoptions]
A. 蜂巢中的连接是可交易的。
B. 在Hive中,可以连接两个以上的桌子。
C. 默认情况下,参与加入的第一个表被流式传输到减少任务。
D. 全部正确。
A. HDFS CHGRP [所有者] [:[group]] [-r]< filepath>< newgroup>
B. HDFS CHGRP [-r]< group> < filepath>
C. HDFS CHGRP [-r]< [group [:[anesly]> < filepath>
D. HDFS CHGRP< group> < filepath> [ - r]< newgroup>
E. hdfs chgrp< group> [ - r]< newgroup>
A. 基于LevelDB的州店
B. 基于文件系统的状态商店
C. 基于Zookeeper的州店
D. 选项A或B可以使用
A. HDFS未实现用户访问权限。
B. 在HDF中,不允许用户创建目录。
C. HDFS支持硬链接。
D. HDFS实现用户配额。
A. 触摸
B. 尾巴
C. 文本
D. 测试
A. hadoop fs〜d块= 536870912 -put abc.dat.txt to abc.dat.newblock.txt
B. hadoop fs.blocksize = 536870912 -put abc.dat.txt abc.dat.newblock.txt
C. hadoop fs -d dfs.blocksize = 536870912 -put abc.dat.txt abc.dat.newblock.txt
D. hadoop fs.blocksize -d = 536870912 -put abc.dat.txt to abc.dat.newblock.txt
A. 它用于识别客户使用的类。
B. 它用于列出资源管理人员使用的逻辑ID。
C. 它用于为资源管理器指定相应的主机名。
D. 它用于在集合中识别资源管理器。
A. MapReduce中的缩放是非线性的,而在RDBMS中是线性的。
B. 在MapReduce中,可以多次执行读取操作,但只能执行一次写操作。在传统的RDBM中,可以多次执行读写操作。
C. 与RDBM相比,MapReduce的完整性更高。
D. MapReduce的访问模式是批处理,而RDBMS的访问模式是互动的和批次
A. 它可以防止应用程序管理器提供与恶意外部站点的链接。
B. 它可以防止执行恶意JavaScript代码。
C. 它从用户中剥离了cookie,并用单个cookie代替了它们,并提供了登录用户的用户名。
D. 它作为资源管理器的一部分运行,但不能配置为在独立模式下运行。
A. -Output DirectoryName
B. -cmdenv name = value
C. -combiner streamcommand
D. - 降低javaclassname
A. -file abc =/home/示例/
B. -mapper abc =/home/inputReader/example/dictionaries/
C. - 输入abc =/home/directories/示例
D. -cmdenv abc =/home/example/dictionaries/
A. 它提供了高性能。
B. 它可以轻松部署。
C. 这是高度灵活的。
D. 它可以保护软件和物理威胁。
A. Hadoop FS -Chmod ABC 310
B. Hadoop FS -Chmod 740 ABC
C. hadoop fs〜chmod 420 ABC
D. Hadoop FS -Chmod ABC 〜860
A. 读
B. 写
C. 执行
D. 允许所有三个许可级别
A. 左半结合
B. 内部联接
C. theta加入
D. 模糊加入
A. Kinit
B. 克里斯特
C. ktutil
D. mradmin
E. DFSADMIN
A. Yarn.Timeline-Service.ttl-Enable
B. Yarn.Timeline-Service.Nabled
C. Yarn.Timeline-Service.Generic-Application-history.enabled
D. YARN.Timeline-Service.Recovery.Anabled
A. Yarn Node -jar [Main Class Name]< jar文件路径
B. 纱jar< jar文件路径> [主要班级名称] [参数…]
C. 纱线应用程序-Jar [Main Class Name]< JAR文件路径> [参数…]
D. 纱线登录JAR< JAR文件路径> [主要班级名称] [参数…]
A. -Config confdir
B. -Config。 YARNCONFIGURATION
C. 守护程序 - getlevel
D. DaemonLog Confdir
A. 放
B. 设置-v
C. DFS
D. 重置
A. 它用于从Hive Shell执行DFS命令。
B. 它用于在CLI内部执行外壳命令。
C. 它用于从蜂巢外壳执行外壳命令。
D. 它用于在CLI内部执行DFS命令。
A. 只有i)和iii)
B. 只有i)和ii)
C. 只有i),ii)和iv)
D. 所有i),ii),iii)和iv)
A. Yarn.ResourceManager.ha.RM-IDS
B. Yarn.ResourceManager.Address.RM-ID
C. Yarn.ResourceManager.HostName.RM-ID
D. Yarn.ResourceManager.Scheduler.Address.RM-ID
A. setgid
B. setfile
C. setfattr
D. setquota
E. setConf
A. 描述
B. 阐明
C. 解释
D. A和B
A. $ MVN软件包 - PDOC
B. $ MVN PDOC
C. $ curl - mvn pdocs
D. $ curl - mvn pdocs-包装
A. security.client.datanode.protocol.acl
B. security.namenode.protocol.acl
C. security.client.protocol.acl
D. security.datanode.protocol.acl
A. 1天
B. 3天
C. 5天
D. 7天
A. org.apache.hadoop.security.authenticationInitializer类名称
B. org.apache.hadoop.security.shellbasedunixgroupsmapping类名称
C. org.apache.hadoop.security.ldapgroupsmapping类
D. org.apache.hadoop.security.ssl类名称
A. chow
B. chmod
C. chgrp
D. Setowner
A. -i, - inputfile arg
B. -o, - 输出文件arg
C. -p, - 处理器ARG
D. -f,-fix-txids
A. MapReduce
B. datanode
C. Quorumpeermain
D. Namenode
A. 它将输入数据拆分为逻辑块,并将这些拆分中的每一个分配给地图任务。
B. 它实例化可以在每个Inputsplit类中使用的RecordReader对象。
C. 它向地图任务提供了数据的记录视图,并从输入派术类中读取。
D. 它将记录作为键值对,将记录作为键值对。
A. [hdfs] $ $ $ hadoop_prefix/sbin/distribute-exclude.sh< rexclude_file>
B. $ [hadoop hdfs] sbin/distribute-exclude.sh< dubl_file>
C. $ [DFSADMIN,HDFS] $ HADOOP_PREFIX/sbin/< dubl_file>/distribute-exclude.sh
D. [dfsadmin] $ $ $ hadoop_prefix/ sbin/< dublude_file>/ distribute-exclude.sh
A. -u和-v
B. -b和-c
C. -c和-u
D. -u和-c
A. 72,000秒
B. 18,000秒
C. 64,000秒
D. 36,000秒
A. 0
B. 1
C. 2
D. 00
A. 统计
B. 复印物
C. CP
D. 猫
A. bin/hdfs dfsadmin -r
B. bin/hdfs dfsadmin -report
C. bin/hdfs dfsadmin -retport dataNodes
D. bin/hdfs dfsadmin -r datanodes
A. 容器
B. 容器
C. 状态
D. 用户
E. 应用程序
A. int
B. 细绳
C. 长的
D. bigint
A. fsdatainputstream
B. Linereader
C. 文件系统
D. RecordReader
A. 阐明
B. 扁平
C. cogroup
D. 叉
A. MAPSYSTEM
B. MapReduce
C. MAPCLUSTER
D. MAPCOMPONEN
A. 最终键
B. 最终值
C. 中间钥匙
D. 中间值
A. 联盟不同,等级
B. 结束,排名
C. 结束,除了
D. 联盟不同,等级
A. 在地图作业中添加分区的混音。
B. 为减少工作添加分区的散落。
C. 将减少的工作分解为多个链接的工作。
D. 将减少工作分解为多个锁定的地图工作。
A. 加密的HTTP
B. 未签名的HTTP
C. 压缩HTTP
D. 签名的http
A. Java或Python
B. 仅SQL
C. SQL或Java
D. Python或SQL
A. 减速器
B. 组合者
C. 映射器
D. 柜台
A. 成功; Syslog
B. 成功; stdout
C. 完毕; Syslog
D. 完毕; Stdout
A. public void降低(文本键,迭代值,上下文上下文){…}
B. 公共静态void降低(文本键,intwritable []值,上下文上下文){…}
C. 公共静态void降低(文本键,迭代值,上下文上下文){…}
D. public void降低(文本键,intwritable []值,上下文上下文){…}
A. FileInputFormatCounter
B. FileSystemCounter
C. 求职
D. TaskCounter(不确定)
A. a,p
B. C,a
C. c,p
D. C,A,P
A. 结合,映射和减少
B. 洗牌,排序和减少
C. 减少,排序和组合
D. 地图,排序和组合
A. Oozie;开源
B. Oozie;商业软件
C. Zookeeper;商业软件
D. Zookeeper;开源
A. 数据
B. 姓名
C. 记忆
D. 工人
A. 支持热插拔
B. 冷交换
C. 温暖交换
D. 不可交易
A. 在所有工人的磁盘上
B. 在主节点的磁盘上
C. 记忆主节点
D. 为了纪念所有工人
A. 在集群的还原节点上
B. 在集群的数据节点上(不确定)
C. 在集群的主节点上
D. 在集群的每个节点上
A. 分布式缓存
B. 本地缓存
C. 分区缓存
D. 群集缓存
A. 缓存输入
B. 还原输入
C. 中间值
D. 地图输入
A. Spark Import-Connect JDBC:mysql://mysql.example.com/spark-spark-username spark -warehouse-dir user/hue/hue/oozie/decloyments/spark
B. sqoop导入-Connect JDBC:mysql://mysql.example.com/sqoop-sqoop-username sqoop -warehouse-dir user/hue/hue/oozie/exporations/sqoop
C. sqoop导入-connect jdbc:mysql://mysql.example.com/sqoop-sqoop - username sqoop -password sqoop -password sqoop -warehouse-dir user/hue/hue/oozie/exployments/sqoop
D. Spark Import-Connect JDBC:mysql://mysql.example.com/spark-sername spark -password spark -password spark -warehouse-dir user/hue/ozie/oozie/decloverments/deployments/spark
A. 压缩(不确定)
B. 分类
C. 没有排序
D. 加密
A. 朱尼特
B. Xunit
C. mrunit
D. Hadoopunit
A. Hadoop用户
B. 超级用户
C. 节点用户
D. 管理用户
A. 可以配置为共享
B. 部分共享
C. 共享
D. 未共享(https://www.lynda.com/hadoop-tutorials/understanding-java-virtual-machines-jvms/191942/369545-4.html)
A. 静态工作()方法
B. 工作类和实例(不确定)
C. Job()方法
D. 静态工作班
A. S3A
B. S3n
C. S3
D. EMR S3
A. 架构写作
B. 没有模式
C. 外部模式
D. 读取的模式
A. 读写
B. 只读
C. 只写
D. 仅附加
A. HDFS或顶部
B. http
C. HDFS或HTTP
D. HDFS
A. 蜂巢
B. 猪
C. 黑斑羚
D. Mahout
A. 关系表
B. 输入文件的更新
C. 一个组合列表
D. 一组<键,值>对
A. 对象存储中的文件
B. 图数据库中的图形数据
C. 托管RDBMS系统中的关系数据
D. NOSQL数据库中的JSON数据
A. 数据模式
B. 安全模式
C. 单用户模式
D. 伪分布模式
A. <钥匙,值>对
B. 钥匙
C. 值
D. <value,key>对
A. 值的平均键
B. 值的键
C. 一组中间密钥/值对
D. 一组最终键/值对
A. 选择…值= 1000
B. 选择…限制1000
C. 选择顶级1000…
D. 选择最大1000…