你好,游客 登录
背景:
阅读新闻

Hadoop面试45个题目及答案

[日期:2014-04-16] 来源:Linux社区  作者:michaelzhou224 [字体: ]

  1.hadoop集群可以运行的3个模式?

  单机(本地)模式

  伪分布式模式

  全分布式模式

  2.  单机(本地)模式中的注意点?

  在单机模式(standalone)中不会存在守护进程,所有东西都运行在一个JVM上。这里同样没有DFS,使用的是本地文件系统。单机模式适用于开发过程中运行MapReduce程序,这也是最少使用的一个模式。

  3.  伪分布模式中的注意点?

  伪分布式(Pseudo)适用于开发和测试环境,在这个模式中,所有守护进程都在同一台机器上运行。

  4.  VM是否可以称为Pseudo?

  不是,两个事物,同时Pseudo只针对Hadoop。

  5.  全分布模式又有什么注意点?

  全分布模式通常被用于生产环境,这里我们使用N台主机组成一个Hadoop集群,Hadoop守护进程运行在每台主机之上。这里会存在Namenode运行的主机,Datanode运行的主机,以及task tracker运行的主机。在分布式环境下,主节点和从节点会分开。

  6.  Hadoop是否遵循UNIX模式?

  是的,在UNIX用例下,Hadoop还拥有“conf”目录。

  7.  Hadoop安装在什么目录下?

  Cloudera和Apache使用相同的目录结构,Hadoop被安装在cd/usr/lib/hadoop-0.20/。

  8.  Namenode、Job tracker和task tracker的端口号是?

  Namenode,70;Job tracker,30;Task tracker,60。

  9.  Hadoop的核心配置是什么?

  Hadoop的核心配置通过两个xml文件来完成:1,hadoop-default.xml;2,hadoop-site.xml。这些文件都使用xml格式,因此每个xml中都有一些属性,包括名称和值,但是当下这些文件都已不复存在。

  10.  那当下又该如何配置?

  Hadoop现在拥有3个配置文件:1,core-site.xml;2,hdfs-site.xml;3,mapred-site.xml。这些文件都保存在conf/子目录下。

  11.  RAM的溢出因子是?

  溢出因子(Spill factor)是临时文件中储存文件的大小,也就是Hadoop-temp目录。

  12.  fs.mapr.working.dir只是单一的目录?

  fs.mapr.working.dir只是一个目录。

  13.  hdfs-site.xml的3个主要属性?

  dfs.name.dir决定的是元数据存储的路径以及DFS的存储方式(磁盘或是远端)

  dfs.data.dir决定的是数据存储的路径

  fs.checkpoint.dir用于第二Namenode

  14.  如何退出输入模式?

  退出输入的方式有:1,按ESC;2,键入:q(如果你没有输入任何当下)或者键入:wq(如果你已经输入当下),并且按下Enter。

  15.  当你输入hadoopfsck /造成“connection refused java exception’”时,系统究竟发生了什么?

  这意味着Namenode没有运行在你的VM之上。

  16.  我们使用Ubuntu及Cloudera,那么我们该去哪里下载Hadoop,或者是默认就与Ubuntu一起安装?

  这个属于Hadoop的默认配置,你必须从Cloudera或者Edureka的dropbox下载,然后在你的系统上运行。当然,你也可以自己配置,但是你需要一个Linux box,Ubuntu或者是Red Hat。在Cloudera网站或者是Edureka的Dropbox中有安装步骤。

  17.  “jps”命令的用处?

  这个命令可以检查Namenode、Datanode、Task Tracker、 Job Tracker是否正常工作。

  18.  如何重启Namenode?

  点击stop-all.sh,再点击start-all.sh。

  键入sudo hdfs(Enter),su-hdfs (Enter),/etc/init.d/ha(Enter),及/etc/init.d/hadoop-0.20-namenode start(Enter)。

  19.  Fsck的全名?

  全名是:File System Check。

  20.  如何检查Namenode是否正常运行?

  如果要检查Namenode是否正常工作,使用命令/etc/init.d/hadoop-0.20-namenode status或者就是简单的jps。

  21.  mapred.job.tracker命令的作用?

  可以让你知道哪个节点是Job Tracker。

  22.  /etc /init.d命令的作用是?

  /etc /init.d说明了守护进程(服务)的位置或状态,其实是LINUX特性,和Hadoop关系不大。

  23.  如何在浏览器中查找Namenode?

  如果你确实需要在浏览器中查找Namenode,你不再需要localhost:8021,Namenode的端口号是50070。

  24.  如何从SU转到Cloudera?

  从SU转到Cloudera只需要键入exit。

  25.  启动和关闭命令会用到哪些文件?

  Slaves及Masters。

  26.  Slaves由什么组成?

  Slaves由主机的列表组成,每台1行,用于说明数据节点。

  27.  Masters由什么组成?

  Masters同样是主机的列表组成,每台一行,用于说明第二Namenode服务器。

  28.  hadoop-env.sh是用于做什么的?

  hadoop-env.sh提供了Hadoop中. JAVA_HOME的运行环境。





收藏 推荐 打印 | 录入: | 阅读:
本文评论   查看全部评论 (0)
表情: 表情 姓名: 字数
点评:
       
评论声明
  • 尊重网上道德,遵守中华人民共和国的各项有关法律法规
  • 承担一切因您的行为而直接或间接导致的民事或刑事法律责任
  • 本站管理人员有权保留或删除其管辖留言中的任意内容
  • 本站有权在网站内转载或引用您的评论
  • 参与本评论即表明您已经阅读并接受上述条款