hadoop最简单部署

合集下载

Hadoop安装部署手册

Hadoop安装部署手册

1.1软件环境1)CentOS6.5x642)Jdk1.7x643)Hadoop2.6.2x644)Hbase-0.98.95)Zookeeper-3.4.61.2集群环境集群中包括 3个节点:1个Master, 2个Slave2安装前的准备2.1下载JDK2.2下载Hadoop2.3下载Zookeeper2.4下载Hbase3开始安装3.1 CentOS安装配置1)安装3台CentOS6.5x64 (使用BasicServer模式,其他使用默认配置,安装过程略)2)Master.Hadoop 配置a)配置网络修改为:保存,退出(esc+:wq+enter ),使配置生效b) 配置主机名修改为:c)配置 hosts修改为:修改为:在最后增加如下内容以上调整,需要重启系统才能生效g) 配置用户新建hadoop用户和组,设置 hadoop用户密码id_rsa.pub ,默认存储在"/home/hadoop/.ssh" 目录下。

a) 把id_rsa.pub 追加到授权的 key 里面去b) 修改.ssh 目录的权限以及 authorized_keys 的权限c) 用root 用户登录服务器修改SSH 配置文件"/etc/ssh/sshd_config"的下列内容3) Slavel.Hadoop 、Slavel.Hadoop 配置及用户密码等等操作3.2无密码登陆配置1)配置Master 无密码登录所有 Slave a)使用 hadoop 用户登陆 Master.Hadoopb)把公钥复制所有的 Slave 机器上。

使用下面的命令格式进行复制公钥2) 配置Slave 无密码登录Mastera) 使用hadoop 用户登陆Slaveb)把公钥复制Master 机器上。

使用下面的命令格式进行复制公钥id_rsa 和相同的方式配置 Slavel 和Slave2的IP 地址,主机名和 hosts 文件,新建hadoop 用户和组c) 在Master机器上将公钥追加到authorized_keys 中3.3安装JDK所有的机器上都要安装 JDK ,先在Master服务器安装,然后其他服务器按照步骤重复进行即可。

hadoop集群部署之双虚拟机版

hadoop集群部署之双虚拟机版

1、采用一台机器开两个虚拟机的方式构成两台电脑的环境,用root登录。

分别查看其IP地址:输入# ifconfig,可得主机IP:192.168.1.99;分机为:192.168.1.100。

2、在两台机器上的/etc/hosts均添加相应的主机名和IP地址:这里主机名命名为shenghao,分机名命名为slave:保存后重启网络:3、两台机器上均创立hadoop用户(注意是用root登陆)# useradd hadoop# passwd hadoop输入111111做为密码登录hadoop用户:注意,登录用户名为hadoop,而不是自己命名的shenghao。

4、ssh的配置进入centos的“系统→管理→服务器设置→服务,查看sshd服务是否运行。

在所有的机器上生成密码对:# ssh-keygen -t rsa这时hadoop目录下生成一个.ssh的文件夹,可以通过# ls .ssh/来查看里面产生的私钥和公钥:id_rsa和id_rsa.pub。

更改.ssh的读写权限:# chmod 755 .ssh在namenode上(即主机上)进入.ssh,将id_rsa.pub直接复制为authorized_keys(namenode的公钥):# cp id_rsa.pub authorized_keys更改authorized_keys的读写权限:# chmod 644 authorized_keys 【这个不必须,但保险起见,推荐使用】然后上传到datanode上(即分机上):# scp authorized_keys hadoop@slave:/home/hadoop/.ssh# cd .. 退出.ssh文件夹这样shenghao就可以免密码登录slave了:然后输入exit就可以退出去。

然后在datanode上(即分机上):将datanode上之前产生的公钥id_rsa.pub复制到namenode上的.ssh目录中,并重命名为slave.id_rsa.pub,这是为了区分从各个datanode上传过来的公钥,这里就一个datanode,简单标记下就可。

使用Ambari快速部署Hadoop大数据环境

使用Ambari快速部署Hadoop大数据环境

作者:杨鑫奇前言做大数据相关的后端开发工作一年多来,随着Hadoop社区的不断发展,也在不断尝试新的东西,本文着重来讲解下Ambari,这个新的Apache的项目,旨在让大家能够方便快速的配置和部署Hadoop生态圈相关的组件的环境,并提供维护和监控的功能.作为新手,我讲讲我自己的学习经历,刚刚开始学习的时候,当然最简单的 Google 下Hadoop ,然后下载相关的包,在自己的虚拟机(CentOS 6.3) 上安装一个单机的Hadoop版本用来做测试,写几个测试类,然后做下CRUD测试之类的,跑跑Map/Reduce的测试,当然这个时候对于Hadoop还不是很了解,不断的看别人的文章,了解下整体的架构,自己所做的就是修改conf下的几个配置文件,让Hadoop能够正常的跑起来,这个时候几种在修改配置上,这个阶段之后,又用到了HBase,这个Hadoop生态圈的另外一个产品,当然还是修改配置,然后 start-all.sh , start-hbase.sh 把服务起起来,然后就是修改自己的程序,做测试,随着用Hbase 学了下 Zookeeper 和Hive等, 接着过了这个操作阶段了之后,开始研究Hadoop2.0看了董的博客的相关文章,还有CSDN上很多大牛的文章了之后, 算是对Hadoop的生态圈整体有一些了解,介于自己在公司所承担的开发所涉及到相关的技术仅仅就这些.但是作为一个爱好探索的人,是否想多了解下呢,它的性能怎么样? 它是具体如何运作的? 看大公司的那些PPT,人家(淘宝等大公司)动不动就是几十个,几百个,乃至几千个节点,人家是如何管理的,性能是怎么样的?看着PPT里面的那些性能测试的曲线,你是否也能够详细的了解,并且对自己的项目进行性能调优呢? 我貌似找到答案了,那就是 Ambari , 由HortonWorks开发的一个Hadoop相关的项目,具体可以上官方去了解.了解Hadoop生态圈现在我们经常看到的一些关键字有:HDFS,MapReduce,HBase,Hive,ZooKeeper,Pig,Sqoop,Oozie,Ganglia,Nagios,CDH3,CDH4,Flume,Scri be,Fluented,HttpFS等等,其实应该还有更多,Hadoop生态圈现在发展算是相当繁荣了,而在这些繁荣的背后又是谁在推动的呢? 读过Hadoop历史的朋友可能知道,Hadoop最早是始于Yahoo,但是现在主要是由 HortonWorks 和 Cloudera这2家公司在维护者,大部分的commiter 都属于这2家公司,所以现在市面上看到的主要有2个版本,CDH系列,和社区版, 我最早用的是社区版本,后来换到CDH3,现在又换回社区版,因为有Ambari.当然,用什么和不用什么,只要自己的技术到家,还是都能修改的跑的正常的.这里就不多说了. 讲了这么多废话了,开始讲 Ambari安装吧.开始部署首先了解下Ambari, 项目地址在:/ambari/安装文档在:/ambari/1.2.2/installing-hadoop-using-ambari/content/index.h tmlHortonWorks的人写的一篇介绍安装的文章我翻译了下:/scotoma/archive/2013/05/18/3085040.html安装的时候请大家先看下安装文档吧,安装文档必须认真看,结合自己当前所使用的系统版本,配置不同的源,而且安装过程中需要的时间相对比较长,所以需要认真的做好安装文档的每个步骤. 这里我就说我遇到的一些问题.以下说说我自己的安装过程.机器准备:我的测试环境采用 9 台 HP 的烂机器,分别是 cloud100 - cloud108 , cloud108做为管理节点.Ambari安装的环境路径:各台机器的安装目录:/usr/lib/hadoop/usr/lib/hbase/usr/lib/zookeeper/usr/lib/hcatalog/usr/lib/hiveLog路径, 这里需要看出错信息都可以在目录下找到相关的日志/var/log/hadoop/var/log/hbase配置文件的路径/etc/hadoop/etc/hbase/etc/hiveHDFS的存储路径/hadoop/hdfs安装过程需要注意的点:1, 安装的时候,需要做好每台机器的ssh免密码登陆,这个之前的文章/scotoma/archive/2012/09/18/2689902.html 中提到了,做好之后,从管理节点到各个集群节点之间,都能使用这个登陆.2, 如果你的机器之前安装过 Hadoop的相关服务,特别是Hbase 里面配置了 HBASE_HOME 的环境变量,需要 unset掉, 这个环境变量会影响,因为我之前把这些路径放到 /etc/profile 里面导致影响了HBase,因为Ambari安装的路径和你之前安装的可能不一样.3,在服务选择页面的时候, NameNode 和 SNameNode 需要布置在一起, 我之前尝试做 HA 而把他们分开,但是SNameNode一直起不来,导致整个启动失败,接下来时间需要花在HA上.4. JobTrakcer 不和Namenode在一起也会导致启动不起来.5. Datanode的节点不能少于 Block replication 中数, 基本都是需要 >= 3.6. Confirm Hosts 的时候,需要注意里面的 Warning 信息,把相关的Warning都处理掉,有一些Warning会导致安装出错.7. 记住安装中所新建的用户,接下来需要用到这些用户.8. Hive和HBase Master 部署在同一个节点,这里当然你也可以分开. 设置好后就开始安装了.9.如果安装失败的情况下,如何重新安装.首先,先删除掉系统已经安装的文件相关的目录,sh file_cp.sh cmd "rm -rf /usr/lib/hadoop && rm -rf /usr/lib/hbase && rm -rf/usr/lib/zookeeper"sh file_cp.sh cmd "rm -rf /etc/hadoop && rm -rf /etc/hbase && rm -rf /hadoop && rm -rf /var/log/hadoop"sh file_cp.sh cmd "rm -rf /etc/ganglia && rm -rf /etc/hcatalog && rm -rf /etc/hive && rm -rf /etc/nagios && rm -rf /etc/sqoop && rm -rf /var/log/hbase && rm -rf /var/log/nagios && rm -rf /var/log/hive && rm -rf /var/log/zookeeper && rm -rf /var/run/hadoop && rm -rf/var/run/hbase && rm -rf /var/run/zookeeper "再在Yum remove 掉安装的相关的包.sh file_cp.sh cmd "yum -y remove ambari-log4j hadoop hadoop-lzo hbase hive libconfuse nagios sqoop zookeeper"我这里使用到了自己写的Shell,方便在多台机器之间执行命令:https:///xinqiyang/opshell/tree/master/hadoop10.注意时间的同步,时间问题会导致regionserver起不来11. iptables 需要关闭,有的时候可能机器会重新启动,所以不单单需要 service stop 也需要chkconfig 关闭掉.最后安装完成后,登陆地址查看下服务的情况:http://管理节点ip:8080 , 比如我这里的: http://192.168.1.108:8080/ 登陆之后,需要设置之前在安装Ambari-server时候输入的账号和密码,进入查看 ganglia的监控查看 nagios 的监控测试安装完成后,看着这些都正常了,是否需要自己验证一下呢? 不过基本跑了冒烟测试后,正常的话,基本还是正常的,但是我们自己也得来操作下吧.验证HDFS验证Map/Reduce验证HBase验证Hive总结到这里,相关的 hadoop 及 hbase 及hive 的相关配置就都配置完成了,接下来需要做一些压力测试.还有其他方面的测试, 对于Ambari带的是 HortonWorks 打包的rpm版本的 Hadoop相关的源码,所以这里可能会和其他的版本有一些不同,但是作为开发环境来说,暂时还是没有很多大的影响的,但是现在还没有在生产上使用, 所以也不管说如何的稳定,接下来我会在开发项目的过程中,将所遇到的Bug给列出来. 总体来说Ambari还是很值得使用的,毕竟能够减少很多不必要的配置时间,而且相对在单机环境下, 在集群环境下更能贴近生产做一些相关的性能测试和调优测试等等,而且配置的ganglia和nagios的监控也能够发布的让我们查看到集群相关的数据,总体来说还是推荐使用的,新东西有Bug是在所难免的,但是在用的过程中我们会不断的完善. 接下来如果有时间,会对Ambariserver的功能进行扩展,添加诸如redis/nginx之类的常用的高性能模块的监控选项. 这个有时间在弄了. 总之,欢迎使用Ambari.分类: 基础配置, 云后端开发系列标签: Ambari, Hadoop集群快速安装, Ambari实践。

基于Hadoop的大数据处理平台搭建与部署

基于Hadoop的大数据处理平台搭建与部署

基于Hadoop的大数据处理平台搭建与部署一、引言随着互联网和信息技术的快速发展,大数据已经成为当今社会中不可或缺的重要资源。

大数据处理平台的搭建与部署对于企业和组织来说至关重要,而Hadoop作为目前最流行的大数据处理框架之一,其搭建与部署显得尤为重要。

本文将介绍基于Hadoop的大数据处理平台搭建与部署的相关内容。

二、Hadoop简介Hadoop是一个开源的分布式存储和计算框架,能够高效地处理大规模数据。

它由Apache基金会开发,提供了一个可靠、可扩展的分布式系统基础架构,使用户能够在集群中使用简单的编程模型进行计算。

三、大数据处理平台搭建准备工作在搭建基于Hadoop的大数据处理平台之前,需要进行一些准备工作: 1. 硬件准备:选择合适的服务器硬件,包括计算节点、存储节点等。

2. 操作系统选择:通常选择Linux系统作为Hadoop集群的操作系统。

3. Java环境配置:Hadoop是基于Java开发的,需要安装和配置Java环境。

4. 网络配置:确保集群内各节点之间可以相互通信。

四、Hadoop集群搭建步骤1. 下载Hadoop从Apache官网下载最新版本的Hadoop压缩包,并解压到指定目录。

2. 配置Hadoop环境变量设置Hadoop的环境变量,包括JAVA_HOME、HADOOP_HOME等。

3. 配置Hadoop集群编辑Hadoop配置文件,包括core-site.xml、hdfs-site.xml、mapred-site.xml等,配置各个节点的角色和参数。

4. 启动Hadoop集群通过启动脚本启动Hadoop集群,可以使用start-all.sh脚本启动所有节点。

五、大数据处理平台部署1. 数据采集与清洗在搭建好Hadoop集群后,首先需要进行数据采集与清洗工作。

通过Flume等工具实现数据从不同来源的采集,并进行清洗和预处理。

2. 数据存储与管理Hadoop提供了分布式文件系统HDFS用于存储海量数据,同时可以使用HBase等数据库管理工具对数据进行管理。

Hadoop的安装与配置

Hadoop的安装与配置

Hadoop的安装与配置建立一个三台电脑的群组,操作系统均为Ubuntu,三个主机名分别为wjs1、wjs2、wjs3。

1、环境准备:所需要的软件及我使用的版本分别为:Hadoop版本为0.19.2,JDK版本为jdk-6u13-linux-i586.bin。

由于Hadoop要求所有机器上hadoop的部署目录结构要相同,并且都有一个相同的用户名的帐户。

所以在三台主机上都设置一个用户名为“wjs”的账户,主目录为/home/wjs。

a、配置三台机器的网络文件分别在三台机器上执行:sudo gedit /etc/network/interfaceswjs1机器上执行:在文件尾添加:auto eth0iface eth0 inet staticaddress 192.168.137.2gateway 192.168.137.1netmask 255.255.255.0wjs2和wjs3机器上分别执行:在文件尾添加:auto eth1iface eth1 inet staticaddress 192.168.137.3(wjs3上是address 192.168.137.4)gateway 192.168.137.1netmask 255.255.255.0b、重启网络:sudo /etc/init.d/networking restart查看ip是否配置成功:ifconfig{注:为了便于“wjs”用户能够修改系统设置访问系统文件,最好把“wjs”用户设为sudoers(有root权限的用户),具体做法:用已有的sudoer登录系统,执行sudo visudo -f /etc/sudoers,并在此文件中添加以下一行:wjsALL=(ALL)ALL,保存并退出。

}c、修改三台机器的/etc/hosts,让彼此的主机名称和ip都能顺利解析,在/etc/hosts中添加:192.168.137.2 wjs1192.168.137.3 wjs2192.168.137.4 wjs3d、由于Hadoop需要通过ssh服务在各个节点之间登陆并运行服务,因此必须确保安装Hadoop的各个节点之间网络的畅通,网络畅通的标准是每台机器的主机名和IP地址能够被所有机器正确解析(包括它自己)。

搭建hadoop集群的步骤

搭建hadoop集群的步骤

搭建hadoop集群的步骤Hadoop是一个开源的分布式计算平台,用于存储和处理大规模的数据集。

在大数据时代,Hadoop已经成为了处理海量数据的标准工具之一。

在本文中,我们将介绍如何搭建一个Hadoop集群。

步骤一:准备工作在开始搭建Hadoop集群之前,需要进行一些准备工作。

首先,需要选择适合的机器作为集群节点。

通常情况下,需要至少三台机器来搭建一个Hadoop集群。

其次,需要安装Java环境和SSH服务。

最后,需要下载Hadoop的二进制安装包。

步骤二:配置Hadoop环境在准备工作完成之后,需要对Hadoop环境进行配置。

首先,需要编辑Hadoop的配置文件,包括core-site.xml、hdfs-site.xml、mapred-site.xml和yarn-site.xml。

其中,core-site.xml用于配置Hadoop的核心参数,hdfs-site.xml用于配置Hadoop分布式文件系统的参数,mapred-site.xml用于配置Hadoop的MapReduce参数,yarn-site.xml用于配置Hadoop的资源管理器参数。

其次,需要在每个节点上创建一个hadoop用户,并设置其密码。

最后,需要在每个节点上配置SSH免密码登录,以便于节点之间的通信。

步骤三:启动Hadoop集群在完成Hadoop环境的配置之后,可以启动Hadoop集群。

首先,需要启动Hadoop的NameNode和DataNode服务。

NameNode是Hadoop分布式文件系统的管理节点,负责管理文件系统的元数据。

DataNode是Hadoop分布式文件系统的存储节点,负责实际存储数据。

其次,需要启动Hadoop的ResourceManager和NodeManager服务。

ResourceManager 是Hadoop的资源管理器,负责管理集群中的资源。

NodeManager是Hadoop的节点管理器,负责管理每个节点的资源。

实验文档1-部署Hadoop

实验文档1-部署Hadoop

Hadoop大数据技术实验资料airyqinHadoop大数据管理与分析处理平台部署实验手册CentOS 6集群下部署Hadoop(Airy qin)Hadoop大数据实验实战资料(请勿在互联网上传播)启动两台虚拟客户机:打开VMware Workstation10打开之前已经安装好的虚拟机:HadoopMaster和HadoopSlave出现异常,选择“否”进入Hadoop大数据实验实战资料(请勿在互联网上传播)如果之前没有打开过两个虚拟机,请使用“文件”->“打开”选项,选择之前的虚拟机安装包(在一体软件包里面的)第1步 Linux系统配置以下操作步骤需要在HadoopMaster和HadoopSlave节点上分别完整操作,都使用root用户,从当前用户切换root用户的命令如下:su root输入密码:zkpkHadoop大数据实验实战资料(请勿在互联网上传播)本节所有的命令操作都在终端环境,打开终端的过程如下图的Terminal菜单:终端打开后如下图中命令行窗口所示。

1.拷贝软件包和数据包将完整软件包“H adoop In Action Experiment”下的software包和sogou-data整体拖拽到HadoopMaster 节点的桌面上,并且在终端中执行下面的移动文件命令:mv ~/Desktop/software ~/Hadoop大数据实验实战资料(请勿在互联网上传播)mv ~/Desktop/sogou-data ~/1.1配置时钟同步1.1.1 配置自动时钟同步使用Linux命令配置crontab -e键入下面的一行代码:输入i,进入插入模式0 1 * * * /usr/sbin/ntpdate 1.1.2 手动同步时间/usr/sbin/ntpdate 1.2配置主机名1.2.1 HadoopMaster节点使用gedit 编辑主机名gedit /etc/sysconfig/network配置信息如下,如果已经存在则不修改,将HadoopMaster节点的主机名改为master,即下面代码的第3行所示。

Hadoop集群部署有几种模式?Hadoop集群部署方法介绍

Hadoop集群部署有几种模式?Hadoop集群部署方法介绍

Hadoop集群的部署分为三种,分别独立模式(Standalonemode)、伪分布式模式(Pseudo-Distributedmode)、完全分布式模式(Clustermode),具体介绍如下。

(1)独立模式:又称为单机模式,在该模式下,无需运行任何守护进程,所有的
程序都在单个JVM上执行。

独立模式下调试Hadoop集群的MapReduce程序非常
方便,所以一般情况下,该模式在学习或者发阶段调试使用。

(2)伪分布式模式:Hadoop程序的守护进程运行在一台节上,通常使用伪分布
式模式用来调试Hadoop分布式程序的代码,以及程序执行否正确,伪分布式模式完全分布式模式的一个特例。

(3)完全分布式模式:Hadoop的守护进程分别运行在由多个主机搭建的集群上,不同节担任不同的角色,在实际工作应用发中,通常使用该模式构建级Hadoop系统。

在Hadoop环境中,所有器节仅划分为两种角色,分别master(主节,1个)和slave(从节,多个)。

因此,伪分布模式集群模式的特例,只将主节和从节合二
为一罢了。

接下来,本书将以前面的三台虚拟机为例,阐述完全分布模式Hadoop集群的与配置方法,具体集群规划如图1所示。

图1Hadoop集群规划
从图1可以看出,当前规划的Hadoop集群包含一台master节和两台slave节。

这里,将前面的Hadoop01作为Master节,Hadoop02和Hadoop03作为Slave
节。

1。

Hadoop完全分布式详细安装过程

Hadoop完全分布式详细安装过程

Hadoop详细安装过程一、本文思路1、安装虚拟化PC工具VMware,用于支撑Linux系统。

2、在VMware上安装Ubuntu系统。

3、安装Hadoop前的准备工作:安装JDK和SSH服务。

4、配置Hadoop。

5、为了方便开发过程,需安装eclipse。

6、运行一个简单的Hadoop程序:WordCount.java注:在win7系统上,利用虚拟工具VMware建立若干个Linux系统,每个系统为一个节点,构建Hadoop集群。

先在一个虚拟机上将所有需要配置的东西全部完成,然后再利用VMware 的克隆功能,直接生成其他虚拟机,这样做的目的是简单。

二、所需软件1、VMware:VMware Workstation,直接百度下载(在百度软件中心下载即可)。

2、Ubuntu系统:ubuntu-15.04-desktop-amd64.iso,百度网盘:/s/1qWxfxso注:使用15.04版本的Ubuntu(其他版本也可以),是64位系统。

3、jdk:jdk-8u60-linux-x64.tar.gz,网址:/technetwork/java/javase/downloads/jdk8-downloads-2133151.html注:下载64位的Linux版本的jdk。

4、Hadoop:hadoop-1.2.1-bin.tar.gz,网址:/apache/hadoop/common/hadoop-1.2.1/注:选择1.2.1版本的Hadoop。

5、eclipse:eclipse-java-mars-1-linux-gtk-x86_64.tar.gz,网址:/downloads/?osType=linux注:要选择Linux版本的,64位,如下:6、hadoop-eclipse-plugin-1.2.1.jar,这是eclipse的一个插件,用于Hadoop的开发,直接百度下载即可。

三、安装过程1、安装VMware。

Hadoop集群的搭建方法与步骤

Hadoop集群的搭建方法与步骤

Hadoop集群的搭建方法与步骤随着大数据时代的到来,Hadoop作为一种分布式计算框架,被广泛应用于数据处理和分析领域。

搭建一个高效稳定的Hadoop集群对于数据科学家和工程师来说至关重要。

本文将介绍Hadoop集群的搭建方法与步骤。

一、硬件准备在搭建Hadoop集群之前,首先要准备好适合的硬件设备。

Hadoop集群通常需要至少三台服务器,一台用于NameNode,两台用于DataNode。

每台服务器的配置应该具备足够的内存和存储空间,以及稳定的网络连接。

二、操作系统安装在选择操作系统时,通常推荐使用Linux发行版,如Ubuntu、CentOS等。

这些操作系统具有良好的稳定性和兼容性,并且有大量的Hadoop安装和配置文档可供参考。

安装操作系统后,确保所有服务器上的软件包都是最新的。

三、Java环境配置Hadoop是基于Java开发的,因此在搭建Hadoop集群之前,需要在所有服务器上配置Java环境。

下载最新版本的Java Development Kit(JDK),并按照官方文档的指引进行安装和配置。

确保JAVA_HOME环境变量已正确设置,并且可以在所有服务器上运行Java命令。

四、Hadoop安装与配置1. 下载Hadoop从Hadoop官方网站上下载最新的稳定版本,并将其解压到一个合适的目录下,例如/opt/hadoop。

2. 编辑配置文件进入Hadoop的安装目录,编辑conf目录下的hadoop-env.sh文件,设置JAVA_HOME环境变量为Java的安装路径。

然后,编辑core-site.xml文件,配置Hadoop的核心参数,如文件系统的默认URI和临时目录。

接下来,编辑hdfs-site.xml文件,配置Hadoop分布式文件系统(HDFS)的相关参数,如副本数量和数据块大小。

最后,编辑mapred-site.xml文件,配置MapReduce框架的相关参数,如任务调度器和本地任务运行模式。

hadoop的基本使用

hadoop的基本使用

hadoop的基本使用Hadoop的基本使用Hadoop是一种开源的分布式计算系统和数据处理框架,具有可靠性、高可扩展性和容错性等特点。

它能够处理大规模数据集,并能够在集群中进行并行计算。

本文将逐步介绍Hadoop的基本使用。

一、Hadoop的安装在开始使用Hadoop之前,首先需要进行安装。

以下是Hadoop的安装步骤:1. 下载Hadoop:首先,从Hadoop的官方网站(2. 配置环境变量:接下来,需要将Hadoop的安装目录添加到系统的环境变量中。

编辑~/.bashrc文件(或其他相应的文件),并添加以下行:export HADOOP_HOME=/path/to/hadoopexport PATH=PATH:HADOOP_HOME/bin3. 配置Hadoop:Hadoop的配置文件位于Hadoop的安装目录下的`etc/hadoop`文件夹中。

其中,最重要的配置文件是hadoop-env.sh,core-site.xml,hdfs-site.xml和mapred-site.xml。

根据具体需求,可以在这些配置文件中进行各种参数的设置。

4. 启动Hadoop集群:在完成配置后,可以启动Hadoop集群。

运行以下命令以启动Hadoop集群:start-all.sh二、Hadoop的基本概念在开始使用Hadoop之前,了解一些Hadoop的基本概念是非常重要的。

以下是一些重要的概念:1. 分布式文件系统(HDFS):HDFS是Hadoop的核心组件之一,用于存储和管理大规模数据。

它是一个可扩展的、容错的文件系统,能够在多个计算机节点上存储数据。

2. MapReduce:MapReduce是Hadoop的编程模型,用于并行计算和处理大规模数据。

它由两个主要的阶段组成:Map阶段和Reduce阶段。

Map阶段将输入数据切分为一系列键值对,并运行在集群中的多个节点上。

Reduce阶段将Map阶段的输出结果进行合并和计算。

在Docker容器中部署Hadoop集群的详细教程步骤

在Docker容器中部署Hadoop集群的详细教程步骤

在Docker容器中部署Hadoop集群的详细教程步骤目录1. 介绍2. Docker容器的基本概念3. Hadoop集群的部署步骤3.1 配置Docker环境3.2 下载Hadoop镜像3.3 创建Docker网络3.4 启动Hadoop容器3.5 配置Hadoop集群3.6 启动Hadoop集群4. 总结1. 介绍在当今云计算的时代,容器技术成为了软件部署的热门选择之一。

Docker作为最流行、最简单且可移植的容器平台,被广泛应用于各个领域。

本文将详细介绍如何使用Docker容器来部署Hadoop集群,以提高大数据处理的效率。

2. Docker容器的基本概念Docker是一种轻量级且开放源代码的容器解决方案,可将应用程序自动部署到容器中,并在不同的环境中进行移植。

Docker容器是一个独立的、运行在操作系统层面的进程,它不需要虚拟机的额外开销,因此具有更高的性能和更小的资源消耗。

3. Hadoop集群的部署步骤3.1 配置Docker环境首先,您需要在自己的计算机上安装Docker。

可以在Docker官网上找到相应的安装包并按照说明进行安装。

安装完成后,您可以使用"docker --version"命令来确认Docker是否成功安装。

3.2 下载Hadoop镜像在部署Hadoop集群之前,您需要下载Hadoop镜像。

可以通过执行以下命令来下载官方的Hadoop镜像:"docker pull sequenceiq/hadoop-docker:2.7.1"3.3 创建Docker网络在创建Hadoop集群之前,您需要创建一个Docker网络,以便容器之间可以进行通信。

可以使用以下命令来创建一个名为"hadoop-net"的网络:"docker network create --driver=bridge hadoop-net"3.4 启动Hadoop容器接下来,您需要在Docker容器中启动Hadoop。

在Docker容器中部署Apache Hadoop的最佳实践

在Docker容器中部署Apache Hadoop的最佳实践

在Docker容器中部署Apache Hadoop的最佳实践一、简介Apache Hadoop是一个开源的分布式计算框架,用于存储和处理大规模数据集。

Docker是一个轻量级容器技术,可以快速部署、管理和运行应用程序。

本文将介绍在Docker容器中部署Apache Hadoop的最佳实践,包括安装配置Hadoop环境、创建容器、设置网络和数据卷、启动Hadoop服务等。

二、安装配置Hadoop环境1. 创建Hadoop用户在Docker主机上创建一个Hadoop用户,并将该用户添加到sudoers组,以便具有足够的权限来安装和配置Hadoop。

2. 安装Java环境在Docker主机上安装Java Runtime Environment(JRE),以便Hadoop能够运行。

可以通过apt-get或yum安装JRE。

3. 下载并解压Hadoop软件包从Apache官方网站上下载适合的Hadoop软件包,并将其解压到Docker主机上的合适目录。

4. 配置Hadoop环境变量在Hadoop的安装目录中创建一个hadoop-env.sh文件,并设置JAVA_HOME和HADOOP_HOME等环境变量。

5. 配置Hadoop主节点和从节点编辑Hadoop的core-site.xml和hdfs-site.xml配置文件,将主节点和从节点的IP 地址和端口号配置正确。

确保所有节点之间可以相互通信。

三、创建容器1. 创建Docker镜像在Docker主机上创建一个Dockerfile,并定义基于哪个基础镜像以及在容器中需要运行的命令。

可以使用docker build命令来创建自定义镜像。

2. 创建容器使用docker run命令创建容器,并将Hadoop的安装目录挂载到容器中的适当目录。

可以使用-v参数来指定挂载点。

3. 进入容器使用docker exec命令进入容器,以便在容器中执行命令。

可以使用该命令来启动Hadoop服务、查看日志文件等。

Hadoop集群配置(最全面总结)

Hadoop集群配置(最全面总结)

Hadoop集群配置(最全⾯总结)通常,集群⾥的⼀台机器被指定为 NameNode,另⼀台不同的机器被指定为JobTracker。

这些机器是masters。

余下的机器即作为DataNode也作为TaskTracker。

这些机器是slaves\1 先决条件1. 确保在你集群中的每个节点上都安装了所有软件:sun-JDK ,ssh,Hadoop2. Java TM1.5.x,必须安装,建议选择Sun公司发⾏的Java版本。

3. ssh 必须安装并且保证 sshd⼀直运⾏,以便⽤Hadoop 脚本管理远端Hadoop守护进程。

2 实验环境搭建2.1 准备⼯作操作系统:Ubuntu部署:Vmvare在vmvare安装好⼀台Ubuntu虚拟机后,可以导出或者克隆出另外两台虚拟机。

说明:保证虚拟机的ip和主机的ip在同⼀个ip段,这样⼏个虚拟机和主机之间可以相互通信。

为了保证虚拟机的ip和主机的ip在同⼀个ip段,虚拟机连接设置为桥连。

准备机器:⼀台master,若⼲台slave,配置每台机器的/etc/hosts保证各台机器之间通过机器名可以互访,例如:10.64.56.76 node1(master)10.64.56.77 node2 (slave1)10.64.56.78 node3 (slave2)主机信息:机器名 IP地址作⽤Node110.64.56.76NameNode、JobTrackerNode210.64.56.77DataNode、TaskTrackerNode310.64.56.78DataNode、TaskTracker为保证环境⼀致先安装好JDK和ssh:2.2 安装JDK#安装JDK$ sudo apt-get install sun-java6-jdk1.2.3这个安装,java执⾏⽂件⾃动添加到/usr/bin/⽬录。

验证 shell命令:java -version 看是否与你的版本号⼀致。

hadoop安装与配置总结与心得

hadoop安装与配置总结与心得

hadoop安装与配置总结与心得安装与配置Hadoop是一个相对复杂的任务,但如果按照正确的步骤进行,可以顺利完成。

以下是我在安装与配置Hadoop 过程中的总结与心得:1. 首先,确保你已经满足Hadoop的系统要求,并且已经安装了Java环境和SSH。

2. 下载Hadoop的压缩包,并解压到你想要安装的目录下。

例如,解压到/opt/hadoop目录下。

3. 配置Hadoop的环境变量。

打开你的.bashrc文件(或者.bash_profile文件),并添加以下内容:```shellexport HADOOP_HOME=/opt/hadoopexport PATH=$PATH:$HADOOP_HOME/bin```保存文件后,执行source命令使其生效。

4. 配置Hadoop的核心文件。

打开Hadoop的配置文件core-site.xml,并添加以下内容:```xml<configuration><property><name>fs.defaultFS</name><value>hdfs://localhost:9000</value></property></configuration>```5. 配置Hadoop的HDFS文件系统。

打开Hadoop的配置文件hdfs-site.xml,并添加以下内容:```xml<configuration><property><name>dfs.replication</name><value>1</value></property></configuration>```这里的dfs.replication属性指定了数据块的副本数量,可以根据实际情况进行调整。

6. 配置Hadoop的MapReduce框架。

hadoop配置

hadoop配置

硬件环境共有3台机器,均使用的linux系统,Java使用的是jdk1.6.0。

IP配置如下:hadoop1:192.168.0.97(NameNode)hadoop2:192.168.0.226(DataNode)hadoop3:192.168.0.100 (DataNode)这里有一点需要强调的就是,务必要确保每台机器的主机名和IP地址之间能正确解析。

一个很简单的测试办法就是ping一下主机名,比如在hadoop1上ping hadoop2,如果能ping通就OK!若不能正确解析,可以修改/etc/hosts文件,如果该台机器作Namenode用,则需要在hosts文件中加上集群中所有机器的IP地址及其对应的主机名;如果该台机器作Datanode用,则只需要在hosts文件中加上本机IP地址和Namenode 机器的IP地址。

以本文为例,hadoop1(NameNode)中的/etc/hosts文件看起来应该是这样的:127.0.0.1hadoop1localhost192.168.0.97hadoop1hadoop1192.168.0.226hadoop2hadoop2192.168.0.100hadoop3hadoop3hadoop2(DataNode)中的/etc/hosts文件看起来就应该是这样的:127.0.0.1hadoop2localhost192.168.0.97hadoop1hadoop1192.168.0.226hadoop2hadoop2hadoop3(DataNode)中的/etc/hosts文件看起来就应该是这样的:127.0.0.1hadoop3localhost192.168.0.97hadoop1hadoop1192.168.0.100hadoop3hadoop3对于Hadoop来说,在HDFS看来,节点分为Namenode和Datanode,其中Namenode只有一个,Datanode 可以是很多;在MapReduce看来,节点又分为Jobtracker和Tasktracker,其中Jobtracker只有一个,Tasktracker 可以是很多。

大数据Hadoop学习之搭建Hadoop平台(2.1)

大数据Hadoop学习之搭建Hadoop平台(2.1)

⼤数据Hadoop学习之搭建Hadoop平台(2.1) 关于⼤数据,⼀看就懂,⼀懂就懵。

⼀、简介 Hadoop的平台搭建,设置为三种搭建⽅式,第⼀种是“单节点安装”,这种安装⽅式最为简单,但是并没有展⽰出Hadoop的技术优势,适合初学者快速搭建;第⼆种是“伪分布式安装”,这种安装⽅式安装了Hadoop的核⼼组件,但是并没有真正展⽰出Hadoop的技术优势,不适⽤于开发,适合学习;第三种是“全分布式安装”,也叫做“分布式安装”,这种安装⽅式安装了Hadoop的所有功能,适⽤于开发,提供了Hadoop的所有功能。

⼆、介绍Apache Hadoop 2.7.3 该系列⽂章使⽤Hadoop 2.7.3搭建的⼤数据平台,所以先简单介绍⼀下Hadoop 2.7.3。

既然是2.7.3版本,那就代表该版本是⼀个2.x.y发⾏版本中的⼀个次要版本,是基于2.7.2稳定版的⼀个维护版本,开发中不建议使⽤该版本,可以使⽤稳定版2.7.2或者稳定版2.7.4版本。

相较于以前的版本,2.7.3主要功能和改进如下: 1、common: ①、使⽤HTTP代理服务器时的⾝份验证改进。

当使⽤代理服务器访问WebHDFS时,能发挥很好的作⽤。

②、⼀个新的Hadoop指标接收器,允许直接写⼊Graphite。

③、与Hadoop兼容⽂件系统(HCFS)相关的规范⼯作。

2、HDFS: ①、⽀持POSIX风格的⽂件系统扩展属性。

②、使⽤OfflineImageViewer,客户端现在可以通过WebHDFS API浏览fsimage。

③、NFS⽹关接收到⼀些可⽀持性改进和错误修复。

Hadoop端⼝映射程序不再需要运⾏⽹关,⽹关现在可以拒绝来⾃⾮特权端⼝的连接。

④、SecondaryNameNode,JournalNode和DataNode Web UI已经通过HTML5和Javascript进⾏了现代化改造。

3、yarn: ①、YARN的REST API现在⽀持写/修改操作。

Hadoop集群搭建详细简明教程

Hadoop集群搭建详细简明教程
Hadoop 集群搭建详细简明教程
Linux 操作系统安装
利用 vmware 安装 Linux 虚拟机,选择 CentOS 操作系统
搭建机器配置说明
本人机器是 thinkpadt410,i7 处理器,8G 内存,虚拟机配置为 2G 内存,大家可以 按照自己的机器做相应调整,但虚拟机内存至少要求 1G。
会出现虚拟机硬件清单,我们要修改的,主要关注“光驱”和“软驱”,如下图: 选择“软驱”,点击“remove”移除软驱:
选择光驱,选择 CentOS ISO 镜像,如下图: 最后点击“Close”,回到“硬件配置页面”,点击“Finsh”即可,如下图: 下图为创建all or upgrade an existing system”
执行 java –version 命令 会出现上图的现象。 从网站上下载 jdk1.6 包( jdk-6u21-linux-x64-rpm.bin )上传到虚拟机上 修改权限:chmod u+x jdk-6u21-linux-x64-rpm.bin 解压并安装: ./jdk-6u21-linux-x64-rpm.bin (默认安装在/usr/java 中) 配置环境变量:vi /etc/profile 在该 profile 文件中最后添加:
选择“Skip”跳过,如下图:
选择“English”,next,如下图: 键盘选择默认,next,如下图:
选择默认,next,如下图:
输入主机名称,选择“CongfigureNetwork” 网络配置,如下图:
选中 system eth0 网卡,点击 edit,如下图:
选择网卡开机自动连接,其他不用配置(默认采用 DHCP 的方式获取 IP 地址), 点击“Apply”,如下图:

Hadoop2.7.3+Hbase-1.2.6完全分布式安装部署

Hadoop2.7.3+Hbase-1.2.6完全分布式安装部署

Hadoop2.7.3+Hbase-1.2.6完全分布式安装部署Hadoop安装部署基本步骤:1、安装jdk,配置环境变量。

jdk可以去⽹上⾃⾏下载,环境变量如下:编辑 vim /etc/profile ⽂件,添加如下内容:export JAVA_HOME=/opt/java_environment/jdk1.7.0_80(填写⾃⼰的jdk安装路径)export CLASSPATH=.:$JAVA_HOME/jre/lib/rt.jar:$JAVA_HOME/lib/dt.jar:$JAVA_HOME/lib/tools.jarexport PATH=$PATH:$JAVA_HOME/bin输⼊命令,source /etc/profile 使配置⽣效分别输⼊命令,java 、 javac 、 java -version,查看jdk环境变量是否配置成功2、linux环境下,⾄少需要3台机⼦,⼀台作为master,2台(以上)作为slave。

这⾥我以3台机器为例,linux⽤的是CentOS 6.5 x64为机器。

master 192.168.172.71slave1 192.168.172.72slave2 192.168.172.733、配置所有机器的hostname和hosts。

(1)更改hostname,可以编辑 vim /etc/sysconfig/network 更改master的HOSTNAME,这⾥改为HOSTNAME=master 其它slave为HOSTNAME=slave1、HOSTNAME=slave2 ,重启后⽣效。

或者直接输: hostname 名字,更改成功,这种⽅式⽆需重启即可⽣效, 但是重启系统后更改的名字会失效,仍是原来的名字 (2)更改host,可以编辑 vim /etc/hosts,增加如下内容: 192.168.172.71 master 192.168.172.72 slave1 192.168.172.73 slave2 hosts可以和hostname不⼀致,这⾥为了好记就写⼀致了。

  1. 1、下载文档前请自行甄别文档内容的完整性,平台不提供额外的编辑、内容补充、找答案等附加服务。
  2. 2、"仅部分预览"的文档,不可在线预览部分如存在完整性等问题,可反馈申请退款(可完整预览的文档不适用该条件!)。
  3. 3、如文档侵犯您的权益,请联系客服反馈,我们会尽快为您处理(人工客服工作时间:9:00-18:30)。

存大于 2G,需使用 64 位 win7。 2)软件环境 Hadoop 支持 windows 和 Linux,但在 windows 上仅测试过此软件可运行,并未用于生 产实践,而大量的实践证明,在 Linux 环境下使用 hadoop 则更加稳定高效。本节使用 Linux 较成熟的发行版 CentOS 部署 hadoop,需注意的是新装系统(CentOS)的机器不可以直接部 署 hadoop,需做些设置后才可部署,这些设置主要为:修改机器名,添加域名映射,关闭防 火墙,安装 jdk。 【例 5-3】现有一台刚装好 CentOS 系统的机器,且装机时用户名为 joe,要求将此机器 名修改为 cMaster,添加域名映射,关闭防火强,并安装 jdk。 解答:修改机器名,添加域名映射,关闭防火墙,安装 jdk 这四个操作是 hadoop 部署 前必须做的事情,请务必做完这四个操作后再部署 hadoop,读者可参考如下命令完成这四 个操作: (1)修改机器名
[joe@localhost ~]$ su - root [root@localhost ~]# vim /etc/sysconfig/network # 切换成 root 用户修改机器名 #编辑存储机器名文件
将“HOSTNAME=localhost.localdomain”中的“localhost.localdomain”替换成您需要使 用的机器名,按题目要求,此处应为 cMaster,即此行内容为:
5.3 hadoop2.0 部署
Hadoop 部署是学习与应用 hadoop 前的必由之路,也可以说是拦路虎,许多人都会卡在 这一步,因为没有 hadoop 集群环境或部署的环境有瑕疵,hadoop 令初学者望而却步。本节 将深入浅出的讲解 hadoop 部署,期望能把读者引入 hadoop 的精彩世界。
----------------------------------------------------------------------------------------------------------------
南京邮电大学 计算机学院 机器学习实验室
导师:李云 作者:叶晓江 文档出处: 《云计算》电子工业出版社,刘鹏主编 转载请务必标明出处: 《云计算》电子工业出版社,刘鹏主编 文档所有者:解放军理工大学、南京邮电大学、南京云创、电子工业出版社 ----------------------------------------------------------------------------------------------------------------
5.3.1
部署综述
1.部署方式 Hadoop 主要有两种部署方式,传统解压包方式和 Linux 标准方式。早期的 hadoop 都是 采用直接解压 hadoop-x.gz 包方式部署的,近两年来由于 Cloudera[3]、Hortonworks[4]等公司 对 hadoop 及其相关组件的包装、整合,hadoop 部署方式正向标准 Linux 部署方式靠拢。相 对来说,标准 Linux 部署方式简单易用,而传统部署方式则繁琐易错,但标准部署方式隐藏 了太多细节,相反传统解压包方式有助于读者深入理解 hadoop,笔者建议在采用标准方式 部署前,先学习传统部署方式。 此外, 无论是解压包方式还是标准方式, hadoop 部署都有单机模式, 伪分布模式和分布 式模式,考虑到实战意义,加之为避免混淆,笔者只介绍分布式模式。下一小节将以传统解 压包方式部署 hadoop,部署成功后,请读者打开第六章第一节,再以标准 Linux 方式部署 hadoop,并比较二者区别。 2.部署步骤 无论是解压包方式还是标准方式,hadoop 部署时都大概分为如下几个步骤: (1)制定部署规划 (2)准备机器 (3)准备机器软件环境 (4)下载 hadoop (5)解压 hadoop (6)配置 hadoop (7)启动 hadoop (8)测试 hadoop 这里称步骤二、 三为部署前工作, 步骤五、 六、 七为 hadoop 部署, 最后的步骤八为 hadoop 测试,当然了,其实最重要的还是第一步部署规划,它为 hadoop 部署指明了方向,根据上 述划分,hadoop 部署步骤又可简述如下: (1)制定部署规划 (2)部署前工作 (3)部署 hadoop
假如看到此机器的 ip 地址为“192.168.1.100” ,又此机器机器名为 cMaster,则域名映射 应为:
192.168.1.100 cMaster #编辑域名映射文件
ห้องสมุดไป่ตู้
接着编辑域名映射文件“/etc/hosts” ,将上述内容添加入此文件。
[root@cMaster ~]# vim /etc/hosts
(4)测试 hadoop 无论是下一小节的传统部署方式, 还是第六章的标准部署方式, 都会按照这个步骤部署, 请读者务必从整体上把握部署步骤。 3.准备环境 准备环境讲解的是准备机器和准备机器软件环境, 也就是部署前工作, 本质上说, hadoop 部署和这一步无关,但大部分用户或是没有 Linux 环境,或是刚安装 Linux,直接使用刚安 装的 Linux 来部署完全模式的 hadoop 是不可能实现的,用户必须做些诸如修改机器名,添 加域名映射等工作(当然,若您有 DNS 服务器,那您可以不添加域名映射)后才可部署。 1)硬件环境 由于分布式计算必然需要用到很多机器,部署时用户需提供多台机器,至于提供几台, 需根据步骤一 “部署规划” 确定, 如下一节的传统方式部署 “部署规划” 指明使用 3 台机器, 而第六章的标准方式的“部署规划”则要求使用 6 台机器。 实际上,完全模式部署 hadoop 时,最低只需要两台机器(一个主节点,一个从节点) 即可实现完全分布模式部署,而使用多台机器部署,会使这种完全分布模式体现的“更加充 分” (一个主节点,多个从节点) ,只是从节点多少不同而已,二者并无本质区别。读者可以 根据自身情况,做出符合您当前实际的“部署规划” ,其他部署步骤都相同。此外,硬件方 面,每台机器最低要求都是 1G 内存,20G 硬盘空间。 上述两段笔者要求用户最少要提供两台机器, 但却未要求这两台都是实体机器, 实际上, 用户可以提供两台或多台实体机器, 也可以提供两台或多台虚拟机器, 即用户可以使用虚拟 化技术, 将一台机器虚拟成两台或多台机器, 并且虚拟后的机器和实体机器使用上无任何区 别,用户可权当此虚拟机就是实体机器。 【例 5-2】现有机器 A,其配置为 4G 内存,双核,硬盘 100G;系统为 64 位 win7,现 要求使用 VMware 将此机器虚拟成三台 CentOS 机器 cMaster,cSlave0,cSlave1。 解答:用户需下载并安装 VMware,接着使用 VMware 安装 CentOS,正如在 win7 上安 装其他软件,用户根据实际情况,点击下一步即可,大体步骤如下: (1)下载 VMware Workstation:谷歌搜索并下载 VMware Workstation。 (2)安装 VMware Workstation:在 win7 下正常安装 VMware Workstation 软件。 (3)下载 CentOS:到 CentOS 官网下载 64 位的 CentOS,请尽量下载最新版(当前最 新版 CentOS-6.5) 。 (4)新建 CentOS 虚拟机:打开 VMware WorkstationFile(文件)New Virtual Machine Wizard(新建虚拟向导)Typical(recommended)(推荐)Installer disc image file(iso)(选中刚才 下载的 CentOS-6.4-x.iso 文件)填写用户名与密码,用户名建议使用 joe 密码亦建议使用 joe填入机器名 cMaster直至 Finish。 (5)重复步骤四,填入机器名 cSlave0,接着安装直至结束;再次重复步骤四,填入机 器名 cSlave1,接着安装直至结束。 上述步骤四使用 VMware 新装了 cMaster,步骤五其实跟步骤四一样,只是机器名改成 了 cSlave0 和 cSlave1,至此,win7 下已新装了三台 CentOS 机器。 需要注意的是,此处的 cMaster 只是 VMware 面板对此机器的称号,并不是此机器真实 机器名,实际上新安装 CentOS 的机器机器名统一为“localhost.localdomain” ,也就是这三台 机器真实机器名都是“localhost.localdomain” ,而不是 cMaster 或 cSlave,它只是 VMware 面 板对这些机器的称号。 此外,采用虚拟化技术时,最稀缺的是内存资源,根据笔者经验,如果您的 win7 机器 内存仅为 2G 时, 其下 VMware 可启动 1 台 CentOS; 4G 时, VMware 可同时启动 3 台 CentOS; 6G 时,VMware 可同时启动 5 台 CentOS。此外,32 位 win7 仅支持 2G 内存,如果你的内
(4)安装 jdk hadoop 部署前需安装 jdk,而且 hadoop 只能使用 oracle 的 1.6 及其以上版的 jdk,不能 使用 openjdk。用户需首先下载 jdk-x.rpm 包,如 jdk-7u40-linux-x64.rpm。打开刚才已经安装 的 CentOS 机器,将 win7 下 jdk-7u40-linux-x64.rpm 拷贝至虚拟机下某位置,Termianl 下执 行(此方式安装的 jdk 无需配置 java_home)如下命令:
HOSTNAME=cMaster #指定本机名为 cMaster
注意重启机器后更名操作才会生效,用户需通过此命令修改集群中所有机器的机器名, 重启后,本机将有自己唯一的机器名 cMaster 了。 (2)添加域名映射 首先使用如下命令查看本机 ip 地址,这里以 cMaster 机器为例
[root@cMaster ~]# ifconfig #查看 cMaster 机器 ip 地址
相关文档
最新文档