前面学习Hadoop的一些内容都是利用编译好的内容来进行操作学习的,这篇博客将介绍对Hadoop源码进行编译。下面以一台克隆的服务器来进行操作,具体克隆操纵可参考虚拟机克隆这篇博客。
1. 前期准备工作
1.1. 确保CentOS能够联网
按照前面的博客一路学过来看过来的同学,是应该能够保证服务器能够联网的。具体请参考这篇博客CentOS配置,将虚拟机以及Linux系统网络配置好即可。
可以连接外网的同学可以ping一下百度,确认一下是否能够ping通。
[root@hadoop101 ~]# ping www.baidu.com
PING www.a.shifen.com (14.215.177.39) 56(84) bytes of data.
64 bytes from 14.215.177.39: icmp_seq=1 ttl=128 time=42.8 ms
64 bytes from 14.215.177.39: icmp_seq=2 ttl=128 time=39.4 ms
64 bytes from 14.215.177.39: icmp_seq=3 ttl=128 time=105 ms
注意:后面都采用root用户进行操作,减少文件夹权限出现错误。
1.2. jar包的准备
需要准备以下内容:
- hadoop源码:hadoop-2.7.2-src.tar.gz
- jdk:jdk-8u144-linux-x64.tar.gz
- apache-ant-1.9.9-bin.tar.gz(build工具,打包用的)
- apache-maven-3.0.5-bin.tar.gz
- protobuf-2.5.0.tar.gz(序列化的框架)
下载地址如下:
名称 | 地址 | 提取码 |
---|---|---|
hadoop源码 | 链接:https://pan.baidu.com/s/1gtPsDR5Nhqky5JK2eQ91TA | d4e6 |
jdk | 链接:https://pan.baidu.com/s/1VOKQQQBUCFD6xLOIBUQZuQ | 提取码:duzt |
apache-ant | 链接:https://pan.baidu.com/s/1xs0RxiQwqardO0yndjQ_kw | 提取码:sqxs |
apache-maven | 链接:https://pan.baidu.com/s/1n4j5ei9nsnM0DAo5YAjEWA | 提取码:1pwj |
protobuf | 链接:https://pan.baidu.com/s/1mPm5g-AFPa_SBx8Skmfb_Q | 提取码:9p1j |
下载完成后,上传到服务器中。
[root@hadoop101 software]# rz
这里使用rz命令来上传到服务器中。
2. jar包安装
所有操作都是在root用户下进行操作的。
2.1. JDK配置
把jdk安装和配置好,具体参考安装和配置jdk和hadoop这篇博客中的jdk配置。
这里我输入java -version
可以查看到java环境已经配置好了,如下显示所示,这里不再赘述了,配置好了的同学这一步也可以直接跳过了。
[root@hadoop101 module]# java -version
java version "1.8.0_144"
Java(TM) SE Runtime Environment (build 1.8.0_144-b01)
Java HotSpot(TM) 64-Bit Server VM (build 25.144-b01, mixed mode)
2.2. Maven解压、配置 MAVEN_HOME和PATH
Maven解压到/opt/module
目录下:
[root@hadoop101 software]# tar -xvzf apache-maven-3.0.5-bin.tar.gz -C /opt/module/
切换到maven目录下,然后进行配置:
[root@hadoop101 apache-maven-3.0.5]# cd /opt/module/apache-maven-3.0.5/
[root@hadoop101 apache-maven-3.0.5]# vim conf/settings.xml
在配置文件下找到mirrors
节点,然后输入mirror
内容。
<mirrors>
<!-- mirror
|
<mirror>
<id>mirrorId</id>
<mirrorOf>repositoryId</mirrorOf>
<name>Human Readable Name for this Mirror.</name>
<url>http://my.repository.com/repo/path</url>
</mirror>
-->
<mirror>
<id>nexus-aliyun</id>
<mirrorOf>central</mirrorOf>
<name>Nexus aliyun</name>
<url>http://maven.aliyun.com/nexus/content/groups/public</url>
</mirror>
</mirrors>
将Maven加入到环境变量之中:
[root@hadoop101 apache-maven-3.0.5]# vim /etc/profile
# 3. MAVEN_HOME
export MAVEN_HOME=/opt/module/apache-maven-3.0.5
export PATH=$PATH:$MAVEN_HOME/bin
[root@hadoop101 apache-maven-3.0.5]# source /etc/profile
验证:
[root@hadoop101 apache-maven-3.0.5]# mvn -version
Apache Maven 3.0.5 (r01de14724cdef164cd33c7c8c2fe155faf9602da; 2013-02-19 21:51:28+0800)
Maven home: /opt/module/apache-maven-3.0.5
Java version: 1.8.0_144, vendor: Oracle Corporation
Java home: /opt/module/jdk1.8.0_144/jre
Default locale: zh_CN, platform encoding: UTF-8
OS name: "linux", version: "2.6.32-754.el6.x86_64", arch: "amd64", family: "unix"
2.3. ant解压、配置 ANT _HOME和PATH
2.3.1. ant解压
[root@hadoop101 apache-maven-3.0.5]# cd /opt/software/
[root@hadoop101 software]# tar -xvzf apache-ant-1.9.9-bin.tar.gz -C /opt/module/
2.3.2. ant配置
[root@hadoop101 apache-ant-1.9.9]# vim /etc/profile
# 4. ANT_HOME
export ANT_HOME=/opt/module/apache-ant-1.9.9
export PATH=$PATH:$ANT_HOME/bin
[root@hadoop101 apache-ant-1.9.9]# source /etc/profile
ant验证
[root@hadoop101 apache-ant-1.9.9]# ant -version
Apache Ant(TM) version 1.9.9 compiled on February 2 2017
安装glibc-headers和g++
[root@hadoop101 ~]# yum install glibc-headers
[root@hadoop101 ~]# yum install gcc-c++
安装make和cmake
[root@hadoop101 ~]# yum install make
[root@hadoop101 ~]# yum install cmake
解压protobuf
解压后进入protobuf主目录
[root@hadoop101 software]# tar -xzvf protobuf-2.5.0.tar.gz -C /opt/module/
[root@hadoop101 software]# cd /opt/module/protobuf-2.5.0/
接下输入下面的命令来编译protobuf并进行安装:
[root@hadoop101 protobuf-2.5.0]# ./configure
[root@hadoop101 protobuf-2.5.0]# make
[root@hadoop101 protobuf-2.5.0]# make check
[root@hadoop101 protobuf-2.5.0]# make install
[root@hadoop101 protobuf-2.5.0]# ldconfig
将protobuf加入环境变量:
[root@hadoop101 protobuf-2.5.0]# vim /etc/profile
# 5. LD_LIBRARY_PATH
export LD_LIBRARY_PATH=/opt/module/protobuf-2.5.0
export PATH=$PATH:$LD_LIBRARY_PATH
[root@hadoop101 protobuf-2.5.0]# source /etc/profile
验证:
[root@hadoop101 protobuf-2.5.0]# protoc --version
libprotoc 2.5.0
安装openssl库
[root@hadoop101 protobuf-2.5.0]# yum install openssl-devel
安装ncurses-devel库
[root@hadoop101 protobuf-2.5.0]# yum install ncurses-devel
编译源码
解压源码到/opt/目录并切换到该目录下
[root@hadoop101 opt]# tar -xvzf hadoop-2.7.2-src.tar.gz -C /opt/
[root@hadoop101 opt]# cd /opt/hadoop-2.7.2-src/
[root@hadoop101 hadoop-2.7.2-src]# pwd
/opt/hadoop-2.7.2-src
通过maven执行编译命令
[root@hadoop101 hadoop-2.7.2-src]# mvn package -Pdist,native -DskipTests -Dtar
接下来就是默默的等待了。
成功的64位hadoop包在/opt/hadoop-2.7.2-src/hadoop-dist/target下
[root@hadoop101 target]# pwd
/opt/hadoop-2.7.2-src/hadoop-dist/target