阿里云服务器搭建Hadoop环境

本文主要介绍如何在Linux操作系统的ECS实例上快速搭建Hadoop伪分布式环境。很多用户可能对阿里云服务器的相关操作不是很了解,今天小编就为大家介绍阿里云服务器搭建Hadoop环境的图文教程,感兴趣的朋友可以参考一下!

  前提条件

1、已创建ECS实例。

本教程示例场景中,ECS实例的配置如下:

  • 实例规格:ecs.g6.large
  • 操作系统:公共镜像CentOS 7.7 64位
  • 网络类型:专有网络VPC
  • IP地址:公网IP

2、已在ECS实例安全组的入方向中放行了Hadoop所需的8088和50070端口。

  背景信息

Hadoop是一款由Apache基金会用Java语言开发的分布式开源软件框架,用户可以在不了解分布式底层细节的情况下,开发分布式程序,充分利用集群的能力进行高速运算和存储。Hadoop的核心部件是HDFS(Hadoop Distributed File System)和MapReduce:

  • HDFS:是一个分布式文件系统,可对应用程序数据进行分布式储存和读取。
  • MapReduce:是一个分布式计算框架,MapReduce的核心思想是把计算任务分配给集群内的服务器执行。通过对计算任务的拆分(Map计算和Reduce计算),再根据任务调度器(JobTracker)对任务进行分布式计算。

  操作步骤

步骤一:安装JDK

1、远程连接已创建的ECS实例。

2、执行以下命令,下载JDK 1.8安装包。

wget https://download.java.net/openjdk/jdk8u41/ri/openjdk-8u41-b04-linux-x64-14_jan_2020.tar.gz

3、执行以下命令,解压下载的JDK 1.8安装包。

tar -zxvf openjdk-8u41-b04-linux-x64-14_jan_2020.tar.gz

4、执行以下命令,移动并重命名JDK安装包。

本示例中将JDK安装包重命名为java8,您可以根据需要使用其他名称。

mv java-se-8u41-ri/ /usr/java8

5、执行以下命令,配置Java环境变量。

如果您将JDK安装包重命名为其他名称,需将以下命令中的java8替换为实际的名称。

echo 'export JAVA_HOME=/usr/java8' >> /etc/profile
echo 'export PATH=$PATH:$JAVA_HOME/bin' >> /etc/profile
source /etc/profile

6、执行以下命令,查看Java是否成功安装。

java -version

如果返回以下信息,则表示Java已安装成功。

openjdk version "1.8.0_41"
OpenJDK Runtime Environment (build 1.8.0_41-b04)
OpenJDK 64-Bit Server VM (build 25.40-b25, mixed mode)

步骤二:安装Hadoop

1、执行以下命令,下载Hadoop安装包。

wget https://mirrors.bfsu.edu.cn/apache/hadoop/common/hadoop-2.10.1/hadoop-2.10.1.tar.gz

2、执行以下命令,解压Hadoop安装包至/opt/hadoop。

tar -zxvf hadoop-2.10.1.tar.gz -C /opt/
mv /opt/hadoop-2.10.1 /opt/hadoop

3、执行以下命令,配置Hadoop环境变量。

echo 'export HADOOP_HOME=/opt/hadoop/' >> /etc/profile
echo 'export PATH=$PATH:$HADOOP_HOME/bin' >> /etc/profile
echo 'export PATH=$PATH:$HADOOP_HOME/sbin' >> /etc/profile
source /etc/profile    

4、执行以下命令,修改配置文件yarn-env.sh和hadoop-env.sh。

echo "export JAVA_HOME=/usr/java8" >> /opt/hadoop/etc/hadoop/yarn-env.sh
echo "export JAVA_HOME=/usr/java8" >> /opt/hadoop/etc/hadoop/hadoop-env.sh

5、执行以下命令,测试Hadoop是否安装成功。

hadoop version

如果返回以下信息,则表示安装成功。

Hadoop 2.10.1
Subversion https://github.com/apache/hadoop -r 1827467c9a56f133025f28557bfc2c562d78e816
Compiled by centos on 2020-09-14T13:17Z
Compiled with protoc 2.5.0
From source with checksum 3114edef868f1f3824e7d0f68be03650
This command was run using /opt/hadoop/share/hadoop/common/hadoop-common-2.10.1.jar

步骤三:配置Hadoop

1、修改Hadoop配置文件core-site.xml。

a.执行以下命令,进入编辑页面。

vim /opt/hadoop/etc/hadoop/core-site.xml

b.输入i,进入编辑模式。

c.在<configuration></configuration>节点内,插入如下内容。

  <property>
<name>hadoop.tmp.dir</name>
<value>file:/opt/hadoop/tmp</value>
<description>location to store temporary files</description>
</property>
<property>
<name>fs.defaultFS</name>
<value>hdfs://localhost:9000</value>
</property>

d.按Esc,退出编辑模式,并输入:wq保存并退出。

2、修改Hadoop配置文件hdfs-site.xml。

a.执行以下命令,进入编辑页面。

vim /opt/hadoop/etc/hadoop/hdfs-site.xml

b.输入i,进入编辑模式。

c.在<configuration></configuration>节点内,插入如下内容。

<property>
<name>dfs.replication</name>
<value>1</value>
</property>
<property>
<name>dfs.namenode.name.dir</name>
<value>file:/opt/hadoop/tmp/dfs/name</value>
</property>
<property>
<name>dfs.datanode.data.dir</name>
<value>file:/opt/hadoop/tmp/dfs/data</value>
</property>

d.按Esc,退出编辑模式,并输入:wq后保存并退出。

步骤四:配置SSH免密登录

1、执行以下命令,创建公钥和私钥。

ssh-keygen -t rsa

回显信息如下所示,表示创建公钥和私钥成功。

[root@iZbp1chrrv37a2kts7sydsZ ~]# ssh-keygen -t rsa
Generating public/private rsa key pair.
Enter file in which to save the key (/root/.ssh/id_rsa):
Enter passphrase (empty for no passphrase):
Enter same passphrase again:
Your identification has been saved in /root/.ssh/id_rsa.
Your public key has been saved in /root/.ssh/id_rsa.pub.
The key fingerprint is:
SHA256:gjWO5mgARst+O5VUaTnGs+LxVhfmCJnQwKfEBTro2oQ root@iZbp1chrrv37a2kts7s****
The key's randomart image is:
+---[RSA 2048]----+
| .  o+Bo=        |
|o o .+.#   o     |
|.= o..B = + .    |
|=.  oO.o o o     |
|Eo..=o* S .      |
|.+.+o. +         |
|. +o. .          |
| .  .            |
|                 |
+----[SHA256]-----+
                        

2、执行以下命令,将公钥添加到authorized_keys文件中。

cd .ssh
cat id_rsa.pub >> authorized_keys

步骤五:启动Hadoop

1、执行以下命令,初始化namenode。

hadoop namenode -format

2、依次执行以下命令,启动Hadoop。

start-dfs.sh

在弹出的提示中,依次输入yes。

阿里云服务器搭建Hadoop环境

start-yarn.sh

回显信息如下所示。

[root@iZbp1chrrv37a2kts7s**** .ssh]# start-yarn.sh
starting yarn daemons
starting resourcemanager, logging to /opt/hadoop/logs/yarn-root-resourcemanager-iZbp1chrrv37a2kts7sydsZ.out
localhost: starting nodemanager, logging to /opt/hadoop/logs/yarn-root-nodemanager-iZbp1chrrv37a2kts7sydsZ.out

3、执行以下命令,可查看成功启动的进程。

jps

成功启动的进程如下所示。

[root@iZbp1chrrv37a2kts7s**** .ssh]# jps
11620 DataNode
11493 NameNode
11782 SecondaryNameNode
11942 ResourceManager
12344 Jps
12047 NodeManager

4、打开浏览器访问http://<ECS公网IP>:8088和http://<ECS公网IP>:50070。

显示如下界面,则表示Hadoop伪分布式环境已搭建完成。

阿里云服务器搭建Hadoop环境

阿里云服务器搭建Hadoop环境

使用教程

腾讯云服务器管理实例启动模板

2022-8-16 11:20:35

使用教程

钉钉专业版如何创建业务规则?钉钉专业版如何设置业务规则?

2022-8-16 16:35:22

相关推荐