练习一:配置 Hadoop 环境(虚拟机服务器版)¶
-
完成时间:2022-11-24(第 12 周周一)至 2022-11-20(第 12 周周五)
一、实验环境¶
- 虚拟机:
VMware Workstation 16.2.4
- 操作系统:
Ubuntu-20.04.5-live-server-amd64
- 连接软件:
Xshell7
,Xftp7
- JAVA 环境:
jdk-8u162-linux-x64
- 大数据软件:
hadoop-3.1.3
二、实验要求¶
- 为 Ubuntu 系统添加新的普通用户
- 使用服务器连接软件实现 SSH 登录到 Ubuntu 系统
- 使用 FTP 软件向服务器中的 Ubuntu 系统上传和下载文件
- 在服务器中的 Ubuntu 系统中安装 Java
- 在服务器中的 Ubuntu 系统中安装 Hadoop
三、实验内容¶
1、在 Xshell 7 中新建连接¶
(1)新建会话
(2)设置连接名称:如 地质大数据第 12 组
(3)设置服务器的 IP 地址:(老师分配的阿里云服务器 IP)
(4)设置用户账密:
(5)点击连接即可成功登录服务器系统
2、创建新用户¶
(1)使用 sudo
权限新建名为 Vivian
的普通用户
1 |
|
(2)设置普通用户 Vivian
的用户密码为 \(123456\)
1 |
|
(3)赋予 Vivian
用户管理员权限
1 |
|
(4)切换到 Vivian
用户
1 |
|
(5)全过程截图
3、安装 JAVA¶
(1)在当前用户目录下创建所需的文件夹
1 2 3 4 |
|
(2)通过 Xftp7
软件,将安装包传输到 Downloads
目录下
(3)创建 ~/usr/lib/jvm
目录用来存放 JDK
文件
1 2 |
|
(4)把 JDK
文件解压到 ~/usr/lib/jvm
目录下
1 |
|
(5)编辑用户环境变量配置
1 |
|
(6)进入编辑,添加 JAVA 相关的环境变量配置,保存并退出
1 2 3 4 |
|
(7)使用户环境变量生效
1 |
|
(8)检查是否安装成功
1 |
|
4、安装 Hadoop¶
(1)修改 hostname
配置文件
1 |
|
(2)在其内添加:服务器的本地(私有)IP 地址 服务器主机名,如:
!!注:这一步非常重要,关系到后面 Hadoop
是否能正常运行
1 |
|
(3)Hadoop
解压后即可使用,所以接下来我们直接解压安装
1 |
|
(4)修改 Hadoop
的文件夹名称
1 2 |
|
(5)检查是否安装成功
1 2 |
|
5、Hadoop 伪分布式配置¶
Hadoop 的配置文件位于 ~/usr/local/hadoop/etc/hadoop/
中,伪分布式需要修改 2 个配置文件:
core-site.xml
hdfs-site.xml
(1)修改配置文件 core-site.xml
1 |
|
(2)修改为如下内容(需要稍作修改)
1 2 3 4 5 6 7 8 9 10 11 |
|
(3)修改配置文件 hdfs-site.xml
1 |
|
(4)修改为如下内容(不用修改)
1 2 3 4 5 6 7 8 9 10 11 12 13 14 |
|
(5)配置完成后,执行 NameNode
的格式化
1 2 |
|
!!注:如若成功,会看到 successfully formatted
和 Exitting with status 0
的提示,若是出错,则为 Exitting with status 1
。
(6)开启 NameNode
和 DataNode
守护进程
1 2 |
|
(7)如需停止运行 Hadoop
,则执行以下命令
1 2 |
|
6、实验总结¶
(1)所遇问题¶
① 问题描述:在进行多行复制时,因为缩进原因系统无法识别文件内容,导致执行 NameNode 的格式化失败,问题报错如下图所示:
② 问题解决方案:再次编辑两个配置文档,重新调整文档内容的缩进即可,在以后的操作中,在多行内容复制时,一定要谨慎处理。
(2)实验结论¶
通过本次实验练习,我们学习了:
① 使用 Xshell7
,Xftp7
来操作服务器中的 Ubuntu 系统
② 安装配置了 JAVA 环境和 Hadoop 环境,配置了大数据操作的基本环境
③ 同时也学习了 Linux 的一些基本操作指令
④ 以及 Vim 编辑器的使用
⑤ 直观地了解到了 Linux 与 Windows 之间的使用区别
创建日期: 2022-12-27
作者: