Linux系统配置
用户配置
设置
root用户密码;添加普通用户,用户名为自己姓名全拼,如:
zhangsan;
配置IP
- 输入
ip addr查看网卡ip地址,可以看到网卡ens33没有分配到ip。

- 查看
VMWare子网

你配置的静态
IP需要为192.168.179.x,其中2<x<128。此处我们设置静态IP为192.168.179.100, 编辑网卡ens33对应的配置文件vi /etc/sysconfig/network-scripts/ifcfg-ens33
重启网络服务
systemctl restart network

此时网卡ens33的ip地址为 192.168.179.100
为方便复制代码,后续步骤,最好使用ssh客户端操作。
更换软件源
CentOS 7 系统在 2024 年 6 月 30 日结束了官方维护,这意味着:
官方提供的 mirrorlist.centos.org 等源地址已经停止服务,无法解析或获取软件包。
你的系统里原来的 yum 源配置文件(CentOS-Base.repo)指向的是这些失效地址,所以执行 yum update、yum install 等命令时会报错。
yum 工具的工作依赖于 “源配置文件”—— 它就像软件包的 “下载地址列表”,如果地址失效,yum 就找不到软件,自然无法完成安装、更新等操作。
可使用官方归档源或者阿里云的归档源。
备份原始配置
1 | [root@localhost ~]# cd /etc/yum.repos.d/ |
更换为官方归档源
1 | [root@localhost ~]# cat > /etc/yum.repos.d/CentOS-Base.repo << EOF |
更换为阿里源
1 | [root@localhost yum.repos.d]# wget -O /etc/yum.repos.d/CentOS-Base.repo https://mirrors.aliyun.com/repo/Centos-vault-7.9.2009.repo |
清理并重建 yum 缓存
1 | [root@localhost yum.repos.d]# yum clean all |
测试 yum 功能
重新执行更新命令,验证是否恢复正常:
1 | yum update -y |
安装vim
1 | [root@localhost ~]# yum -y install vim |
安装wget
1 | [root@localhost ~]# yum -y install wget |
修改机器名
1 | [root@localhost ~]# vim /etc/hostname |
修改hosts
1 | [root@localhost ~]# vim /etc/hosts |
重启Linux。
停用防火墙
此处为了省事儿,直接停用防火墙,也可手动放开端口。
1 | [root@node1 ~]# systemctl stop firewalld & systemctl disable firewalld |
安装JDK
本文档使用的是Minimal版的 CentOS,直接安装Oracle JDK即可,无需卸载Open JDK。
修改时区
修改为上海时间
1 | [root@node1 ~]# timedatectl set-timezone Asia/Shanghai |
时钟同步
安装ntp服务
1 | [root@node1 ~]# yum -y install ntp |
启用ntp服务
1 | 启动ntp 并 允许开机启动 |
时钟同步定时任务
1 | [root@node1 ~]# crontab -e |
软件安装位置与所有者
在/opt/目录下创建bigdata目录,并修改目录的所有者和所属组为自己姓名全拼,如:zhangsan,以后用到的Apache大数据组件都将会安装到该目录中。
1 | 创建文件夹 /opt/bigdata/ |
Apache开源软件的目录结构
/sbin:服务端可执行程序存放目录
/bin:客户端可执行程序存放目录
conf/etc:配置文件
lib/jars:动态链接库(
so),或者Java依赖包logs:日志目录
软件的HOME目录
软件解压后的最外层目录,我们称为该软件的HOME目录,一般用SOFTNAME_HOME表示。
为方便直接跳转到软件HOME目录,我们将它们的绝对路径定义在环境变量中。
比如:
1 | (base) [zhangsan@node1 hadoop]$ ls -al /opt/bigdata/hadoop/ |
通过为
HADOOP_HOME创建软连接default,可方便的管理多个版本。
环境变量:
1 | export HADOOP_HOME=/opt/bigdata/hadoop/default |