Linux6.5基于LVM的安装
来源:互联网 发布:网页棋牌游戏源码 编辑:程序博客网 时间:2024/05/02 01:40
0、安装之前需要注意
.截止目前CentOS6.x 的具体安装配置过程
.服务器相关设置如下:
操作系统:CentOS6.5 64位
IP地址:192.168.79.101
网关:192.168.79.100
DNS:8.8.8.8 8.8.4.4
备注:
CentOS6.5系统镜像有32位和64位两个版本,一般企业用户都是使用64为的服务器,要求服务器内存
在4G以上
建议安装64位版本CentOS-6.5-x86_64-bin-DVD1.iso
a.CentOS6.5系统镜像有两个,安装系统只用到第一个镜像,即CentOS-6.5-x86_64-bin-DVD1.iso
b.安装CentOS6.5系统的计算机内存必须等于或者大于628M(最小内存628M),才能启用图形安装模式
c.CentOS6.5文本安装模式不支持自定义分区,建议使用图形安装模式安装
d.CentOS6.5系统安装方式:图形安装方式和文本安装模式
e.CentOS6.5系统运行方式分为:带图形界面,可以用鼠标操作的图形化方式和不带图形界面,
直接用命令行操作的方式(具体的系统运行方式,可以在系统安装的过程中自定义)
1、安装linux
1.1 首先设置一块10G的虚拟硬盘,基于LVM来进行系统的分区管理
1.2 利用虚拟机安装Linux6.5,首先加载镜像文件成功后,启动虚拟机,会进入一个安装选项界面
>>界面说明:
install or upgrade an existing system 安装或者升级现有的系统
install system with basic video driver 安装过程中才有基本的显卡驱动
rescue install system 进入系统修复模式
boot form local drive 退出安装从硬盘启动
Memory test 内存检测
>>这里选择第一项,安装或者升级现有的系统,回车.
1.3 基本参数设置
.出现是否对CD媒体进行测试的提问,这里选择'Skip'跳过测试
.系统语言选择:English->next
.键盘选择:U.S.English
.基本存储设备:第一项basic storage devices
.是否忽略所有的数据:Yes
.主机名:主机名默认即可,系统安装后在修改
.时区选择:chongqing
.root密码:hadoop
>>跳出一个对话框,选择Use Anyway(无论如何都使用)
>>注意:如果你使用的密码过于简单,系统会自动提示:您的密码不够安全,过于简单化/系统化
这里是测试环境,为了使用方便所以这里密码简单,实际生产中应该使用不容易被破解
的密码,即不会出现提示框.
.出现一列选项
选择最后一项,Create Custom Layout创建自定义分区--->Next
1.4 开始基于LVM分区
.出现硬盘容量10G,和一些其他信息
>>分区之前,自己要规划好,怎么分区
我这里的分区如下:
swap不用加入到LVM中-->1G
boot必须是主分区-->1G
其他都用LVM管理
/ --->4G
/home --->1G
/test --->1G
剩余--->1G(使用剩余的1G做相应的lvextend的实验)
vgs-->查询vg的分区
df -h-->查询分区的大小
lvextend -L +500 /dev/vg0/lv03 -->为lv03增加一个空间
.swap分区不用加入LVM中-->1G
>>选中free,右下脚create
>>出现一个创建分区选项框
Standard Partition 选择标准分区
>>右下角create
File System Type:里面选择swap分区
大小:1024G
>>右下角:点击ok
.boot必须是主分区-->1G
>>选中free,上一步创建swap类似
>>Mount Point:选择/boot
大小1024G
>>系统文件类型:ext4 比较稳定(6.x以上才有,之前伪ext3)
.剩余都用LVM分区
1. 选择free全部分配为LVM,选择填充到最大尺寸选项
2. 基于LVM分区在分配不同的组
/ --->4G(l_root)
/home --->2G(l_home)
/test --->1G(l_test)
剩余--->1G(使用剩余的1G做相应的lvextend的实验)
vgs-->查询vg的分区
df -h-->查询分区的大小
lvextend -L +500 /dev/vg0/lv03 -->为lv03增加一个空间
3. 点击Next出现格式化磁盘的提示,点击格式化
4. 选择Write changes to disk 将修改写入磁盘
5. 安装为GRUB的分区,...boot Load... 默认
6. next选择Desktop(桌面)
7、next就开始安装了
备注:可以点击Customize now选项,选择安装需要的开发工具包软件,也可以通过yum源,rpm或者
编译来安装软件包
8、安装完成,reboot重启
9、forward(向前)
做相应的设置就可以进入系统
二、设置IP地址,网关,DNS
约定:
第一块网卡为外网
第二块网卡为内网(没有外网的机器也要将内网配置在第二块网卡上)
说明:CentOS6.5默认安装好之后是没有自动开启网络连接的
以root的身份登录系统
=================================================
#编辑配置文件,添加修改一下内容
vi /etc/sysconfig/network-scripts/ifcfg-eth0
BOOTPROTO=static #启用静态IP地址
ONBOOT=yes #开启自动启用网络连接
IPADDR=192.168.79.101 #设置IP地址
NETMASK=255.255.255.0 #设置子网源码
GATEWAY=192.168.79.100 #设置网关
DNS1=8.8.8.8 #设置主DNS
DNS2=8.8.4.4 #设置备DNS
IPV6INIT=no #禁止IPV6
:wq #保存并退出
==================================================
service ip6tables stop #停止IPV6服务
chkconfig ip6tables off #禁止IPV6开机启动
service yum-updatesd stop #关闭系统自动更新
chkconfig yum-updatesd off #禁止开机启动
service network restart #重启网络连接
ifconfig #查看IP地址
.关闭防火墙自动运行
chkconfig --list 查看所有服务开机后是否自动启动(off or on)--在几种开机模式下的状态
chkconfig --list | grop 服务名(iptables) 查看此服务在几种开机模式下是否自动启动
(6种开机模式)
chkconifg iptables off 关闭自动启动功能
验证:chkconfig --list | grop 服务名(iptables)
三、设置主机名
约定:
主机名命名规范:业务.机房.主备.域名(为了测试方便,下面命不遵守)
1、hostname hadoop 主机名改为hadoop,这里重启机器后就失效了.
2、vi /etc/sysconfig/network
HOSTNAME=hadoop
:wq 保存并退出(shift+zz)
3、修改hosts文件
vi /etc/hosts
192.168.79.101 hadoop
4、shutdown -r now #关闭系统
四、修改启动级别3
vi /etc/inittab
五、设置ssh免密码登录
SSH协议是IETF(Internet Engineering Task Force)的Network Working Group所制定的一
种协议。SSH的主要目的是用来取代传统的telnet和R系列命令(rlogin,rsh,rexec等)远程登
陆和远程执行命令的工具,实现对远程登陆和远程执行命令加密。防止由于网络监听而出现的
密码泄漏,对系统构成威胁。
<1> 执行命令 ssh-keygen -t rsa(加密算法) 产生秘钥,位于~/.ssh文件夹中
验证:ls
id_rsa,id_rsa.pub 文件
more id_rsa.pub 查看文件内容
<2> 执行命令cp ~/.ssh/id_rsa.pub ~/.ssh/authorized_keys 拷贝文件到一个新的文件中
验证:ssh localhost 与连接ssh(免密码)
[root@hadoop .ssh]# ssh localhost
The authenticity of host 'localhost (::1)' can't be established.
RSA key fingerprint is 07:07:8e:1c:c0:7e:7f:1f:ca:6a:e6:d3:cb:7f:b7:a1.
Are you sure you want to continue connecting (yes/no)? yes
Warning: Permanently added 'localhost' (RSA) to the list of known hosts.
Last login: Sat May 31 16:18:52 2014 from 192.168.177.1
验证2: exit 退出 ssh 再次exit退出终端
[root@hadoop ~]# exit
logout
Connection to localhost closed.
六、为LVM中的某个分区增加容量
vgs
[root@hadoop ~]# df -h //查看分区情况
Filesystem Size Used Avail Use% Mounted on
/dev/mapper/vg0-l_root 4.0G 3.2G 567M 86% /
tmpfs 495M 0 495M 0% /dev/shm
/dev/sda1 1008M 58M 900M 6% /boot
/dev/mapper/vg0-l_home 2.0G 68M 1.9G 4% /home
/dev/mapper/vg0-l_test 1008M 34M 924M 4% /test
[root@hadoop ~]# lvextend -L +500 /dev/vg0/l_test -->为l_test扩容,扩容之后依然没有变化
[root@hadoop ~]# df -h
/dev/mapper/vg0-l_test 1008M 34M 924M 4% /test
[root@hadoop ~]# e2fsck -f /dev/vg0/l_test //检测扩容
[root@hadoop ~]# resize2fs /dev/vg0/l_test //扩容生效
resize2fs 1.41.12 (17-May-2010)
Filesystem at /dev/vg0/l_test is mounted on /test; on-line resizing required
old desc_blocks = 1, new_desc_blocks = 1
Performing an on-line resize of /dev/vg0/l_test to 393216 (4k) blocks.
The filesystem on /dev/vg0/l_test is now 393216 blocks long.
[root@hadoop ~]# df -h
/dev/mapper/vg0-l_test 1.5G 34M 1.4G 3% /test //变成了1.5G
七、安装完成之后,再添加一块5G的硬盘
vgs-->查询vg的分区
df -h-->查询分区的大小
lvs 查询LVM分区的信息
fdisk -l 查看硬盘分区
[root@hadoop ~]# fdisk -l
Disk /dev/sda: 10.7 GB, 10737418240 bytes //已经使用分配好的硬盘
Disk /dev/sdb: 5368 MB, 5368709120 bytes //进加入的5G
/web --->2.5G(新建)
设置为free的分区,在需要的时候增加--->2.5G
步骤:
(1)通过fdisk进行硬盘的分区
fdisk -l
fdisk /dev/sdb
m -->查看帮助
p -->查看分区情况
n -->添加分区
选择e(创建扩展分区)
1 --->第一个分区,所有的都为扩展分区
n -->在扩展分区的基础上再添加分区
l -->逻辑分区
1 --全部建成一个分区
p -->查看分区情况
/dev/sdb1
/dev/sdb5 //新添加的分区从sdb5开始,应为之前就已经有4个了
修改分区类型
t-->修改type
5-->修改第5分区的类型
l-->查看Linux LVM类型代号,8e
p-->查看到dsb5的Id项为8e
w-->保存退出
fdisk -l 查看进加入的分区
(2)将这些分区扩展到vg0
[root@hadoop ~]# vgextend vg0 /dev/sdb5
(3)创建一个新的lv
pvcreate /dev/sdb5 //创建pv
vgextend vg0 /dev/sdb5 //创建扩展分区
lvcreate -L +1500M -nlv04 /dev/vg0 //创建一个lv04,并且增加容量从/dev/vg0中取
lvs 查看lv的分配情况
LV VG Attr LSize Pool Origin Data% Move Log Cpy%Sync Convert
l_home vg0 -wi-ao---- 2.00g
l_root vg0 -wi-ao---- 4.00g
l_test vg0 -wi-ao---- 1.50g
lv04 vg0 -wi-a----- 1.47g //新增加的一个LVM分区
(4)格式化该lv
mkfs -t ext4 /dev/vg0/lv04
(5)创建/web,并且将新建的lv挂载到/web中
mkdir /web
mount /dev/vg0/lv04 /web --->挂载分区,但是挂载之后再重新启动之后不会自动挂载
[root@hadoop web]# df -h
Filesystem Size Used Avail Use% Mounted on
/dev/mapper/vg0-l_root 4.0G 3.2G 566M 86% /
tmpfs 495M 0 495M 0% /dev/shm
/dev/sda1 1008M 58M 900M 6% /boot
/dev/mapper/vg0-l_home 2.0G 68M 1.9G 4% /home
/dev/mapper/vg0-l_test 1.5G 34M 1.4G 3% /test
/dev/mapper/vg0-lv04 1.5G 35M 1.4G 3% /web //挂在进来(扩容)
**重启后就失效了需要重新挂在***
vi /etc/fstab-->在这个文件中进行挂载,重启之后不会失效
(yy复制当前行,p粘贴到下一行)
/dev/mapper/vg0-l_test /test ext4 defaults 1 2
增加这一行,每次都会自动检测挂在
/dev/mapper/vg0-lv04 /web ext4 defaults 1 2
(6)[root@hadoop web]# mount -all 全部重新加载
(7)扩容2G到根目录
[root@hadoop web]# lvextend -L +2000M /dev/vg0/l_root //扩容
Rounding size to boundary between physical extents: 1.97 GiB
Extending logical volume l_root to 5.97 GiB
Logical volume l_root successfully resized
[root@hadoop web]# e2fsck -f /dev/vg0/l_root //检测分区节点是否正常
[root@hadoop web]# resize2fs /dev/vg0/l_root //让扩容生效
resize2fs 1.41.12 (17-May-2010)
Filesystem at /dev/vg0/l_root is mounted on /; on-line resizing required
old desc_blocks = 1, new_desc_blocks = 1
Performing an on-line resize of /dev/vg0/l_root to 1564672 (4k) blocks.
The filesystem on /dev/vg0/l_root is now 1564672 blocks long.
(8)完成新硬盘扩容,剩下的在需要是在加进来
[root@hadoop web]# vgs(查看vg使用情况)
VG #PV #LV #SN Attr VSize(已用空间) VFree(空余空间)
vg0 2 4 0 wz--n- 12.94g 2.00g
[root@hadoop web]# lvs(查看LVM分区信息)
LV VG Attr LSize Pool Origin Data% Move Log Cpy%Sync Convert
l_home vg0 -wi-ao---- 2.00g
l_root vg0 -wi-ao---- 5.97g //原来安装时候4G,后面新增了2000M
l_test vg0 -wi-ao---- 1.50g //测试分区原来为1G,后面增加了500M
lv04 vg0 -wi-ao---- 1.47g //扩展LVM分区
- Linux6.5基于LVM的安装
- 在虚拟机上基于Redhat Linux6.5的oracle 12c安装过程
- linux6.5 安装mongodb
- linux6.5 redhat 安装centos 免注册的yum 源
- 11g Oracle Rac安装(基于linux6)可能出现的问题
- Linux6安装
- 基于raid和lvm的gentoo安装笔记(一)
- 11g Oracle Rac安装(基于linux6)
- Linux6.5+asm+oracle11gR2安装参考
- linux6.5下安装zooKeeper集群
- linux6.5下安装kafka集群
- Linux6.5下redis-3.2.9安装
- Mysql : Mysql5.6 Linux6.5安装
- 搭建基于Linux6.3+Nginx1.2+PHP5+MySQL5.5的Web服务器全过程(参考)
- 创建基于LVM的XEN
- 基于LVM的磁盘管理
- 图文详解Oracle10g在RedHat Linux6.5_x64上的安装
- linux6安装hadoop
- mini-XML 中文文档
- 深入浅出Hadoop Mahout数据挖掘实战视频教程
- onvif开发之设备发现功能的实现
- ALSA声卡驱动中的DAPM详解之一:kcontrol
- Linux内核编译和替换
- Linux6.5基于LVM的安装
- cloudSim部署
- Windows访问远程共享文件夹
- Onvif开发之Linux下gsoap的使用及移植
- 常用查找论文的方法
- Ctrl热键意外触发的问题
- AtomicInteger
- 当回车关联查询按钮时,如何解决页面重新刷新的问题!
- ALSA声卡驱动中的DAPM详解之二:widget-具备路径和电源管理信息的kcontrol