GFS6.1 ON RHAS4 U2安装文档

发表于:2007-05-26来源:作者:点击数: 标签:
初步完成了gfs6.1onrhas4u2上实验,还有很多疑问,在此把安装文档贴出来,感谢 linux forum版主happyjoy的帮忙,希望大家多交流 GFS6.1ONRHAS4U2 一、所需安装包如下: ccs-1.0.2-0.i686.rpm ccs-devel-1.0.2-0.i686.rpm cman-1.0.2-0.i686.rpm cman-devel-1
初步完成了gfs6.1on rhas4u2上实验,还有很多疑问,在此把安装文档贴出来,感谢linuxforum版主happyjoy 的帮忙 ,希望大家多交流
GFS6.1 ON RHAS4 U2 
一、 所需安装包如下: 
clearcase/" target="_blank" >ccs-1.0.2-0.i686.rpm 
ccs-devel-1.0.2-0.i686.rpm 
cman-1.0.2-0.i686.rpm 
cman-devel-1.0.2-0.i686.rpm 
cman-kernel-smp-2.6.9-39.8.i686.rpm 
cman-kernheaders-2.6.9-39.8.i686.rpm 
dlm-1.0.0-5.i686.rpm 
dlm-devel-1.0.0-5.i686.rpm 
dlm-kernel-smp-2.6.9-37.9.i686.rpm 
dlm-kernheaders-2.6.9-37.9.i686.rpm 
fence-1.32.6-0.i686.rpm 
GFS-6.1.2-0.i386.rpm 
GFS-kernel-smp-2.6.9-42.2.i686.rpm 
GFS-kernheaders-2.6.9-42.2.i686.rpm 
gnbd-1.0.1-1.i686.rpm 
gnbd-kernel-smp-2.6.9-9.14.i686.rpm 
gnbd-kernheaders-2.6.9-9.14.i686.rpm 
gnome-python2-2.6.0-3.i386.rpm 
gnome-python2-bonobo-2.6.0-3.i386.rpm 
gnome-python2-canvas-2.6.0-3.i386.rpm 
gulm-1.0.4-0.i686.rpm 
iddev-2.0.0-3.i686.rpm 
iddev-devel-2.0.0-3.i686.rpm 
kernel-smp-2.6.9-22.0.1.EL.i686.rpm 
kernel-smp-devel-2.6.9-22.0.1.EL.i686.rpm 
lvm2-cluster-2.01.14-1.0.RHEL4.i386.rpm 
magma-1.0.1-4.i686.rpm 
magma-devel-1.0.1-4.i686.rpm 
magma-plugins-1.0.2-0.i386.rpm 
perl-Net-Te.net-3.03-3.noarch.rpm 
piranha-0.8.1-1.i386.rpm 
pyorbit-2.0.1-1.i386.rpm 
rgmanager-1.9.39-0.i386.rpm 
system-config-cluster-1.0.16-1.0.noarch.rpm 
二、 集群结构和环境 
系统为rhas4 update2,要安装新内核kernel-smp-2.6.9-22.0.1.EL.i686.rpm,结构如下: 
拓扑结构: 
主机名 扮演角色 
one Gfs Client1 
tow Gfs client2 
Gnbd GNBD server 
拓扑图: 


GFS client (one) GFS client(tow) 

swith 

GNBD SERVER(gnbd) 

storge(sda1) 
三、 配置 
1、 在每个pc上都将各自的主机名都列在/etc/hosts中 
2、 给gnbd server 划分出sda1分区作为gfs分区 
3、 在每台pc上安装新内核,使用新内核进入系统,再将其他安装包安装 
4、 在one的/etc/cluster/上建立集群配置文件cluster.conf,具体内容如下: 
<?xml version="1.0"?> 
<cluster name="cluster1" config_version="1"> 

<cman two_node="1" expected_votes="1"> 
</cman> 

<clusternodes> 
<clusternode name="one" votes="1"> 
<fence> 
<method name="single"> 
<device name="human" ipaddr="192.168.1.1"/> 
</method> 
</fence> 
</clusternode> 
<clusternode name="tow" votes="1"> 
<fence> 
<method name="single"> 
<device name="human" ipaddr="192.168.1.2"/> 
</method> 
</fence> 
</clusternode> 
</clusternodes> 

<fence_devices> 
<fence_device name="human" agent="fence_manual"/> 
</fence_devices> 

</cluster> 
5、 在one和tow上启动dlm,ccsd,fence等服务 
在两个节点上加载dlm模块 
root@one # modprobe lock_dlm 
root@tow # modprobe lock_dlm 
启动ccsd服务 
root@one # ccsd 
root@tow # ccsd 
测试ccsd服务 
root@one # ccs_test connect 应该返回 
Connect successful. Connection descriptor = 1 }}} 
在两个节点上启动集群管理器(cman) 
root@one # /sbin/cman_tool join 
root@tow # /sbin/cman_tool join 
查看状态,cat /proc/cluster/nodes,应该返回 
Node Votes Exp Sts Name 
1 1 1 M one 
2 1 1 M tow 
加入fence域: 
root@one # /sbin/fence_tool join 
root@tow # /sbin/fence_tool join 
6、 启动集群LVM进程(CLVM) 
root@one # /sbin/clvmd 
root@tow # /sbin/clvmd 
激活LVM卷 
root@one # vgchange -aly 
root@tow # vgchange -aly 
7、 查看集群状态 
Cat /proc/cluster/status 
Version: 2.0.1 
Config version: 1 
Cluster name: cluster1 
Cluster ID: 26777 
Membership state: Cluster-Member 
Nodes: 2 
Expected_votes: 1 
Total_votes: 2 
Quorum: 1 
Active subsystems: 3 
Node addresses: 192.168.1.1 
8、 在gnbd server export设备 
启动gnbd_serv进程 
root@gnbd # /sbin/gnbd_serv –v –n 
导出设备 
root@gnbd # gnbd_export -v -e gfs -d /dev/sda1 –c 
查看export状态信息 
root@gnbd # gnbd_export -v -l 

Server[1] : gfs 
-------------------------- 
file : /dev/sda1 
sectors : 23789568 
readonly : no 
cached : no 
timeout : 60 
9、 在one、tow两个节点导入设备 
在两个节点加入gnbd模块 
root@one # modprobe gnbd 
root@tow # modprobe gnbd 
导入设备 
root@one # gnbd_import -v -i gnbd 
root@tow # gnbd_import -v -i gnbd 
查看导入状态信息 
root@tow # gnbd_import -v -l 

Device name : gfs 
---------------------- 
Minor # : 0 
Proc name : /dev/gnbd0 
Server : srv1 
Port : 14567 
State : Open Connected Clear 
Readonly : No 
Sectors : 23789568 
10、 建立gfs文件系统并且挂载 
在两个节点加载gfs模块 
root@one # modprobe gfs 
root@tow # modprobe gfs 
在one上建立gfs文件系统 
root@one # gfs_mkfs -p lock_dlm -t cluster1:gfs -j 2 /dev/gnbd/gfs 
在两个节点挂载文件系统 
root@one # mount -t gfs /dev/gnbd/gfs /gfs 
root@tow # mount -t gfs /dev/gnbd/gfs /gfs 
注:要在one挂载文件完全完成后,再在tow上进行mount

原文转自:http://www.ltesting.net