经验与技巧:SUN系统维护命令大全
发表于:2007-07-04来源:作者:点击数:
标签:
1、查看机型:SUn的小型机的机型都在面板上写着有,如NETRA T 1125, 还有比如utra 5,utra 10等等。 2、查看cpu个数 (错误,不正确,因为sun中的top命令不能完全看到所有的cpu情况,与HP用法也不一样) #top CPU states: 99.3% idle, 0.1% user, 0.6% kernel,
1、查看机型:SUn的小型机的机型都在面板上写着有,如NETRA T 1125, 还有比如utra 5,utra 10等等。
2、查看cpu个数 (错误,不正确,因为sun中的top命令不能完全看到所有的cpu情况,与HP用法也不一样)
#top
CPU states: 99.3% idle, 0.1% user, 0.6% kernel, 0.0% iowait, 0.0% swap
表示只有一个cpu
正确方法:
用dmesg |grep cpu
便可以看到正确的 cpu个数了。
3、查看内存
#dmesg |grep mem
mem = 2097152K (0x80000000)
avail mem = 2087739392
4、查看磁盘的个数
#vxdisk list
DEVICE TYPE DISK GROUP STATUS
c0t0d0s2 sliced - - error
c0t0d0s7 simple c0t0d0s7 roo
tdg online
c1t0d0s2 sliced - - online
c1t1d0s2 sliced smpdg2 smpdg online
c1t2d0s2 sliced smpdbdg1 smpdbdg online
c2t0d0s2 sliced - - online
c2t1d0s2 sliced smpdg1 smpdg online
c2t2d0s2 sliced smpdbdg2 smpdbdg online
5、如何查看文件系统
#df -k
Filesystem kbytes used avail capacity Mounted on
/dev/dsk/c0t0d0s0 4032142 1050675 2941146 27% /
/proc 0 0 0 0% /proc
fd 0 0 0 0% /dev/fd
/dev/dsk/c0t0d0s6 7304977 29 7231899 1% /home
/dev/dsk/c0t0d0s5 4032142 402929 3588892 11% /opt
swap 3418392 32 3418360 1% /tmp
/vol/dev/dsk/c0t6d0/informix
201730 201730 0 100% /cdrom/informix
/dev/vx/dsk/smpdg/smpdg-stat
1055 9 941 1% /smpwork
/dev/vx/dsk/smpdg/lv_smp
17336570 128079 17035126 1% /sms
6、查看卷组、逻辑卷的位置
#cd /dev/vx/dsk/
比如smpdg等等都在该目录下了,然后再进入某个卷组目录就可以看到该卷组下面的逻辑卷了。
7、如何创建卷组、逻辑卷、文件系统
A、创建smpdg逻辑卷组(假设现在是将c1t1d0 和c1t2d0两块物理磁盘来创建smcpdg逻辑卷组)
vxdisksetup -i c1t1d0 (格式化物理磁盘)
vxdisksetup -i c2t1d0
vxdg init smpdg smpdg1=c2t1d0 (将物理磁盘加入到逻辑卷组smpdg)
vxdg -g smpdg adddisk smpdg2=c1t1d0
然后再来创建逻辑卷、文件系统
vxassist -g smpdg -U fsgen make lv_smp 17200m layout=nolog smpdg1
vxassist -g smpdg mirror lv_smp layout=nostripe smpdg2
newfs -C -f /dev/vx/rdsk/smpdg/lv_smp
假设现在的一台机器上挂接到/sms
mkdir /sms
chown smp:smp /sms
vxvol -g smpdg startall
mount /dev/vx/dsk/smpdg/lv_smp /sms
umount /sms
vxvol -g smpdg stopall
vxdg deport smpdg
然后再在第二台机器上挂接到/sms
mkdir /sms
chown smp:smp /sms
vxdg import smpdg
vxvol -g smpdg startall
newfs -C -f /dev/vx/rdsk/smpdg/lv_smp
mount /dev/vx/dsk/smpdg/lv_smp /sms
umount /sms
备注:以上是创建一个共享的文件系统
往往由于smpdg要分配给某一个应用来使用,所以需要再来创建一个个逻辑机运行时挂接的文件系统:
vxassist -g smpdg -U fsgen make smpdg-stat 2m layout=nolog smpdg1
vxassist -g smpdg mirror smpdg-stat layout=nostripe smpdg2
newfs /dev/vx/rdsk/smpdg/smpdg-stat
B、创建smpdbdg逻辑卷组
创建卷组:
vxdisksetup -i c1t2d0
vxdisksetup -i c2t2d0
vxdg init smpdbdg smpdbdg1=c1t2d0
vxdg -g smpdbdg adddisk smpdbdg2=c2t2d0
vxassist -g smpdbdg -U fsgen make smpdbdg-stat 2m layout=nolog smpdbdg1
vxassist -g smpdbdg mirror smpdbdg-stat layout=nostripe smpdbdg2
newfs /dev/vx/rdsk/smpdbdg/smpdbdg-stat
创建逻辑卷:
vxassist -g smpdbdg -U gen make lv_rootdbs 128m layout=nolog smpdbdg1
vxassist -g smpdbdg mirror lv_rootdbs layout=nostripe smpdbdg2
vxassist -g smpdbdg -U gen make lv_logdbs 300m layout=nolog smpdbdg1
vxassist -g smpdbdg mirror lv_logdbs layout=nostripe smpdbdg2
vxassist -g smpdbdg -U gen make lv_phydbs 100m layout=nolog smpdbdg1
vxassist -g smpdbdg mirror lv_phydbs layout=nostripe smpdbdg2
vxassist -g smpdbdg -U gen make lv_tempdbs 1000m layout=nolog smpdbdg1
vxassist -g smpdbdg mirror lv_tempdbs layout=nostripe smpdbdg2
vxassist -g smpdbdg -U gen make lv_sv
clearcase/" target="_blank" >cchunk1 2000m layout=nolog smpdbdg1
vxassist -g smpdbdg mirror lv_svcchunk1 layout=nostripe smpdbdg2
vxassist -g smpdbdg -U gen make lv_svcchunk2 2000m layout=nolog smpdbdg1
vxassist -g smpdbdg mirror lv_svcchunk2 layout=nostripe smpdbdg2
vxassist -g smpdbdg -U gen make lv_svcchunk3 2000m layout=nolog smpdbdg1
vxassist -g smpdbdg mirror lv_svcchunk3 layout=nostripe smpdbdg2
vxassist -g smpdbdg -U gen make lv_recchunk1 2000m layout=nolog smpdbdg1
vxassist -g smpdbdg mirror lv_recchunk1 layout=nostripe smpdbdg2
vxassist -g smpdbdg -U gen make lv_recchunk2 2000m layout=nolog smpdbdg1
vxassist -g smpdbdg mirror lv_recchunk2 layout=nostripe smpdbdg2
vxassist -g smpdbdg -U gen make lv_recchunk3 2000m layout=nolog smpdbdg1
vxassist -g smpdbdg mirror lv_recchunk3 layout=nostripe smpdbdg2
vxassist -g smpdbdg -U gen make lv_recchunk4 2000m layout=nolog smpdbdg1
vxassist -g smpdbdg mirror lv_recchunk4 layout=nostripe smpdbdg2
vxassist -g smpdbdg -U gen make lv_recchunk5 1700m layout=nolog smpdbdg1
vxassist -g smpdbdg mirror lv_recchunk5 layout=nostripe smpdbdg2
C、附逻辑卷的属性
vxedit -g smpdg -v set user=smp group=smp lv_smp
vxedit -g smpdbdg -v set user=informix group=informix mode=660 lv_rootdbs
vxedit -g smpdbdg -v set user=informix group=informix mode=660 lv_logdbs
vxedit -g smpdbdg -v set user=informix group=informix mode=660 lv_phydbs
vxedit -g smpdbdg -v set user=informix group=informix mode=660 lv_tempdbs
vxedit -g smpdbdg -v set user=informix group=informix mode=660 lv_svcchunk1
vxedit -g smpdbdg -v set user=informix group=informix mode=660 lv_svcchunk2
vxedit -g smpdbdg -v set user=informix group=informix mode=660 lv_svcchunk3
vxedit -g smpdbdg -v set user=informix group=informix mode=660 lv_recchunk1
vxedit -g smpdbdg -v set user=informix group=informix mode=660 lv_recchunk2
vxedit -g smpdbdg -v set user=informix group=informix mode=660 lv_recchunk3
vxedit -g smpdbdg -v set user=informix group=informix mode=660 lv_recchunk4
vxedit -g smpdbdg -v set user=informix group=informix mode=660 lv_recchunk5
备注:在SUN的机器中在给逻辑卷付属性的时候,等于用chown、chmod来作。
8、如何删除卷组
其实也就是去激活和倒出的过程,然后再来对物理磁盘重新格式化就完了。
vxvol -g smpdbdg stopall
vxdg deport smpdbdg
vxdisksetup -i c1t0d0
vxdisksetup -i c2t1d0
......
这样做了之后就不会再有/dev/vx/smpdbdg目录了。
9、如何建立共享卷组
在第一台机器上先建立卷组,假设已经建设好卷组smpdg,现在要在第二台机器上建立共享卷组smpdg,则先在的一台机器上将smpdg去激活、并且倒出smpdg:
smcp01>vxvol -g smpdg stopall
smcp01>vxdg deport smpdg
再来在第二台机器上激活、导入smpdg:
smcp02>vxdg import smpdg
smcp02>vxvol -g smpdg startall
切换后对用以下三个命令进行查看是否切换成功:
vxdg list //用于查看逻辑卷组的信息
vxdisk list //用于查物理磁盘的信息
vxprint -vt //用于查看所有卷的信息
10、如何查看磁盘的大小
方法一:
#format
然后选择盘的代号,回车进入下一级菜单,再选inquiry,就得到该盘的大小信息,比如:
Vendor: FUJITSU
Product: MAN3184M SUN18G
Revision: 1502
注意:format是一个功能强大的磁盘诊断工具。
方法二:
#cd /opt/SUNWexplo/bin/
运行explorer得到磁盘的信息包,是一个目录,进入该目录,就发现有一个disks目录,进入该目录发现有一个diskinfo文件,用如下命令看各个磁盘
的大小:
0: rmt/0ln HP C1537A L706 62########
1: c0t0d0 FUJITSU MAJ3182M SUN18G 0804 0041P90050##
2: c1t0d0 SEAGATE ST318203LSUN18G 034A 0025H54125##
3: c1t1d0 SEAGATE ST318203LSUN18G 034A 0026H70087##
4: c1t2d0 FUJITSU MAJ3182M SUN18G 0804 0046P66422##
5: c2t0d0 SEAGATE ST318203LSUN18G 034A 0026G30220##
6: c2t1d0 SEAGATE ST318203LSUN18G 034A 0026H59041##
7: c2t2d0 FUJITSU MAJ3182M SUN18G 0804 0051P91980##
8: ses0 SYMBIOS D1000 2 O8# SAF-
9: ses1 SYMBIOS D1000 2 O8# SAF-
11、查看informix的版本
#su - informix
informix>onstat -
这样可以看到informix的版本。
12、收集信息的工具
#cd /opt/SUNWexplo/bin/explorer
#explorer
运行之后得到一个文件夹和该文件夹的压缩包*.gz。我们可以进入该结果文件夹,在该文件夹中有各种需要查看的信息。
13、双机的脚本文件
#cd /opt/SUNWcluster/ha/smpwork
在ha下面有双机应用的文件夹,如smpwork,在该文件夹下面又有各种双机应用的配置文件。
14、双机的维护命令集
首先在节点smcp01机上启动cluster:
# scadmin startcluster smcp01 smcp
然后在节点smcp02机上将本节点启动:
# scadmin startnode
启动后观察cluster状态的命令是 :
# hastat //该命令可以显示cluster、节点、
逻辑机和Data service的状态,以及一些历史运行信息。
# get_node_status //该命令可以显示所在节点的节点号、公用网卡的状态等信息。
从图形化的本地终端(假设其IP地址为ip)中以smcp用户的身份登
录到SMCP主机(注意应使用SMCP的逻辑机地址)
% telnet smcpwork
在SMCP主机上设置环境变量DISPLAY
% setenv DISPLAY ip:0.0
在本地终端中执行
% xhost +
手工启动OAM
% oam&
以OAM操作员登录
分别在两个节点smcp01机和smcp02机上执行:
# scadmin stopnode
该命令使当前所在节点停止在cluster中运行,而且在两个节点上要分别执行该命令。
例如将smcpwork切换到节点smcp02上运行可以输入:
#scadmin switch smcp smcp02 smcpwork
例如将querywork切换到节点smcp02上运行可以输入:
#haswitch smcp02 querywork
hareg命令通过以下开关参数将Data service注册和激活
-r 将指定的Data service注册到cluster中
-u 将指定的Data service从cluster中取消注册
-y 激活指定的Data service,使其状态为On
-Y 激活cluster中所有的Data service,使其状态为On
-n 去激活指定的Data service,使其状态为Off
-N 去激活cluster中所有的Data service,使其状态为Off
hareg不带任何参数时可以查看所有Data service的当前状态
Data service只有在注册到cluster中之后,才会具有On或者Off的状态,处于On状态的Data service可以正常的对外提供服务,而处于Off状态的Data service是停止对外服务的。如果Data service被取消了注册,必须重新注册才能在cluster中运行起来。当然,使用hareg命令的前提是cluster已经启动并正常运行。
从图形化的本地终端(假设其IP地址为ip0)中以root用户的身份登录到SMCP主机(假设其IP地址为ip1):
在本地终端中执行
% xhost +
% telnet ip1
再在SMCP主机上设置环境变量DISPLAY
# DISPLAY =ip1:0.0
# export DISPLAY
# vxva
15、激活/去激活/导出/导入卷组
smcp01>vxvol -g smpdg stopall
smcp01>vxdg deport smpdg
smcp02>vxdg import smpdg
smcp02>vxvol -g smpdg startall
16、SUN Netra T 1125双机配置的详细注解
A、网络资源的配置
SUN Netra T 1125 共有4 个网卡:hme0 ,hme1 ,hme2和hme3 。
hme0和hme1 是SUN
服务器与公网通信的主备用网卡,只需要一个IP 地址;
hme2和hme3 作为双机之间心跳检测用,也需要配置一个IP 地址。
另外,TELLIN SMP 对外使用的是一个浮动的IP 地址,与数据IP 在同一网段,此地址由SUN 的双机软件SUN Cluster进行管理。
1)如何修改IP地址和主机名
IP地址涉及的文件有:
/etc/hosts (change the IP address)
/etc/netmasks (if subnetting)
/etc/defaultrouter (to specify the new gateway for this subnet)
改变主机名涉及的文件有:
/etc/hosts (change to the new hostname)
/etc/nodename (change to the new hostname)
/etc/hostname.<interface> (where <interface> is the name of the primary
interface for this system, i.e hostname.hme0 or hostname.le0.
Change to the new hostname.)
/etc/net/ticlts/hosts (change both columns to the new hostname)
/etc/net/ticots/hosts (change both coluums to the new hostname)
/etc/net/ticotsord/hosts (change both columns to the new hostname)
改完上述文件之后推荐重起一下机器。
2)如何配置hme0、hme1两块网卡的主备关系
只要给hme0配置地址就够了。
然后会再后面的双机配置中执行下面的命令建立逻辑机的时候会创建出这种关系来。
#scconf smcp -L smcpwork -n smcp01,smcp02 -g smcpdg -i hme0,hme0,smcpwork -m
3) 配置NAFO (Network Adapter Fail Over)
/opt/SUNWpnm/bin/pnmset <Enter>
以下显示相关信息
In the following, you will be prompted to do
configuration for network adapter failover
do you want to continue ... [y/n]: y <Enter>
How many NAFO backup groups on the host [1]:<Enter>
Enter backup group number [0]:<Enter>
Please enter all network adapters under nafo0
hme0 hme1 <Enter>
The following test will evaluate the correctness
of the customer NAFO configuration...
name duplication test passed
Check nafo0... < 20 seconds
hme0 is active
remote address = 129.9.168.101
test hme1 wait...
nafo0 test passed 本信息表明通过
测试 注意:
NAFO配置时对网线的要求较高,有时要做多次才能成功。
B、配置双机
双机配置的一般过程是,先启动双机系统,在一个节点上配置cluster和包,检查无误后,使配置生效,然后就可以进行相应操作。
注意:
使用双机前,需要检查 smcpdg,querydg 的状态。执行如下步骤:
(1) 在两个节点分别执行:
# vxdg list
应该只看到 rootdg ,不能看到 smcpdg 和 querydg。
(2) 如果上以步操作看到 smcpdg 或 querydg,需要检查IDS是否在运行(Online)。
如果在运行,先终止IDS运行,然后使用 vxdg deport 放弃对 Disk Group 的控制。
====================
双机配置的一般过程是,先启动双机系统,在一个节点上配置cluster和包,检查无误后,使配置生效,然后就可以进行相应操作。
注意:
使用双机前,需要检查 smcpdg, querydg 的状态。执行如下步骤:
在两个节点分别执行:
# vxdg list
应该只看到 rootdg ,不能看到 smcpdg 和 querydg。
如果上以步操作看到 smcpdg 或 querydg,需要检查IDS是否在运行(Online)。如果在运行,先终止IDS运行,然后使用 vxdg deport 放弃对 Disk Group 的控制。
对双机系统进行配置
在1号机运行#scadmin startcluster smcp01 smcp。
待1号机双机软件起来之后,在2号机运行#scadmin startnode,将其作为节点加入双机对双机系统上逻辑机的配置
逻辑机与应用程序对应,是双机系统管理应用程序的方式,每个逻辑机在双机系统上只对外提供一个IP地址。
================================================
(2)配置cluster
仅仅在一台主机上运行
#scconf iin -L scpwork -n smcp02,smcp01 -g scpdg -i hme0,hme0,scpwork -m
注意:
该命令格式为:
scconf <cluster name> -L <logical hostname> -n <node1 name>, <node2 name>
-g <disk group name> -i <node1公网网口1> <node2公网网口1> <logical hostname>
-m
其中<node1 name> <node2 name>的顺序决定了该逻辑机在node1 上是主用,在node2上是备用。
备注:这里的逻辑机的主机名对应的浮动IP地址必须要在/etc/hosts文件中配置。
在每台机器上都要建立管理文件系统
# scconf iin -F scpwork scpdg
注意:
该命令格式为:
scconf <cluster name> -F <logical hostname> <disk group name>
在 2 号机上运行配置逻辑主机querywork
#scconf iin -L smpwork -n smcp01,smcp02 -g smpdg -i hme0,hme0,smpwork -m
建立管理文件系统
# scconf iin -F querywork querydg
注册双机
hereg -u querywork
query.register
hereg -u smcpwork
smcp.register
C、配置应用程序
/etc/opt/SUNWcluster/conf目录
可以通过ccd.datatbase和smcp.cdb两个文件查看双机基本配置和cluster的信息,不要去手工改动这些文件,让系统去维护它们。
其中ccd.database有专门的守护进程维持该文件在两节点上的一致。
/opt/SUNWcluster/ha目录
该目录下包含了smcp和query两个子目录。smcp目录存放smcp部分的Data service相关的配置文件和执行脚本,其中smcp.config文件记录了smcpwork的基本配置,smcp.register用来注册smcpwork,其它的文件是启动、停止和监测smcpwork的运行脚本。
query目录存放query部分的Data service相关的配置文件和执行脚本,其中query.config文件记录querywork的基本配置,query.register用来注册querywork,其它文件是必需的运行脚本。 在把这两个Data service加入cluster时,必须分别通过hareg命令来进行注册,这些步骤已在安装时通过执行smcp.register和query.register完成。
备注:再conf目录下的文件ccd.database如果两台机器不一致的话,就会导致双机不能
正常的切换。
D、双机配置的检验
(1) 先在主机上运行#scadmin startcluster smcp01 smcp
(2) 等待主机双机软件运行起来后在备机上运行
#scadmin startnode
(3) 在两台主机运行df -k 及ifconfig -a检验是否有错,运行hastat查看HA状态,可看到hme0捆绑了smcp,query 应用的浮动IP:
hme0 .... 129.9.168.101
hme0:1 .... 129.9.168.120
hme0:2 .... 129.9.168.140
(4) 用haswitch命令进行切换实验,将逻辑主机smcpwork 由物理主机smcp01上切换到物理主机smcp02上。
# haswitch smcp02 smcpwork
要查看是否切换成功,则有以下方法:
在主机 smcp02上用df -k查看磁盘资源。如果显示信息有以下内容,则说明切换成功:
/dev/vx/dsk/smcpdg/smcpdg-stat
在主机 smcp02上用 ifconfig -a 查看 ip 地址,若逻辑主机smcpwork的IP地址129.9.169.120
此时已绑定在hme0网卡(即公网的主网卡)上,则说明切换成功。
(5) 将/opt/SUNWcluster/bin/xps_check覆盖该目录下的db_check
用get_node_status检验双机的状态
smcp02>get_node_status
sc: included in running cluster
node id: 1
membership: 0 1
interconnect0: selected
interconnect1: up
vm_type: vxvm
vm: up
db: up
17、SUN Netra T 1125头次安装的时候如何来设置Terminal Concentrator。
=====================================
在TELLIN SMP 的SUN Netra T1125 标准配置中,主机为不带显示卡和显示器的SUN 服务器,因此使用终端集线器将两台主机上控制台(Console)信号接出到监控台上显示。由于在Solaris没有启动前,无法对主机进行控制,必须先设置终端集线器。如果Terminal Concentrator
(简称TC)已经设置好,则可以不用重设。
下面给出终端集线器的配置步骤。终端集线器一经配置完成就无须每次开机后再次配置,以下的配置过程假设 TC 的IP 地址为 129.9.168.23,子网掩码为 255.255.255.0。
(1) 用一台Sun工作站,用RS232玆J45电缆连接主机的串口A和终端集线器的 端口1。
在工作站/etc/remote文件中加上:
a:dv=/dev/term/a:br 9600:el=^C^S^Q^U^D:ie=%$e=^D:el=^C^S^Q^U^D:ie=%$e=^D:
(2) 在ROOT用户下键入: tip a
(3) 正确连接终端集线器和公网
(4) 将终端集线器上电
(5) 按一下终端集线器的Test键,Test指示灯亮并进入测试模式。注意:应当在电源灯亮后立即按
Test键,不能等到其进入正常运行态,相当于计算机中按“DEL”进入设置状态。
完成测试后,正确的各指示灯状态如表2-2所示。
表2-2 终端集线器的指示灯
灯名 Power Unit Net Attn Load Active
颜色 Green Green Green Amber Green Green
状态 ON ON ON OFF OFF 慢闪
(6) 在SUN工作站上将出现monitor::提示符,使用addr命令配置TC的IP和子网屏蔽码
monitor:: addr <Enter>
输入IP: 129.9.168.23
输入子网屏蔽码: 255.255.255.0
(7) 退出tip应用程序
在monitor::提示符下:
monitor:: boot <Enter>
monitor:: ~.
( 关掉终端集线器电源并重新开机,若用PC机 能 telnet 上去,即验证了上述配置的正确性。此时对终端集线器的各端口进行配置:
telnet 129.9.168.23 <Enter>
Trying 129.9.168.23...
Connected to 129.9.168.23.
Escape character is '^]'.<Enter>
Enter Annex port name or number: cli <Enter>
annex: su <Enter>(切换到超级用户状态)
Password: 此处键入TC的IP地址
annex admin <Enter>
Annex administration
MICRO-XL-UX R7.0.1, 8 ports
admin : set port=1-8 type dial_in imask_7bits Y <Enter>
You may need to reset the appropriate port, Annex subsystem or
reboot the Annex for changes to take effect.
admin : set port=2-7 mode slave <Enter>
You may need to reset the appropriate port, Annex subsystem or
reboot the Annex for changes to take effect.
admin : quit <Enter>
annex boot <Enter>
bootfile: <Enter>
warning:
*** Annex (129.9.168.23) shutdown message from port v1 ***
Annex (129.9.168.23) going down IMMEDIATELY
Connection closed by foreign host.w
安装完毕,撤消1口的串口线。
以上操作过程中可键入“?”或“help"出现帮助,在当前工作站上,可用使用PC机的超级终端等程序对TC进行设置。
===================================
18、查看物理磁盘的信息
用一下命令查看物理磁盘是分配给哪个逻辑卷组。
#vxdisk list
DEVICE TYPE DISK GROUP STATUS
c0t0d0s2 sliced - - error
c0t0d0s7 simple c0t0d0s7 rootdg online
c0t8d0s2 sliced - - error
c1t1d0s2 sliced c1t1d0 smcpdg online
c1t2d0s2 sliced - - online
c1t3d0s2 sliced c1t3d0 smcpdg online
c1t4d0s2 sliced - - online
c1t6d0s2 sliced - - online
c2t1d0s2 sliced c2t1d0 smcpdg online
c2t2d0s2 sliced - - online
c2t3d0s2 sliced c2t3d0 smcpdg online
c2t4d0s2 sliced - - online
c2t6d0s2 sliced - - online
19、SUN的小型机的内核参数的修改/etc/system
set shmsys:shminfo_shmmax=268435456
set semsys:seminfo_semmni=4096
set semsys:seminfo_semmns=4096
set semsys:seminfo_semmnu=4096
set semsys:seminfo_semume=64
set semsys:seminfo_semmsl=100
set shmsys:shminfo_shmmin=100
set shmsys:shminfo_shmmni=100
set shmsys:shminfo_shmseg=100
20、SUN双机运行的日志
cluster日志记在 var/adm/messaage 中,如果cluster运行中出现故障,我们可以查看该文件以帮助定位问题。另外,注意观察控制台屏幕上的消息。
cluster运行时的错误和告警信息,包括定时监测的结果,通常会实时的显示到控制台上。
21、如何使用光驱
A、如何利用光驱启动或者安装
先在主机上同时按住stop和A键,即是:stop+A,这样进入OK命令环境;
再在OK状态下输入boot cdrom则可以进入光盘启动了。
B、如何读光驱的内容
将光盘塞入光驱中,会自动挂接的
df -k看看光盘挂接在哪个目录下面了,
然后进入该目录就可以访问到光盘中的内容了。
22、如何使用终端集线器对SUN双机进行console的功能访问
修改/etc/default/login文件
将CONSOLE=/dev/console一行修改为
CONSOLE=/dev/console
否则只能通过TC来登录主机,其它方式无法登录。
23、关闭主机的命令
#shutdown --
24、如何利用远程磁带机来备份文件
假设两台机器smcp01和smcp02,只有在第二台机器上才有磁带机,那么第一台机器要通过如下的方式来使用第二台机器的磁带机:
写:
#tar cvf - /tmp/yqx | rsh smcp02 dd of=/dev/rmt/0m
如果执行不成功则先设置:
#obs=20b (20个block)
读:
#rsh smcp02 dd if=/dev/rmt/0m | tar tvf -
如果执行不成功,就先设置:
#bs=20b
25、如何查看当前的网络子网、网络的掩码是多少
1)查看子网
#netstat -in
查看hme0对应的:
Name Mtu Net/Dest Address Ipkts Ierrs Opkts Oerrs Collis Queue
hme0 1500 172.0.8.0 172.0.8.68 3430395 0 1134355 0 0 0
可知子网就是172.0.8.0
2)查看掩码
查看/etc/netmasks就可以了
3)查看地址
#ifconfig -a
或者查看/etc/hostname.hme0
注意:有些机器上的网卡的物理名字是le0。
26、如何从cluster中删除一个逻辑机呢?
1)先将逻辑机上的应用进行去注册
hareg -n scpwork;
hareg -u scpwork;
2)再将应用从逻辑机上删除
scconf tellincluster(cluster名) -s -r scpserv(应用名) scpwork(逻辑机名)
3)最后将逻辑机从cluster中删除
方法一)用scinstall来选择菜单change/logic hosts/remove 来删除
方法二)直接用命令scconf iin -L scpwork -r
备注:用scinstall命令可以查看到所有的关于sun双机配置的信息。
27、sun的逻辑卷组、逻辑卷的创建总结步骤
SUN:Volumn manager 简称VM,在此环境下永久性修改smcpdg/querydg等磁盘卷组的用户属性及读写权限的时候,不能用chown和chmod来修改的,只能用vxedit来修改。
补充:
初始化物理磁盘:vxdisksetup -i c1t2d0
vxdisksetup -i c2t2d0
创建卷组: vxdg init smpdbdg smpdbdg1=c1t2d0
vxdg -g smpdbdg adddisk smpdbdg2=c2t2d0
创建卷组挂接的文件系统:
vxassist -g smpdbdg -U fsgen make smpdbdg-stat 2m layout=nolog smpdbdg1
vxassist -g smpdbdg mirror smpdbdg-stat layout=nostripe smpdbdg2
newfs /dev/vx/rdsk/smpdbdg/smpdbdg-stat
创建逻辑卷:
vxassist -g smpdbdg -U gen make lv_rootdbs 128m layout=nolog smpdbdg1
vxassist -g smpdbdg mirror lv_rootdbs layout=nostripe smpdbdg2
修改卷组权限:
vxedit -g smpdg -v set user=smp group=smp lv_smp
vxedit -g smpdbdg -v set user=informix group=informix mode=660 lv_rootdbs
查看卷组激活情况:vxdg list
导入卷组:vxdg import smcpdg
激活卷组:vxvol -g smcpdg start all
去激活卷组:vxvol -g smcpdg stop all
28、sun双机配置时关于自动启动双机的配置
为了保证SMCP双机在异常情况下可以在双机重新启动后自动拉起cluster,SUN机型:把双机系统的自启动脚本S99startcluster拷贝到系统的/etc/rc3.d目录下。此脚本包含下述内容,其中通常需要根据现场情况进行修改的项目有:
LOCALNODENAME、 REMOTENODENAME、 CLUSTERNAME
if [ $LOCALNODENAME = "smcp01" ]; then
REMOTENODENAME="smcp02"
# LOCALID=0
# REMOTEID=1
else
REMOTENODENAME="smcp01"
# LOCALID=1
# REMOTEID=0
fi
CLUSTERNAME=smcp-cluster
29、sun的总段上乱码的处理
当在终端窗口上进行输入字符的时候,出现了乱码的时候,这个时候有两种解决办法:
1)敲打del
2) Ctrl + <---BkSp(向左的删除键)
30、查看一个逻辑卷组下面有哪些物理磁盘
root@smp2 # vxdg list smpdbdg
Group: smpdbdg
dgid: 1035450560.1072.smp2
import-id: 0.1071
flags:
copies: nconfig=default nlog=default
config: seqno=0.1027 permlen=3447 free=3445 templen=2 loglen=522
config disk c1t0d0s2 copy 1 len=3447 state=clean online
log disk c1t0d0s2 copy 1 len=522
30、sun双机的维护命令
#scinstall
命令可以进行一系列的sun双机的维护,如:
Assuming a default cluster name of smp
Checking on installed package state
....................
============ Main Menu =================
1) Install/Upgrade - Install or Upgrade Server
Packages or Install Client Packages.
2) Remove - Remove Server or Client Packages.
3) Change - Modify cluster or data service configuration
4) Verify - Verify installed package sets.
5) List - List installed package sets.
6) Quit - Quit this program.
7) Help - The help screen for this menu.
Please choose one of the menu items: [7]:
31、如何删除逻辑卷
vxedit -g scpdbdg -fr rm 逻辑卷名
32、修改/etc/opt/SUNWcluster/conf/hanfs/vfstab.scpwork的文件系统
33、关于SUN小型机中创建用户注意
有时候创建好用户了之后,我们又会将它删除,正确的操作应该是userdel 用户名来删除。但是有时候可能会被工程师直接从/etc/passwd中删除,这个时候如果再来用useradd添加同名用户的时候,系统会提示添加失败,这个时候必须要注意将/etc/shadow文件中的该用户的配置行也要删除,删除以后让/etc/shadow文件和/etc/passwd文件中的用户保持一致,这样就又可以用useradd来添加了。
34、如何实现一个用户属于多个用户组呢?
35、查看swap空间
#swap -s
eg:
total: 76552k bytes allocated + 17184k reserved = 93736k used, 296608k available
原文转自:http://www.ltesting.net