Dell R720服务器支持安装linux操作系统的版本及fdisk分区命令

现有一台Dell R720服务器,需要安装redhat linux操作系统,使用linux as5.6光盘安装时发现识别不到raid卡,一般Dell R720服务器采用的raid卡型号为PERC H310或者H710。

使用随机带的7.2版本的引导盘引导发现,只支持引导redhat linux as5.8和redhat linux as6.3操作系统,使用as6.3光盘可以直接安装并能识别安装网卡在内的所有Dell R720服务器的设备的驱动。

安装好操作系统后,还有1.5T左右的空间需要挂载。使用以下命令挂载:

root#fdisk -l
root#fdisk /dev/sdb
Command (m for help):n
Command action
l logical (5 or over)
p primary partition (1-4)
p

First cylinder (1-xxxxxxxx, default 1):(回车)
Using default value 1
Last cylinder or +size or +sizeM or +sizeK (1-xxxxxxxx, default xxxxxxxx):(回车)
Command (m for help):w

至此,已经新建分区完成,再做格式化操作,命令如下:
root#mkfs.ext4 /dev/sdb -F

格式化后,再挂载,命令如下:

root#mkdir -p /mnt/sdb
root#mount /dev/sdb /mnt/sdb

挂载后使用df -h就可以看到了。

附:DELL R720服务器支持的Redhat Linux版本DELL R720服务器支持的SUSE Linux版本DELL R720服务器支持的Ubuntu Linux版本DELL阵列卡采用的芯片组的名称及芯片组驱动程序下载地址

linux as6中激活网卡服务失败的解决方法

随着Intel CPU的不断更新换代,各个厂家的X86服务器也在更新换代,相应的操作系统也在更新换代,不知不觉,redhat linux已经推出了as6版本了,有细心的朋友可能发现安装好系统后,默认使用service  network restart激活网卡会报错,这是因为as6中出现了NetworkManager服务,该服务默认已经启动,所以首先必须关闭该服务。我们使用以下命令:

chkconfig NetworkManager off
chkconfig network on
service NetworkManager stop
service network start

熟悉的service network start又可以使用了。

美国主机IX不再免费赠送多个独立域名了吗?

IXwebhosting在全球有很多用户,他们提供的几种主机方案,专家套餐、无限专业套餐、商务套餐都会赠送数个独立IP,对于IP地址(IPV4地址)较为稀缺的今天,这显得非常厚道!

但是今天打开IX网站,发现之前免费赠送的数个独立IP,目前只有一个是免费的,其余的都需要付费才可以使用,但是在IX中文网站,仍然没有这个改变,也许美国主机商IX真的不会再免费赠送多个独立域名了。

PCI-E发展历程及常见插槽速度对比

PCI-E发展历程

常用的PCI总线带宽为133MB/S,于1992年诞生。接着因为在服务器领域传输要求于是Intel把总线位数提高到64,这样又出现了2种PCI总线,分别为64bit/33Mhz和64bit/66Mhz,带宽分别为266Mbps和533Mbps。
稍后在显卡领域,Intel单独开发出了AGP,32bit,66Mhz,这样带宽为266Mbps,再加上后来AGP2.0的2X和4X标准,最高4X的带宽高达1Gbps,但是确切的说AGP不是真正的总线,因为AGP只能连接一个设备-显卡。

同时服务器领域,几家厂商联合制定了PCI-X,64bit133Mhz版本的PCI,带宽就为1Gbps,后来PCI-X 2.0,3.0又分别提升频率,经历过266Mhz,533Mhz,甚至1GMhz,这个带宽可以说是非常足够的了,不过这个时候PCI-X也面临一些问题:一方面是频率提高造成的并行信号串扰,另一方面是共享式总线造成的资源争用,总之也就是说虽然规格上去了,但实际效果可能跑不了这些指标。

于是,在2001年的英特尔春季IDF大会上,英特尔正式公布旨在取代PCI总线的第三代I/O技术,该规范由Intel 支持的AWG(Arapahoe Working Group)负责制定,并称之为第三代I/O总线技术(3rd Generation I/O,也就是3GIO),很明显英特尔的意思是它代表着下一代I/O接口标准。交由 PCI-SIG(PCI特殊兴趣组织)认证发布后才改名为“PCI-Express”。这个新标准将全面取代当时的PCI和AGP,最终实现总线标准的统一。它的主要优势就是数据传输速率高,目前最高可达到10GB/s以上,而且还有相当大的发展潜力。PCI Express也有多种规格,从PCI Express 1X到PCI Express 16X,能满足现在和将来一定时间内出现的低速设备和高速设备的需求。

PCI Express(以下简称PCI-E)采用了目前业内流行的点对点串行连接,比起PCI以及更早期的计算机总线的共享并行架构,每个设备都有自己的专用连 接,不需要向整个总线请求带宽,而且可以把数据传输率提高到一个很高的频率,达到PCI所不能提供的高带宽。相对于传统PCI总线在单一时间周期内只能实 现单向传输,PCI-E的双单工连接能提供更高的传输速率和质量,它们之间的差异跟半双工和全双工类似。

PCI-E的接口根据总线位宽不同而有所差异,包括X1、X4、X8以及X16,而X2模式将用于内部接口而非插槽模式。PCI-E规格从1条 通道连接到32条通道连接,有非常强的伸缩性,以满足不同系统设备对数据传输带宽不同的需求。此外,较短的PCI-E卡可以插入较长的PCI-E插槽中使 用,PCI-E接口还能够支持热拔插,这也是个不小的飞跃。PCI-E X1的250MB/秒传输速度已经可以满足主流声效芯片、网卡芯片和存储设 备对数据传输带宽的需求,但是远远无法满足图形芯片对数据传输带宽的需求。 因此,用于取代AGP接口的PCI-E接口位宽为X16,能够提供8GB/s的带宽,远远超过AGP 8X的2.1GB/s的带宽。

尽管PCI-E技术规格允许实现X1(250MB/秒),X2,X4,X8,X12,X16和X32通道规格,但是依目前形式来看,PCI-E X1和PCI-E X16已成为PCI-E主流规格,同时很多芯片组厂商在南桥芯片当中添加对PCI-E X1的支持,在北桥芯片当中添加对PCI-E X16的支持。除去提供极高数据传输带宽之外,PCI-E因为采用串行数据包方式传递数据,所以PCI-E接口每个针脚可以获得比传统I/O标准更多的带 宽,这样就可以降低PCI-E设备生产成本和体积。另外,PCI-E也支持高阶电源管理,支持热插拔,支持数据同步传输,为优先传输数据进行带宽优化。

各个版本的PCI-E的规范如下:

PCI-E 1.0规范:

PCI-E 1X(1.0标准)采用单向2.5G的波特率进行传输,由于每一字节为10位(1位起始位,8位数据位,1位结束位),所以传输速率为2.5G/10=250MB/S(250兆字节每秒),由此可以计算出来PCI-E 16X的单向传输速率为250MB/S*16=4GB/S,双向传输速率为8GB/S。

PCI-E 2.0规范:

PCI-E 1X(2.0标准)采用单向5G的波特率进行传输,由于每一字节为10位(1位起始位,8位数据位,1位结束位),所以单向传输速率为5G/10=500MB/S(500兆字节每秒),由此可以计算出来PCI-E 16X(2.0标准)的单向传输速率为500MB/S*16=8GB/S,双向传输速率为16GB/S,PCI-E 32X(2.0标准)的船速速率为32GB/S。

PCI-E 3.0规范:

PCI-E 1X(3.0标准)采用单向10G的波特率进行传输,由于每一字节为10位(1位起始位,8位数据位,1位结束位),所以单向传输速率为10G/10=1000MB /S(1000兆字节每秒),由此可以计算出来PCI-E 16X(3.0标准)的单向传输速率为1000MB/S*16=16GB/S,双向传输速率为32GB/S,PCI-E 32X(3.0标准)的双向传输速率高达64GB/S。

以下是各标准及不同的位宽下速度的对比:

标准/位宽

速度

PCIe 1.0 x1

500 MB/s

PCIe 2.0 x1

1000 MB/s

PCIe 3.0 x1

2000 MB/s

PCIe 1.0 x4

2000 MB/s

PCIe 2.0 x4

4000 MB/s

PCIe 3.0 x4

8000 MB/s

PCIe 1.0 x8

4000 MB/s

PCIe 2.0 x8

8000 MB/s

PCIe 3.0 x8

16000 MB/s

PCIe 1.0 x16

8000 MB/s

PCIe 2.0 x16

16000 MB/s

PCIe 3.0 x16

32000 MB/s

vmrun的简单用法

Power Commands Description Parameters
start

Starts a virtual machine (.vmx file) or team (.vmtm file).

The default gui option starts the machine interactively,

which is required to display a VMware user interface.

The nogui option suppresses the user interface,

including startup dialog box, to allow noninteractive

scripting.

<path to .vmx or .vmtm file>

[ gui | nogui ]

stop

Stops a virtual machine (.vmx file) or team (.vmtm file).

Use the soft parameter to power off the guest after

running shutdown scripts. Use the hard parameter to

power off the guest without running scripts, as if you

pressed the power button. The default is to use the

powerType specified in the .vmx file, if present.

<path to .vmx or .vmtm file>

[ hard | soft ]

reset

Resets a virtual machine (.vmx file) or team (.vmtm file).

Use the soft parameter to run shutdown scripts before

rebooting the guest. Use the hard parameter to reboot

the guest without running scripts, as if you pressed the

reset button. The default is to use the powerType

specified in the .vmx file, if present.

<path to .vmx or .vmtm file>

[ hard | soft ]

suspend

Suspends a virtual machine (.vmx file) or team (.vmtm)

without shutting down, so local work can resume later.

The soft parameter suspends the guest after running

system scripts. On Windows guests, these scripts release

the IP address. On Linux guests, the scripts suspend

networking. The hard parameter suspends the guest

without running the scripts. The default is to use the

powerType specified in the .vmx file, if present.

To resume virtual machine operation after suspend, use

the start command. On Windows, the IP address is

retrieved. On Linux, networking is restarted.

<path to .vmx or .vmtm file>

[ hard | soft ]

pause

Pauses a virtual machine (.vmx file). You can use this

either to pause replay, or to pause normal operation.

<path to .vmx file>
unpause

Resumes operation of a virtual machine (.vmx file) from

where you paused replay or normal operation.

<path to .vmx file>

 

使用vmrun轻松实现虚拟机开机启动

很多人都在使用vmware workstation版本来创建虚拟机,利用虚拟机来做实验显得非常轻松。并且很多人也希望实现开机后虚拟机能随物理机上的操作系统自动启动,在网络上搜索也能发现很多文章,大部分搜索到的文章都要使用微软提供的两个小工具:instsrv.exe和sryany.exe,使用这两个工具虽然可以实现,但是较为繁琐,而且vmware早就为我们提供了更好的工具——vmrun。

vmware workstation至少在6.5版本以后就加入了vmrun工具,使用vmrun可以轻松实现对虚拟机的操作,比如开机、关机、重启等,命令如下:

“D:\vmrun.exe” start “D:\Windows XP Professional.vmx”
这里vmrun位于D盘根目录,要启动的Windows XP Professional.vmx也位于D盘根目录,可按具体情况修改。

将这条命令加入到批处理中,并放在开始菜单的启动文件夹下,就可实现开机自动运行Windows XP Professional.vmx这个虚拟机了。

更多关于vmrun的信息,详见vmrun的简单用法一文。

RDIMM和UDIMM内存的区别

RDIMM

带寄存器的双信道内存模块(Registered Dual In-Lne Memory Modules)它表示控制器输出的地址和控制信号经过Register芯片寄存后输出到DRAM芯片,控制器输出的时钟信号经过PLL后到达各个DRAM芯片。比起UDIMM来由于有了寄存器,所以处理速度各方面性能都有不少提升,有2种工作模式,即 Registered模式(寄存器模式)和Buffered(缓冲器模式)模式。在支持Registered工作模式的主板上工作时,Registered内存工作于 Registered模式,这时主板上的地址信号和控制信号会比数据信号先一个时钟周期到达DIMM,送入Register芯片后会在其中停留一个时钟周期,然后在下一个时钟信号的上升沿从Register输出,与此时从主板上到达DIMM的数据信号一起同时传送到SDRAM。当Registered内存工作在普通的主板上时,为Buffered工作模式,这时所有的信号也基本上是同时到达DIMM再同时传,Register芯片这时在功能上只相当于一个简单的Buffer,其输入到输出之间是直通的,只简单的起到改善地址信号和控制信号的作用送到SDRAM,时序上与Unbuffered内存是一样的。 (一般用于服务器)适合不同的主板,并且RDIMM支持最高配置,不会受到内存插的数量限制。

UDIMM

全称是无缓冲双信道内存模块(Unbuffered Dual In-Lne Memory Modules)它不支持服务器内存满配,就是最高容量了,因为使用UDIMM内存时最大使用每通道只能用2个插槽,但支持3通道,所以只能每边插6条,一共12条内存,不能插满18个插槽,虽然性能会有所下降,但是对于预算比较有限的用户来说,是个很好的方案。

总结一下:

RDIMM支持两种工作模式,支持高性能的registered DIMM工作模式,可以达到内存容量的最高配,价格较高。

UDIMM只能工作在Unbuffered 模式,无法达到内存的最高配,性能不如RDIMM,但是价格相对较低。

部分服务器扩容内存支持内存的型号

现有一台浪潮英信NP3020M2服务器,需要扩两根8G内存,将8GB PC3-10600 1333MHz DDR3 Register ECC内存插入后,服务器启动不了,因为该主板较为低端,不支持该内存,支持的内存规格为8GB PC3-10600 1333MHz DDR3 Unbuffered ECC内存。

这里就有两种内存——RDIMM和UDIMM,关于RDIMM和UDIMM的区别详见:RDIMM和UDIMM内存的区别一文。

HP DL580 G5服务器开不了机,且CPU告警的处理办法

现有一台HP DL580 G5服务器,应用突然中断,网络也连接不上,去机房查看,发现该服务器宕机,重启服务器后,开机自检屏幕无显示,诊断板上的内部组件灯亮,且四个CPU的告警灯也亮。断电后过两分钟开机,故障依旧。

由于该服务器安装有四个CPU,且服务器只能在安装有一个、两个、四个CPU的情况下运行,所以将三号和四号的CPU、CPU电压模块VRM拆下,可正常开机,进入操作系统后,使用HP软件查看硬件日志,发现日志中只记录POST ERROR,并未有详细的故障记录,且为了尽快恢复应用,并未详细测试拆下的CPU和VRM,在使用一号和二号CPU时,该服务器运行正常。

附1、HP DL580 G5服务器的诊断板位于开关的下部,光驱的上部;
附2、CPU告警可能为CPU、VRM、主板等故障引起,也可能散热不好,再次将三号、四号CPU装上,服务器可能可以正常开机自检运行。