分类目录归档:服务器

CPU节能模式导致linux操作系统宕机的解决办法

有台HP DL380 G6服务器,安装有redhat linux as5.6 64位操作系统,安装好操作系统后,服务器有时出现宕机现象,每次重启后都恢复正常,经查看日志发现有CPU frequency相关的信息,根据该信息可以看出CPU不支持频率调整,需要设置“CPUFREQ_ENABLED=no”和“SUSPEND2RAM_FORCE=yes”的参数。

经过分析可以看出宕机现象是由服务器上CPU的节能模式引起,解决的办法就是在BIOS中关闭CPU的节能模式,或者修改cpufreq的配置参数:
#vi /etc/powersave/cpufreq
CPUFREQ_ENABLED=”no”
重启/etc/init.d/powersave即可。

cpufreq技术:

在cpufreq中内置了5种策略:performance、powersave、userspace、ondemand、conservation。默认采用ondemand策略,在该策略里每80个毫秒就采集一次cpu的使用率,同时假设前后两次cpu使用率是相同的。通过前一次的cpu使用率推出后一个cpu使用率,完了进行频率设置。所以就总的思想来说还不是很难理解。

变频技术是指CPU硬件本身支持在不同的频率下运行,系统在运行过程中可以根据随时可能发生变化的系统负载情况动态在这些不同的运行频率之间进行切换,从而达到对性能和功耗做到二者兼顾的目的。

虽然多个处理器生产厂家都提供了对变频技术的支持,但是其硬件实现和使用方法必然存在着细微甚至巨大的差别。这就使得每个处理器生产厂家都需要按照其特殊的硬件实现和使用方法向内核中添加代码,从而让自己产品中的变频技术在 Linux 中得到支持和使用。然而,这种内核开发模式所导致的后果是各个厂家的实现代码散落在 Linux 内核代码树的各个角落里,各种不同的实现之间没有任何代码是共享的,这给内核的维护以及将来添加对新的产品的支持都带来了巨大的开销,并直接导致了cpufreq 内核子系统的诞生。

管理策略:

Linux内部共有五种对频率的管理策略userspace,conservative,ondemand,powersave和 performance

1.performance :CPU会固定工作在其支持的最高运行频率上;

2.powersave :CPU会固定工作在其支持的最低运行频率上。因此这两种governors 都属于静态 governor ,即在使用它们时 CPU 的运行频率不会根据系统运行时负载的变化动态作出调整。这两种 governors 对应的是两种极端的应用场景,使用performance governor 体现的是对系统高性能的最大追求,而使用 powersave governor则是对系统低功耗的最大追求。

3.Userspace:最早的 cpufreq 子系统通过 userspace governor 为用户提供了这种灵活性。系统将变频策略的决策权交给了用户态应用程序,并提供了相应的接口供用户态应用程序调节 CPU 运行频率使用。 (可以使用Dominik 等人开发了 cpufrequtils工具包 )

4.ondemand :userspace是内核态的检测,效率低。而ondemand正是人们长期以来希望看到的一个完全在内核态下工作并且能够以更加细粒度的时间间隔对系统负载情况进行采样分析的 governor。当CPU有负载的时候选用最大的主频,当CPU空闲的时候一步步降低.

5.conservative : ondemand governor 的最初实现是在可选的频率范围内调低至下一个可用频率。即根据CPU使用情况进行升或降频,这种降频策略的主导思想是尽量减小对系统性能的负面影响,从而不会使得系统性能在短时间内迅速降低以影响用户体验。

但是在 ondemand governor 的这种最初实现版本在社区发布后,大量用户的使用结果表明这种担心实际上是多余的, ondemand governor 在降频时对于目标频率的选择完全可以更加激进。因此最新的 ondemand governor 在降频时会在所有可选频率中一次性选择出可以保证 CPU 工作在 80% 以上负荷的频率,当然如果没有任何一个可选频率满足要求的话则会选择 CPU 支持的最低运行频率。大量用户的测试结果表明这种新的算法可以在不影响系统性能的前提下做到更高效的节能。在算法改进后, ondemand governor 的名字并没有改变,而 ondemand governor 最初的实现也保存了下来,并且由于其算法的保守性而得名 conservative 。

Ondemand降频更加激进,conservative降频比较缓慢保守,事实使用ondemand的效果也是比较好的。和ondemand管理器不同的是,在CPU负载高的时候conservative 并不直接跳上最高的主频,而是采用步进的方式来升高主频。

DELL、HP、IBM X86服务器命名规则

各大服务器厂家对于自己的服务器命名都有一定的规则,通常会根据服务器的外观(如塔式、机架式、刀片等)、处理器(如Intel或者AMD等)、架构等信息来命名。本文主要介绍DELL、HP、IBM X86服务器的命名规则。

DELL服务器主要为X86架构服务器,包括机架式、塔式和刀片式服务器,对于DELL服务器第9代以前和第10代之后的服务器命名规则不同。
现以DELL R720来说明DELL X86服务器的命名规则,R代表机架式,T为塔式,M为刀片式,第一位7表示性能,数字越大越高端,3以下表示单路服务器,4到8表示双路服务器,9表示四路服务器,第二位2表示为DELL的第12代产品,第三位0表示采用Intel的CPU,如果是5则采用AMD的CPU。
第9代之前的命名规则,以DELL 2950服务器举例,第一位2表示性能,数字越大越高端,第二位表示服务器为第9代产品,第三位5表示机架式,如果是0则表示塔式,第四位0表示采用Intel的CPU,如果是5则表示采用AMD的CPU。

HP的X86服务器和DELL一样也包括塔式、机架式和刀片服务器,ML表示塔式,DL表示机架式,BL表示刀片。现以HP DL380 G7举例说明服务器命名规则,前两位表示性能,数字越大一般性能越强,第三位0表示采用Intel的CPU,如果是5则表示采用AMD的CPU,G7表示是HP的第7代产品。

对于IBM服务器,主要包括i系列、p系列、x系列、z系列。
i系列的服务器产品一直被大家命名为“小型机“,i系列服务器一般是中断产品,该系列产品用户主要是将众多的小型服务器合并到更少量的i系列产品中,i系列采用IBM POWER微处理器技术。
p系列也是基于POWER处理器的服务器,运行AIX(IBM版Unix)和Linux,p系列是IBM Unix服务器产品线的根基,有机架式和机柜式。
x系列全部基于X86架构处理器,也和DELL、HP一样包括塔式服务器、机架式服务器和刀片服务器。现以IBM X3850 X5服务器来说明命名规则,x3表明是x3架构下的服务器,第二位的8表明性能,数字越大表示性能越强,第三位的5表示机架式,如果是2或者3也表示机架式,如果第三位是0则表示塔式,如X3500服务器即为塔式服务器,第四位的0表示采用的是intel的CPU,5表示用的是AMD的CPU,最后的两位x5则是表示内存技术、内存扩展能力。
z系列为大型机,都为机柜式结构,该系列产品相当高端,是IBM的支柱产品。

SAS、NL-SAS、SATA硬盘的比较

When you buy a server or storage array these days, you often have the choice between three different kinds of hard drives: Serial Attached SCSI (SAS), Near Line SAS (NL-SAS) and Serial ATA (SATA). Yes, there are other kinds of drives, such as Fibre Channel, but I’m focusing this article on the SAS/SATA question. Further, even though solid-state disks (SSD) can have a SAS or SATA interface, I’m not focused here on SSDs. I’m focusing solely on the devices that spin really, really fast and on which most of the world’s data resides.

So, what is the real difference between SAS, NL-SAS and SATA disks? Well, to be cryptic, there are a lot of differences, but I think you’ll find some surprising similarities, too. With that, let’s dig in!

SAS
SAS disks have replaced older SCSI disks to become the standard in enterprise-grade storage. Of the three kinds of disks, they are the most reliable, maintain their performance under more difficult conditions, and perform much better than either NL-SAS or SATA disks.

In reliability, SAS disks are an order of magnitude safer than either NL-SAS or SATA disks. This metric is measured in bit error rate (BER), or how often bit errors may occur on the media. With SAS disks, the BER is generally 1 in 10^16 bits. Read differently, that means you may see one bit error out of every 10,000,000,000,000,000 (10 quadrillion) bits. By comparison, SATA disks have a BER of 1 in 10^15 (1,000,000,000,000,000 or 1 quadrillion). Although this does make it seem that SATA disks are pretty reliable, when it comes to absolute data protection, that factor of 10 can be a big deal.

SAS disks are also built to more exacting standards than other types of disks. SAS disks have a mean time between failure of 1.6 million hours compared to 1.2 million hours for SATA. Now, these are also big numbers – 1.2 million hours is about 136 years and 1.6 million hours is about 182 years. However, bear in mind that this is a mean. There will be outliers and that’s where SAS’s increased reliability makes it much more palatable.

SAS disks/controller pairs also have a multitude of additional commands that control the disks and that make SAS a more efficient choice than SATA. I’m not going to go into great detail about these commands, but will do so in a future article.

NL-SAS
NL-SAS is a relative newcomer to the storage game, but if you understand SATA and SAS, you already know everything you need to know about NL-SAS. You see, NL-SAS is basically a merging of a SATA disk with a SAS connector. From Wikipedia: “NL-SAS drives are enterprise SATA drives with a SAS interface, head, media, and rotational speed of traditional enterprise-class SATA drives with the fully capable SAS interface typical for classic SAS drives.”

There are two items of import in that sentence: “enterprise SATA drives” and “fully capable SAS interface”. In short, an NL-SAS disk is a bunch of spinning SATA platters with the native command set of SAS. While these disks will never perform as well as SAS thanks to their lower rotational rate, they do provide all of the enterprise features that come with SAS, including enterprise command queuing, concurrent data channels, and multiple host support.

Enterprise/tagged command queuing. Simultaneously coordinates multiple sets of storage instructions by reordering them at the storage controller level so that they’re delivered to the disk in an efficient way.
Concurrent data channels. SAS includes multiple full-duplex data channels, which provides for faster throughout of data.
Multiple host support. A single SAS disk can be controlled by multiple hosts without need of an expander.
However, on the reliability spectrum, don’t be fooled by the acronym “SAS” appearing in the product name. NL-SAS disks have the same reliability metrics as SATA disks – BER of 1 in 10^15 and MTBF of 1.2 million hours. So, if you’re thinking of buying NL-SAS disks because SAS disks have better reliability than SATA disks, rethink. If reliability is job #1, then NL-SAS is not your answer.

On the performance scale, NL-SAS won’t be much better than SATA, either. Given their SATA underpinning, NL-SAS disks rotate at speeds of 7200 RPM… the same as most SATA disks, although there are some SATA drives that operate at 10K RPM.

It seems like there’s not much benefit to the NL-SAS story. However, bear in mind that this is a SATA disk with a SAS interface and, with that interface comes a number of benefits, some of which I briefly mentioned earlier. These features allow manufacturers to significantly simplify their products.

SATA
Lowest on the spectrum is the SATA disk. Although it doesn’t perform as well as SAS and doesn’t have some of the enterprise benefits of NL-SAS, SATA disks remain a vital component in any organization’s storage system, particularly for common low-tier, mass storage needs.

When you’re buying SATA storage, your primary metric is more than likely to be cost per TB and that’s as it should be. SAS disks are designed for performance, which is why they’re available in 10K and 15K RPM speeds and provide significant IOPS per physical disk. With SAS, although space is important, the cost per IOPS is generally just as, if not more, important. This is why many organizations are willing to buy speedier SAS disks even though it means buying many more disks (than SATA or NL-SAS) to hit capacity needs.

Summary
At a high level, SAS and SATA are two sides of the storage coin and serve different needs — SAS for performance and SATA for capacity. Straddling the two is NL-SAS, which brings some SAS capability to SATA disks, but doesn’t bring the additional reliability found with SAS. NL-SAS helps manufacturers streamline production, and can help end users from a controller perspective, but they are not a replacement for SAS.

以上为英文版内容,大致总结如下:
SAS的优势在于性能,SATA的优势在于容量,NL-SAS介于两者之间。

HP MSA2040存储修改端口模式的方法

HP MSA2040存储可以使用iscsi接口,也可以使用fc接口,也可以二者混用。该存储A控制器IP地址为10.0.0.2,B控制器IP地址为10.0.0.3,默认用户名为manage,默认密码为!manage。可以通过web方式来配置存储,该存储接口模式都是fc模式,如果需要使用iscsi接口,则需要通过命令行的方式修改端口模式。

将本机IP地址设置为10.0.0.X网段,使用网线连接本机网卡和控制器管理口,使用putty等软件通过telnet方式登录控制器。

使用show host-parameters查看端口模式,使用set host-port-mode iSCSI命令将fc模式改为iscsi模式,修改后控制器需要重启,并且将会同步到另一个控制器上,同步过程中可能会导致控制器无法正常进入web界面管理,等同步完成即可正常配置使用存储。

从并行SCSI到串行SCSI

SCSI (Small Computer System Interface) 常常称为并行 SCSI,它的历史差不多有 30 年了,已经很难满足当今 IT 环境的需求。因此,开发了串行连接 SCSI (Serial Attached SCSI,SAS) 来克服 SCSI 固有的局限性。本文主要介绍这两种接口之间的差异,说明 SAS 的优点。

简介

SCSI (Small Computer System Interface) 是一组用于在计算机和外部设备之间进行物理连接和传输数据的标准。这些标准定义命令、协议、电子接口和光学接口。SCSI 通常用在硬盘和磁带设备上,但是也可以用于许多其他设备,比如扫描仪、CD 和 DVD 驱动器。

SCSI(常常称为并行 SCSI)基于总线技术。它的历史差不多有 30 年了,已经很难满足当今 IT 环境的需求。例如,它的最高数据传输速度只有 320 MB/sec (Ultra320 SCSI),而且在共享的总线上连接的设备越多,性能就越差。企业 IT 需求日益复杂,SCSI 越来越不能满足需要了。

开发 Serial Attached SCSI (SAS) 的目的是满足传统的并行 SCSI 无法满足的 I/O 和直接连接存储需求。它提供与 SCSI 的逻辑兼容性,同时提供优于 SCSI 的可靠性、性能和可管理性。与并行 SCSI 一样,SAS 是一种用于在硬盘和磁带驱动器等计算机存储设备之间传输数据的技术。但是,SCSI 是多支路的,而 SAS 是点对点协议,支持比并行 SCSI 高得多的数据传输速度。它使用标准的 SCSI 命令集与 SAS 端设备交互。

SAS 协议由 International Committee for Information Technology Standards (INCITS) 的 T10 技术委员会开发和维护。

组件

典型的 SAS 系统由以下四个基本组件组成:

  • 发起者(Initiator)
  • 目标 (Target)
  • 服务交付子系统 (Service Delivery Subsystem)
  • 扩展器 (Expander)

发起者向目标设备发送设备服务和任务管理请求,并从目标设备接收对请求的响应。发起者可以是主板上的组件或附加的主机总线适配器。

目标包含逻辑单元和目标端口。它接收并处理设备服务和任务管理请求,然后向发送这些请求的发起者返回响应。目标设备可以是硬盘或磁盘阵列系统。

服务交付系统 (SDS) 是 I/O 系统的一部分。它在发起者和目标之间来回传输信息。一般情况下,SDS 由连接发起者和目标的线缆组成,可能包含扩展器。

扩展器是 SDS 的组成部分。它们协助 SAS 设备之间的通信。它们还帮助把多个 SAS 设备连接到单一发起者端口。

 

并行 SCSI 与 SAS

下表说明 SAS 和 SCSI 接口之间的主要差异:

并行 SCSI 与 SAS

并行 SCSI SAS
体系结构 并行,所有设备都连接到共享的总线。 串行,点对点,单独的信号路径。使用端口扩展器1执行散布(fan-out)。
性能 最大速度 320 MB/sec (Ultra320 SCSI)。性能随着连接共享总线的设备增加而衰退。跨整个多支路总线分享速度。 3.0 GB/sec,计划增加到 12.0 GB/sec。即使增加更多设备,性能也维持不变。
可伸缩性 每条线缆上的设备数受到每条通道上 SCSI ID 数(8、16 或 32)的限制。 最多 128 个设备。通过使用散布扩展器,可支持 16,384 个设备。
兼容性 与其他所有驱动器接口都不兼容。 与串行 ATA (SATA) 兼容。
最大线缆长度 总长度 12 米。可以使用 SCSI 中继器突破此限制,但是中继器比较贵。 每个单独的连接 8 米;整个域可以布置数千英尺的线缆。
线缆形式因素 过多的线缆会增加成本。 紧凑的连接器和线缆可以节省空间和成本。
热插拔功能 未优化。应该谨慎。 支持。
设备标识 手工设置;用户必须确保总线上没有 ID 号冲突。 在生产设备时设置全世界范围内惟一的 ID,可以惟一地标识设备;不需要用户操作。
终结 手工设置;用户必须确保正确地安装终结器。 单独的信号路径使设备在默认情况下包含终结;不需要用户操作。

1端口扩展器本质上是具有强大的处理器的交换机。

结束语

从最终用户的角度来看,SAS 提供企业级的健壮性,能够保护对兼容的 SCSI 软件和应用程序的投资。另外,因为它与 SATA (Serial Advanced Technology Attachment) 兼容,SAS 允许在 SAS 系统中使用直接连接存储设备。因为它基于串行接口,所以 SAS 允许增加设备支持。

Dell服务器linux操作系统下RAID常用管理命令总结

Dell服务器常用管理命令总结
准备
新版本的 MegaCli-1.01.24-0.i386.rpm 会把程序安装在/opt下,可以自定义安装目录,例如:
rpm –relocate /opt/=/usr/sbin/ -i MegaCli-1.01.24-0.i386.rpm
即把安装目录 /opt 替换成 /usr/sbin。

下载地址:http://www.lsi.com/downloads/Public/MegaRAID%20Common%20Files/8.02.16_MegaCLI.zip ;
(linux文件夹下有个MegaCli文件里面有I386 RPM)
查看机器型号    # dmidecode | grep “Product”
查看厂商    # dmidecode| grep  “Manufacturer”
查看序列号    # dmidecode | grep  “Serial Number”
查看CPU信息    # dmidecode | grep  “CPU”
查看CPU个数    # dmidecode | grep  “Socket Designation: CPU” |wc –l
查看出厂日期    # dmidecode | grep “Date”
查看充电状态    # MegaCli -AdpBbuCmd -GetBbuStatus -aALL |grep “Charger Status”
显示BBU状态信息    # MegaCli -AdpBbuCmd -GetBbuStatus –aALL
显示BBU容量信息    # MegaCli -AdpBbuCmd -GetBbuCapacityInfo –aALL
显示BBU设计参数    # MegaCli -AdpBbuCmd -GetBbuDesignInfo –aALL
显示当前BBU属性    # MegaCli -AdpBbuCmd -GetBbuProperties –aALL
查看充电进度百分比    # MegaCli -AdpBbuCmd -GetBbuStatus -aALL |grep “Relative State of Charge”
查询Raid阵列数    # MegaCli -cfgdsply -aALL |grep “Number of DISK GROUPS:”
显示Raid卡型号,Raid设置,Disk相关信息      # MegaCli -cfgdsply –aALL
显示所有物理信息    # MegaCli -PDList -aALL
显示所有逻辑磁盘组信息    # MegaCli -LDInfo -LALL –aAll
查看物理磁盘重建进度(重要)    # MegaCli -PDRbld -ShowProg -PhysDrv [1:5] -a0
查看适配器个数    #MegaCli –adpCount
查看适配器时间    #MegaCli -AdpGetTime –aALL
显示所有适配器信息    #MegaCli -AdpAllInfo –aAll
查看Cache 策略设置    # MegaCli -cfgdsply -aALL |grep Polic
1、查看所有物理磁盘信息
MegaCli -PDList -aALL

Adapter #0

Enclosure Number: 1
Slot Number: 5
Device Id: 5
Sequence Number: 2
Media Error Count: 0
Other Error Count: 0
Predictive Failure Count: 0
Last Predictive Failure Event Seq Number: 0
Raw Size: 140014MB [0x11177328 Sectors]
Non Coerced Size: 139502MB [0x11077328 Sectors]
Coerced Size: 139392MB [0x11040000 Sectors]
Firmware state: Hotspare
SAS Address(0): 0x5000c50008e5cca9
SAS Address(1): 0x0
Inquiry Data: SEAGATE ST3146855SS     S5273LN4Y1X0
…..

2、查看磁盘缓存策略
MegaCli -LDGetProp -Cache -L0 -a0

Adapter 0-VD 0: Cache Policy:WriteBack, ReadAheadNone, Direct

or
MegaCli -LDGetProp -Cache -L1 -a0

Adapter 0-VD 1: Cache Policy:WriteBack, ReadAheadNone, Direct

or
MegaCli -LDGetProp -Cache -LALL -a0

Adapter 0-VD 0: Cache Policy:WriteBack, ReadAheadNone, Direct
Adapter 0-VD 1: Cache Policy:WriteBack, ReadAheadNone, Direct

or
MegaCli -LDGetProp -Cache -LALL -aALL

Adapter 0-VD 0: Cache Policy:WriteBack, ReadAheadNone, Direct
Adapter 0-VD 1: Cache Policy:WriteBack, ReadAheadNone, Direct

or
MegaCli -LDGetProp -DskCache -LALL -aALL

Adapter 0-VD 0: Disk Write Cache : Disk’s Default
Adapter 0-VD 1: Disk Write Cache : Disk’s Default

3、设置磁盘缓存策略
缓存策略解释:
WT    (Write through
WB    (Write back)
NORA  (No read ahead)
RA    (Read ahead)
ADRA  (Adaptive read ahead)
Cached
Direct

例子:
MegaCli -LDSetProp WT|WB|NORA|RA|ADRA -L0 -a0

or
MegaCli -LDSetProp -Cached|-Direct -L0 -a0

or
enable / disable disk cache
MegaCli -LDSetProp -EnDskCache|-DisDskCache -L0 -a0

4、创建/删除 阵列
4.1 创建一个 raid5 阵列,由物理盘 2,3,4 构成,该阵列的热备盘是物理盘 5
MegaCli -CfgLdAdd -r5 [1:2,1:3,1:4] WB Direct -Hsp[1:5] -a0

4.2 创建阵列,不指定热备
MegaCli -CfgLdAdd -r5 [1:2,1:3,1:4] WB Direct -a0

4.3 删除阵列
MegaCli -CfgLdDel -L1 -a0

4.4 在线添加磁盘
MegaCli -LDRecon -Start -r5 -Add -PhysDrv[1:4] -L1 -a0
意思是,重建逻辑磁盘组1,raid级别是5,添加物理磁盘号:1:4。重建完后,新添加的物理磁盘会自动处于重建(同步)状态,这个 时候 fdisk -l是看不到阵列的空间变大的,只有在系统重启后才能看见。
5、查看阵列初始化信息
5.1 阵列创建完后,会有一个初始化同步块的过程,可以看看其进度。
MegaCli -LDInit -ShowProg -LALL -aALL

或者以动态可视化文字界面显示
MegaCli -LDInit -ProgDsply -LALL -aALL

5.2 查看阵列后台初始化进度
MegaCli -LDBI -ShowProg -LALL -aALL

或者以动态可视化文字界面显示
MegaCli -LDBI -ProgDsply -LALL -aALL

6、创建全局热备
指定第 5 块盘作为全局热备
MegaCli -PDHSP -Set [-EnclAffinity] [-nonRevertible] -PhysDrv[1:5] -a0

也可以指定为某个阵列的专用热备
MegaCli -PDHSP -Set [-Dedicated [-Array1]] [-EnclAffinity] [-nonRevertible] -PhysDrv[1:5] -a0

7、删除全局热备
MegaCli -PDHSP -Rmv -PhysDrv[1:5] -a0

8、将某块物理盘下线/上线
MegaCli -PDOffline -PhysDrv [1:4] -a0

MegaCli -PDOnline -PhysDrv [1:4] -a0

9、查看物理磁盘重建进度
MegaCli -PDRbld -ShowProg -PhysDrv [1:5] -a0

USB接口供电标准

USB接口已广泛使用,但很少有人知道,USB接口在1994年就诞生了。

USB是在1994年底由英特尔、康柏、IBM、Microsoft等多家公司联合提出的。
从1994年11月11日发表了USB V0.7版本以后,USB版本经历了多年的发展,已经发展为3.1版本,成为二十一世纪电脑中的标准扩展接口。当前主板中主要是采用USB1.1和USB2.0,各USB版本间能很好的兼容。USB用一个4针(USB3.0标准为9针)插头作为标准插头,采用菊花链形式可以把所有的外设连接起来,最多可以连接 127个外部设备,并且不会损失带宽。USB需要主机硬件、操作系统和外设三个方面的支持才能工作。二十一世纪二十年代的主板一般都采用支持USB功能的控制芯片组,主板上也安装有USB接口插座,而且除了背板的插座之外,主板上还预留有USB插针,可以通过连线接到机箱前面作为前置USB接口以方便使用(注意,在接线时要仔细阅读主板说明书并按图连接,千万不可接错而使设备损坏)。而且USB接口还可以通过专门的USB连机线实现双机互连,并可以通过Hub扩展出更多的接口。USB具有传输速度快(USB1.1是12Mbps,USB2.0是480Mbps,USB3.0是5 Gbps),使用方便,支持热插拔,连接灵活,独立供电等优点,可以连接鼠标、键盘、打印机、扫描仪、摄像头、充电器、闪存盘、MP3机、手机、数码相机、移动硬盘、外置光软驱、USB网卡、ADSL Modem、Cable Modem等,几乎所有的外部设备。

理论上USB接口可用于连接多达127个外设,如鼠标、调制解调器和键盘等。USB自从1996年推出后,已成功替代串口和并口,并成为二十一世纪二十年代个人电脑和大量智能设备的必配的接口之一。

各版本相关参数如下:

USB版本 最大传输速率 速率称号 最大输出电流 推出时间
USB1.0 1.5Mbps(192KB/s) 低速(Low-Speed) 500mA 1996年1月
USB1.1 12Mbps(1.5MB/s) 全速(Full-Speed) 500mA 1998年9月
USB2.0 480Mbps(60MB/s) 高速(High-Speed) 500mA 2000年4月
USB3.0 5-10Gbps(640MB/s) 超速(Super-Speed) 900mA 2008年11月

华硕P9D-V主板的板载网卡英特尔I210AT千兆网卡在Windows 2008操作系统下的驱动

现有一台组装的服务器,使用华硕P9D-V主板,关于该主板的详细情况,见http://www.asus.com.cn/Commercial_Servers_Workstations/P9DV/一文。

现将该服务器安装windows 2008 64位操作系统,发现未能识别到网卡驱动,经查看,该主板上的网卡型号为英特尔 I210AT 千兆网卡,关于该网卡的资料如下:

端口数 每个端口
数据速率
温度
范围
系统接口 速度/
插槽宽度
封装尺寸
英特尔® 以太网控制器 I210-AT 单路 1 GbE 摄氏 0-70° PCIe* v2.1
(2.5 GT/秒)
2.5 GT/秒,
x1 通道
9 毫米 x 9 毫米
先进技术:通过 SMBus 或 NC-SI 的 IPMI 直通,SMBus 上的 MCTP 协议,PCIe 上的 MCTP 协议,WoL,PXE 远程引导,ISCSI 引导,VLAN 过滤
英特尔® 以太网控制器 I210-IT 单路 1 GbE 摄氏零下 40°– 零上 85° PCIe* v2.1
(2.5 GT/秒)
2.5 GT/秒,
x1 通道
9 毫米 x 9 毫米
先进技术:通过 SMBus 或 NC-SI 的 IPMI 直通,SMBus 上的 MCTP 协议,PCIe 上的 MCTP 协议,WoL,PXE 远程引导,ISCSI 引导,VLAN 过滤
英特尔® 以太网控制器 I210-IS 单路 1 GbE
SerDes/
SGMII
摄氏零下 40°– 零上 85° PCIe* v2.1
(2.5 GT/秒)
2.5 GT/秒,
x1 通道
9 毫米 x 9 毫米
先进技术:通过 SMBus 或 NC-SI 的 IPMI 直通,SMBus 上的 MCTP 协议,PCIe 上的 MCTP 协议,WoL,PXE 远程引导,VLAN 过滤
英特尔® 以太网控制器 I211-AT 单路 1 GbE 摄氏 0-70° PCIe* v2.1
(2.5 GT/秒)
2.5 GT/秒,
x1 通道
9 毫米 x 9 毫米
先进技术:WoL,PXE 远程引导

该网卡位于Windows Server 2008 32位操作系统下的驱动文件为PROWin32.exe,下载地址为http://downloadcenter.intel.com/confirm.aspx?httpDown=http://downloadmirror.intel.com/18720/eng/PROWin32.exe&Lang=zho&Dwnldid=18720

该网卡位于Windows Server 2008 64位操作系统下的驱动文件为PROWinx64.exe,下载地址为http://downloadcenter.intel.com/confirm.aspx?httpDown=http://downloadmirror.intel.com/18720/eng/PROWinx64.exe&Lang=zho&Dwnldid=18720

一台DELL服务器开机显示BLANCCO信息的解决方法

现有一台DELL服务器,更换了硬盘并重新配置了阵列后,准备对该设备安装操作系统,但是每次重启自检后都进入Blancco画面,显示各种hardware information信息,再次更换硬盘更换安装盘后,问题仍然存在,后来在阵列卡BIOS中,对新建的虚拟磁盘进行快速初始化操作后,问题解决。

看来配置阵列时,对新建的虚拟磁盘进行快速虚拟化是很有用的,有时候在操作系统中不能对新建的虚拟磁盘进行正常分区格式化操作,也可以通过对虚拟磁盘快速初始化来解决。

但是对已经有数据的虚拟磁盘则不能进行快速初始化操作,因为这样会清除虚拟磁盘上的数据。

Dell R720服务器更换硬盘后重启自检报错,不能进入操作系统的解决办法

现有一台DELL R720服务器,配有六块硬盘,且每块硬盘都做一个独立的raid0,现有一块硬盘故障,更换硬盘后,需要为更换上的硬盘重新配置raid0,重启服务器发现,在自检阵列卡后,出现报错,按任意键进入阵列卡BIOS后,将更换上的硬盘配置raid0时报错表示建立raid失败,重启后再次出现报错信息,无法继续自检并进入操作系统,报错信息如下:

There are offline or missing virtual drives with preserved cache.
Please check the cables and ensure that all drives are present.
Press any key to enter the configuration utility.

出现该问题的原因是,阵列卡的缓存中还存有故障硬盘的缓存信息,且该缓存信息对于新硬盘来说已经无效,所以在更换新硬盘时也需要将阵列卡的缓存信息清除,才可使用新硬盘。

对于这样的问题的解决办法是,进入阵列卡BIOS,在VD Mgmt页面的Perc H710 Adapter上按F2,在出来的菜单中选择Manage Preserved Cache,清除掉阵列卡上的缓存后,即可正常为更换上的硬盘配置raid0。