技术改变世界 阅读塑造人生! - shaogx.com

This string was altered by TechBlog\Plugins\Example.; This is an example to show the potential of an offcanvas layout pattern in Bootstrap. Try some responsive-range viewport sizes to see it in action.

SCSI共享存储服务器及客户端配置

测试环境:rhel 6.3 虚拟机 IP规划:服务器:192.168.0.240 客户端:192.168.0.241 和 192.168.0.242 SCSI服务器端1、准备共享磁盘或分区 ,此处共享出一块磁盘/dev/vdb2、安装软件包[root@node0 ~]# yum groupinstall "Network Storage Server" -y... 全文

SCSI共享存储

SCSI设备不一定需要信号终结器

    这几天在忙着做一个系统集成项目,中间用到了IBM 3580-L33外置磁带机,通过SCSI卡实现与服务器之间的数据传输。在我的记忆中,SCSI设备是需要进行“终结”设置才能使用的(所谓“终结”就是在最后一个SCSI设备上设置一个跳线或安装一个终结器,通知SCSI控制器SCSI总线到此处就结束了)。刚开始,IBM代理商的技术人员也是将信号终结器接在磁带机的SCSI-OUT口上的,奇怪的是系统重启后长时间停留在SCSI设备识别这一阶段,迟迟无法进入系统登录页面。重复几次都是如此后,技术人员把终结器从磁带机上拔了下来,结果就能正常进入系统了。为什么会出现这种奇怪的现象,我理解不了,技术人员也说不出个所以然来。今天在网上查了一下,发现原来和外置磁带机有关。一般的外置式Ultrium磁带机后部有两个SCSI接口,分别标为:SCSI-IN,SCSI-OUT,将连接主机的SCSI线的一端接在SCSI-IN端口,当磁带机是SCSI通道中的最后一个设置时,机器自动终结SCSI信号,并且指示灯ACT-TEAM常亮。IBM 3580-L33正好属于这种磁带机类型,所以不需要终结器。但如果是内置式Ultrium磁带机的安装和普通的内置SCSI设备一样,是需要使用带终结器的SCSI线。... 全文

SCSI 信号终结器 休闲 职场

vmware workstation及vmware vsphere 无重启添加scsi硬盘

一:实验环境:vmwarevsphere4虚拟机上,操作系统版本RHEL5.6查看现有磁盘数量。二:我们先cat/proc/scsi/scsi这个文件,会看到系统中已经包含了一块scsi硬盘三:这时我们以root权限执行echo"scsiadd-single-device0010">/proc/scsi/scsi添加scsi设备... 全文

vmware scsi 无重启添加硬盘

修改initrd文件让Esx Server支持SCSI硬盘

公司有一台DELL PowerEdge SC1425,配置如下 处理器:      Intel Xeon 主频(MHz)  2800 内存:        ECC DDR2 SDRAM 1GSCSI控制器:  Ultra320 SCSI硬盘:         74GB*2网卡:        1000M网卡*2      昨天用它安装了最新的VMware ESX Server 3.0.2 52542,遇到的些许挫折一一解决,下面是过程记录。在 BIOS中将两块硬盘做成了RAID0(没有使用RAID卡),开机从光盘启动后按照提示进行安装,突然出现Warning,No hard drive have been found ...最初以为是做了RAID的缘故,重启,打散RAID0,再安装时问题依旧,还好vmware的waring下还有一个...Would you like to select drivers now,选择了yes将驱动列表中的驱动一一试过,当选择Adeptec Aic79xx SCSI...(aic79xx)时认出了光盘,欣喜万分后再次重启,重做RAID0,再次安装时加载驱动aic79xx,结果认出的还是两块单硬盘,不 认RAID,只好再次重启打散RAID重装,还好加载驱动aic79xx后的安装很顺利。      重启后见到了久违的GRUB界面,不幸系统无法 正常启动,停留在一个buzybox的shell下,初步判断还是SCSI硬盘驱动问题,又分别尝试了debug mode和troubleshooting mode启动,troubleshooting mode可以正常识别硬盘顺利启动,遂决定修改启动是用的内存映像文件(.img文件)手动添加SCSI硬盘驱动,过程如下: [root@vmware boot]# ls -l /boot-rw-r--r--    1 root     root      5732715 Sep  7 12:50 initrd-2.4.21-47.0.1.ELvmnix.img(这个就是我们要修改的文件)-rw-r--r--    1 root     root       217408 Sep  7 11:29 initrd-2.4.21-47.0.1.ELvmnix.img-sc 将要用到的文件拷贝到/tmp目录下[root@vmware boot]# cp /boot/initrd-2.4.21-47.0.1.ELvmnix.img /tmp[root@vmware boot]# cp /boot/initrd-2.4.21-47.0.1.ELvmnix.img-sc /tmp[root@vmware boot]# cd /tmp 用file命令查看一下文件类型,可以看出两个文件都是gzip压缩文件[root@vmware tmp]# file initrd-2.4.21-47.0.1.ELvmnix.imginitrd-2.4.21-47.0.1.ELvmnix.img: gzip compressed data, from Unix, max compression[root@vmware tmp]# file initrd-2.4.21-47.0.1.ELvmnix.img-sc initrd-2.4.21-47.0.1.ELvmnix.img-sc: gzip compressed data, from Unix, max compression解压缩[root@vmware tmp]# gzip -dc initrd-2.4.21-47.0.1.ELvmnix.img >initrd.img[root@vmware tmp]# gzip -dc initrd-2.4.21-47.0.1.ELvmnix.img-sc >initrd-sc.img[root@vmware tmp]# file initrd.img initrd.img: Linux rev 1.0 ext2 filesystem data[root@vmware tmp]# file initrd-sc.img initrd-sc.img: Linux rev 1.0 ext2 filesystem data创建用来临时挂载.img的目录[root@vmware tmp]# mkdir img imgsc 挂载.img文件到临时目录,默认的挂载就有rw选项,可读写挂载。[root@vmware tmp]# mount -o loop initrd.img img[root@vmware tmp]# mount -o loop initrd-sc.img imgsc/ 将troubleshooting mode中的模块拷贝到正常模式启动用的映像中[root@vmware lib]# cd /tmp/img/lib[root@vmware lib]# cp ../../imgsc/lib/* .[root@vmware lib]# cd ..进入img目录,修改启动脚本linuxrc[root@vmware img]# vi linuxrc将linuxrc的内容改成:#!/bin/ashecho "Mounting /proc filesystem"mount -t proc /proc /procecho "Loading aic79xx.o module"insmod /lib/aic79xx.oecho "Loading adma100.o module"insmod /lib/adma100.oecho "Loading pdc202xx_old.o module"insmod /lib/pdc202xx_old.oecho "Loading sc1200.o module"insmod /lib/sc1200.oecho "Loading triflex.o module"insmod /lib/triflex.ogrep -q "failshell" /proc/cmdlineif [ $? -eq 0 ]; then   export failshell="init/shellrc"fi$failshellfor f in 1.vmkernel 40.vmkdrivers 100.rootfs; do   /init/$f   if [ $? -eq 0 ]; then      echo "$f succeeded."   else      echo "$f failed."      $failshell   fidone# Root must have been mounted at this point./bin/umount /initrd/proc#!/bin/nash 主要就是加驱动insmod的那部分,反正驱动都copy了就全加上了(后来我又尝试了一次只加识别硬盘需要的aic79xx.o系统也是不能启动,所以都加上不算多余,呵呵) 修改完后卸载img[root@vmware lib]# cd ..[root@vmware tmp]# umount img 重新压缩initrd.img[root@vmware tmp]# gzip initrd.img [root@vmware tmp]# ls initrd*initrd-2.4.21-47.0.1.ELvmnix.img  initrd-2.4.21-47.0.1.ELvmnix.img-sc  initrd.img.gz  initrd-sc.img 备份initrd-2.4.21-47.0.1.ELvmnix.img后将我们修改好的.img放到/boot目录下[root@vmware tmp]# mv /boot/initrd-2.4.21-47.0.1.ELvmnix.img /boot/initrd-2.4.21-47.0.1.ELvmnix.img.bak[root@vmware tmp]# cp initrd.img.gz /boot/initrd-2.4.21-47.0.1.ELvmnix.img 大功告成,重新启动后顺利进入esx系统,开始 ESX Server 测试之旅。 补充知识:  initrd----boot loader initialized RAM disk(全称)   是一种启动Linux系统的方式,前流行的Linux版本一般都采用模块化的内核,这种方式可以在不重新编译构建内核的情形下增加功能模 块,initrd*.img就是RAM disk的映象,默认用gzip压缩过节省空间,可以解开修改,添加在内核启动时需要加载的自定义内核模块。... 全文

initrd SCSI 休闲 Esx 职场

详解在Win2003安装光盘中集成SCSI驱动

如何在Win2003安装光盘中集成SCSI硬盘驱动 ... 全文

SCSI 休闲 txtsetup.sif SATA 职场

SCSI硬盘设备到/dev/sd设备的映射关系

1,操作系统:centos或redhat2,查看scsi设备到/dev/sd的映射... 全文

Megcli 磁盘对应关系 scsi设备对应关系

Linux SCSI

分层 SCSI 架构简介Small Computer Systems Interface (SCSI) 是一组标准集,它定义了与大量设备(主要是与存储相关的设备)通信所需的接口和协议。 Linux 提供了一种 SCSI 子系统,用于与这些设备通信。Linux 是分层架构的一个很好的例子,它将高层的驱动器(比如磁盘驱动器或光驱)连接到物理接口,比如 Fibre Channel 或 Serial Attached SCSI(SAS)。本文向您介绍了 Linux SCSI 子系统,并且讨论了这些子系统将来的发展方向。... 全文

Linux 接口 通信

SCSI驱动 集成到光盘里

当我们安装新系统的时候!会遇到找不到磁盘 !这是因为是系统不兼容 需要集成一个scsi驱动 我们以window server  2003 做试验准备条件 1,UltraISO或winiso 这两个是修改镜像很刻录光盘的软件 2,一张windows server 2003 的光盘3,scsi的驱动程序。把windows server 2003 里面的i386文件给拷出来 。i386里面有个TXTSETUP.SIF的文件 打开文件 查找[scsi]添加驱动名称"VMware SCSI Controller"这个文件名称必须与驱动里txtsetup.oem [scsi] 下 的文件路径的名称一致添加都是在TXTSETUP.SIF的文件里!找到目录[sourcedisksfiles]这个有好几个呢 !别添错了1代表的是文件i386的路径 7个逗号 别多也别少啊 !4是指路径windows\system32\driversvmscsi.sys的名称必须与scsi驱动的文件名是一样的   找到[SCSI.Load]添加 vmscsi.sys,4  [HardwareIdsDatabase]里添加PCI\VEN_104B&DEV_1040 = "vmscis"来自scsi驱动文件vmscsi.inf 下[vmware.mfg]里 把scsi里的vmscsi.sys压缩成 vmscsi.sys_  dos窗口里用命令makecab   把修改好的txtsetup.if和修改好的scsi的驱动放到windows server 2003 i386文件里用ULtraiso刻录一张盘就能安装了  ... 全文

职场 休闲

adaptec SCSI卡管理和配置选项

   最近公司上了15台服务器用的是scsi的硬盘。由于以前没用过(别笑俺,俺农民,没见过世面),所以花了点时间来研究下了。   一般scsi卡不用太多设置。默认就可以了。注意的是控制卡的id和启动的磁盘id。    安装好scsi卡,启动后。安 {ctrl+a}可以进入scsi卡配置模式。主要检查    1、 host adaptec scsi id。 这个是配置scsi卡的ID,默认是是7,可以配置成0-15,一般不用修改。    2、 boot device options 设置那个id为启动设备,默认第一个硬盘的id是0,这个需要检测。反正调整到你安装了系统的硬盘就可以了。基本就没有其他设置了,以下是SCSI BIOS的设置选项解释。可以看看,会对你有帮助。 本文出自 “fenghao.cn's Soft..” 博客,谢绝转载!... 全文

休闲 职场

怎样在ESXi 5中在线修改虚拟机置备大小?

51CTO虚拟化论坛里用户@en_arron_virgil提出一个现象,在ESXi5的虚拟化环境中,部分虚拟机可以在属性>硬件>硬盘的菜单中修改置备大小,而部分虚拟机则不能修改,如图1-1所示,这种现象之前也有用户提到,为什么会发生这种情况呢?... 全文

磁盘 虚拟机 scsi IDE

SCSI miniport 驱动简单框架

        前段时间刚配了一台新电脑,由于资金有限没能配一块心仪已久的固态硬盘,没能感受到飞一般的感觉,总不甘心,仔细想想,我配的内存比较大呀,如果能把内存的一部分让出来当作硬盘使用,岂不比固态硬盘速度更快,那么就让我们开始吧。        首先,我们要做的就是写一个硬盘控制器的驱动,我们知道,存储类型的驱动一般都遵守 class/port/miniport driver 这样的结构,微软已经完成了磁盘类的驱动,以及 SCSI 总线的 Port 驱动,我们只需要完成 SCSI 总线上硬盘控制器的 Miniport 驱动就可以了。拿出 DDK 的源码分析一遍,微软果然不负众望地提供了一个驱动的源码,我用的是DDK 7600.16385.1,里面有一个 ramdisk 的源码,但读起来就发现,它是用 wdf 框架来实现的,我对 wdf 框架不熟悉,决定自己用 wdm 框架来重新实现一遍。... 全文

RamDisk wdm 驱动框架实现 使你的电脑享受比固态硬盘更快的速度

存储硬盘接口ATA/SATA/SCSI/SAS/FC比较

硬盘接口是硬盘与主机系统间的连接部件,作用是在硬盘缓存和主机内存之间传输数据。不同的硬盘接口决定着硬盘与控制器之间的连接速度,在整个系统中,硬盘 接口的性能高低对磁盘阵列整体性能有直接的影响,因此了解一款磁盘阵列的硬盘接口往往是衡量这款产品的关键指标之一。存储系统中目前普遍应用的硬盘接口主 要包括SATA、SCSI、SAS和FC等,此外ATA硬盘在SATA硬盘出现前也在一些低端存储系统里被广泛使用。 每种接口协 议拥有不同的技术规范,具备不同的传输速度,其存取效能的差异较大,所面对的实际应用和目标市场也各不相同。同时,各接口协议所处于的技术生命阶段也各不 相同,有些已经没落并面临淘汰,有些则前景光明,但发展尚未成熟。那么经常困扰客户的则是如何选择合适类型阵列,既可以满足应用的性能要求,又可以降低整 体投资成本。现在,我们将带您了解目前常见的硬盘接口技术的差异与特点,从而帮助您选择适合自身需求的最佳方案。ATA,在并行中没落ATA (AT Attachment)接口标准是IDE(Integrated Drive Electronics)硬盘的特定接口标准。自问世以来,一直以其价廉、稳定性好、标准化程度高等特点,深得广大中低端用户的青睐,甚至在某些高端应用 领域,如服务器应用中也有一定的市场。ATA规格包括了 ATA/ATAPI-6 其中Ultra ATA 100兼容以前的ATA版本,在40-pin的连接器中使用标准的16位并行数据总线和16个控制信号。最早的接口协议都是并行 ATA(Paralle ATA)接口协议。PATA接口一般使用16-bit数据总线, 每次总线处理时传送2个字节。PATA接口一般是100Mbytes/sec带宽,数据总线必须锁定在50MHz,为了减小滤波设计的复杂性,PATA使 用Ultra总线,通过“双倍数据比率”或者2个边缘(上升沿和下降沿)时钟机制用来进行DMA传输。这样在数据滤波的上升沿和下降沿都采集数据,就降低 一半所需要的滤波频率。这样带宽就是:25MHz 时钟频率x 2 双倍时钟频率x 16 位/每一个边缘/ 8 位/每个字节= 100 Mbytes/sec。在过去的20年中,PATA成为ATA硬盘接口的主流技术。但随着CPU时钟频率和内存带宽的不断提 升,PATA逐渐显现出不足来。一方面,硬盘制造技术的成熟使ATA硬盘的单位价格逐渐降低,另一方面,由于采用并行总线接口,传输数据和信号的总线是复 用的,因此传输速率会受到一定的限制。如果要提高传输的速率,那么传输的数据和信号往往会产生干扰,从而导致错误。PATA的技术潜 力似乎已经走到尽头,在当今的许多大型企业中,PATA现有的传输速率已经逐渐不能满足用户的需求。人们迫切期待一种更可靠、更高效的接口协议来替代 PATA,在这种需求的驱使下,串行(Serial)ATA总线接口技术应运而生,直接导致了传统PATA技术的没落。SATA,在低端徘徊PATA曾经在低端的存储应用中有过光辉的岁月,但由于自身的技术局限性,逐步被串行总线接口协议(Serial ATA,SATA)所替代。SATA以它串行的数据发送方式得名。在数据传输的过程中,数据线和信号线独立使用,并且传输的时钟频率保持独立,因此同以往 的PATA相比,SATA的传输速率可以达到并行的30倍。可以说:SATA技术并不是简单意义上的PATA技术的改进,而是一种全新的总线架构。从总线结构上,SATA 使用单个路径来传输数据序列或者按照bit来传输,第二条路径返回响应。控制信息用预先定义的位来传输,并且分散在数据中间,以打包的格式用开/关信号脉 冲发送,这样就不需要另外的传输线。SATA带宽为16-bit。并行Ultra ATA总线每个时钟频率传输16bit数据,而SATA仅传输1bit,但是串行总线可以更高传输速度来弥补串行传输的损失。SATA将会引入 1500Mbits/sec带宽或者1.5Gbits/sec带宽。由于数据用8b/10b编码,有效的最大传输峰值是150Mbytes/sec。目前能够见到的有SATA-1和SATA-2两种标准,对应的传输速度分别是150MB/s和300MB/s。从速度这一点上,SATA已经远远把 PATA硬盘甩到了后面。其次,从数据传输角度上,SATA比PATA抗干扰能力更强。从SATA委员会公布的资料来看,到2007年,在第三代串行 ATA技术中,个人电脑存储系统将具有最高达600MB/s的数据带宽。此外,串口的数据线由于只采用了四针结构,因此相比较起并口安装起来更加便捷,更 有利于缩减机箱内的线缆,有利散热。虽然厂商普遍宣称SATA支持热插拔,但实际上,SATA在硬盘损坏的时候,不能像 SCSI/SAS和FC硬盘一样,显示具体损坏的硬盘,这样热插拔功能实际上形同虚设。同时,尽管SATA在诸多性能上远远优越于PATA,甚至在某些单 线程任务的测试中,表现出了不输于SCSI的性能,然而它的机械底盘仍然为低端应用设计的,在面对大数据吞吐量或者多线程的传输任务时,相比SCSI硬 盘,仍然显得力不从心。除了速度之外,在多线程数据读取时,硬盘磁头频繁地来回摆动,使硬盘过热是SATA需要克服的缺陷。正是因为这些技术上致命的缺 陷,导致目前为止,SATA还只能在低端的存储应用中徘徊。SCSI,中端存储的主流之选SCSI(Small Computer System Interface)是一种专门为小型计算机系统设计的存储单元接口模式,通常用于服务器承担关键业务的较大的存储负载,价格也较贵。SCSI计算机可以 发送命令到一个SCSI设备,磁盘可以移动驱动臂定位磁头,在磁盘介质和缓存中传递数据,整个过程在后台执行。这样可以同时发送多个命令同时操作,适合大 负载的I/O应用。在磁盘阵列上的整体性能也大大高于基于ATA硬盘的阵列。SCSI规范发展到今天,已经是第六代技术了,从刚创建 时候的SCSI(8bit)到今天的Ultra 320 SCSI,速度从1.2MB/s到现在的320MB/s有了质的飞跃。目前的主流SCSI硬盘都采用了Ultra 320 SCSI接口,能提供320MB/s的接口传输速度。SCSI硬盘也有专门支持热拔插技术的SCA2接口(80-pin),与SCSI背板配合使用,就可 以轻松实现硬盘的热拔插。目前在工作组和部门级服务器中,热插拔功能几乎是必备的。相比ATA硬盘,SCSI体现出了更适合中、高端存储应用的技术优势:首先SCSI相对于ATA硬盘的接口支持数量更多。一般而言,ATA硬盘采用IDE插槽与系统连接,而每IDE插槽即占用一个IRQ(中断号),而每两 个IDE设备就要占用一个IDE能道,虽然附加IDE控制卡等方式可以增加所支持的IDE设备数量,但总共可连接的IDE设备数最多不能超过15个。而 SCSI的所有设备只占用一个中断号(IRQ),因此它支持的磁盘扩容量要比ATA更为巨大。这个优点对于普通用户而言并不具备太大的吸引力,但对于企业 存储应用则显得意义非凡,某些企业需要近乎无节制地扩充磁盘系统容量,以满足网络存储用户的需求。其次:SCSI的带宽很 宽,Ultra 320 SCSI能支持的最大总线速度为320MB/s,虽然这只是理论值而已,但在实际数据传输率方面,最快 ATA/SATA的硬盘相比SCSI硬盘无论在稳定性和传输速率上,都有一定的差距。不过如果单纯从速度的角度来看,用户未必需要选择SCSI硬盘, RAID技术可以更加有效地提高磁盘的传输速度。最后、SCSI硬盘CPU占用率低、并行处理能力强。在ATA和SATA硬盘虽然也 能实现多用户同时存取,但当并行处理人数超过一定数量后, ATA/SATA硬盘就会暴露出很大的I/O缺陷,传输速率有大幅下降。同时,硬盘磁头的来回摆动,也造成硬盘发热不稳定的现象。对 于SCSI而言,它有独立的芯片负责数据处理,当CPU将指令传输给SCSI后,随即去处理后续指令,其它的相关工作就交给SCSI控制芯片来处理;当 SCSI“处理器”处理完毕后,再次发送控制信息给CPU,CPU再接着进行后续工作,因此不难想像SCSI系统对CPU的占用率很低,而且 SCSI硬盘允许一个用户对其进行数据传输的同时,另一位用户同时对其进行数据查找,这就是SCSI硬盘并行处理能力的体现。SCSI硬盘较贵,但是品质性能更高,其独特的技术优势保障SCSI一直在中端存储市场占据中流砥柱的地位。普通的ATA硬盘转速是5400或者 7200 RPM;SCSI 硬盘是10000或者15000 RPM,SCSI硬盘的质保期可以达到5年,平均无故障时间达到1,200,000小时。然而对于企业来说,尽管SCSI在传输速率和容错性上有极好的表 现,但是它昂贵的价格使得用户望而却步。而下一代SCSI技术SAS的诞生,则更好的兼容了性能和价格双重优势。SAS,接口协议的明日帝国SAS 是Serial Attached SCSI的缩写,即串行连接SCSI。和现在流行的Serial ATA(SATA)硬盘相同,都是采用串行技术以获得更高的传输速度,并通过缩短连结线改善内部空间等。SAS是新一代的SCSI技术,同SATA之于PATA的革命意义一样,SAS 也是对SCSI技术的一项变革性发展。它既利用了已经在实践中验证的 SCSI 功能与特性,又以此为基础引入了SAS扩展器。SAS可以连接更多的设备,同时由于它的连接器较小,SAS 可以在3.5 英寸或更小的 2.5 英寸硬盘驱动器上实现全双端口,这种功能以前只在较大的 3.5 英寸光纤通道硬盘驱动器上能够实现。这项功能对于高密度服务器如刀片服务器等需要冗余驱动器的应用非常重要。为保护用户投资,SAS 的接口技术可以向下兼容SATA。SAS系统的背板(Backplane)既可以连接具有双端口、高性能的SAS驱动器,也可以连接高容量、低成本的 SATA驱动器。过去由于SCSI、ATA分别占领不同的市场段,且设备间共享带宽,在接口、驱动、线缆等方面都互不兼容,造成用户资源的分散和孤立,增 加了总体拥有成本。而现在,用户即使使用不同类型的硬盘,也不需要再重新投资,对于企业用户投资保护来说,实在意义非常。但需要注意的是,SATA系统并 不兼容SAS,所以SAS驱动器不能连接到SATA背板上。SAS 使用的扩展器可以让一个或多个 SAS 主控制器连接较多的驱动器。每个扩展器可以最多连接 128 个物理连接,其中包括其它主控连接,其它 SAS 扩展器或硬盘驱动器。这种高度可扩展的连接机制实现了企业级的海量存储空间需求,同时可以方便地支持多点集群,用于自动故障恢复功能或负载平衡。目前, SAS接口速率为3Gbps,其SAS扩展器多为12端口。不久,将会有6Gbps甚至12Gbps的高速接口出现,并且会有28或36端口的SAS扩展 器出现以适应不同的应用需求。其实际使用性能足于光纤媲美。SAS虽然脱胎于SCSI,但由于其突出的适于高端应用的性能优势,更普 遍把SAS与光纤技术进行比较。由于SAS由SCSI发展而来,在主机端会有众多的厂商兼容。SAS采用了点到点的连接方式,每个SAS端口提供3Gb带 宽,传输能力与4Gb光纤相差无几,这种传输方式不仅提高了高可靠性和容错能力,同时也增加了系统的整体性能。在磁盘端,SAS协议的交换域能够提供 16384个节点,而光纤环路最多提供126个节点。而兼容SATA磁盘所体现的扩展性是SAS的另一个显著优点,针对不同的业务应用范围,在磁盘端用户 可灵活选择不同的存储介质,按需降低了用户成本。在SAS接口享有种种得天独厚的优势的同时,SAS产品的成本从芯片级开始,都远远 低于FC,而正是因为SAS突出的性价比优势,使SAS在磁盘接口领域,给光纤存储带来极大的威胁。目前已经有众多的厂商推出支持SAS磁盘接口协议的产 品,虽然目前尚未在用户层面普及,但SAS产品部落已经初具规模。 SAS成为下一代存储的主流接口标准,成就磁盘接口协议的明日辉煌已经可以预见。FC,高端应用的基石光纤通道标准已经被美国国家标准协会(ANSI)采用,是业界标准接口。通常人们认为它是系统与系统或者系统与子系统之间的互连架构,它以点对点(或是 交换)的配置方式在系统之间采用了光缆连接。当然,当初人们就是这样设想的,在众多为它制订的协议中,只有IPI(智能外设接口)和IP(网际协议)在这 些配置里是理想的。后来光纤通道的发展囊括了电子(非光学)实现,并且可以用成本相对较低的方法将包括硬盘在内的许多设备连接到主机 端口。对这个较大的光纤通道标准集有一个补充称为光纤通道仲裁环(FC-AL)。FC-AL使光纤通道能够直接作为硬盘连接接口,为高吞吐量性能密集型系 统的设计者开辟了一条提高I/O性能水平的途径。目前高端存储产品使用的都是FC接口的硬盘。FC硬盘名称由于通过光学物理通道进行 工作,因此起名为光纤硬盘,现在也支持铜线物理通道。就像是IEEE-1394, Fibre Channel 实际上定义为SCSI-3标准一类,属于SCSI的同胞兄弟。作为串行接口FC-AL峰值可以达到2Gbits/s甚至是4Gbits/s。而且通过光学 连接设备最大传输距离可以达到10KM。通过FC-loop可以连接127个设备,也就是为什么基于FC硬盘的存储设备通常可以连接几百颗甚至千颗硬盘提 供大容量存储空间。关于光纤硬盘以其的优越的性能、稳定的传输,在企业存储高端应用中担当重要角色。业界普遍关注的焦点在于光纤接口 的带宽。最早普及使用的光纤接口带宽为1Gb,随后2Gb带宽光纤产品统治市场已经长达三年时间。现在最新的带宽标准是4Gb,目前普遍厂商都已经推出 4Gb相关新品,Gartner则预言 4Gb光纤产品在未来2年将以300%的年复合成长率快速增长,并在2007年取代2Gb光纤成为市场主流。对于这份报告提出的观点,业界的看法不一。有的人认为,2Gb光纤信道正式取代1Gb也不过才不到3年的时间,供货商又紧接着推出4Gb的产品,企业的 接受度令人存疑。另一方面,磁盘接口端SAS技术的兴起,和主机接口端iSCSI技术的发展,也给光纤存储的发展带来不小的压力。事 实上,4Gb光纤信道传输协议早在2002年就已经通过美国国家标准协会(ANSI)的光纤信道实体接口(Fibre Channel-Physical Interfaces,简称FC-PI)规范,而与此同时,10Gb光纤标准也在同一年发表,但由于10Gb光纤并不具备向下兼容的能力,用户如果希望升 级到10Gb光纤平台,则必须更换所有基础设施,成本过于昂贵,一直无人问津。相较之下,4Gb是以2Gb为基础延伸的传输协议,可 以向下兼容1Gb和2Gb,所使用的光纤线材、连接端口也都相同,意味着使用者在导入4Gb设备时,不需为了兼容性问题更换旧有的设备,不但可以保护既有 的投资,也可以采取渐进式升级的方式,逐步淘汰旧有的2Gb设备。而目前,各存储厂商推出的 4Gb光纤新品与2Gb光纤产品已无价格差距,用户可在相差不多的情况下购买到4 Gb光纤产品,从这个意义来说,4Gb光纤产品的普及也是指日可待。随需而变 灵活选择网络存储设备目前大致可分为3类,即高端、中端和近线(Near-Line)。目前,高端存储产品主要应用的是光纤通道硬盘,应用于关键数据的大容量实 时存储。中端存储设备则主要采用SCSI,应用于商业级的关键数据的大容量存储。近线是近年来新出现的存储领域,一般采用SATA硬盘存储,应用于非关键 数据的大容量存储,目的是替代以前使用磁带的数据备份。今后几年,光纤通道和SAS将成为存储上的首选接口,这两种技术在实际性能上 的表现几乎相同。但是,从发展前景来看,在大约一年以后,SAS的传输带宽还有可能将增加一倍,而光纤通道下一步是发展到8Gbps还是10Gbps目前 还无定论,且发展到8Gb或者10Gb后,向下兼容的问题还没有有效解决。目前,哪种技术更好一些,光纤还是SAS,仍然很难定夺。 但是由于并行SCSI占据着80%左右的企业硬盘市场,并且SAS兼容低端的SATA硬盘。这样当用户预算紧张的时候,可以选择搭配SATA硬盘;当性能 为重时,则可以更换为高性能的SAS硬盘。因此,根据富士通公司的预测:在未来几年内, SAS将有可能占据绝大多数的中高端存储市场。对于用户来说:单纯比较硬盘并不一定是越贵的越好,关键是看是否适合自己的应用。另外单纯硬盘的硬盘接口协议也不是衡量一个存储系统性能指标的唯一要 素,除了硬盘性能指标以外,存储系统的硬件设计,前端主机接口等性能指标也同样对存储系统的整体性能影响巨大。如果需要应用于I/O负载较轻的应用比如文 件共享、FTP、音频存储、数据备份等可以考虑基于SATA硬盘的阵列。如果I/O负载较重的FTP、VOD、EMAIL、Web、数据库应用,那么可以 考虑基于SCSI/SAS硬盘的存储系统;如果是较大规模的数据中心,硬盘数量需求巨大,考虑到目前SAS技术的不成熟,我们仍然推荐选用基于光纤硬盘的 存储系统。... 全文

存储 存储系统 磁盘 产品 扩展 ide

无法打开磁盘 scsi0:0: 磁盘类型 7 不受支持或无效。请确保磁盘已导入

今天下载了一个虚拟机应用(zenoss监控)。下载的文件是在vmware workstation平台上面运行的。但我要导入到VMware VSphere ESXI5.1上运行,开启电源失败,提示如下信息:打开虚拟机 zenoss 的电源时,会收到来自 ESX 主机的错误。 无法启动虚拟机。 模块 DevicePowerOn 打开电源失败。 无法为 scsi0:0“/vmfs/volumes/51dc3538-bbdf69dc-6e61-782bcb765b0f/zenoss_core-4.2.5-1998-x86_64/zenoss_core-4.2.5-1998-x86_64.vmdk” 创建虚拟 SCSI 设备 无法打开磁盘 scsi0:0: 磁盘类型 7 不受支持或无效。请确保磁盘已导入。可以确定的是我硬盘的vmdk文件存在,应该是版本问题。查询官方资料后发现:在VMware Workstation,VMware Fusion 或VMware Player平台上运行的虚拟机如果需要在Vmware ESX主机上运行,必须用Vmware vCenter Converter工具转换成ESX主机兼容的格式。当然,如果虚拟机的磁盘镜像文件如果已经被导入到ESX主机,则可以使用vmkfstools 工具手动将磁盘格式进行转换。命令如下:vmkfstools -i <HostedVirtualDisk> <ESXVirtualDisk>所以,我需要使用vmkfstools工具将zenoss_core-4.2.5-1998-x86_64.vmdk文件转换成ESX主机兼容的格式:cd /vmfs/volumes/51dc3538-bbdf69dc-6e61-782bcb765b0f/zenoss_core-4.2.5-1998-x86_64/ vmkfstools -i zenoss_core-4.2.5-1998-x86_64.vmdk zenoss_core-4.2.5-1998-x86_64-new.vmdk -d thin 备注:zenoss_core-4.2.5-1998-x86_64-new.vmdk就是转换后的磁盘名字。 -d选项为:使用精简置备模式。节省空间。 旧文件可以删除。转换后将zenoss_core-4.2.5-1998-x86_64-new.vmdk磁盘添加到虚拟机中,顺利开机。... 全文

cannot power on vm

Windows Storage Server 2012建立iSCSI虚拟磁盘存储

Windows Storage Server 2012建立iSCSI虚拟磁盘存储以前做群集POC验证测试时,一直习惯使用Openfiler或FreeNAS提供共享存储。这两天正在搭建Hyper-V Server群集POC功能验证测试时,仍习惯性地使用Openfiler ESA 2.99.1最新版本模拟iSCSI共享存储,不料遇到了验证SCSI-3永久保留失败的问题。经查明原因是iSCSI版本问题导致。... 全文

Windows Storage Server 2012 iSCSI 虚拟磁盘 验证SCSI-3永久保留失败

《Linux那些事儿之我是USB》我是U盘(31)SCSI命令之我型我秀

usb_stor_control_thread()基本讲完了,但是其中下面这几行,正是高潮中的高潮。所谓的批量传输,所谓的Bulk-Only协议。正是在这里体现出来的。371           /* we've got a command, let's do it! */372           else {373               US_DEBUG(usb_stor_show_command(us->srb));374               us->proto_handler(us->srb,us);375           }... 全文

linux search command buffer audio cache

1