1、Intelligent Building -- 智能大厦
——智能大厦(Intelligent Building)简称IB,是通过对建筑的结构、系统、服务和管理等要素进行最优化分析后,设计提供的一种投资少、效率高的舒适温馨又便利的场所。它与普通大厦的不同之处不令在于照明、采暖、空调、卫星、防火和防盗等设备由计算机进行统一管理,更主要的是大厦内部配置了先进的语音通信、文字处理、办公自动化等系统,并和外界多种通信系统联网,能够开展商情查询、电视会议、远程医疗、电子函件等多种业务。
——从功能上讲,IB又被称为“一A”大厦,即CA(通信自动化)、OA(办公自动化)和BA(楼宇管理自动化)。后来有人将“三A”增加到“五A”,新增的SA(保安自动化)、FA(防火自动化)实际上是原BA系统中的子系统。CA、OA和BA三大系统由综合布线系统连接成一个有机的整体,共同实现大厦的智能化。
——CA系统包括以数字程控交换机为核心,以多功能电话、传真、数据终端等为主要设备的楼层局域网和主干通信网。楼层局域网将该楼层内的各种终端和工作站联网,主干通信网则用来实现计算机中心主机与楼内各个局域网的通信联系,并通过网间接口和外部通信系统联网。CA系统通过提供话音、数据和图像等信息种类,使得IB内的客户能够眼观六路、耳听八方。
——OA系统主要包括多功能电话机、PC机、文字处理机、传真机、声像处理装置等多种办公自动化设备及其配套的各种软件。它具有文字处理、数据处理、图像处理、资料管理和行政管理等多种功能,可以使大厦内用户的办公迅速快捷、准确无误。
——BA系统是由中央计算机及各种控制子系统组成的综合性系统,主要包括采暖、通风、空调监控系统,给水、排水监控系统,配变电与自备电源监控系统,火灾自动报警与消防联动系统,安全保卫系统等。各子系统之间可以信息互联和联动,以实现最优化管理,让客户倍感安全、舒适。
——1984年10月,世界上第一幢智能大厦在美国诞生,迄今美国的智能大厦已逾万幢,日本新建的建筑中有60%达到智能化要求。1991年AT&T公司率先将智能大厦和综合布线系统的概念引入中国,引起了中国人的极大兴趣,座座智能大厦拔地而起,其中广东国际大厦和北京京广中心堪称我国智能大厦的典范。智能大厦的发展将大大改变人们的工作、生活和娱乐模式,真正实现足不出户知天下事、做天下事的愿望。


2、IB(InifiniBand)互联结构

InfiniBand是一个统一的互联结构,既可以处理存储I/O、网络I/O,也能够处理进程间通信(IPC)。它可以将磁盘阵列、SANs、LANs、服务器和集群服务器进行互联,也可以连接外部网络(比如WAN、VPN、互联网)。设计InfiniBand的目的主要是用于企业数据中心,大型的或小型的。目标主要是实现高的可靠性、可用性、可扩展性和高的性能。InfiniBand可以在相对短的距离内提供高带宽、低延迟的传输,而且在单个或多个互联网络中支持冗余的I/O通道,因此能保持数据中心在局部故障时仍能运转。

如果深入理解,你会发现InfiniBand与现存的I/O技术在许多重要的方面都不相同。不像PCI、PCI-X、 IDE/ATA 和 SCSI那样共享总线,因此没有相关的电子限制、仲裁冲突和内存一致性问题。相反,InfiniBand在交换式互联网络上,采用点到点的、基于通道的消息转发模型,同时,网络能够为两个不同的节点提供多种可能的通道。

这些方面,InfiniBand更像以太网,而以太网构成LANs、WANs和互联网的基础。InfiniBand和以太网都是拓扑独立――其拓扑结构依赖于交换机和路由器在源和目的之间转发数据分组,而不是靠具体的总线和环结构。像以太网一样,InfiniBand能够在网络部件故障时重新路由分组,分组大小也类似。InfiniBand的分组大小从256b到4KB,单个消息(携带I/O处理的一系列数据分组)可以达到2GB。

以太网跨越全球,InfiniBand则不同,其主要用于只有几间机房的数据中心,分布于校园内或者位于城市局部。最大距离很大程度上取决于缆线类型(铜线或光纤)、连接的质量、数据速率和收发器。如果是光纤、单模的收发器和基本数据速率的情况下,InfiniBand的最大距离大约是10公里。

如同以太网一样使用交换机和路由器, InfiniBand在理论上能够跨越更远的距离,尽管如此,在实际应用中距离要受到更多的限制。为了确保数据分组的可靠传输,InfiniBand具备诸如反应超时、流控等特点,以防止阻塞造成的分组丢失。延长InfiniBand的距离将降低这些特征的有效性,因为延迟超过了合理的范围。

为了超越数据中心的范围,其它I/O技术必须解决长距离的问题。InfiniBand厂商通过能够连接到以太网和光纤通道网络的设备来解决这个问题(光纤通道的最大距离大约为10公里,因此桥接设备使得InfiniBand能够与现存的用光纤通道连接的校园网络和城域网络的分布式数据中心相兼容)。

更高的速度

InfiniBand的基本带宽是2.5Gb/s,这是InfiniBand 1.x。InfiniBand是全双工的,因此在两个方向上的理论最大带宽都是2.5Gb/s,总计5Gb/s。与此相反,PCI是半双工,因此32位、33MHz的PCI总线单个方向上能达到的理论最大带宽是1Gb/s,64位、133MHz的PCI-X总线能达到8.5Gb/s,仍然是半双工。当然,任何一种总线的实际吞吐量从来没有达到理论最大值。

如果要获取比InfiniBand 1.x更多的带宽,只要增加更多缆线就行。InfiniBand 1.0规范于2000年10月完成,支持一个通道内多个连接的网络,数据速率可提高4倍(10Gb/s)和12倍(30Gb/s),也是双向的。

InfiniBand是在串行链路上实现超高速率的,因此电缆和连接器相对并行I/O接口PCI、IDE/ATA、SCSI和IEEE-1284来说,接口小也便宜。并行链路有一个固有的优势,因为它的多个缆线相当于高速公路上的多个车道,但现代的I/O收发器芯片使串行链路达到更高的数据速率,并且价格便宜。这就是为什麽最新的技术――InfiniBand、IEEE-1394、串行ATA、串行连接SCSI、USB采用串行I/O而不是并行I/O。

InfiniBand的扩展性非常高,在一个子网内可支持上万个节点,而每个网络中可有几千个子网,每个安装的系统中可以有多个网络结构。InfiniBand交换机通过子网路由分组,InfiniBand路由器将多个子网连接在一起。相对以太网,InfiniBand可以更加分散地进行管理,每个子网内有一个管理器,其在路由分组、映射网络拓扑、在网络内提供多个链路、监视性能方面起决定性的作用。子网管理器也能保证在特别通道内的带宽,并为不同优先权的数据流提供不同级别的服务。子网并不一定是一个单独的设备,它可以是内置于交换机的智能部件。

虚拟高速公路

为了保证带宽和不同级别的服务,子网管理器使用虚拟通道,其类似于高速公路的多个车道。通道是虚拟的,而不是实际存在的,因为它不是由实际的缆线组成的。通过使用字节位元组,并根据不同的优先权,同一对缆线可携带不同分组的片断。

开发中的标准:

产品

物理I/O

主要应用

最大带宽

最大距离



InfiniBand 1x

串行存储

IPC

网络

2.5Gb/s

10公里



InfiniBand 4x

串行-多链路

存储、IPC、网络

10Gb/s

10公里



InfiniBand 12x

串行-多链路

存储、IPC、网络

30Gb/s

10公里



光纤通道

串行存储

IPC

网络

2Gb/s

10公里



Ultra2 SCSI

16位并行

存储

0.6Gb/s

12米



Ultra3 SCSI1

6位并行

存储

1.2Gb/s

12米



IDE/Ultra ATA 100

32位并行

存储

0.8Gb/s

1米



IEEE-1394a (FireWire)

串行

存储

0.4Gb/s

4.5米



串行 ATA 1.0

串行

存储

1.5Gb/s

1米



串行连接SCSI

串行

存储

未定义

未定义



PCI 2.2 (33/66MHz)

32/64位并行

底板

1 / 2 Gb/s

主板



PCI-X 1.0 (133MHz)

64位并行

底板

8.5Gb/s

主板



PCI-X 2.0 (DDR-QDR)

64位并行

底板

34 Gb/s

主板





InfiniBand 1.0定义了16个虚拟通道,0到15通道。通道15预留给管理使用,其它通道用于数据传输。一个通道专用于管理可以防止流量拥塞时妨碍网络的正常管理。比如,网络随时准备改变其拓扑结构。InfiniBand设备是热插拔的,从网络中拔出设备时要求网络迅速重新配置拓扑映射。子网管理器使用通道15来查询交换机、路由器和终端节点其有关配置的改变。

除了数据虚拟通道外预留虚拟管理通道,这就是带内管理。InfiniBand也提供带外管理的选项。在InfiniBand的底板配置中,管理信号使用独立于数据通道的特殊通道。底板配置更多用于服务器内和存储子系统,同样地,PCI和PCI-X的底板也位于此。

除了虚拟通道上直接传输,子网管理器也可以对两个节点之间的点对点的通道调整并匹配数据速率。比如,如果一个服务器有一个到网络的4倍的接口,而发送数据的目标存储子系统只有1倍的接口,交换机能够自动建立兼容的1倍通道,而不丢失分组和阻止更高速率的数据传输。

实现InfiniBand

InfiniBand不是必须要取代现存的I/O技术。但会造成相关的争论,因为其它的I/O标准也有很多的支持者,而且许多公司已经对这种传统的技术进行大量的投资。在计算机业界,每一种新技术的出现都倾向于将其它的技术规类于传统的范畴。至少在理论上,InfiniBand能与PCI、PCI-X、 SCSI、 光纤通道、IDE/ATA、串行 ATA、 IEEE-1394以及其它在数据中心存在I/O标准共存。相反,3GIO和HyperTransport是板级的互联,而快速I/O和致密PCI主要用于内嵌式系统。

为了与其它的I/O技术协同工作,InfiniBand需要能匹配物理接口和转换通信协议的桥接适配器。举例来说,Adaptec正在测试能将InfiniBand连接到串行ATA和串行SCSI的磁盘接口。然而,不要假定你需要的桥接设备已经存在,并且经过实际工作的验证、价格可行。

另一个要考虑的是性能问题。连接两种不同的I/O标准通常要增加数据通道的延迟。在最坏的情况下,将InfiniBand网络引入到一个已经安装多个不同技术组成的网络中,如果组织管理差,会降低其整体性能。InfiniBand的支持者声称理想的解决方案是完整的InfiniBand体系结构。任何部件都可以直接连接到InfiniBand网络,可以使用优化的文件协议,最好是使用直接访问文件系统(DAFS)。

DAFS独立于传输,是基于NFS的共享式文件访问协议。它是优化过的,用于1到100台机器的集群服务器环境中的I/O密集、CPU受限、面向文件的任务。典型的应用包括数据库、web服务、e-mail和地理信息系统(GIS),当然也包括存储应用。

IT管理员感兴趣的其它的与InfiniBand相关协议是:SCSI远程直接内存访问(RDMA)协议、共享资源协议(SRP)、IP over InfiniBand (IPoIB)、直接套节字协议(SDP)、远程网络驱动接口规范(RNDIS)。

SRP的开发在一些公司进展顺利,比如,已经开发出早期版本并运行在Windows 2000上协议的Adaptec。OEM的厂商和合作伙伴正在测试beta系统。Adaptec认为SRP对于高性能的SANs会相当出众,但必须解决多厂商产品间的兼容。最终版本的SRP可能取决于操作系统的驱动程序和服务器的支持,预计在本年下半年或2003年上半年完成。

IpoIB,将IP协议映射到InfiniBand,正在被IETF的一个工作组定义。IpoIB包括IPv4/IPv6的地址解析、IPv4/IPv6的数据报的封装、网络初始化、组播、广播和管理信息库。预计在本年下半年或2003年上半年完成。

SDP试图解决其它协议的几个缺陷,特别是相对高的CPU和内存带宽的利用率。SDP基于微软的Winsock Direct协议,类似于TCP/IP,但优化后用于InfiniBand,以降低负荷。一个工作组在2000年下半年开始定义SDP,今年2月完成了1.0规范。

RNDIS是微软开发的协议,用于基于通道的即插即用总线的网络I/O,比如USB和IEEE-1394。InfiniBand RNDIS 1.0规范即将完成。



相关词条:
SIB24  IBO  SIB5  iBeacon  LFIB  SIB2  
 
自定义分类:
IT
 
贡献者:
jxwnwhVOIP之子
Copyright © 1999-2024 C114 All Rights Reserved | 联系我们 | 沪ICP备12002291号-4