1. 计算机内存的发展史,和一些相关资料
作为PC不可缺少的重要核心部件——内存,它伴随着DIY硬件走过了多年历程。从286时代的30pin SIMM内存、486时代的72pin SIMM 内存,到Pentium时代的EDO DRAM内存、PII时代的SDRAM内存,到P4时代的DDR内存和目前9X5平台的DDR2内存。内存从规格、技术、总线带宽等不断更新换代。不过我们有理由相信,内存的更新换代可谓万变不离其宗,其目的在于提高内存的带宽,以满足CPU不断攀升的带宽要求、避免成为高速CPU运算的瓶颈。那么,内存在PC领域有着怎样的精彩人生呢?下面让我们一起来了解内存发展的历史吧。
一、历史起源——内存条概念
如果你细心的观察,显存(或缓存)在目前的DIY硬件上都很容易看到,显卡显存、硬盘或光驱的缓存大小直接影响到设备的性能,而寄存器也许是最能代表PC硬件设备离不开RAM的,的确如此,如果没有内存,那么PC将无法运转,所以内存自然成为DIY用户讨论的重点话题。
在刚刚开始的时候,PC上所使用的内存是一块块的IC,要让它能为PC服务,就必须将其焊接到主板上,但这也给后期维护带来的问题,因为一旦某一块内存IC坏了,就必须焊下来才能更换,由于焊接上去的IC不容易取下来,同时加上用户也不具备焊接知识(焊接需要掌握焊接技术,同时风险性也大),这似乎维修起来太麻烦。
因此,PC设计人员推出了模块化的条装内存,每一条上集成了多块内存IC,同时在主板上也设计相应的内存插槽,这样内存条就方便随意安装与拆卸了(如图1),内存的维修、升级都变得非常简单,这就是内存“条”的来源。
小帖士:内存(Random Access Memory,RAM)的主要功能是暂存数据及指令。我们可以同时写数据到RAM 内存,也可以从RAM 读取数据。由于内存历来都是系统中最大的性能瓶颈之一,因此从某种角度而言,内存技术的改进甚至比CPU 以及其它技术更为令人激动。
……………………
以上未完部分,我不转贴了,在下面的网址,我个人认为是非常全面的了:
http://www.incpc.net/Html/histroy/20060907817.html
2. 谁能告诉我内存条的发展史!拜托!
作为PC不可缺少的重要核心部件——内存,它伴随着DIY硬件走过了多年历程。从286时代的30pin SIMM内存、486时代的72pin SIMM 内存,到Pentium时代的EDO DRAM内存、PII时代的SDRAM内存,到P4时代的DDR内存和目前9X5平台的DDR2内存。内存从规格、技术、总线带宽等不断更新换代。不过我们有理由相信,内存的更新换代可谓万变不离其宗,其目的在于提高内存的带宽,以满足CPU不断攀升的带宽要求、避免成为高速CPU运算的瓶颈。那么,内存在PC领域有着怎样的精彩人生呢?下面让我们一起来了解内存发展的历史吧。
一、历史起源——内存条概念
如果你细心的观察,显存(或缓存)在目前的DIY硬件上都很容易看到,显卡显存、硬盘或光驱的缓存大小直接影响到设备的性能,而寄存器也许是最能代表PC硬件设备离不开RAM的,的确如此,如果没有内存,那么PC将无法运转,所以内存自然成为DIY用户讨论的重点话题。
在刚刚开始的时候,PC上所使用的内存是一块块的IC,要让它能为PC服务,就必须将其焊接到主板上,但这也给后期维护带来的问题,因为一旦某一块内存IC坏了,就必须焊下来才能更换,由于焊接上去的IC不容易取下来,同时加上用户也不具备焊接知识(焊接需要掌握焊接技术,同时风险性也大),这似乎维修起来太麻烦。
因此,PC设计人员推出了模块化的条装内存,每一条上集成了多块内存IC,同时在主板上也设计相应的内存插槽,这样内存条就方便随意安装与拆卸了(如图1),内存的维修、升级都变得非常简单,这就是内存“条”的来源。
小帖士:内存(Random Access Memory,RAM)的主要功能是暂存数据及指令。我们可以同时写数据到RAM 内存,也可以从RAM 读取数据。由于内存历来都是系统中最大的性能瓶颈之一,因此从某种角度而言,内存技术的改进甚至比CPU 以及其它技术更为令人激动。
……………………
以上未完部分,我不转贴了,在下面的网址,我个人认为是非常全面的了:
http://www.incpc.net/Html/histroy/20060907817.html
给你一点参考吧,虽然我不支持写论文从网上搬点东西来。
DOS操作系统最早设计时,PC机的硬件系统只支持1M字节的寻址空间,所以DOS只能管理最多1M字节的连续内存空间。在这1M内存中,又只有640K被留给应用程序使用,它们被称为常规内存或基本内存,其它384K被称为高端内存,是留给视频显示和BIOS等使用的。在1982年,640K内存对微型计算机来说显得绰绰有余,人们甚至认为,640K的内存可以用来干任何事。现在看起来有些可笑,但在当时,情况确实如此。
现在的情况是,即使你的电脑装有几兆或几十兆内存,但如果你使用DOS操作系统,那么你也只有640K的内存可以直接使用,1M以上的内存要通过一些内存管理工具才能使用。值得庆幸的是,Windows 95已经不存在常规内存的限制了,你所有的内存,不管是8M还是128M,都可以被直接使用。
在DOS下,系统中存在以下四种内存:
常规内存(Conventional Memory);
高端内存(Upper Memory);
扩充内存(Expanded Memory);
扩展内存(Extended Memory)。
常规内存指的是0-640K的内存区。在DOS下,一般的应用程序只能使用系统的常规内存,因而都要受到640KB内存的限制。而且由于DOS本身和config.sys文件中的安装的设备驱动程序和autoexec.bat文件中执行的内存驻留程序都要占用一些常规内存,所以应用程序能使用的常规内存是不到640K的。有很多时候,我们都要想方设法地整理内存,好为一些“胃口”比较大的应用程序留出足够的常规内存,这一点想必是许多DOS时代的电脑爱好者最熟悉不过的了。
高端内存是指位于常规内存之上的384K内存。程序一般不能使用这个内存区域,但是EMM386.exe可以激活高端内存的一部分,并且它允许用户将某些设备驱动程序和用户程序用Devicehigh或LH(即loadhigh)装入高端内存。dos=high,umb也是把DOS的一部分装到高端内存里。这里的umb是高端内存块(Upper Memory Block)的缩写。
扩充内存是一种早期的增加内存的标准,最多可扩充到32M。使用扩充内存必须在计算机中安装专门的扩充内存板,而且还要安装管理扩充内存板的管理程序。由于扩充内存是在扩展内存之前推出的,所以大多数程序都被设计成能使用扩充内存,而不能使用扩展内存。由于扩充内存使用起来比较麻烦,所以在扩展内存出现后不久就被淘汰了。
扩展内存只能用在80286或更高档次的机器上,目前几乎所有使用DOS的机器上超过1M的内存都是扩展内存。扩展内存同样不能被DOS直接使用,DOS5.0以后提供了Himem.sys这个扩展内存管理程序,我们可以通过它来管理扩展内存。emm386.exe可以把扩展内存(XMS)仿真成扩充内存(EMS),以满足一些要求使用扩充内存的程序。
最后再强调一下,不管扩充内存或扩展内存有多大,DOS的应用程序只能在常规内存下运行。有的程序可以通过DOS扩展器(比如DOS4GW.exe等程序)使CPU进入保护模式,从而直接访问扩展内存;但是要注意,进入保护模式以后,计算机就脱离了DOS状态。
在计算机的组成结构中,有一个很重要的部分,就是存储器。存储器是用来存储程序和数据的部件,对于计算机来说,有了存储器,才有记忆功能,才能保证正常工作。存储器的种类很多,按其用途可分为主存储器和辅助存储器,主存储器又称内存储器(简称内存).内存在电脑中起着举足轻重的作用。内存一般采用半导体存储单元,包括随机存储器(RAM),只读存储器(ROM),以及高速缓存(CACHE)。只不过因为RAM是其中最重要的存储器。S(SYSNECRONOUS)DRAM 同步动态随机存取存储器:SDRAM为168脚,这是目前PENTIUM及以上机型使用的内存。SDRAM将CPU与RAM通过一个相同的时钟锁在一起,使CPU和RAM能够共享一个时钟周期,以相同的速度同步工作,每一个时钟脉冲的上升沿便开始传递数据,速度比EDO内存提高50%。DDR(DOUBLE DATA RAGE)RAM :SDRAM的更新换代产品,他允许在时钟脉冲的上升沿和下降沿传输数据,这样不需要提高时钟的频率就能加倍提高SDRAM的速度。
●内存
内存就是存储程序以及数据的地方,比如当我们在使用WPS处理文稿时,当你在键盘上敲入字符时,它就被存入内存中,当你选择存盘时,内存中的数据才会被存入硬(磁)盘。在进一步理解它之前,还应认识一下它的物理概念。
●只读存储器(ROM)
ROM表示只读存储器(Read Only Memory),在制造ROM的时候,信息(数据或程序)就被存入并永久保存。这些信息只能读出,一般不能写入,即使机器掉电,这些数据也不会丢失。ROM一般用于存放计算机的基本程序和数据,如BIOS ROM。其物理外形一般是双列直插式(DIP)的集成块。
●随机存储器(RAM)
随机存储器(Random Access Memory)表示既可以从中读取数据,也可以写入数据。当机器电源关闭时,存于其中的数据就会丢失。我们通常购买或升级的内存条就是用作电脑的内存,内存条(SIMM)就是将RAM集成块集中在一起的一小块电路板,它插在计算机中的内存插槽上,以减少RAM集成块占用的空间。目前市场上常见的内存条有128M/条、256M/条、512M/条等。
●高速缓冲存储器(Cache)
Cache也是我们经常遇到的概念,它位于CPU与内存之间,是一个读写速度比内存更快的存储器。当CPU向内存中写入或读出数据时,这个数据也被存储进高速缓冲存储器中。当CPU再次需要这些数据时,CPU就从高速缓冲存储器读取数据,而不是访问较慢的内存,当然,如需要的数据在Cache中没有,CPU会再去读取内存中的数据。
当你理解了上述概念后,也许你会问,内存就是内存,为什么又会出现各种内存名词,这到底又是怎么回事呢?
在回答这个问题之前,我们再来看看下面这一段。
物理存储器和地址空间
物理存储器和存储地址空间是两个不同的概念。但是由于这两者有十分密切的关系,而且两者都用B、KB、MB、GB来度量其容量大小,因此容易产生认识上的混淆。初学者弄清这两个不同的概念,有助于进一步认识内存储器和用好内存储器。
物理存储器是指实际存在的具体存储器芯片。如主板上装插的内存条和装载有系统的BIOS的ROM芯片,显示卡上的显示RAM芯片和装载显示BIOS的ROM芯片,以及各种适配卡上的RAM芯片和ROM芯片都是物理存储器。
存储地址空间是指对存储器编码(编码地址)的范围。所谓编码就是对每一个物理存储单元(一个字节)分配一个号码,通常叫作“编址”。分配一个号码给一个存储单元的目的是为了便于找到它,完成数据的读写,这就是所谓的“寻址”(所以,有人也把地址空间称为寻址空间)。
地址空间的大小和物理存储器的大小并不一定相等。举个例子来说明这个问题:某层楼共有17个房间,其编号为801~817。这17个房间是物理的,而其地址空间采用了三位编码,其范围是800~899共100个地址,可见地址空间是大于实际房间数量的。
对于386以上档次的微机,其地址总线为32位,因此地址空间可达232即4GB。但实际上我们所配置的物理存储器通常只有1MB、2MB、4MB、8MB、16MB、32MB等,远小于地址空间所允许的范围。
好了,现在可以解释为什么会产生诸如:常规内存、保留内存、上位内存、高端内存、扩充内存和扩展内存等不同内存类型。
各种内存概念
这里需要明确的是,我们讨论的不同内存的概念是建立在寻址空间上的。
IBM推出的第一台PC机采用的CPU是8088芯片,它只有20根地址线,也就是说,它的地址空间是1MB。
PC机的设计师将1MB中的低端640KB用作RAM,供DOS及应用程序使用,高端的384KB则保留给ROM、视频适配卡等系统使用。从此,这个界限便被确定了下来并且沿用至今。低端的640KB就被称为常规内存即PC机的基本RAM区。保留内存中的低128KB是显示缓冲区,高64KB是系统BIOS(基本输入/输出系统)空间,其余192KB空间留用。从对应的物理存储器来看,基本内存区只使用了512KB芯片,占用0000至80000这512KB地址。显示内存区虽有128KB空间,但对单色显示器(MDA卡)只需4KB就足够了,因此只安装4KB的物理存储器芯片,占用了B0000至B10000这4KB的空间,如果使用彩色显示器(CGA卡)需要安装16KB的物理存储器,占用B8000至BC000这16KB的空间,可见实际使用的地址范围都小于允许使用的地址空间。
在当时(1980年末至1981年初)这么“大”容量的内存对PC机使用者来说似乎已经足够了,但是随着程序的不断增大,图象和声音的不断丰富,以及能访问更大内存空间的新型CPU相继出现,最初的PC机和MS-DOS设计的局限性变得越来越明显。
1.什么是扩充内存?
EMS工作原理
到1984年,即286被普遍接受不久,人们越来越认识到640KB的限制已成为大型程序的障碍,这时,Intel和Lotus,这两家硬、软件的杰出代表,联手制定了一个由硬件和软件相结合的方案,此方法使所有PC机存取640KB以上RAM成为可能。而Microsoft刚推出Windows不久,对内存空间的要求也很高,因此它也及时加入了该行列。
在1985年初,Lotus、Intel和Microsoft三家共同定义了LIM-EMS,即扩充内存规范,通常称EMS为扩充内存。当时,EMS需要一个安装在I/O槽口的内存扩充卡和一个称为EMS的扩充内存管理程序方可使用。但是I/O插槽的地址线只有24位(ISA总线),这对于386以上档次的32位机是不能适应的。所以,现在已很少使用内存扩充卡。现在微机中的扩充内存通常是用软件如DOS中的EMM386把扩展内存模拟或扩充内存来使用。所以,扩充内存和扩展内存的区别并不在于其物理存储器的位置,而在于使用什么方法来读写它。下面将作进一步介绍。
前面已经说过扩充存储器也可以由扩展存储器模拟转换而成。EMS的原理和XMS不同,它采用了页帧方式。页帧是在1MB空间中指定一块64KB空间(通常在保留内存区内,但其物理存储器来自扩展存储器),分为4页,每页16KB。EMS存储器也按16KB分页,每次可交换4页内容,以此方式可访问全部EMS存储器。符合EMS的驱动程序很多,常用的有EMM386.EXE、QEMM、TurboEMS、386MAX等。DOS和Windows中都提供了EMM386.EXE。
2.什么是扩展内存?
我们知道,286有24位地址线,它可寻址16MB的地址空间,而386有32位地址线,它可寻址高达4GB的地址空间,为了区别起见,我们把1MB以上的地址空间称为扩展内存XMS(eXtend memory)。
在386以上档次的微机中,有两种存储器工作方式,一种称为实地址方式或实方式,另一种称为保护方式。在实方式下,物理地址仍使用20位,所以最大寻址空间为1MB,以便与8086兼容。保护方式采用32位物理地址,寻址范围可达4GB。DOS系统在实方式下工作,它管理的内存空间仍为1MB,因此它不能直接使用扩展存储器。为此,Lotus、Intel、AST及Microsoft公司建立了MS-DOS下扩展内存的使用标准,即扩展内存规范XMS。我们常在Config.sys文件中看到的Himem.sys就是管理扩展内存的驱动程序。
扩展内存管理规范的出现迟于扩充内存管理规范。
3.什么是高端内存区?
在实方式下,内存单元的地址可记为:
段地址:段内偏移
通常用十六进制写为XXXX:XXXX。实际的物理地址由段地址左移4位再和段内偏移相加而成。若地址各位均为1时,即为FFFF:FFFF。其实际物理地址为:FFF0+FFFF=10FFEF,约为1088KB(少16字节),这已超过1MB范围进入扩展内存了。这个进入扩展内存的区域约为64KB,是1MB以上空间的第一个64KB。我们把它称为高端内存区HMA(High Memory Area)。HMA的物理存储器是由扩展存储器取得的。因此要使用HMA,必须要有物理的扩展存储器存在。此外HMA的建立和使用还需要XMS驱动程序HIMEM.SYS的支持,因此只有装入了HIMEM.SYS之后才能使用HMA。
4.什么是上位内存?
为了解释上位内存的概念,我们还得回过头看看保留内存区。保留内存区是指640KB~1024KB(共384KB)区域。这部分区域在PC诞生之初就明确是保留给系统使用的,用户程序无法插足。但这部分空间并没有充分使用,因此大家都想对剩余的部分打主意,分一块地址空间(注意:是地址空间,而不是物理存储器)来使用。于是就得到了又一块内存区域UMB。
UMB(Upper Memory Blocks)称为上位内存或上位内存块。它是由挤占保留内存中剩余未用的空间而产生的,它的物理存储器仍然取自物理的扩展存储器,它的管理驱动程序是EMS驱动程序。
5.什么是SHADOW(影子)内存?
对于细心的读者,可能还会发现一个问题:即是对于装有1MB或1MB以上物理存储器的机器,其640KB~1024KB这部分物理存储器如何使用的问题。由于这部分地址空间已分配为系统使用,所以不能再重复使用。为了利用这部分物理存储器,在某些386系统中,提供了一个重定位功能,即把这部分物理存储器的地址重定位为1024KB~1408KB。这样,这部分物理存储器就变成了扩展存储器,当然可以使用了。但这种重定位功能在当今高档机器中不再使用,而把这部分物理存储器保留作为Shadow存储器。Shadow存储器可以占据的地址空间与对应的ROM是相同的。Shadow由RAM组成,其速度大大高于ROM。当把ROM中的内容(各种BIOS程序)装入相同地址的Shadow RAM中,就可以从RAM中访问BIOS,而不必再访问ROM。这样将大大提高系统性能。因此在设置CMOS参数时,应将相应的Shadow区设为允许使用(Enabled)。
6、什么是奇/偶校验?
奇/偶校验(ECC)是数据传送时采用的一种校正数据错误的一种方式,分为奇校验和偶校验两种。
如果是采用奇校验,在传送每一个字节的时候另外附加一位作为校验位,当实际数据中“1”的个数为偶数的时候,这个校验位就是“1”,否则这个校验位就是“0”,这样就可以保证传送数据满足奇校验的要求。在接收方收到数据时,将按照奇校验的要求检测数据中“1”的个数,如果是奇数,表示传送正确,否则表示传送错误。
同理偶校验的过程和奇校验的过程一样,只是检测数据中“1”的个数为偶数。
总 结
经过上面分析,内存储器的划分可归纳如下:
●基本内存 占据0~640KB地址空间。
●保留内存 占据640KB~1024KB地址空间。分配给显示缓冲存储器、各适配卡上的ROM和系统ROM BIOS,剩余空间可作上位内存UMB。UMB的物理存储器取自物理扩展存储器。此范围的物理RAM可作为Shadow RAM使用。
●上位内存(UMB) 利用保留内存中未分配使用的地址空间建立,其物理存储器由物理扩展存储器取得。UMB由EMS管理,其大小可由EMS驱动程序设定。
●高端内存(HMA) 扩展内存中的第一个64KB区域(1024KB~1088KB)。由HIMEM.SYS建立和管理。
●XMS内存 符合XMS规范管理的扩展内存区。其驱动程序为HIMEM.SYS。
●EMS内存 符合EMS规范管理的扩充内存区。其驱动程序为EMM386.EXE等。
3. 内存发展史
转:
内存发展史
Wikipedia,自由的网络全书
在了解内存的发展之前,我们应该先解释一下几个常用词汇,这将有助于我们加强对内存的理解。RAM就是Random Access Memory(随机存贮器)的缩写。它又分成两种Static RAM(静态随机存贮器)和Dynamic RAM(动态随机存贮器)。
SRAM曾经是一种主要的内存,SRAM速度很快而且不用刷新就能保存数据不丢失。它以双稳态电路形式存储数据,结构复杂,内部需要使用更多的晶体管构成寄存器以保存数据,所以它采用的硅片面积相当大,制造成本也相当高,所以现在只能把SRAM用在比主内存小的多的高速缓存上。随着 Intel将L2高速缓存整合入CPU(从Medocino开始)后,SRAM失去了最大应用需求来源,还好在移动电话从模拟转向数字的发展趋势中,终于为具有省电优势的SRAM寻得了另一个需求成长的契机,再加上网络服务器、路由器等的需求激励,才使得SRAM市场勉强得以继续成长。
DRAM,顾名思义即动态RAM。DRAM的结构比起SRAM来说要简单的多,基本结构是一只MOS管和一个电容构成。具有结构简单、集成度高、功耗低、生产成本低等优点,适合制造大容量存储器,所以现在我们用的内存大多是由DRAM构成的。所以下面主要介绍DRAM内存。在详细说明DRAM存储器前首先要说一下同步的概念,根据内存的访问方式可分为两种:同步内存和异步内存。区分的标准是看它们能不能和系统时钟同步。内存控制电路(在主板的芯片组中,一般在北桥芯片组中)发出行地址选择信号(RAS)和列地址选择信号(CAS)来指定哪一块存储体将被访问。在SDRAM之前的 EDO内存就采用这种方式。读取数据所用的时间用纳秒表示。当系统的速度逐渐增加,特别是当66MHz频率成为总线标准时,EDO内存的速度就显得很慢了,CPU总要等待内存的数据,严重影响了性能,内存成了一个很大的瓶颈。因此出现了同步系统时钟频率的SDRAM。
DRAM的分类 FP DRAM:又叫快页内存,在386时代很流行。因为DRAM需要恒电流以保存信息,一旦断电,信息即丢失。它的刷新频率每秒钟可达几百次,但由于FP DRAM使用同一电路来存取数据,所以DRAM的存取时间有一定的时间间隔,这导致了它的存取速度并不是很快。另外,在DRAM中,由于存储地址空间是按页排列的,所以当访问某一页面时,切换到另一页面会占用CPU额外的时钟周期。其接口多为72线的SIMM类型。 EDO DRAM:EDO RAM――Extended Date Out RAM——外扩充数据模式存储器,EDO-RAM同FP DRAM相似,它取消了扩展数据输出内存与传输内存两个存储周期之间的时间间隔,在把数据发送给CPU的同时去访问下一个页面,故而速度要比普通DRAM 快15~30%。工作电压为一般为5V,其接口方式多为72线的SIMM类型,但也有168线的DIMM类型。EDO DRAM这种内存流行在486以及早期的奔腾电脑上。当前的标准是SDRAM(同步DRAM的缩写),顾名思义,它是同步于系统时钟频率的。SDRAM内存访问采用突发(burst)模式,它和原理是, SDRAM在现有的标准动态存储器中加入同步控制逻辑(一个状态机),利用一个单一的系统时钟同步所有的地址数据和控制信号。使用SDRAM不但能提高系统表现,还能简化设计、提供高速的数据传输。 在功能上,它类似常规的DRAM,也需时钟进行刷新。 可以说, SDRAM是一种改善了结构的增强型DRAM。然而,SDRAM是如何利用它的同步特性而适应高速系统的需要的呢?我们知道,原先我们使用的动态存储器技术都是建立在异步控制基础上的。系统在使用这些异步动态存储器时需插入一些等待状态来适应异步动态存储器的本身需要,这时,指令的执行时间往往是由内存的速度、而非系统本身能够达到的最高速率来决定。例如,当将连续数据存入CACHE时,一个速度为60ns的快页内存需要40ns的页循环时间;当系统速度运行在100MHz时(一个时钟周期10ns),每执行一次数据存取,即需要等待4个时钟周期!而使用SDRAM,由于其同步特性,则可避免这一时。 SDRAM结构的另一大特点是其支持DRAM的两列地址同时打开。两个打开的存储体间的内存存取可以交叉进行,一般的如预置或激活列可以隐藏在存储体存取过程中,即允许在一个存储体读或写的同时,令一存储体进行预置。按此进行,100MHz的无缝数据速率可在整个器件读或写中实现。因为SDRAM的速度约束着系统的时钟速度,它的速度是由MHz或ns来计算的。 SDRAM的速度至少不能慢于系统的时钟速度,SDRAM的访问通常发生在四个连续的突发周期,第一个突发周期需要4个系统时钟周期,第二到第四个突发周期只需要1个系统时钟周期。用数字表示如下:4-1-1-1。顺便提一下BEDO(Burst EDO)也就是突发EDO内存。实际上其原理和性能是和SDRAM差不多的,因为Intel的芯片组支持SDRAM,由于INTEL的市场领导地位帮助 SDRAM成为市场的标准。
DRAMR的两种接口类型 DRAM主要有两种接口类型,既早期的SIMM和现在的标准DIMM。SIMM是Single-In Line Memory Mole的简写,即单边接触内存模组,这是486及其较早的PC机中常用的内存的接口方式。在更早的PC机中(486以前),多采用30针的SIMM 接口,而在Pentium中,应用更多的则是72针的SIMM接口,或者是与DIMM接口类型并存。DIMM是Dual In-Line Memory Mole的简写,即双边接触内存模组,也就是说这种类型接口内存的插板的两边都有数据接口触片,这种接口模式的内存广泛应用于现在的计算机中,通常为 84针,但由于是双边的,所以一共有84×2=168线接触,故而人们经常把这种内存称为168线内存,而把72线的SIMM类型内存模组直接称为72线内存。DRAM内存通常为72线,EDO-RAM内存既有72线的,也有168线的,而SDRAM内存通常为168线的。
新的内存标准在新的世纪到来之时,也带来了计算机硬件的重大改变。计算机的制造工艺发展到已经可以把微处理器(CPU)的时钟频率提高的一千兆的边缘。相应的内存也必须跟得上处理器的速度才行。现在有两个新的标准,DDR SDRAM内存和Rambus内存。它们之间的竞争将会成为PC内存市场竞争的核心。DDR SDRAM代表着一条内存逐渐演化的道路。Rambus则代表着计算机设计上的重大变革。从更远一点的角度看。DDR SDRAM是一个开放的标准。然而Rambus则是一种专利。它们之间的胜利者将会对计算机制造业产生重大而深远的影响。
RDRAM在工作频率上有大幅度的提升,但这一结构的改变,涉及到包括芯片组、DRAM制造、封装、测试甚至PCB及模组等的全面改变,可谓牵一发而动全身。未来高速DRAM结构的发展究竟如何?Intel重新整装再发的820芯片组,是否真能如愿以偿地让RDRAM登上主流宝座?
PC133 SDRAM:PC133 SDRAM基本上只是PC100 SDRAM的延伸,不论在DRAM制造、封装、模组、连接器方面,都延续旧有规范,它们的生产设备相同,因此生产成本也几乎与PC100 SDRAM相同。严格来说,两者的差别仅在于相同制程技术下,所多的一道「筛选」程序,将速度可达133MHz的颗粒挑选出来而已。若配合可支持 133MHz外频的芯片组,并提高CPU的前端总线频率(Front Side Bus)到133MHz,便能将DRAM带宽提高到1GB/sec以上,从而提高整体系统性能。
DDR-SDRAM:DDR SDRAM(Double Data Rate DRAM)或称之为SDRAMⅡ,由于DDR在时钟的上升及下降的边缘都可以传输资料,从而使得实际带宽增加两倍,大幅提升了其性能/成本比。就实际功能比较来看,由PC133所衍生出的第二代PC266 DDR SRAM(133MHz时钟×2倍数据传输=266MHz带宽),不仅在InQuest最新测试报告中显示其性能平均高出Rambus 24.4%,在Micron的测试中,其性能亦优于其他的高频宽解决方案,充份显示出DDR在性能上已足以和Rambus相抗衡的程度。
Direct Rambus-DRAM :Rambus DRAM设计与以往DRAM很大的不同之处在于,它的微控制器与一般内存控制器不同,使得芯片组必须重新设计以符合要求,此外,数据通道接口也与一般内存不同,Rambus以2条各8 bit宽(含ECC则为9 bit)的数据通道(channel)传输数据,虽然比SDRAM的64bit窄,但其时钟频率却可高达400MHz,且在时钟的上升和下降沿都能传输数据,因而能达到1.6GB/sec的尖峰带宽。
各种DRAM规格之综合比较数据带宽:从数据带宽来看,传统PC100在时钟频率为100MHz的情况下,尖峰数据传输率可达到800MB/sec。若以先进0.25微米线程制造的 DRAM,大都可以「筛选」出时钟频率达到133MHz的PC133颗粒,可将尖峰数据传输率再次提高至1.06GB/sec,只要CPU及芯片组能配合,就可提高整体系统性能。此外,就DDR而言,由于其在时钟上升和下降沿都能传输数据,所以在相同133MHz的时钟频率下,其尖峰数据传输将可大幅提高两倍,达到2.1 GB/sec的水准,其性能甚至比现阶段Rambus所能达到的1.6GB/sec更高。
传输模式:传统SDRAM采用并列数据传输方式,Rambus则采取了比较特别的串行传输方式。在串行的传输方式之下,资料信号都是一进一出,可以把数据带宽降为16bit,而且可大幅提高工作时钟频率(400MHz),但这也形成了模组在数据传输设计上的限制。也就是说,在串接的模式下,如果有其中一个模组损坏、或是形成断路,便会使整个系统无法正常开机。因此,对采用Rambus内存模组的主机板而言,便必须将三组内存扩充插槽完全插满,如果Rambus模组不足的话,只有安装不含RDRAM颗粒的中继模组(Continuity RIMM Mole;C-RIMM),纯粹用来提供信号的串接工作,让数据的传输畅通。
模组及PCB的设计:由于Rambus的工作频率高达400MHz,所以不管是电路设计、线路布局、颗粒封装及记忆模组的设计等,都和以往SDRAM大为不同。以模组设计而言,RDRAM所构成的记忆模组称之为RIMM(Rambus In Memory Mole),目前的设计可采取4、6、8、12与16颗等不同数目的RDRAM颗粒来组成,虽然引脚数提高到了184只,但整个模组的长度却与原有 DIMM相当。
另外,在设计上,Rambus的每一个传输信道所能承载的芯片颗粒数目有限(最多32颗),从而造成RDRAM内存模组容量将有所限制。也就是说,如果已经安装了一只含16颗RDARM颗粒的RIMM模组时,若想要再扩充内存,最多只能再安装具有16颗RDARM的模组。另外,由于 RDARM在高频下工作将产生高温,所以RIMM模组在设计时必须加上一层散热片,也增加了RIMM模组的成本。
颗粒的封装:DRAM封装技术从最早的DIP、SOJ提高到TSOP的形式。从现在主流SDRAM的模组来看,除了胜创科技首创的TinyBGA技术和樵风科技首创的BLP封装模式外,绝大多数还是采用TSOP的封装技术。
随着DDR、RDRAM的陆续推出,将内存频率提高到一个更高的水平上,TSOP封装技术渐渐有些力不从心了,难以满足DRAM设计上的要求。从Intel力推的RDRAM来看,采用了新一代的μBGA封装形式,相信未来DDR等其他高速DRAM的封装也会采取相同或不同的BGA封装方式。
尽管RDRAM在时钟频率上有了突破性的进展,有效地提高了整个系统性能,但毕竟在实际使用上,其规格与现阶段主流的SDRAM有很大的差异,不仅不兼容于现有系统芯片组而成了Intel一家独揽的局面。甚至在DRAM模组的设计上,不仅使用了最新一代的BGA封装方式,甚至在电路板的设计上,都采取用了8层板的严格标准,更不用说在测试设备上的庞大投资。使得大多数的DRAM及模组厂商不敢贸然跟进。
再说,由于Rambus是个专利标准,想生产RDRAM的厂商必须先取得Rambus公司的认证,并支付高额的专利费用。不仅加重了各DRAM厂商的成本负担,而且它们担心在制定未来新一代的内存标准时会失去原来掌握的规格控制能力。
由于RIMM模组的颗粒最多只能为32颗,限制了Rambus应用,只能用在入门级服务器和高级PC上。或许就PC133而言,在性能上无法和Rambus抗衡,但是一旦整合了DDR技术后,其数据带宽可达到2.1GB/sec,不仅领先Rambus所能达到的1.6GB/sec标准,而且由于其开放的标准及在兼容性上远比Rambus高的原故,估计将会对Rambus造成非常大的杀伤力。更何况台湾在威盛与AMD等联盟的强力支持下,Intel是否能再象往日一般地呼风唤雨,也成了未知数。至少,在低价PC及网络PC方面,Rambus的市场将会很小。
结论:尽管Intel采取了种种不同的策略布局及对策,要想挽回Rambus的气势,但毕竟像Rambus这种具有突破性规格的产品,在先天上便存在有着诸多较难克服的问题。或许Intel可以藉由更改主机板的RIMM插槽方式、或是提出SDRAM与RDRAM共同存在的过渡性方案(S- RIMM、RIMM Riser)等方式来解决技术面上的问题。但一旦涉及规模量产成本的控制问题时,便不是Intel所能一家独揽的,更何况在网络趋势下的计算机应用将愈来愈趋于低价化,市场需求面是否对Rambus有兴趣,则仍有待考验。 在供给方面,从NEC独创的VCM SDRAM规格(Virtual Channel Memory)、以及Samsung等DRAM大厂对Rambus支持态度已趋保守的情况来看,再加上相关封装及测试等设备上的投资不足,估计年底之前, Rambus内存模组仍将缺乏与PC133甚至DDR的价格竞争力。
就长远的眼光来看,Rambus架构或许可以成为主流,但应不再会是主导市场的绝对主流,而SDRAM架构(PC133、DDR)在低成本的优势,以及广泛的应用领域,应该会有非常不错的表现。相信未来的DRAM市场,将会是多种结构并存的局面。
具最新消息,可望成为下一世代内存主力的Rambus DRAM因芯片组延迟推出,而气势稍挫的情况之下,由全球多家半导体与电脑大厂针对DDR SDRAM的标准化,而共同组成的AMII(Advanced Memory International Inc、)阵营,则决定积极促进比PC200、PC266速度提高10倍以上的PC1600与PC2100 DDR SDRAM规格的标准化,此举使得Rambus DRAM与DDR SDRAM的内存主导权之争,迈入新的局面。全球第二大微处理器制造商AMD,决定其Athlon处理器将采用PC266规格的DDR SDRAM,而且决定在今年年中之前,开发支持DDR SDRAM的芯片组,这使DDR SDRAM阵营深受鼓舞。全球内存业者极有可能将未来投资的重心,由Rambus DRAM转向DDR SDRAM。
综上所述,今年DDR SDRAM的发展势头要超过RAMBUS。而且DDR SDRAM的生产成本只有SDRAM的1.3倍,在生产成本上更具优势。
未来除了DDR和RAMBUS外还有其他几种有希望的内存产品,下面介绍其中的几种: SLDRAM (SyncLink DRAM,同步链接内存):SLDRAM也许是在速度上最接近RDRAM的竞争者。SLDRAM是一种增强和扩展的SDRAM架构,它将当前的4体(Bank)结构扩展到16体,并增加了新接口和控制逻辑电路。SLDRAM像SDRAM一样使用每个脉冲沿传输数据。
最新行情去太平洋看看http://www.pconline.com.cn/
4. 存储器的发展史
存储器设备发展
1.存储器设备发展之汞延迟线
汞延迟线是基于汞在室温时是液体,同时又是导体,每比特数据用机械波的波峰(1)和波谷(0)表示。机械波从汞柱的一端开始,一定厚度的熔融态金属汞通过一振动膜片沿着纵向从一端传到另一端,这样就得名“汞延迟线”。在管的另一端,一传感器得到每一比特的信息,并反馈到起点。设想是汞获取并延迟这些数据,这样它们便能存储了。这个过程是机械和电子的奇妙结合。缺点是由于环境条件的限制,这种存储器方式会受各种环境因素影响而不精确。
1950年,世界上第一台具有存储程序功能的计算机EDVAC由冯.诺依曼博士领导设计。它的主要特点是采用二进制,使用汞延迟线作存储器,指令和程序可存入计算机中。
1951年3月,由ENIAC的主要设计者莫克利和埃克特设计的第一台通用自动计算机UNIVAC-I交付使用。它不仅能作科学计算,而且能作数据处理。
2.存储器设备发展之磁带
UNIVAC-I第一次采用磁带机作外存储器,首先用奇偶校验方法和双重运算线路来提高系统的可靠性,并最先进行了自动编程的试验。
磁带是所有存储器设备发展中单位存储信息成本最低、容量最大、标准化程度最高的常用存储介质之一。它互换性好、易于保存,近年来,由于采用了具有高纠错能力的编码技术和即写即读的通道技术,大大提高了磁带存储的可靠性和读写速度。根据读写磁带的工作原理可分为螺旋扫描技术、线性记录(数据流)技术、DLT技术以及比较先进的LTO技术。
根据读写磁带的工作原理,磁带机可以分为六种规格。其中两种采用螺旋扫描读写方式的是面向工作组级的DAT(4mm)磁带机和面向部门级的8mm磁带机,另外四种则是选用数据流存储技术设计的设备,它们分别是采用单磁头读写方式、磁带宽度为1/4英寸、面向低端应用的Travan和DC系列,以及采用多磁头读写方式、磁带宽度均为1/2英寸、面向高端应用的DLT和IBM的3480/3490/3590系列等。
磁带库是基于磁带的备份系统,它能够提供同样的基本自动备份和数据恢复功能,但同时具有更先进的技术特点。它的存储容量可达到数百PB,可以实现连续备份、自动搜索磁带,也可以在驱动管理软件控制下实现智能恢复、实时监控和统计,整个数据存储备份过程完全摆脱了人工干涉。
磁带库不仅数据存储量大得多,而且在备份效率和人工占用方面拥有无可比拟的优势。在网络系统中,磁带库通过SAN(Storage Area Network,存储区域网络)系统可形成网络存储系统,为企业存储提供有力保障,很容易完成远程数据访问、数据存储备份或通过磁带镜像技术实现多磁带库备份,无疑是数据仓库、ERP等大型网络应用的良好存储设备。
3.存储器设备发展之磁鼓
1953年,随着存储器设备发展,第一台磁鼓应用于IBM 701,它是作为内存储器使用的。磁鼓是利用铝鼓筒表面涂覆的磁性材料来存储数据的。鼓筒旋转速度很高,因此存取速度快。它采用饱和磁记录,从固定式磁头发展到浮动式磁头,从采用磁胶发展到采用电镀的连续磁介质。这些都为后来的磁盘存储器打下了基础。
磁鼓最大的缺点是利用率不高, 一个大圆柱体只有表面一层用于存储,而磁盘的两面都利用来存储,显然利用率要高得多。 因此,当磁盘出现后,磁鼓就被淘汰了。
4.存储器设备发展之磁芯
美国物理学家王安1950年提出了利用磁性材料制造存储器的思想。福雷斯特则将这一思想变成了现实。
为了实现磁芯存储,福雷斯特需要一种物质,这种物质应该有一个非常明确的磁化阈值。他找到在新泽西生产电视机用铁氧体变换器的一家公司的德国老陶瓷专家,利用熔化铁矿和氧化物获取了特定的磁性质。
对磁化有明确阈值是设计的关键。这种电线的网格和芯子织在电线网上,被人称为芯子存储,它的有关专利对发展计算机非常关键。这个方案可靠并且稳定。磁化相对来说是永久的,所以在系统的电源关闭后,存储的数据仍然保留着。既然磁场能以电子的速度来阅读,这使交互式计算有了可能。更进一步,因为是电线网格,存储阵列的任何部分都能访问,也就是说,不同的数据可以存储在电线网的不同位置,并且阅读所在位置的一束比特就能立即存取。这称为随机存取存储器(RAM),在存储器设备发展历程中它是交互式计算的革新概念。福雷斯特把这些专利转让给麻省理工学院,学院每年靠这些专利收到1500万~2000万美元。
最先获得这些专利许可证的是IBM,IBM最终获得了在北美防卫军事基地安装“旋风”的商业合同。更重要的是,自20世纪50年代以来,所有大型和中型计算机也采用了这一系统。磁芯存储从20世纪50年代、60年代,直至70年代初,一直是计算机主存的标准方式。
5.存储器设备发展之磁盘
世界第一台硬盘存储器是由IBM公司在1956年发明的,其型号为IBM 350 RAMAC(Random Access Method of Accounting and Control)。这套系统的总容量只有5MB,共使用了50个直径为24英寸的磁盘。1968年,IBM公司提出“温彻斯特/Winchester”技术,其要点是将高速旋转的磁盘、磁头及其寻道机构等全部密封在一个无尘的封闭体中,形成一个头盘组合件(HDA),与外界环境隔绝,避免了灰尘的污染,并采用小型化轻浮力的磁头浮动块,盘片表面涂润滑剂,实行接触起停,这是现代绝大多数硬盘的原型。1979年,IBM发明了薄膜磁头,进一步减轻了磁头重量,使更快的存取速度、更高的存储密度成为可能。20世纪80年代末期,IBM公司又对存储器设备发展作出一项重大贡献,发明了MR(Magneto Resistive)磁阻磁头,这种磁头在读取数据时对信号变化相当敏感,使得盘片的存储密度比以往提高了数十倍。1991年,IBM生产的3.5英寸硬盘使用了MR磁头,使硬盘的容量首次达到了1GB,从此,硬盘容量开始进入了GB数量级。IBM还发明了PRML(Partial Response Maximum Likelihood)的信号读取技术,使信号检测的灵敏度大幅度提高,从而可以大幅度提高记录密度。
目前,硬盘的面密度已经达到每平方英寸100Gb以上,是容量、性价比最大的一种存储设备。因而,在计算机的外存储设备中,还没有一种其他的存储设备能够在最近几年中对其统治地位产生挑战。硬盘不仅用于各种计算机和服务器中,在磁盘阵列和各种网络存储系统中,它也是基本的存储单元。值得注意的是,近年来微硬盘的出现和快速发展为移动存储提供了一种较为理想的存储介质。在闪存芯片难以承担的大容量移动存储领域,微硬盘可大显身手。目前尺寸为1英寸的硬盘,存储容量已达4GB,10GB容量的1英寸硬盘不久也会面世。微硬盘广泛应用于数码相机、MP3设备和各种手持电子类设备。
另一种磁盘存储设备是软盘,从早期的8英寸软盘、5.25英寸软盘到3.5英寸软盘,主要为数据交换和小容量备份之用。其中,3.5英寸1.44MB软盘占据计算机的标准配置地位近20年之久,之后出现过24MB、100MB、200MB的高密度过渡性软盘和软驱产品。然而,由于USB接口的闪存出现,软盘作为数据交换和小容量备份的统治地位已经动摇,不久会退出存储器设备发展历史舞台。
6. 存储器设备发展之光盘
光盘主要分为只读型光盘和读写型光盘。只读型指光盘上的内容是固定的,不能写入、修改,只能读取其中的内容。读写型则允许人们对光盘内容进行修改,可以抹去原来的内容,写入新的内容。用于微型计算机的光盘主要有CD-ROM、CD-R/W和DVD-ROM等几种。
上世纪60年代,荷兰飞利浦公司的研究人员开始使用激光光束进行记录和重放信息的研究。1972年,他们的研究获得了成功,1978年投放市场。最初的产品就是大家所熟知的激光视盘(LD,Laser Vision Disc)系统。
从LD的诞生至计算机用的CD-ROM,经历了三个阶段,即LD-激光视盘、CD-DA激光唱盘、CD-ROM。下面简单介绍这三个存储器设备发展阶段性的产品特点。
LD-激光视盘,就是通常所说的LCD,直径较大,为12英寸,两面都可以记录信息,但是它记录的信号是模拟信号。模拟信号的处理机制是指,模拟的电视图像信号和模拟的声音信号都要经过FM(Frequency Molation)频率调制、线性叠加,然后进行限幅放大。限幅后的信号以0.5微米宽的凹坑长短来表示。
CD-DA激光唱盘 LD虽然取得了成功,但由于事先没有制定统一的标准,使它的开发和制作一开始就陷入昂贵的资金投入中。1982年,由飞利浦公司和索尼公司制定了CD-DA激光唱盘的红皮书(Red Book)标准。由此,一种新型的激光唱盘诞生了。CD-DA激光唱盘记录音响的方法与LD系统不同,CD-DA激光唱盘系统首先把模拟的音响信号进行PCM(脉冲编码调制)数字化处理,再经过EMF(8~14位调制)编码之后记录到盘上。数字记录代替模拟记录的好处是,对干扰和噪声不敏感,由于盘本身的缺陷、划伤或沾污而引起的错误可以校正。
CD-DA系统取得成功以后,使飞利浦公司和索尼公司很自然地想到利用CD-DA作为计算机的大容量只读存储器。但要把CD-DA作为计算机的存储器,还必须解决两个重要问题,即建立适合于计算机读写的盘的数据结构,以及CD-DA误码率必须从现有的10-9降低到10-12以下,由此就产生了CD-ROM的黄皮书(Yellow Book)标准。这个标准的核心思想是,盘上的数据以数据块的形式来组织,每块都要有地址,这样一来,盘上的数据就能从几百兆字节的存储空间上被迅速找到。为了降低误码率,采用增加一种错误检测和错误校正的方案。错误检测采用了循环冗余检测码,即所谓CRC,错误校正采用里德-索洛蒙(Reed Solomon)码。黄皮书确立了CD-ROM的物理结构,而为了使其能在计算机上完全兼容,后来又制定了CD-ROM的文件系统标准,即ISO 9660。
在上世纪80年代中期,光盘存储器设备发展速度非常快,先后推出了WORM光盘、磁光盘(MO)、相变光盘(Phase Change Disk,PCD)等新品种。20世纪90年代,DVD-ROM、CD-R、CD-R/W等开始出现和普及,目前已成为计算机的标准存储设备。
光盘技术进一步向高密度发展,蓝光光盘是不久将推出的下一代高密度光盘。多层多阶光盘和全息存储光盘正在实验室研究之中,可望在5年之内推向市场。
7.存储器设备发展之纳米存储
纳米是一种长度单位,符号为nm。1纳米=1毫微米,约为10个原子的长度。假设一根头发的直径为0.05毫米,把它径向平均剖成5万根,每根的厚度即约为1纳米。与纳米存储有关的主要进展有如下内容。
1998年,美国明尼苏达大学和普林斯顿大学制备成功量子磁盘,这种磁盘是由磁性纳米棒组成的纳米阵列体系。一个量子磁盘相当于我们现在的10万~100万个磁盘,而能源消耗却降低了1万倍。
1988年,法国人首先发现了巨磁电阻效应,到1997年,采用巨磁电阻原理的纳米结构器件已在美国问世,它在磁存储、磁记忆和计算机读写磁头等方面均有广阔的应用前景。
2002年9月,美国威斯康星州大学的科研小组宣布,他们在室温条件下通过操纵单个原子,研制出原子级的硅记忆材料,其存储信息的密度是目前光盘的100万倍。这是纳米存储材料技术研究的一大进展。该小组发表在《纳米技术》杂志上的研究报告称,新的记忆材料构建在硅材料表面上。研究人员首先使金元素在硅材料表面升华,形成精确的原子轨道;然后再使硅元素升华,使其按上述原子轨道进行排列;最后,借助于扫瞄隧道显微镜的探针,从这些排列整齐的硅原子中间隔抽出硅原子,被抽空的部分代表“0”,余下的硅原子则代表“1”,这就形成了相当于计算机晶体管功能的原子级记忆材料。整个试验研究在室温条件下进行。研究小组负责人赫姆萨尔教授说,在室温条件下,一次操纵一批原子进行排列并不容易。更为重要的是,记忆材料中硅原子排列线内的间隔是一个原子大小。这保证了记忆材料的原子级水平。赫姆萨尔教授说,新的硅记忆材料与目前硅存储材料存储功能相同,而不同之处在于,前者为原子级体积,利用其制造的计算机存储材料体积更小、密度更大。这可使未来计算机微型化,且存储信息的功能更为强大。
以上就是本文向大家介绍的存储器设备发展历程的7个关键时期
5. 内存条的发展史!
内存发展史
在了解内存的发展之前,我们应该先解释一下几个常用词汇,这将有助于我们加强对内存的理解。
RAM就是RandomAccessMemory(随机存贮器)的缩写。它又分成两种StaticRAM(静态随机存贮器)和DynamicRAM(动态随机存贮器)。
SRAM曾经是一种主要的内存,SRAM速度很快而且不用刷新就能保存数据不丢失。它以双稳态电路形式存储数据,结构复杂,内部需要使用更多的晶体管构成寄存器以保存数据,所以它采用的硅片面积相当大,制造成本也相当高,所以现在只能把SRAM用在比主内存小的多的高速缓存上。随着Intel将L2高速缓存整合入CPU(从Medocino开始)后,SRAM失去了最大应用需求来源,还好在移动电话从模拟转向数字的发展趋势中,终于为具有省电优势的SRAM寻得了另一个需求成长的契机,再加上网络服务器、路由器等的需求激励,才使得SRAM市场勉强得以继续成长。
DRAM,顾名思义即动态RAM。DRAM的结构比起SRAM来说要简单的多,基本结构是一只MOS管和一个电容构成。具有结构简单、集成度高、功耗低、生产成本低等优点,适合制造大容量存储器,所以现在我们用的内存大多是由DRAM构成的。所以下面主要介绍DRAM内存。在详细说明DRAM存储器前首先要说一下同步的概念,根据内存的访问方式可分为两种:同步内存和异步内存。区分的标准是看它们能不能和系统时钟同步。内存控制电路(在主板的芯片组中,一般在北桥芯片组中)发出行地址选择信号(RAS)和列地址选择信号(CAS)来指定哪一块存储体将被访问。在SDRAM之前的EDO内存就采用这种方式。读取数据所用的时间用纳秒表示。当系统的速度逐渐增加,特别是当66MHz频率成为总线标准时,EDO内存的速度就显得很慢了,CPU总要等待内存的数据,严重影响了性能,内存成了一个很大的瓶颈。因此出现了同步系统时钟频率的SDRAM。DRAM的分类FPDRAM:又叫快页内存,在386时代很流行。因为DRAM需要恒电流以保存信息,一旦断电,信息即丢失。它的刷新频率每秒钟可达几百次,但由于FPDRAM使用同一电路来存取数据,所以DRAM的存取时间有一定的时间间隔,这导致了它的存取速度并不是很快。另外,在DRAM中,由于存储地址空间是按页排列的,所以当访问某一页面时,切换到另一页面会占用CPU额外的时钟周期。其接口多为72线的SIMM类型。EDODRAM:EDORAM――ExtendedDateOutRAM——外扩充数据模式存储器,EDO-RAM同FPDRAM相似,它取消了扩展数据输出内存与传输内存两个存储周期之间的时间间隔,在把数据发送给CPU的同时去访问下一个页面,故而速度要比普通DRAM快15~30%。工作电压为一般为5V,其接口方式多为72线的SIMM类型,但也有168线的DIMM类型。EDODRAM这种内存流行在486以及早期的奔腾电脑上。当前的标准是SDRAM(同步DRAM的缩写),顾名思义,它是同步于系统时钟频率的。SDRAM内存访问采用突发(burst)模式,它和原理是,SDRAM在现有的标准动态存储器中加入同步控制逻辑(一个状态机),利用一个单一的系统时钟同步所有的地址数据和控制信号。使用SDRAM不但能提高系统表现,还能简化设计、提供高速的数据传输。在功能上,它类似常规的DRAM,也需时钟进行刷新。可以说,SDRAM是一种改善了结构的增强型DRAM。然而,SDRAM是如何利用它的同步特性而适应高速系统的需要的呢?我们知道,原先我们使用的动态存储器技术都是建立在异步控制基础上的。系统在使用这些异步动态存储器时需插入一些等待状态来适应异步动态存储器的本身需要,这时,指令的执行时间往往是由内存的速度、而非系统本身能够达到的最高速率来决定。例如,当将连续数据存入CACHE时,一个速度为60ns的快页内存需要40ns的页循环时间;当系统速度运行在100MHz时(一个时钟周期10ns),每执行一次数据存取,即需要等待4个时钟周期!而使用SDRAM,由于其同步特性,则可避免这一时。SDRAM结构的另一大特点是其支持DRAM的两列地址同时打开。两个打开的存储体间的内存存取可以交叉进行,一般的如预置或激活列可以隐藏在存储体存取过程中,即允许在一个存储体读或写的同时,令一存储体进行预置。按此进行,100MHz的无缝数据速率可在整个器件读或写中实现。因为SDRAM的速度约束着系统的时钟速度,它的速度是由MHz或ns来计算的。SDRAM的速度至少不能慢于系统的时钟速度,SDRAM的访问通常发生在四个连续的突发周期,第一个突发周期需要4个系统时钟周期,第二到第四个突发周期只需要1个系统时钟周期。用数字表示如下:4-1-1-1。顺便提一下BEDO(BurstEDO)也就是突发EDO内存。实际上其原理和性能是和SDRAM差不多的,因为Intel的芯片组支持SDRAM,由于INTEL的市场领导地位帮助SDRAM成为市场的标准。
DRAMR的两种接口类型DRAM主要有两种接口类型,既早期的SIMM和现在的标准DIMM。SIMM是Single-InLineMemoryMole的简写,即单边接触内存模组,这是486及其较早的PC机中常用的内存的接口方式。在更早的PC机中(486以前),多采用30针的SIMM接口,而在Pentium中,应用更多的则是72针的SIMM接口,或者是与DIMM接口类型并存。DIMM是DualIn-LineMemoryMole的简写,即双边接触内存模组,也就是说这种类型接口内存的插板的两边都有数据接口触片,这种接口模式的内存广泛应用于现在的计算机中,通常为84针,但由于是双边的,所以一共有84×2=168线接触,故而人们经常把这种内存称为168线内存,而把72线的SIMM类型内存模组直接称为72线内存。DRAM内存通常为72线,EDO-RAM内存既有72线的,也有168线的,而SDRAM内存通常为168线的。新的内存标准在新的世纪到来之时,也带来了计算机硬件的重大改变。计算机的制造工艺发展到已经可以把微处理器(CPU)的时钟频率提高的一千兆的边缘。相应的内存也必须跟得上处理器的速度才行。现在有两个新的标准,DDRSDRAM内存和Rambus内存。它们之间的竞争将会成为PC内存市场竞争的核心。DDRSDRAM代表着一条内存逐渐演化的道路。Rambus则代表着计算机设计上的重大变革。从更远一点的角度看。DDRSDRAM是一个开放的标准。然而Rambus则是一种专利。它们之间的胜利者将会对计算机制造业产生重大而深远的影响。
RDRAM在工作频率上有大幅度的提升,但这一结构的改变,涉及到包括芯片组、DRAM制造、封装、测试甚至PCB及模组等的全面改变,可谓牵一发而动全身。未来高速DRAM结构的发展究竟如何?
Intel重新整装再发的820芯片组,是否真能如愿以偿地让RDRAM登上主流宝座?PC133SDRAM:PC133SDRAM基本上只是PC100SDRAM的延伸,不论在DRAM制造、封装、模组、连接器方面,都延续旧有规范,它们的生产设备相同,因此生产成本也几乎与PC100SDRAM相同。严格来说,两者的差别仅在于相同制程技术下,所多的一道「筛选」程序,将速度可达133MHz的颗粒挑选出来而已。若配合可支持133MHz外频的芯片组,并提高CPU的前端总线频率(FrontSideBus)到133MHz,便能将DRAM带宽提高到1GB/sec以上,从而提高整体系统性能。DDR-SDRAM:DDRSDRAM(DoubleDataRateDRAM)或称之为SDRAMⅡ,由于DDR在时钟的上升及下降的边缘都可以传输资料,从而使得实际带宽增加两倍,大幅提升了其性能/成本比。就实际功能比较来看,由PC133所衍生出的第二代PC266DDRSRAM(133MHz时钟×2倍数据传输=266MHz带宽),不仅在InQuest最新测试报告中显示其性能平均高出Rambus24.4%,在Micron的测试中,其性能亦优于其他的高频宽解决方案,充份显示出DDR在性能上已足以和Rambus相抗衡的程度。DirectRambus-DRAM:RambusDRAM设计与以往DRAM很大的不同之处在于,它的微控制器与一般内存控制器不同,使得芯片组必须重新设计以符合要求,此外,数据通道接口也与一般内存不同,Rambus以2条各8bit宽(含ECC则为9bit)的数据通道(channel)传输数据,虽然比SDRAM的64bit窄,但其时钟频率却可高达400MHz,且在时钟的上升和下降沿都能传输数据,因而能达到1.6GB/sec的尖峰带宽。
各种DRAM规格之综合比较数据带宽:从数据带宽来看,传统PC100在时钟频率为100MHz的情况下,尖峰数据传输率可达到800MB/sec。若以先进0.25微米线程制造的DRAM,大都可以「筛选」出时钟频率达到133MHz的PC133颗粒,可将尖峰数据传输率再次提高至1.06GB/sec,只要CPU及芯片组能配合,就可提高整体系统性能。此外,就DDR而言,由于其在时钟上升和下降沿都能传输数据,所以在相同133MHz的时钟频率下,其尖峰数据传输将可大幅提高两倍,达到2.1GB/sec的水准,其性能甚至比现阶段Rambus所能达到的1.6GB/sec更高。
传输模式:传统SDRAM采用并列数据传输方式,Rambus则采取了比较特别的串行传输方式。在串行的传输方式之下,资料信号都是一进一出,可以把数据带宽降为16bit,而且可大幅提高工作时钟频率(400MHz),但这也形成了模组在数据传输设计上的限制。也就是说,在串接的模式下,如果有其中一个模组损坏、或是形成断路,便会使整个系统无法正常开机。因此,对采用Rambus内存模组的主机板而言,便必须将三组内存扩充插槽完全插满,如果Rambus模组不足的话,只有安装不含RDRAM颗粒的中继模组(ContinuityRIMMMole;C-RIMM),纯粹用来提供信号的串接工作,让数据的传输畅通。模组及PCB的设计:由于Rambus的工作频率高达400MHz,所以不管是电路设计、线路布局、颗粒封装及记忆模组的设计等,都和以往SDRAM大为不同。以模组设计而言,RDRAM所构成的记忆模组称之为RIMM(RambusInMemoryMole),目前的设计可采取4、6、8、12与16颗等不同数目的RDRAM颗粒来组成,虽然引脚数提高到了184只,但整个模组的长度却与原有DIMM相当。另外,在设计上,Rambus的每一个传输信道所能承载的芯片颗粒数目有限(最多32颗),从而造成RDRAM内存模组容量将有所限制。也就是说,如果已经安装了一只含16颗RDARM颗粒的RIMM模组时,若想要再扩充内存,最多只能再安装具有16颗RDARM的模组。另外,由于RDARM在高频下工作将产生高温,所以RIMM模组在设计时必须加上一层散热片,也增加了RIMM模组的成本。
颗粒的封装:DRAM封装技术从最早的DIP、SOJ提高到TSOP的形式。从现在主流SDRAM的模组来看,除了胜创科技首创的TinyBGA技术和樵风科技首创的BLP封装模式外,绝大多数还是采用TSOP的封装技术。
随着DDR、RDRAM的陆续推出,将内存频率提高到一个更高的水平上,TSOP封装技术渐渐有些力不从心了,难以满足DRAM设计上的要求。从Intel力推的RDRAM来看,采用了新一代的μBGA封装形式,相信未来DDR等其他高速DRAM的封装也会采取相同或不同的BGA封装方式。尽管RDRAM在时钟频率上有了突破性的进展,有效地提高了整个系统性能,但毕竟在实际使用上,其规格与现阶段主流的SDRAM有很大的差异,不仅不兼容于现有系统芯片组而成了Intel一家独揽的局面。甚至在DRAM模组的设计上,不仅使用了最新一代的BGA封装方式,甚至在电路板的设计上,都采取用了8层板的严格标准,更不用说在测试设备上的庞大投资。使得大多数的DRAM及模组厂商不敢贸然跟进。
再说,由于Rambus是个专利标准,想生产RDRAM的厂商必须先取得Rambus公司的认证,并支付高额的专利费用。不仅加重了各DRAM厂商的成本负担,而且它们担心在制定未来新一代的内存标准时会失去原来掌握的规格控制能力。
由于RIMM模组的颗粒最多只能为32颗,限制了Rambus应用,只能用在入门级服务器和高级PC上。或许就PC133而言,在性能上无法和Rambus抗衡,但是一旦整合了DDR技术后,其数据带宽可达到2.1GB/sec,不仅领先Rambus所能达到的1.6GB/sec标准,而且由于其开放的标准及在兼容性上远比Rambus高的原故,估计将会对Rambus造成非常大的杀伤力。更何况台湾在威盛与AMD等联盟的强力支持下,Intel是否能再象往日一般地呼风唤雨,也成了未知数。至少,在低价PC及网络PC方面,Rambus的市场将会很小。
结论:尽管Intel采取了种种不同的策略布局及对策,要想挽回Rambus的气势,但毕竟像Rambus这种具有突破性规格的产品,在先天上便存在有着诸多较难克服的问题。或许Intel可以藉由更改主机板的RIMM插槽方式、或是提出SDRAM与RDRAM共同存在的过渡性方案(S-RIMM、RIMMRiser)等方式来解决技术面上的问题。但一旦涉及规模量产成本的控制问题时,便不是Intel所能一家独揽的,更何况在网络趋势下的计算机应用将愈来愈趋于低价化,市场需求面是否对Rambus有兴趣,则仍有待考验。 在供给方面,从NEC独创的VCMSDRAM规格(VirtualChannelMemory)、以及Samsung等DRAM大厂对Rambus支持态度已趋保守的情况来看,再加上相关封装及测试等设备上的投资不足,估计年底之前,Rambus内存模组仍将缺乏与PC133甚至DDR的价格竞争力。就长远的眼光来看,Rambus架构或许可以成为主流,但应不再会是主导市场的绝对主流,而SDRAM架构(PC133、DDR)在低成本的优势,以及广泛的应用领域,应该会有非常不错的表现。相信未来的DRAM市场,将会是多种结构并存的局面。
具最新消息,可望成为下一世代内存主力的RambusDRAM因芯片组延迟推出,而气势稍挫的情况之下,由全球多家半导体与电脑大厂针对DDRSDRAM的标准化,而共同组成的AMII(、)阵营,则决定积极促进比PC200、PC266速度提高10倍以上的PC1600与PC2100DDRSDRAM规格的标准化,此举使得RambusDRAM与DDRSDRAM的内存主导权之争,迈入新的局面。全球第二大微处理器制造商AMD,决定其Athlon处理器将采用PC266规格的DDRSDRAM,而且决定在今年年中之前,开发支持DDRSDRAM的芯片组,这使DDRSDRAM阵营深受鼓舞。全球内存业者极有可能将未来投资的重心,由RambusDRAM转向DDRSDRAM。
综上所述,今年DDRSDRAM的发展势头要超过RAMBUS。而且DDRSDRAM的生产成本只有SDRAM的1.3倍,在生产成本上更具优势。未来除了DDR和RAMBUS外还有其他几种有希望的内存产品,下面介绍其中的几种:SLDRAM(SyncLinkDRAM,同步链接内存):SLDRAM也许是在速度上最接近RDRAM的竞争者。SLDRAM是一种增强和扩展的SDRAM架构,它将当前的4体(Bank)结构扩展到16体,并增加了新接口和控制逻辑电路
。SLDRAM像SDRAM一样使用每个脉冲沿传输数据。
VirtualChannelDRAM:VirtualChannel“虚拟信道”是加装在内存单元与主控芯片上的内存控制部分之间,相当于缓存的一类寄存器。使用VC技术后,当外部对内存进行读写操作时,将不再直接对内存芯片中的各个单元进行读写操作,而改由VC代理。VC本身所具有的缓存效果也不容小觑,当内存芯片容量为目前最常见的64Mbit时,VC与内存单元之间的带宽已达1024bit。即便不考虑前/后台并列处理所带来的速度提升,光是“先把数据从内存单元中移动到高速的VC中后再由外部进行读写”这一基本构造本身就很适于提高内存的整体速度。每块内存芯片中都可以搭载复数的VC,64Mbit的产品中VC总数为16个。不但每个VC均可以分别对应不同的内存主控设备(MemoryMaster,此处指CPU、南桥芯片、各种扩展卡等等),而且在必要时,还可以把多个VC信道捆绑在一起以对应某个占用带宽特别大的内存主控设备。因此,在多任务同时执行的情况下,VC-SDRAM也能保证持续地进行高效率的数据传输。VC-SDRAM还有一个特点,就是保持了与传统型SDRAM的管脚兼容,厂家不需要重新进行主板布线设计就能够使主板支持它。不过由于它与传统型SDRAM控制方式不同,因此还需要得到控制芯片组的支持方能使用,目前已支持VC-SDRAM的芯片组有VIA的ApolloPro133系列、ApolloMVP4和SiS的SiS630等。
6. 电脑的发展史
电脑的发展历史
1.
电脑的英文名称为 Computer,直译的意思是计算机.
电脑由早期的机械式电脑发展到现在所使用的个人电脑,经过了一段相当长的时间,最早的计算机得追溯到西元 1942年由法国数学加巴斯卡所发明的巴斯卡机,这台机器是由许多的齿轮与杠杆所组成的.
一般我们对电脑世代的分类是以制造电脑所使用的元件不同来划分,共分为四个世代:
第一代(西元1946年~西元1958年):使用真空管制造.
第二代(西元1959年~西元1964年):使用电晶体制造.
第三代(西元1965年~西元1970年):使用积体电路制造.
第四代(西元1970年~) :使用超大型积体电路制造.
第一代电脑:真空管时代:使用真空管为材料以打孔卡片作为外部储存媒体以磁鼓作为内部储存媒体程式语言为机器语言及组合语言
第二代电脑:电晶体时代使用电晶体为材料开始使用磁带磁碟的发明以磁蕊作为内部储存媒体硬体的模组化高阶语言的出现
第三代电脑:积体电路的时代使用积体电路向上相容的概念作业系统的出现 软体的快速发展 迷你电脑的出现
第四代电脑:超大型积体电路的时代微处理机的出现以半导体作为内部储存媒体微电脑的流行套装软体的发展
资料转载於:
http://mail.csjh.tpc.e.tw/a90/a90021/www/pcl.htm
2.
电脑的发展
1.
电子计算机的定义及特性
A
电子计算机(Electronic Digital Computer)
a.
简称计算机(Computer),俗称电脑.
b.
包含了输入,输出,控制,记忆及运算逻辑等单元.
c.
计算机与计算器(Calculator)的差异
项目
计算器
计算机(电脑)
运算能力
简单的数值运算
复杂的数值与非数值运算
储存能力
没有或很少
有很大的储存空间
显示能力
仅能在有限的小萤幕内显示
可在高解析的萤幕画面显示
操作方式
人工逐一输入
可内存程式,由电脑来自动产生结果
其他功能
没有或很少
功能多且完整
B.
电脑的特性
a.
快:处理速度快.
b.
准:精准度及正确性高.
c.
大:储存容量大.
d.
可减轻人力,降低作业成本.
e.
能提供资料保护之安全措施.
C.
电脑的限制
a.
只有正确的资料输入,才有正确的结果输出(GIGO).
b.
问题必须量化.
c.
计算机非万能:人类必须提出解决方法,并将其程式化,电脑才能处理.
2.
电脑的发展史及趋势
A.
美国社会学家杜佛勒,将人类社会的变迁形容成「波」:
第一波是农业革命,第二波是工业革命,第三波是资讯革命.
7. 电脑CPU和内存的发展
内存。硬盘。显卡他都人们大多数知道的都是它的容量。 人们一般来说高级点的就是大一点的。 容量单位是
8bit(位) =1B(字节)
1024B=1KB=2的10次方
1024KB(千字节)=1MB(兆字节)=2的20次方
1024MB=1GB=2的30次方
1024GB=1TB=2的40次方
他就这么来。 CPU不一样 他生机是生计他的技术跟运算速度。 也就是它的HZ 跟二级缓存。三级缓存 。 还有它的核心类型。处理器频倍。 至于双核跟四核是它有几个核心。 以后也会逐步发展的。 据说有可能会发展到64核的。 呵呵。。
8. 电脑发展历史
第一代电子管计算机(1945-1956)
在第二次世界大战中,美国政府寻求计算机以开发潜在的战略价值。这促进了计算机的研究与发展。1944年霍华德.艾肯(1900-1973)研制出全电子计算器,为美国海军绘制弹道图。这台简称 Mark I 的机器有半个足球场大,内含500英里的电线,使用电磁信号来移动机械部件,速度很慢(3-5秒一次计算)并且适应性很差只用于专门领域,但是,它既可以执行基本算术运算也可以运算复杂的等式。
第二代晶体管计算机(1956-1963)
1948年,晶体管的发明大大促进了计算机的发展,晶体管代替了体积庞大电子管,电子设备的体积不断减小。1956年,晶体管在计算机中使用,晶体管和磁芯存储器导致了第二代计算机的产生。第二代计算机体积小、速度快、功耗低、性能更稳定。首先使用晶体管技术的是早期的超级计算机,主要用于原子科学的大量数据处理,这些机器价格昂贵,生产数量极少。
1960年,出现了一些成功地用在商业领域、大学和政府部门的第二代计算机。第二代计算机用晶体管代替电子管,还有现代计算机的一些部件:打印机、磁带、磁盘、内存、操作系统等。计算机中存储的程序使得计算机有很好的适应性,可以更有效地用于商业用途。在这一时期出现了更高级的COBOL(Common Business-Oriented Language)和FORTRAN(Formula Translator)等语言,以单词、语句和数学公式代替了二进制机器码,使计算机编程更容易。新的职业,如程序员、分析员和计算机系统专家,与整个软件产业由此诞生。
第三代集成电路计算机(1964-1971)
虽然晶体管比起电子管是一个明显的进步,但晶体管还是产生大量的热量,这会损害计算机内部的敏感部分。1958年发明了集成电路(IC),将三种电子元件结合到一片小小的硅片上。科学家使更多的元件集成到单一的半导体芯片上。于是,计算机变得更小,功耗更低,速度更快。这一时期的发展还包括使用了操作系统,使得计算机在中心程序的控制协调下可以同时运行许多不同的程序。
1964年,美国IBM公司研制成功第一个采用集成电路的通用电子
计算机系列IBM360系统
第四代大规模集成电路计算机(1971-现在)
出现集成电路后,唯一的发展方向是扩大规模。大规模集成电路(LSI)可以在一个芯片上容纳几百个元件。到了80年代,超大规模集成电路(VLSI)在芯片上容纳了几十万个元件,后来的ULSI将数字扩充到百万级。可以在硬币大小的芯片上容纳如此数量的元件使得计算机的体积和价格不断下降,而功能和可靠性不断增强。基于“半导体”的发展,到了一九七二年,第一部真正的个人计算机诞生了。所使用的微处理器内包含了 2,300 个“晶体管”,可以一秒内执行 60,000 个指令,体积也缩小很多。而世界各国也随着“半导体”及“晶体管”的发展去开拓计算机史上新的一页。
70年代中期,计算机制造商开始将计算机带给普通消费者,这时的小型机带有软件包,供非专业人员使用的程序和最受欢迎的字处理和电子表格程序。这一领域的先锋有Commodore, Radio Shack和Apple Computers等。
1981年,IBM推出个人计算机(PC)用于家庭、办公室和学校。80年代个人计算机的竞争使得价格不断下跌,微机的拥有量不断增加,计算机继续缩小体积,从桌上到膝上到掌上。与IBM PC竞争的Apple Macintosh系列于1984年推出,Macintosh提供了友好的图形界面,用户可以用鼠标方便地操作。
9. 谁知道内存的发展史
内存发展史
在了解内存的发展之前,我们应该先解释一下几个常用词汇,这将有助于我们加强对内存的理解。
RAM就是RandomAccessMemory(随机存贮器)的缩写。它又分成两种StaticRAM(静态随机存贮器)和DynamicRAM(动态随机存贮器)。
SRAM曾经是一种主要的内存,SRAM速度很快而且不用刷新就能保存数据不丢失。它以双稳态电路形式存储数据,结构复杂,内部需要使用更多的晶体管构成寄存器以保存数据,所以它采用的硅片面积相当大,制造成本也相当高,所以现在只能把SRAM用在比主内存小的多的高速缓存上。随着Intel将L2高速缓存整合入CPU(从Medocino开始)后,SRAM失去了最大应用需求来源,还好在移动电话从模拟转向数字的发展趋势中,终于为具有省电优势的SRAM寻得了另一个需求成长的契机,再加上网络服务器、路由器等的需求激励,才使得SRAM市场勉强得以继续成长。
DRAM,顾名思义即动态RAM。DRAM的结构比起SRAM来说要简单的多,基本结构是一只MOS管和一个电容构成。具有结构简单、集成度高、功耗低、生产成本低等优点,适合制造大容量存储器,所以现在我们用的内存大多是由DRAM构成的。所以下面主要介绍DRAM内存。在详细说明DRAM存储器前首先要说一下同步的概念,根据内存的访问方式可分为两种:同步内存和异步内存。区分的标准是看它们能不能和系统时钟同步。内存控制电路(在主板的芯片组中,一般在北桥芯片组中)发出行地址选择信号(RAS)和列地址选择信号(CAS)来指定哪一块存储体将被访问。在SDRAM之前的EDO内存就采用这种方式。读取数据所用的时间用纳秒表示。当系统的速度逐渐增加,特别是当66MHz频率成为总线标准时,EDO内存的速度就显得很慢了,CPU总要等待内存的数据,严重影响了性能,内存成了一个很大的瓶颈。因此出现了同步系统时钟频率的SDRAM。DRAM的分类FPDRAM:又叫快页内存,在386时代很流行。因为DRAM需要恒电流以保存信息,一旦断电,信息即丢失。它的刷新频率每秒钟可达几百次,但由于FPDRAM使用同一电路来存取数据,所以DRAM的存取时间有一定的时间间隔,这导致了它的存取速度并不是很快。另外,在DRAM中,由于存储地址空间是按页排列的,所以当访问某一页面时,切换到另一页面会占用CPU额外的时钟周期。其接口多为72线的SIMM类型。EDODRAM:EDORAM――ExtendedDateOutRAM——外扩充数据模式存储器,EDO-RAM同FPDRAM相似,它取消了扩展数据输出内存与传输内存两个存储周期之间的时间间隔,在把数据发送给CPU的同时去访问下一个页面,故而速度要比普通DRAM快15~30%。工作电压为一般为5V,其接口方式多为72线的SIMM类型,但也有168线的DIMM类型。EDODRAM这种内存流行在486以及早期的奔腾电脑上。当前的标准是SDRAM(同步DRAM的缩写),顾名思义,它是同步于系统时钟频率的。SDRAM内存访问采用突发(burst)模式,它和原理是,SDRAM在现有的标准动态存储器中加入同步控制逻辑(一个状态机),利用一个单一的系统时钟同步所有的地址数据和控制信号。使用SDRAM不但能提高系统表现,还能简化设计、提供高速的数据传输。在功能上,它类似常规的DRAM,也需时钟进行刷新。可以说,SDRAM是一种改善了结构的增强型DRAM。然而,SDRAM是如何利用它的同步特性而适应高速系统的需要的呢?我们知道,原先我们使用的动态存储器技术都是建立在异步控制基础上的。系统在使用这些异步动态存储器时需插入一些等待状态来适应异步动态存储器的本身需要,这时,指令的执行时间往往是由内存的速度、而非系统本身能够达到的最高速率来决定。例如,当将连续数据存入CACHE时,一个速度为60ns的快页内存需要40ns的页循环时间;当系统速度运行在100MHz时(一个时钟周期10ns),每执行一次数据存取,即需要等待4个时钟周期!而使用SDRAM,由于其同步特性,则可避免这一时。SDRAM结构的另一大特点是其支持DRAM的两列地址同时打开。两个打开的存储体间的内存存取可以交叉进行,一般的如预置或激活列可以隐藏在存储体存取过程中,即允许在一个存储体读或写的同时,令一存储体进行预置。按此进行,100MHz的无缝数据速率可在整个器件读或写中实现。因为SDRAM的速度约束着系统的时钟速度,它的速度是由MHz或ns来计算的。SDRAM的速度至少不能慢于系统的时钟速度,SDRAM的访问通常发生在四个连续的突发周期,第一个突发周期需要4个系统时钟周期,第二到第四个突发周期只需要1个系统时钟周期。用数字表示如下:4-1-1-1。顺便提一下BEDO(BurstEDO)也就是突发EDO内存。实际上其原理和性能是和SDRAM差不多的,因为Intel的芯片组支持SDRAM,由于INTEL的市场领导地位帮助SDRAM成为市场的标准。
DRAMR的两种接口类型DRAM主要有两种接口类型,既早期的SIMM和现在的标准DIMM。SIMM是Single-InLineMemoryMole的简写,即单边接触内存模组,这是486及其较早的PC机中常用的内存的接口方式。在更早的PC机中(486以前),多采用30针的SIMM接口,而在Pentium中,应用更多的则是72针的SIMM接口,或者是与DIMM接口类型并存。DIMM是DualIn-LineMemoryMole的简写,即双边接触内存模组,也就是说这种类型接口内存的插板的两边都有数据接口触片,这种接口模式的内存广泛应用于现在的计算机中,通常为84针,但由于是双边的,所以一共有84×2=168线接触,故而人们经常把这种内存称为168线内存,而把72线的SIMM类型内存模组直接称为72线内存。DRAM内存通常为72线,EDO-RAM内存既有72线的,也有168线的,而SDRAM内存通常为168线的。新的内存标准在新的世纪到来之时,也带来了计算机硬件的重大改变。计算机的制造工艺发展到已经可以把微处理器(CPU)的时钟频率提高的一千兆的边缘。相应的内存也必须跟得上处理器的速度才行。现在有两个新的标准,DDRSDRAM内存和Rambus内存。它们之间的竞争将会成为PC内存市场竞争的核心。DDRSDRAM代表着一条内存逐渐演化的道路。Rambus则代表着计算机设计上的重大变革。从更远一点的角度看。DDRSDRAM是一个开放的标准。然而Rambus则是一种专利。它们之间的胜利者将会对计算机制造业产生重大而深远的影响。
RDRAM在工作频率上有大幅度的提升,但这一结构的改变,涉及到包括芯片组、DRAM制造、封装、测试甚至PCB及模组等的全面改变,可谓牵一发而动全身。未来高速DRAM结构的发展究竟如何?
Intel重新整装再发的820芯片组,是否真能如愿以偿地让RDRAM登上主流宝座?PC133SDRAM:PC133SDRAM基本上只是PC100SDRAM的延伸,不论在DRAM制造、封装、模组、连接器方面,都延续旧有规范,它们的生产设备相同,因此生产成本也几乎与PC100SDRAM相同。严格来说,两者的差别仅在于相同制程技术下,所多的一道「筛选」程序,将速度可达133MHz的颗粒挑选出来而已。若配合可支持133MHz外频的芯片组,并提高CPU的前端总线频率(FrontSideBus)到133MHz,便能将DRAM带宽提高到1GB/sec以上,从而提高整体系统性能。DDR-SDRAM:DDRSDRAM(DoubleDataRateDRAM)或称之为SDRAMⅡ,由于DDR在时钟的上升及下降的边缘都可以传输资料,从而使得实际带宽增加两倍,大幅提升了其性能/成本比。就实际功能比较来看,由PC133所衍生出的第二代PC266DDRSRAM(133MHz时钟×2倍数据传输=266MHz带宽),不仅在InQuest最新测试报告中显示其性能平均高出Rambus24.4%,在Micron的测试中,其性能亦优于其他的高频宽解决方案,充份显示出DDR在性能上已足以和Rambus相抗衡的程度。DirectRambus-DRAM:RambusDRAM设计与以往DRAM很大的不同之处在于,它的微控制器与一般内存控制器不同,使得芯片组必须重新设计以符合要求,此外,数据通道接口也与一般内存不同,Rambus以2条各8bit宽(含ECC则为9bit)的数据通道(channel)传输数据,虽然比SDRAM的64bit窄,但其时钟频率却可高达400MHz,且在时钟的上升和下降沿都能传输数据,因而能达到1.6GB/sec的尖峰带宽。
各种DRAM规格之综合比较数据带宽:从数据带宽来看,传统PC100在时钟频率为100MHz的情况下,尖峰数据传输率可达到800MB/sec。若以先进0.25微米线程制造的DRAM,大都可以「筛选」出时钟频率达到133MHz的PC133颗粒,可将尖峰数据传输率再次提高至1.06GB/sec,只要CPU及芯片组能配合,就可提高整体系统性能。此外,就DDR而言,由于其在时钟上升和下降沿都能传输数据,所以在相同133MHz的时钟频率下,其尖峰数据传输将可大幅提高两倍,达到2.1GB/sec的水准,其性能甚至比现阶段Rambus所能达到的1.6GB/sec更高。
传输模式:传统SDRAM采用并列数据传输方式,Rambus则采取了比较特别的串行传输方式。在串行的传输方式之下,资料信号都是一进一出,可以把数据带宽降为16bit,而且可大幅提高工作时钟频率(400MHz),但这也形成了模组在数据传输设计上的限制。也就是说,在串接的模式下,如果有其中一个模组损坏、或是形成断路,便会使整个系统无法正常开机。因此,对采用Rambus内存模组的主机板而言,便必须将三组内存扩充插槽完全插满,如果Rambus模组不足的话,只有安装不含RDRAM颗粒的中继模组(ContinuityRIMMMole;C-RIMM),纯粹用来提供信号的串接工作,让数据的传输畅通。模组及PCB的设计:由于Rambus的工作频率高达400MHz,所以不管是电路设计、线路布局、颗粒封装及记忆模组的设计等,都和以往SDRAM大为不同。以模组设计而言,RDRAM所构成的记忆模组称之为RIMM(RambusInMemoryMole),目前的设计可采取4、6、8、12与16颗等不同数目的RDRAM颗粒来组成,虽然引脚数提高到了184只,但整个模组的长度却与原有DIMM相当。另外,在设计上,Rambus的每一个传输信道所能承载的芯片颗粒数目有限(最多32颗),从而造成RDRAM内存模组容量将有所限制。也就是说,如果已经安装了一只含16颗RDARM颗粒的RIMM模组时,若想要再扩充内存,最多只能再安装具有16颗RDARM的模组。另外,由于RDARM在高频下工作将产生高温,所以RIMM模组在设计时必须加上一层散热片,也增加了RIMM模组的成本。
颗粒的封装:DRAM封装技术从最早的DIP、SOJ提高到TSOP的形式。从现在主流SDRAM的模组来看,除了胜创科技首创的TinyBGA技术和樵风科技首创的BLP封装模式外,绝大多数还是采用TSOP的封装技术。
随着DDR、RDRAM的陆续推出,将内存频率提高到一个更高的水平上,TSOP封装技术渐渐有些力不从心了,难以满足DRAM设计上的要求。从Intel力推的RDRAM来看,采用了新一代的μBGA封装形式,相信未来DDR等其他高速DRAM的封装也会采取相同或不同的BGA封装方式。尽管RDRAM在时钟频率上有了突破性的进展,有效地提高了整个系统性能,但毕竟在实际使用上,其规格与现阶段主流的SDRAM有很大的差异,不仅不兼容于现有系统芯片组而成了Intel一家独揽的局面。甚至在DRAM模组的设计上,不仅使用了最新一代的BGA封装方式,甚至在电路板的设计上,都采取用了8层板的严格标准,更不用说在测试设备上的庞大投资。使得大多数的DRAM及模组厂商不敢贸然跟进。
再说,由于Rambus是个专利标准,想生产RDRAM的厂商必须先取得Rambus公司的认证,并支付高额的专利费用。不仅加重了各DRAM厂商的成本负担,而且它们担心在制定未来新一代的内存标准时会失去原来掌握的规格控制能力。
由于RIMM模组的颗粒最多只能为32颗,限制了Rambus应用,只能用在入门级服务器和高级PC上。或许就PC133而言,在性能上无法和Rambus抗衡,但是一旦整合了DDR技术后,其数据带宽可达到2.1GB/sec,不仅领先Rambus所能达到的1.6GB/sec标准,而且由于其开放的标准及在兼容性上远比Rambus高的原故,估计将会对Rambus造成非常大的杀伤力。更何况台湾在威盛与AMD等联盟的强力支持下,Intel是否能再象往日一般地呼风唤雨,也成了未知数。至少,在低价PC及网络PC方面,Rambus的市场将会很小。
结论:尽管Intel采取了种种不同的策略布局及对策,要想挽回Rambus的气势,但毕竟像Rambus这种具有突破性规格的产品,在先天上便存在有着诸多较难克服的问题。或许Intel可以藉由更改主机板的RIMM插槽方式、或是提出SDRAM与RDRAM共同存在的过渡性方案(S-RIMM、RIMMRiser)等方式来解决技术面上的问题。但一旦涉及规模量产成本的控制问题时,便不是Intel所能一家独揽的,更何况在网络趋势下的计算机应用将愈来愈趋于低价化,市场需求面是否对Rambus有兴趣,则仍有待考验。 在供给方面,从NEC独创的VCMSDRAM规格(VirtualChannelMemory)、以及Samsung等DRAM大厂对Rambus支持态度已趋保守的情况来看,再加上相关封装及测试等设备上的投资不足,估计年底之前,Rambus内存模组仍将缺乏与PC133甚至DDR的价格竞争力。就长远的眼光来看,Rambus架构或许可以成为主流,但应不再会是主导市场的绝对主流,而SDRAM架构(PC133、DDR)在低成本的优势,以及广泛的应用领域,应该会有非常不错的表现。相信未来的DRAM市场,将会是多种结构并存的局面。
具最新消息,可望成为下一世代内存主力的RambusDRAM因芯片组延迟推出,而气势稍挫的情况之下,由全球多家半导体与电脑大厂针对DDRSDRAM的标准化,而共同组成的AMII(、)阵营,则决定积极促进比PC200、PC266速度提高10倍以上的PC1600与PC2100DDRSDRAM规格的标准化,此举使得RambusDRAM与DDRSDRAM的内存主导权之争,迈入新的局面。全球第二大微处理器制造商AMD,决定其Athlon处理器将采用PC266规格的DDRSDRAM,而且决定在今年年中之前,开发支持DDRSDRAM的芯片组,这使DDRSDRAM阵营深受鼓舞。全球内存业者极有可能将未来投资的重心,由RambusDRAM转向DDRSDRAM。
综上所述,今年DDRSDRAM的发展势头要超过RAMBUS。而且DDRSDRAM的生产成本只有SDRAM的1.3倍,在生产成本上更具优势。未来除了DDR和RAMBUS外还有其他几种有希望的内存产品,下面介绍其中的几种:SLDRAM(SyncLinkDRAM,同步链接内存):SLDRAM也许是在速度上最接近RDRAM的竞争者。SLDRAM是一种增强和扩展的SDRAM架构,它将当前的4体(Bank)结构扩展到16体,并增加了新接口和控制逻辑电路
。SLDRAM像SDRAM一样使用每个脉冲沿传输数据。
VirtualChannelDRAM:VirtualChannel“虚拟信道”是加装在内存单元与主控芯片上的内存控制部分之间,相当于缓存的一类寄存器。使用VC技术后,当外部对内存进行读写操作时,将不再直接对内存芯片中的各个单元进行读写操作,而改由VC代理。VC本身所具有的缓存效果也不容小觑,当内存芯片容量为目前最常见的64Mbit时,VC与内存单元之间的带宽已达1024bit。即便不考虑前/后台并列处理所带来的速度提升,光是“先把数据从内存单元中移动到高速的VC中后再由外部进行读写”这一基本构造本身就很适于提高内存的整体速度。每块内存芯片中都可以搭载复数的VC,64Mbit的产品中VC总数为16个。不但每个VC均可以分别对应不同的内存主控设备(MemoryMaster,此处指CPU、南桥芯片、各种扩展卡等等),而且在必要时,还可以把多个VC信道捆绑在一起以对应某个占用带宽特别大的内存主控设备。因此,在多任务同时执行的情况下,VC-SDRAM也能保证持续地进行高效率的数据传输。VC-SDRAM还有一个特点,就是保持了与传统型SDRAM的管脚兼容,厂家不需要重新进行主板布线设计就能够使主板支持它。不过由于它与传统型SDRAM控制方式不同,因此还需要得到控制芯片组的支持方能使用,目前已支持VC-SDRAM的芯片组有VIA的ApolloPro133系列、ApolloMVP4和SiS的SiS630等。
http://wiki.donews.com/index.php?title=%E5%86%85%E5%AD%98%E5%8F%91%E5%B1%95%E5%8F%B2&oldid=3348
10. 内存条的发展史
在计算机诞生初期并不存在内存条的概念,最早的内存是以磁芯的形式排列在线路上,每个磁芯与晶体管组成的一个双稳态电路作为一比特(BIT)的存储器,每一比特都要有玉米粒大小,可以想象一间的机房只能装下不超过百k字节左右的容量。后来才出线现了焊接在主板上集成内存芯片,以内存芯片的形式为计算机的运算提供直接支持。那时的内存芯片容量都特别小,最常见的莫过于256K×1bit、1M×4bit,虽然如此,但这相对于那时的运算任务来说却已经绰绰有余了。
内存条的诞生
内存芯片的状态一直沿用到286初期,鉴于它存在着无法拆卸更换的弊病,这对于计算机的发展造成了现实的阻碍。有鉴于此,内存条便应运而生了。将内存芯片焊接到事先设计好的印刷线路板上,而电脑主板上也改用内存插槽。这样就把内存难以安装和更换的问题彻底解决了。
在80286主板发布之前,内存并没有被世人所重视,这个时候的内存是直接固化在主板上,而且容量只有64 ~256KB,对于当时PC所运行的工作程序来说,这种内存的性能以及容量足以满足当时软件程序的处理需要。不过随着软件程序和新一代80286硬件平台的出现,程序和硬件对内存性能提出了更高要求,为了提高速度并扩大容量,内存必须以独立的封装形式出现,因而诞生了“内存条”概念。
在80286主板刚推出的时候,内存条采用了SIMM(Single In-lineMemory Moles,单边接触内存模组)接口,容量为30pin、 256kb,必须是由8 片数据位和1 片校验位组成1 个bank,正因如此,我们见到的30pin SIMM一般是四条一起使用。自1982年PC进入民用市场一直到现在,搭配80286处理器的30pin SIMM 内存是内存领域的开山鼻祖。
随后,在1988 ~1990 年当中,PC 技术迎来另一个发展高峰,也就是386和486时代,此时CPU 已经向16bit 发展,所以30pin SIMM 内存再也无法满足需求,其较低的内存带宽已经成为急待解决的瓶颈,所以此时72pin SIMM 内存出现了,72pin SIMM支持32bit快速页模式内存,内存带宽得以大幅度提升。72pin SIMM内存单条容量一般为512KB ~2MB,而且仅要求两条同时使用,由于其与30pin SIMM 内存无法兼容,因此这个时候PC业界毅然将30pin SIMM 内存淘汰出局了。
EDO DRAM(Extended Date Out RAM 外扩充数据模式存储器)内存,这是1991 年到1995 年之间盛行的内存条,EDO DRAM同FPM DRAM(Fast Page Mode RAM 快速页面模式存储器)极其相似,它取消了扩展数据输出内存与传输内存两个存储周期之间的时间间隔,在把数据发送给CPU 的同时去访问下一个页面,故而速度要比普通DRAM快15~30%。工作电压为一般为5V,带宽32bit,速度在40ns以上,其主要应用在当时的 486及早期的Pentium电脑上。
在1991 年到1995 年中,让我们看到一个尴尬的情况,那就是这几年内存技术发展比较缓慢,几乎停滞不前,所以我们看到此时EDO DRAM有72 pin和168 pin并存的情况,事实上EDO 内存也属于72pin SIMM 内存的范畴,不过它采用了全新的寻址方式。EDO 在成本和容量上有所突破,凭借着制作工艺的飞速发展,此时单条EDO 内存的容量已经达到4 ~16MB 。由于Pentium及更高级别的CPU数据总线宽度都是64bit甚至更高,所以EDO DRAM与FPM DRAM都必须成对使用。
SDRAM时代
自Intel Celeron系列以及AMD K6处理器以及相关的主板芯片组推出后,EDO DRAM内存性能再也无法满足需要了,内存技术必须彻底得到个革新才能满足新一代CPU架构的需求,此时内存开始进入比较经典的SDRAM时代。
第一代SDRAM 内存为PC66 规范,但很快由于Intel 和AMD的频率之争将CPU外频提升到了100MHz,所以PC66内存很快就被PC100内存取代,接着133MHz 外频的PIII以及K7时代的来临,PC133规范也以相同的方式进一步提升SDRAM 的整体性能,带宽提高到1GB/sec以上。由于SDRAM 的带宽为64bit,正好对应CPU 的64bit 数据总线宽度,因此它只需要一条内存便可工作,便捷性进一步提高。在性能方面,由于其输入输出信号保持与系统外频同步,因此速度明显超越EDO 内存。
不可否认的是,SDRAM 内存由早期的66MHz,发展后来的100MHz、133MHz,尽管没能彻底解决内存带宽的瓶颈问题,但此时CPU超频已经成为DIY用户永恒的话题,所以不少用户将品牌好的PC100品牌内存超频到133MHz使用以获得CPU超频成功,值得一提的是,为了方便一些超频用户需求,市场上出现了一些PC150、PC166规范的内存。
尽管SDRAM PC133内存的带宽可提高带宽到1064MB/S,加上Intel已经开始着手最新的Pentium 4计划,所以SDRAM PC133内存不能满足日后的发展需求,此时,Intel为了达到独占市场的目的,与Rambus联合在PC市场推广Rambus DRAM内存(称为RDRAM内存)。与SDRAM不同的是,其采用了新一代高速简单内存架构,基于一种类RISC(Reced Instruction Set Computing,精简指令集计算机)理论,这个理论可以减少数据的复杂性,使得整个系统性能得到提高。
在AMD与Intel的竞争中,这个时候是属于频率竞备时代,所以这个时候CPU的主频在不断提升,Intel为了盖过AMD,推出高频PentiumⅢ以及Pentium 4 处理器,因此Rambus DRAM内存是被Intel看着是未来自己的竞争杀手锏,Rambus DRAM内存以高时钟频率来简化每个时钟周期的数据量,因此内存带宽相当出色,如PC 1066 1066 MHz 32 bits带宽可达到4.2G Byte/sec,Rambus DRAM曾一度被认为是Pentium 4 的绝配。
尽管如此,Rambus RDRAM 内存生不逢时,后来依然要被更高速度的DDR“掠夺”其宝座地位,在当时,PC600、PC700的Rambus RDRAM 内存因出现Intel820 芯片组“失误事件”、PC800 Rambus RDRAM因成本过高而让Pentium 4平台高高在上,无法获得大众用户拥戴,种种问题让Rambus RDRAM胎死腹中,Rambus曾希望具有更高频率的PC1066 规范RDRAM来力挽狂澜,但最终也是拜倒在DDR 内存面前。
DDR时代
DDR SDRAM(Double Data Rate SDRAM)简称DDR,也就是“双倍速率SDRAM”的意思。DDR可以说是SDRAM的升级版本, DDR在时钟信号上升沿与下降沿各传输一次数据,这使得DDR的数据传输速度为传统SDRAM的两倍。由于仅多采用了下降缘信号,因此并不会造成能耗增加。至于定址与控制信号则与传统SDRAM相同,仅在时钟上升缘传输。
DDR 内存是作为一种在性能与成本之间折中的解决方案,其目的是迅速建立起牢固的市场空间,继而一步步在频率上高歌猛进,最终弥补内存带宽上的不足。第一代 DDR200 规范并没有得到普及,第二代PC266 DDR SRAM(133MHz时钟×2倍数据传输=266MHz带宽)是由PC133 SDRAM内存所衍生出的,它将DDR 内存带向第一个高潮,目前还有不少赛扬和AMD K7处理器都在采用DDR266规格的内存,其后来的DDR333内存也属于一种过度,而DDR400内存成为目前的主流平台选配,双通道DDR400 内存已经成为800FSB处理器搭配的基本标准,随后的DDR533 规范则成为超频用户的选择对象。
DDR2时代
随着CPU 性能不断提高,我们对内存性能的要求也逐步升级。不可否认,紧紧依高频率提升带宽的DDR迟早会力不从心,因此JEDEC 组织很早就开始酝酿DDR2 标准,加上LGA775接口的915/925以及最新的945等新平台开始对DDR2内存的支持,所以DDR2内存将开始演义内存领域的今天。
DDR2 能够在100MHz 的发信频率基础上提供每插脚最少400MB/s 的带宽,而且其接口将运行于1.8V 电压上,从而进一步降低发热量,以便提高频率。此外,DDR2 将融入CAS、OCD、ODT 等新性能指标和中断指令,提升内存带宽的利用率。从JEDEC组织者阐述的DDR2标准来看,针对PC等市场的DDR2内存将拥有400、533、 667MHz等不同的时钟频率。高端的DDR2内存将拥有800、1000MHz两种频率。DDR-II内存将采用200-、220-、240-针脚的FBGA封装形式。最初的DDR2内存将采用0.13微米的生产工艺,内存颗粒的电压为1.8V,容量密度为512MB。
内存技术在2005年将会毫无悬念,SDRAM为代表的静态内存在五年内不会普及。QBM与 RDRAM内存也难以挽回颓势,因此DDR与DDR2共存时代将是铁定的事实。
PC-100的“接班人”除了PC一133以外,VCM(VirXual Channel Memory)也是很重
要的一员。VCM即“虚拟通道存储器”,这也是目前大多数较新的芯片组支持的一种内存标准,VCM内存主要根据由NEC公司开发的一种“缓存式DRAM”技术制造而成,它集成了“通道缓存”,由高速寄存器进行配置和控制。在实现高速数据传输的同时,VCM还维持着对传统SDRAM的高度兼容性,所以通常也把VCM内存称为VCM SDRAM。VCM与SDRAM的差别在于不论是否经过CPU处理的数据,都可先交于VCM进行处理,而普通的SDRAM就只能处理经CPU处理以后的数据,所以VCM要比SDRAM处理数据的速度快20%以上。目前可以支持VCM SDRAM的芯片组很多,包括:Intel的815E、VIA的694X等。
3.RDRAM
Intel在推出:PC-100后,由于技术的发展,PC-100内存的800MB/s带宽已经不能满足需求,而PC-133的带宽提高并不大(1064MB/s),同样不能满足日后的发展需求。Intel为了达到独占市场的目的,与Rambus 公司联合在PC市场推广Rambus DRAM(DirectRambus DRAM)。
Rambus DRAM是:Rambus公司最早提出的一种内存规格,采用了新一代高速简单内存架构,基于一种RISC(Reced Instruction Set Computing,精简指令集计算机)理论,从而可以减少数据的复杂性,使得整个系统性能得到提高。Rambus使用400MHz的16bit总线,在一个时钟周期内,可以在上升沿和下降沿的同时传输数据,这样它的实际速度就为400MHz×2=800MHz,理论带宽为 (16bit×2×400MHz/8)1.6GB/s,相当于PC-100的两倍。另外,Rambus也可以储存9bit字节,额外的一比特是属于保留比特,可能以后会作为:ECC(ErroI·Checking and Correction,错误检查修正)校验位。Rambus的时钟可以高达400MHz,而且仅使用了30条铜线连接内存控制器和RIMM(Rambus In-line MemoryMoles,Rambus内嵌式内存模块),减少铜线的长度和数量就可以降低数据传输中的电磁干扰,从而快速地提高内存的工作频率。不过在高频率下,其发出的热量肯定会增加,因此第一款Rambus内存甚至需要自带散热风扇。
DDR3时代
DDR3相比起DDR2有更低的工作电压, 从DDR2的1.8V降落到1.5V,性能更好更为省电;DDR2的4bit预读升级为8bit预读。DDR3目前最高能够达到2000Mhz的速度,尽管目前最为快速的DDR2内存速度已经提升到 800Mhz/1066Mhz的速度,但是DDR3内存模组仍会从1066Mhz起跳。
一、DDR3在DDR2基础上采用的新型设计:
1.8bit预取设计,而DDR2为4bit预取,这样DRAM内核的频率只有接口频率的 1/8,DDR3-800的核心工作频率只有100MHz。
2.采用点对点的拓朴架构,以减轻地址/命令与控制总线的负担。
3.采用100nm以下的生产工艺,将工作电压从1.8V降至1.5V,增加异步重置(Reset)与ZQ校准功能。