计算机技术发展简史之24——未来的计算机会有哪些种

  XZKL1234 ·  2011-07-22 16:28  ·  44519 次点击
二十世纪计算机发展的时期界线是六十年代初期硅平面工艺的出现而划定的。在此之前,计算技术只有依靠物理学的成果才能前进,而在此之后,集成电路成为独立的工艺领域,并借助计算机本身的功能而精益求精。集成电路从小规模(SSI)到超大规模(VLSI)主要是技术进步,并未引进多少新的物理思想,但经过四十多年才发展和完善起来的冯•诺伊曼型计算机正逐渐成为历史,当然它不会被淘汰,而是逐渐转化成普通商品和人们不可缺少的日常工具,它的使命是无孔不入地渗透到社会和家庭的各个角落,成为“古典”计算机。这是因为沿着冯•诺伊曼思想发展的超级计算机已经遇到各种物理上的限制,再要大幅度地提高人类的计算能力,就必须要排除所谓冯•诺伊曼瓶颈问题,靠新的技术革命方能实现。
物理学、电子学、化学、材料学和计算机科学已经为下一代计算机的发展提供了新的材料、器件和工艺,有一些已经是试验室呼之欲出的成果,有一些则还要经过长期的研究才能见到分晓。
㈠.实现光计算机可能吗:
物理证明,电子在固体介质中的运动速度永远低于光速,而在固体中,光速也低于它在真空中的传播速度。在硅晶体中,电子的运动速度是光速的百分之几,这是由于决定许多电子器件开关时间的是电子在外加电场中的漂移速度和扩散时间,使其比光速更慢许多。光子是没有质量和电荷的,因而在传播中可以不受“电磁”的影响和其它干扰,许多光束可以相互交叉地通过同一空间而彼此不发生影响,光的这种特性在过去使人们很难制造出微小的光开关以使用光或电信号来控制另一个光信号,这一现象,由于近年来无源光学双稳态器件的产生与发展而有所改变。
实际上,光频信号可以容纳的信息量远远高于无线电频率。目前的光导纤维已经广泛用于计算机整机间的通讯和主机到磁盘/光盘的信息交换,而部件与部件、元件与元件之间乃至元件内部的信息传输,则不一定要用光导纤维,有些可以借助自由空间的传播。所以,许多光学器件原则上不必限制于使用0和1这两个状态,还可以利用其它信息,如相位,实现二进制以外的存贮或开关。最主要的是,光学信息处理在本质上就是高速的并行处理,简单的线性光学系统就可以效率极高地实现特定的模拟计算,只费传播之功就能解出偏微分方程或实现积分变换。如何利用光的这种特性,是今后一段时间内科学家们研究的重要课题:是数字计算还是模拟计算,亦或是二者混合?怎样将线性光学与非线性光学效应融为一体?是发展光电子技术还是走全光学逻辑的道路……等等。在人们最终作出抉择之前,还要用新的发明创造去补足许多缺阙的环节。
人们在发明了激光器以后,高质量的相干光源就使光学信息处理获得了新的生命力。我们知道,用一个薄透镜对前焦面中的像进行傅氏变换后显示在后焦面里,这是一个瞬间就能完成的积分变换过程。如果将这个过程全部由电子计算机来做,则首先要根据需要将前焦面中的像进行栅格化,然后按照指定的栅格密度取定大量独立的像元(像素)点,再把每个像元的亮度(灰度)数值化。假如一幅像幅的栅格尺寸为1024×1024个像元,那就是1048576个数值,将这些数值按行或列逐个送入计算机,然后用二维傅氏变换程序计算这一百多万个二重数值积分,最后将这一百多万个经过计算后的数值再按原来的栅格进行数/模(D/A)转换,还原成模拟信号并扫描成像。很显然:
①即使有大存贮量和高速度的电子计算机,也不可能像光学处理系统那样有效地在瞬间完成变换过程;
②将图像分解成像元并按某种定义进行数值化,必然要丢失大量的信息,任何小于原图1/1048576面积内的图像细节都不能保留和分辨出来;
③电子计算机对这样量化的1048576个全字长的数值计算,保留着不必要的多余精度。如此看来,计算机在进行这类处理精度不很高的计算时,如何去模仿人脑迅速处理才是关键,因为人脑对视觉信息的处理是高度并行的,可以根据需要自动滤除或强调图形/图像中的某些特征,而且比目前任何光学处理系统都更为灵敏。
上述中只是对像的强度信息进行了变换处理,再看另一种情况:把到达照相底片的全部强度和相位信息都记录下来,在相干光源下用全息透镜组成的光学处理系统对这个像进行更一般的变换即实现全息照相。这就像求解二维偏微分方程,也是在一瞬间即可完成的工作。显然,在光学模拟计算机的前景展示中,任何电子数字处理系统都是无法与之匹敌的。
要开发光计算机,就必须要研制出光学的逻辑元件来实现数值计算。
1974年,科学家们在钠蒸汽中观察到光学双稳现象后,利用无源双稳器件(即不必将传导介质激活)实现全光学逻辑线路的可能性才变得现实起来了。二十多年来,为了使光学双稳器件达到实用化,各国的研究工作一直在艰苦地进行着,而且一直致力于缩小器件的尺寸、缩短开关时间、减小操作功率和争取在室温环境中工作。目前,已经制备出的GaAs(砷化镓)超晶格多量子阱光学双稳器件是由夹在两个电介质反射层之间的光学腔组成,光学腔本身由六十一对交替的GaAs和AlXGa1-XAs(砷化镓亚铝,X=0.27)薄层构成的超晶格,单层GaAs的厚度为336埃,而AlGaAs的厚度为401埃,电子和空穴都落在能量较低的GaAs层量子阱中,它们彼此之间因为有很强的库仑作用,形成束缚在一起运动的激子,这些激子可以吸收入射光而跳到激发态,因而在入射光弱时因吸收能力较强而输出较弱,而在入射光增强时则因吸收饱和而锐减,造成输出激增,这样,就形成了高和低即1和0两个稳定状态。其实,超晶格量子阱的功用决不止于光学双稳,还将带来一大类光学、光电子学和电子器件的诞生,给光计算机的前景带来光明和希望。
从长远看,光技术和电子技术并不互相排斥和取代,而是彼此亲密互补。例如,在进行图像或视觉信息处理时,先用信息吞吐量大、速度高但精度不一定很高的光学处理,压缩信息量后这依靠电子技术施以可高精度编程的数字处理,实际上,目前已广泛开始使用的光盘技术就属于这类处理方式。限制磁盘记录密度继续提高的因素之一,就是磁头必须离磁记录表面非常近,才能分辨相邻的两位信息,现代磁盘中的磁头是靠磁盘转动产生的气垫托浮着的,磁头与磁盘面的距离在工艺上可以做到四微米,而使用激光则可以实现真正的无接触高密度读写。现在的激光光盘采用唱片技术将信息用模板压铸到盘面上或直接用激光刻写到盘面上,盘面上为深1~2微米的凹槽,就像唱片一样。在1992年,直径为十二厘米的一张小光盘,存贮信息的容量可以达到800MB,几乎是同面积软磁盘的五百五十倍。光盘技术从只读光盘发展到一次写入多次读出及多次反复读写,仅仅是几年间就形成了,1996年,日本开发出氟化砷激光器件,迅速将光盘的存贮容量又提高了三倍,一张光盘目前的存贮容量可以达到2.4GB甚至更高。2002年,中国研制出光至色材料和多波长激光,将一张光盘的存储容量提高到56.8GB,可以存放一百部电影故事片。
㈡.能制造出超导计算机吗:
光在真空中1毫微秒钟时间内只能传播三十厘米,在固体内电子运动和电信号的传播速度都比光速慢得多,当今电子器件的开关时间已经达到了1毫微秒,则必须把整个电子计算机放到边长为十厘米的立方体内,信号传播所用的时间才不至于将器件的开关速度浪费掉,但是按照现在半导体器件的发热率计算,这样的计算机会因为自身发出的热量而在瞬间化作一缕青烟。那么,怎样解决这一问题呢?物理学提供了许多可能的方案,其中之一就是利用超导现象和超导态的一系列效应来研制超导计算机。
1908年,荷兰物理学家卡•昂内斯成功地将气体氦进行了液化,获得了在绝对温度4K上下做实验的条件。1911年,他又发现金属汞在4.2K温度附近突然进入完全没有电阻的状态,卡•昂内斯将之称为超导体现象。后来人们又陆续发现了许多金属、合金、半导体和其它材料也会在低温条件下进入超导状态,这些材料被称为超导体。超导体除了完全没有电阻以外,还是完全的抗磁体,磁力线不能深入其内部,若将一个环形超导体包围了磁力线,则这些磁力线就无法从中脱逸出来。而当电流或磁场强度达到一定程度时,又会破坏超导态,使材料回到有电阻的状态,各种不同的超导材料有不同的这种临界电流和临界磁场。
单是没有电阻这一项,就足以吸引人们着手来研究超导电子器件了。1962年,年轻的英国物理博士布朗•约瑟夫逊从理论上预言了超导隧道效应的存在,随即被实验所证明,使超导电子器件的开发有了实际意义。当两层金属之间夹有极薄的绝缘层(金属氧化物)时,金属中电子的波函数会拖着一个尾巴到绝缘层中,加上偏置电压后就会有微弱的电流通过,这不是击穿,而是出现了正常的隧道电流。在超导体中,配了对的电子也会拖一个尾巴到氧化层中,使绝缘层变为弱导体,允许电流无阻通过,这就是超导隧道效应。在无电阻状态下,氧化层两侧不会电位降,可以看作是0状态;而当电流超过临界值时,氧化层恢复到电阻的正常状态,这时出现电位降,可以看作是1状态。由于超导体的转变非常陡,开关时间可以达到几个皮秒(10-12秒)的量级,目前研制出的约瑟夫逊隧道结器件,功率消耗为1微瓦级,开关速度为十皮秒,其开关速度虽然只比最快的半导体器件快三倍,但功率消耗却低了上千倍。
人们估计,如果研制出具有中型计算机(如IBM370/168)指令功能的超导计算机,使用典型的尺寸为五微米的薄膜结构,则整个主机可以装在边长为十五厘米的立方体中,全部功耗只有七瓦特。由于开关速度大大加快,这样的主机每秒钟可以执行七千万条指令,而IBM370/168只能执行三百五十万条指令,速度提高了二十倍。当然,在正式生产这样的超导计算机之前,还有很多材料和工艺上的问题要逐一解决,超导计算机只是未来高性能超级计算机的一种可能方案。IBM公司从1960年起就保持着一支队伍,他们在不懈地进行研究;而日本Hitachi公司已经研制出的约瑟夫逊隧道结4位乘法器,每秒钟可以完成四十七亿次运算。1987年间瑞士、中国、日本三国科学家几乎在不差先后的超导研究中有了重大突破,分别发现了转变温度在100K左右的液氮温度下完全无电阻的新材料。随着超导温度的大幅度提高,肯定会大为促进人们对于超导技术、超导电子学和超导计算机的更大兴趣。
㈢.并行计算机离我们有多近:
如果说光计算机和超导计算机离我们还有一段距离,那么,并行计算机离我们就已经非常之近了。
只有比较在视觉问题上人造设备与大自然造物的差距,才能明白并行计算机的必要性和有效性。大自然用比人造机制慢成千上万倍的基本元件“神经原”组成了效率极高的图像处理系统__动物的视觉器官,神经网络中信号的产生和传递要用几十毫秒或更长时间,而人造电子元件的开关速度已经以纳秒(毫微妙)计算,但人工制造的具有视觉功能的机器人在复杂地形上行走,每走一步则要看和想几分钟,所以,必须把计算机的处理效率提高上百万倍,计算机才能与人脑的效率相比。在这其中,基本的差别就在于:大自然造物采用的是并行计算法,从整体上去识别图像,而人类目前仍在冯•诺伊曼型计算机上进行逐点处理和比较。
一幅图像根据需要可以分解成数百万个乃至无穷多个像素,计算机将每个像素逐一取来,判别其灰度和颜色特征,再逐点重建其整体特征,每一个点的处理过程虽然并不一定很复杂,但数据的取-送过程则要占用相当长的时间,如果把相邻的几个像素一起交给一个处理单元去计算,各个单元之间再交换和形成信息,则效率就会大为提高。大规模集成电路技术使得二十世纪六十年代一人高的中央处理机缩进到一块芯片中,这就有可能使用大量的处理器构建成一组大规模的并行处理器系统。1984年,虽然并行处理系统开始进入市场,但并行计算是二十世纪八十年代后期才开始萌芽的新领域,早期的“并行处理系统”并不能发挥什么作用。
数学家威尔逊(K.G.Wilson)在1973年提出了格点规范场的想法,美国的圣-巴巴拉物理研究所用这一想法在二十世纪八十年代实现了伊辛模型计算,这个专用的并行计算机用硬件实现每边有六十四个小磁矩自旋的立方体,随机产生自旋的各种取向,使用随机采样方法来计算这块磁体的性质。这台专用并行计算机的造价只相当于在大型计算机CDC7600上做十二小时计算的费用,而它在十二小时里产生的自旋位形却足够CDC7600计算机算上六十年。从1980年开始,著名物理学家李政道在美国的哥伦比亚大学组织着手研制一台十七个处理机构的并行系统,是一个4×4的阵列,在一台处理机监督下运行;目前又在研制更大阵列的并行系统。
如果说冯•诺伊曼的由中央指令流控制的串行处理计算机基本上只有一种方法来实现的话,那么并行计算机就可能有无穷多种方法和花样。冯•诺伊曼型计算机的基本结构,是把中央处理器、存贮器、外部设备都连接到若干条总线上,总线上数据传递的速度和调度成为提高整机运行速度的主要限制之一。而并行系统中则可以考虑大量处理器和存贮器的联结连接方式,其中最简单的是近邻连接的平面阵列结构,每个处理器只和前后左右四个处理器交换信息,阵列边线上的处理器可以和另一边的处理器连接成环面结构。另一种方法是超立体结构,把每个处理器放在一个高维立方体的顶点上,沿立方体的棱线和最近的处理器交换信息。还有一种方法是像纵横式交换机那样,允许任何处理器和存贮器之间建立联系,由开关来加以控制。当前已有的并行处理系统如MPP/Cennection、Machine/Sigma-I和Machine/Sigma-Ⅱ等等,处理器的数目都有几百个乃至数万个,处理速度都在每秒钟进行十几亿次乃至几十亿次运算和每秒钟执行几百亿条指令以上。
㈣.元胞自动机是什么:
自然界中许多复杂的结构和过程,追根究底只是由大量的基本单元的简单相互作用引起的。多年来,人们用名为元胞自动机(CellularAutomation)的数学模型来模拟这些复杂行为,近年来,元胞自动机的研究开辟了高速进行流体力学(包括流体力学、空气动力学、电磁流体力学、辐射流体力学等)计算的途径,提供了另一种类型的并行计算机的设计思想。一维的元胞自动机就是在一条线上排N个位置,允许每个位置处于M种状态之一,然后给定一条只涉及几个邻近位置的生成规则,来决定整条线下一时刻的状态。假定每个位置只取0和1两种状态(即M=2),在下一时刻的状态就只由它本身和左右两个邻居在此刻的状态决定,一共有八种可能即:
八种可能是111110101100011010001000
具体规定为00010110
时,则固定第一行中的顺序,把第二行中的二进制数当作一个数读出来,就是十进制数22,那么这条规定就叫作规则22,然后从有规到无规排列出的一条线出发,就可以得到今后的时间演变图。这些简单规则的特点可以概括为“三离散”和“两局部”——离散的空间位置、离散的时间因子、离散的状态、局部的相互作用、局部的因果关系。这些特点的演化过程可能是多种多样的:从简单衰减消失、进入周期运动、固定不变的状态,甚至发展成混沌运动。人们相信用各种元胞自动机可以模拟任何复杂程度的演化过程,类似的元胞自动机模型可以推广到平面、三维或更高维数的空间。用元胞自动机模拟流体力学计算,是为了满足航天、航空、航海、军事、气象等领域的应用,因为真正模拟显示条件的三维流体力学计算,至今仍是可以累倒任何巨型计算机的大课题。
抛开连续的流体力学的偏微分方程,采用离散的元胞自动机模型直接模拟粒子的运动和碰撞,能惟妙惟肖地得到某些湍流图像。在4×4小阵列计算机上作二维流体力学计算,已经获得比巨型计算机CRAYXMP快一千倍的结果。二十世纪九十年代中期就有人提议组装1024×1024即一兆个中央处理单元(CPU)的元胞自动机,用它从事二维和三维流体力学的计算,其速度可以比巨型计算机CRAYXMP快三十五万倍以上,这样会大为缩短许多航天飞行器和导弹、舰船的设计过程,也会普及到民用流体力学应用的计算。总之,元胞自动机的思想提供了一套模拟复杂系统的模型,启发了新的算法,导致了一类新的并行计算机的萌发。
㈤.有生物计算机吗:
人类关于利用分子内部的电子跃迁和能量转移过程来制造元器件的设想是由来已久了。几十年来,人们尝试着用视紫红蛋白作存贮器件,用有机分子(如血红蛋白和叶绿素)来实现开关元件等等,当然,离开真正可靠使用的器件还有相当的距离。真正有希望的方向,是用电子元件来模拟生物信息的处理过程,实现高度并行的智能计算机。
传统计算机的元器件内部和外部连接走线都是在生产阶段实现了的固定联结,而生物的某些神经原之间的信息传递却可以视具体情况而灵活改变;人脑可以在不断变化的环境中对于各种可能的问题作出不特别精确但又基本准确的答复,而冯•诺伊曼型计算机只能对事先准备好的某类问题给出迅速和精确的解答;生物系统可以带病运行,而传统计算机的硬件不允许有任何失误……这都是因为二者的基本算法和结构不同。当然,并行智能生物计算机的真正实现,有赖于生物学生物物理学的研究成果。
㈥.更遥远的量子计算机:
若要靠单个原子和分子的内部电子过程来保存和处理信息,就离不开量子力学。当前基本逻辑操作和信息存贮所涉及的电子或原子数目仍维持在106~1011的量级上,还远未用到单个粒子的性质。近三十年来,很多科学家担心地提到量子力学中有关能量关系测量不准带来的后果“δE•δt>h”,其实,这个关系只表明在δt时间间隔之内完成的物理测量,其能量只准确到δE,并不能说开关时间为δt的逻辑元件就必定消耗h/δt的能量。对于逻辑操作,测量和不可逆的热耗之间的关系,还缺少另人信服的量子模型研究,但至少在目前的工艺水平上人们好遇不到量子限制问题。现在,人们仍在研究一种称为单量子阱的电子器件,其开关速度理论上在10-9~10-12秒之间,不过目前关于量子计算机的多数议论仅限于能否用量子过程实现可逆计算的抽象分析,而实际上,只有每一个操作都以无限慢的速度实现,才会有真正的可逆计算。在现行条件下,量子计算机的研究主流,看来仍是力图从大自然中得到一些启示,来改进人类自己才发明了四十多年就要被称为颇为原始的小玩意儿__现代电子计算机。

0 条回复

暂无讨论,说说你的看法吧!

 回复

你需要  登录  或  注册  后参与讨论!