世界第一台电脑模型是谁发明的?
1.中国东汉发明的十进位计数法;宋朝发明了珠算盘。 2.1617年,苏格兰发明家约翰·奈皮尔(John Napier)用骨制工具进行除法、减法以及加法和乘法的混合运算,发明了计算尺。 3.1622年英格兰的威廉·奥特雷得(William Oughtred)发明了滑动计算尺。 4.在开普勒的积极参与下,谢克哈特终于在1624年在海德堡大学开始研制第一台有加减乘除四种运算功能的计算器(计算钟),可惜在建造中样机模型毁于一场大火。 5.1642年,帕斯卡(Blaisc Pascal,1623-1662,法国数学家)发明了一台手动计算机器。 6.1673年,莱布尼茨(G.W.Leibnitz,1646-1716,德国伟大的数学家)建造了一台能进行四则运算的机械计算机器,轰动了整个欧洲。他的机器在进行乘法运算时采用进位-加(shift-add)的方法,这种方法后来演化为二进制,也被现代电子计算机采用。 7.1822年,英国数学家查尔斯·巴比伦(Charles Babbage,1791-1871)设计了一台差分机的模型,可以执行算术运算。具有六位数的计算能力,更重要的是能够计算到二次方的任何函数。 8.1854年,乔治·舒尔茨(George Scheutz)和他学机械工程的儿子爱德华建成了世界上第一台全操作性的差分机。 9.1884年,美国工程师赫尔曼·霍勒雷斯(Herman Hollerith,1860-1929)制造了第一台电动计算机。在1890年,他用电磁继电器代替一部分机械元件来控制穿孔卡片,在美国人口普查时大显身手,是人类第一台机电式自动计算机。 10.1937年,德国的康拉德·朱斯(Konrad Zuse,1910-1995)建造了Z-1机电式计算机;1941年11月5日,Z-3研制成功,这是完全由程序控制的机电式计算机,全部使用继电器,所有材料耗资25000马克(当时合6500美元)。 11.从1939年4月开始,于1940年1月8日建成,这台名为复数计算机器(Comples Number Calculator)像一台高级的桌面计算器。 12.1944年5月,美国哈佛大学的应用数学教授霍华德·阿肯建成了“哈佛IBM自动序列控制计算机”,后来称为“马克1号”,它的元件还是继电器。 13.1942年,爱荷华州立学院数学系教授文森特·阿特纳索夫(Vincent Atanasoff,美籍保加利亚人)和他的学生贝利设计的机器模型诞生。它有300个电子管,能做加法和减法运算,以鼓状电容器来存储300个数字。这是有史以来第一台用电子管为元件的有再生存储功能的数字计算机。后来他们设计的模型就以他们俩的名字命名,叫“阿特纳索夫-贝利计算机”(Atanasoff-Berry Computer),简称ABC。在数字时代门槛上的ABC,真有点象征意义。 第一台电子计算机的诞生: 1946年2月10日,美国陆军军机械部和摩尔学院共同举行新闻发布会,宣布了第一台电子计算机“爱尼亚克”研制成功的消息。它有5种功能:1、每秒5000次加法运算;2、每秒50次乘法运算;3、平方和立方计算;4、sin和cos函数数值运算;5、其他更复杂的计算。2月15日,又在学校休斯敦大会堂举行盛大的庆典,由美国国家科学院院长F·朱维特博士宣布“爱尼亚克”。然后一同去摩尔学院参观那台神奇的“电子脑袋”。出现在人们面前的“爱尼亚克”不是一台机器,而是一屋子机器,密密麻麻的开关按钮,东缠西绕的各类导线,忽明忽暗的指示灯,人们仿佛来到一间控制室,它就是“爱尼亚克”。这一庞然大物有8英尺高,3英尺宽,100英尺长,装有16种型号的18000个真空管,1500个电磁继电器,70000个电阻器,18000个电阻器,18000个电容器,总重量有30吨之巨。起初,军方的投资预算为15万美元,但事实上,连翻跟斗,总耗资达48.6万美元,合同前前后后修改过二十余次。 1946年底,“爱尼亚克”分装启运,运往阿伯丁军械试验场的弹道实验室。开始了它的计算生涯,除了常规的弹道计算外,它后来还涉及诸多的领域,如天气预报、原子核能、宇宙结、热能点火、风洞试验设计等。其中最有意思的,是在1949年,经过70个小时的运算,它把圆周率π精密无误地推算到小数点后面2037位,这是人类第一次用自己的创造物计算出的最周密的值。 1955年10月2日,“爱尼亚克”功德圆满,正式退休。自1945年正式建成以来,这一人类的第一台“电子脑袋”实际运行了80223个小时。这十年间,它的算术运算量比有史以来人类大脑所有运算量的总和还要来得多,来得大
设计一个模型计算机的指令系统及指令执行流程.要求...
1.对
变址寻址就是将寄存器(该寄存器一般称作基址寄存器)的内容与指令中给出的地址偏移量相加,从而得到一个操作数的有效地址。变址寻址方式常用于访问某基地址附近的地址单元。采用变址寻址方式的指令常见有以下几种形式,如下所示:
LDR R0,[R1,#4] ;R0←[R1+4]
LDR R0,[R1,#4]! ;R0←[R1+4]、R1←R1+4
LDR R0,[R1] ,#4 ;R0←[R1]、R1←R1+4
LDR R0,[R1,R2] ;R0←[R1+R2]
在第一条指令中,将寄存器R1的内容加上4形成操作数的有效地址,从而取得操作数存入寄存器R0中。
在第二条指令中,将寄存器R1的内容加上4形成操作数的有效地址,从而取得操作数存入寄存器R0中,然后,R1的内容自增4个字节。
在第三条指令中,以寄存器R1的内容作为操作数的有效地址,从而取得操作数存入寄存器R0中,然后,R1的内容自增4个字节。
在第四条指令中,将寄存器R1的内容加上寄存器R2的内容形成操作数的有效地址,从而取得操作数存入寄存器R0中。
2.错
并不一定,CISC比RISC指令更多,功能更强大,但并不比RISC好
CISC存在的问题 :指令系统庞大,指令功能复杂,指令格式、寻址方式多;执行速度慢;难以优化编译,编译程序复杂; 80%的指令在20%的运行时间使用;无法并行;无法兼容;
RISC 设计者把主要精力放在那些经常使用的指令上,尽量使它们具有简单高效的特色。对不常用的功能,常通过组合指令来完成。因此,在RISC 机器上实现特殊功能时,效率可能较低。但可以利用流水技术和超标量技术加以改进和弥补。而CISC 计算机的指令系统比较丰富,有专用指令来完成特定的功能。因此,处理特殊任务效率较高。
3.对 程序计数器是用于存放下一条指令所在单元的地址的地方。
4.错 正好相反
5.错 它是由存储器的的带宽,字长和存储周期决定的
6.错 虚拟存储器是指具有请求调入功能和置换功能,能从逻辑上对内存容量进行扩充的一种存储器系统。在虚拟存储器系统中,作业无需全部装入,只要装入一部分就可运行。
引入虚拟存储技术之后,可以:
1、提高内存利用率;(如:定义100*100大小的数组,可能只用到10*10个元素)
2、程序不再受现有物理内存空间的限制;编程变得更容易;
3、可以提高多道程序度,使更多的程序能够进入内存运行
7.对
8.对
常用的设备和CPU之间数据传送控制方式有4种,它们是程序直接控制方式、中断控制方式、DMA方式和通道方式。程序直接控制方式和中断控制方式都只适用于简单的、外设很少的计算机系统,因为程序直接控制方式耗费大量的CPU时间,而且无法检测发现设备或其他硬件产生的错误,设备和CPU、设备和设备只能串行工作。中断控制方式虽然在某种程度上解决了上述问题,但由于中断次数多,因而CPU仍需要花较多的时间处理中断,而且能够并行操作的设备台数也受到中断处理时间的限制,中断次数增多导致数据丢失。DMA方式和通道方式较好地解决了上述问题。这两种方式采用了外设和内存直接交换数据的方式。只有在一段数据传送结束时,这两种方式才发出中断信号要求CPU做善后处理,从而大大减少了CPU的工作负担。DMA方式与通道控制方式的区别是,DMA方式要求CPU执行设备驱动程序启动设备,给出存放数据的内存始址以及操作方式和传送字节长度等;而通道控制方式则是在CPU发出I/O启动命令之后,由通道指令采完成这些工作。
个人只找到这么多,只当参考下吧来自:求助得到的回答赞同1| 评论
计算机程序设计语言模型与人类自然语言模型有何区别
程序设计语言用于书写计算机程序的语言。语言的基础是一组记号和一组规则。根据规则由记号构成的记号串的总体就是语言。在程序设计语言中,这些记号串就是程序。程序设计语言有3个方面的因素,即语法、语义和语用。语法表示程序的结构或形式,亦即表示构成语言的各个记号之间的组合规律,但不涉及这些记号的特定含义,也不涉及使用者。语义表示程序的含义,亦即表示按照各种方法所表示的各个记号的特定含义,但不涉及使用者。
全部评论