8.0 KiB
Raw Blame History

第一章:输入输出模型

1.1 回顾冯·诺依曼体系结构

  • 冯·诺依曼体系结构的理论要点如下:
    • 存储程序程序指令数据都存储在计算机的内存中,这使得程序可以在运行时修改。
    • 二进制逻辑:所有数据指令都以二进制形式表示。
    • 顺序执行:指令按照它们在内存中的顺序执行,但可以有条件地改变执行顺序。
    • 五大部件:计算机由运算器控制器存储器输入设备输出设备组成。
    • 指令结构:指令由操作码和地址码组成,操作码指示要执行的操作,地址码指示操作数的位置。
    • 中心化控制计算机的控制单元CPU负责解释和执行指令控制数据流。

img

Note

上述的组件协同工作,构成了一个完整的计算机系统:

  • 运算器控制器通常被集成在一起组成中央处理器CPU负责数据处理和指令执行。
  • 存储器(内存)保存数据和程序,是计算机运作的基础。
  • 输入设备输出设备负责与外界的交互,确保用户能够输入信息并接收计算机的处理结果。

直到今天,即使硬件的发展日新月异,但是现代计算机的硬件理论基础还是《冯·诺依曼体系结构》。

1.2 冯·诺依曼体系结构的瓶颈

  • 计算机是有性能瓶颈的:如果 CPU 有每秒处理 1000 个服务请求的能力,各种总线的负载能力能达到 500 个, 但网卡只能接受 200个请求而硬盘只能负担 150 个的话,那这台服务器得处理能力只能是 150 个请求/秒,有 85% 的处理器计算能力浪费了,在计算机系统当中,硬盘的读写速率已经成为影响系统性能进一步提高的瓶颈。

  • 计算机的各个设备部件的延迟从高到低的排列依次是机械硬盘HDD、固态硬盘SSD、内存、CPU 。

  • 从上图中我们可以知道CPU 是最快的,一个时钟周期是 0.3 ns ,内存访问需要 120 ns ,固态硬盘访问需要 50-150 us传统的硬盘访问需要 1-10 ms而网络访问是最慢需要 40 ms 以上。

Note

时间的单位换算如下:

  • ① 1 秒 = 1000 毫秒,即 1 s = 1000 ms。
  • ② 1 毫秒 = 1000 微妙,即 1 ms = 1000 us 。
  • ③ 1 微妙 = 1000 纳秒,即 1 us = 1000 ns。
  • 如果按照上图,将计算机世界的时间和人类世界的时间进行对比,即:
如果 CPU 的时钟周期按照 1 秒计算,
那么,内存访问就需要 6 分钟;
那么,固态硬盘就需要 2-6 天;
那么,传统硬盘就需要 1-12 个月;
那么,网络访问就需要 4 年以上。

Note

  • ① 这就中国古典修仙小说中的“天上一天,地上一年”是多么的相似!!!
  • ② 对于 CPU 来说,这个世界真的是太慢了!!!
  • 其实,中国古代中的文人,通常以蜉蝣来表示时间的短暂(和其他生物的寿命比),也是类似的道理,即:
鹤寿千岁,以极其游,蜉蝣朝生而暮死,尽其乐,盖其旦暮为期,远不过三日尔。
	                                        --- 出自 西汉淮南王刘安《淮南子》
寄蜉蝣于天地,渺沧海之一粟。 哀吾生之须臾,羡长江之无穷。 
挟飞仙以遨游,抱明月而长终。 知不可乎骤得,托遗响于悲风。
	                                        --- 出自 苏轼《赤壁赋》

Note

  • ① 从蜉蝣的角度来说,从早到晚就是一生;但是,从人类角度来说,从早到晚却仅仅只是一天。
  • ② 这和“天上一天,地上一年”是多么的相似,即:如果蜉蝣人类的话,那我们就是仙人了。
  • 存储器的层次结构CPU 中也有存储器,即:寄存器、高速缓存 L1、L2 和 L3如下所示

img

Note

上图以层次化的方式,展示了价格信息,揭示了一个真理,即:鱼和熊掌不可兼得。

  • ① 存储器越往上速度越快,但是价格越来越贵, 越往下速度越慢,但是价格越来越便宜。
  • ② 正是由于计算机各个部件的速度不同,容量不同,价格不同,导致了计算机系统/编程中的各种问题以及相应的解决方案。
  • 正是由于 CPU、内存以及 IO 设备之间的速度差异,从而导致了计算机的性能瓶颈,即所谓的“冯·诺依曼体系结构的瓶颈”

  • 因为 CPU 的处理速度远远快于内存和 IO 设备导致在等待数据处理和传输的时候CPU 大部分处于空闲状态。就是这种显著的速度差异就导致了计算机的性能瓶颈,限制了整个计算机系统的效率。

Note

  • 对于硬件的这种显著的速度差异,我们程序员是无法解决的。
  • 但是,为了平衡三者之间的速度鸿沟,我们可以通过引入缓冲区技术,来降低系统的 IO 次数,降低系统的开销。
  • 其实,在硬件上也是有缓冲区CPU 内部集成了缓存,将经常使用到的数据从内存中加载到缓存中。

Note

对于缓存和内存中数据的同步解决方案会有各种各样的算法LRU 等。

1.3 缓冲区

1.3.1 如果存在缓冲区,键盘输入的数据是怎么到达程序的?

  • 当我们在键盘上输入数据并传递给程序时,通常会经历如下的几个步骤:

    • 键盘输入数据:当我们在键盘上按下某个键的时候,键盘会将这个动作转换为对应的电信号,传递给计算机。
    • 硬盘中断:计算机的键盘控制器会检测到键盘按键输入,并通过中断请求通知 CPU。这个中断信号会暂停当前的程序执行CPU进入中断处理状态中断处理程序会接收这个中断信号CPU 根据键盘输入触发的中断,调用操作系统内核中的中断处理程序)。
    • 操作系统处理输入:中断处理程序从键盘控制器获取输入的数据,并降低存储到内存的缓冲区(标准输入缓冲区)中。
    • 缓冲区管理:键盘输入的数据被存入内存缓冲区,操作系统会将这些数据暂时存放在缓冲区中,等待程序从缓冲区中读取数据。
    • 程序读取数据程序通过系统调用或库函数C 语言中的 scanf 函数从缓冲区中读取键盘输入的数据。并且,当程序调用读取输入的函数时,操作系统将缓冲区中的数据传递给程序。程序通过读取操作,将键盘输入的数据处理或输出到其他地方。
  • 其对应的图示,如下所示:

sequenceDiagram
    participant User as 用户
    participant Keyboard as 键盘
    participant Controller as 键盘控制器
    participant CPU as CPU
    participant OS as 操作系统
    participant Program as 程序

    User->>Keyboard: 按下按键
    Keyboard->>Controller: 生成输入信号
    Controller->>CPU: 发送中断请求 (IRQ)
    CPU->>OS: 执行中断处理程序 (ISR)
    OS->>OS: 处理输入并存储到缓冲区 (stdin)
    Program->>OS: 通过系统调用读取缓冲区数据
    OS->>Program: 返回键盘输入数据

Note

其实C 语言中的 printf 函数和 scanf 函数,其内部就使用了缓冲区。

  • ① 当我们使用 printf 函数输出数据的时候,数据并不会立即就写出到输出设备(如:屏幕等)。而是先将其放置到 stdout 缓冲区中,然后在满足条件的时候,再从缓冲区中刷新到输出设备。
  • ② 当我们使用 scanf 函数输入数据的时候,数据并不会立即就从输入设备中读取(如:键盘等)。而是先将其放置到 stdin 缓冲区中,然后在满足条件的时候,再从缓冲区中加载数据。

1.3.2 如果没有缓冲区,键盘输入的数据是怎么到达程序的?