Re: [請益] 請問CPU速度怎麼看
小弟並非強者或高手級的
只是有些觀念怕大眾被誤導
所以再寫了回文 有不足之處或觀念錯誤之處 請指教
1.
單位的大小寫關係非常重大
雖然只是個小地方 有時卻相差甚遠 更是種禮貌
Hz : 頻率的單位 怎麼來的呢?
http://www.phy.cuhk.edu.hk/phyworld/history/chi/hertz.html
當把H改成h時 那就是不尊重了
而 f = 1 / T
2.
在基本電學裡 除了數位邏輯以外
全都用10進制以下請自行加上單位 如Hz g m V A...等)
1T=1000G=10^3G
1G=1000M=10^3M
1M=1000K=10^3K
1K=1000 =10^3
1 =1000m=10^3m....等
試想 若把M寫成m 相差幾倍?
計算機只認得0和1
因此就產生2進制這種東西
計算機裡面的資料與儲存媒體便以2進制來儲存或運算
為了方便計算 讓人一目瞭然
於是便利用2^10=1024這種特性來定義一個世代的演進
1 byte = 8 bits => 1 B = 8 b
1 KB = 1024 B = 2^10 B
1 MB = 1024 KB = 2^10 KB
1 GB = 1024 MB = 2^10 MB
1 TB = 1024 GB = 2^10 GB ...等
有沒注意到它的最小單位是bit 不像電學裡的還有更小計算法
而廠商標示的硬碟容量怎跟在BIOS或OS上看的有段差距呢?
主要是廠商把2進制硬用10進位標識
如80GB的硬碟怎得出的呢?
是 75 * 1024 * 1024 * 1024 B = 80.5GB
而BIOS和OS則認為1024是個階段
所以就變成了 75 * 1024 * 1024 * 1024 B
= 75 * 1024 * 1024 KB
= 75 * 1024 MB
= 75 GB
所以顯示的和廠商標示不同
電腦裡面的頻率是靠著一顆clock generator產生的
不管在電學中或是計算機裡 頻率一定是10進位
若用2進制去算CPU頻率 而其他裝置維持基本電學原理
有什麼後果呢?
當電腦裡面不同步時 就算只差個1KHz
輕則資料錯誤 重則電腦無法動作
以前的clock generator為了cost down
有些低階晶片只有除頻功能 並沒有定頻功能
什麼是除頻功能呢?
PCI槽正常工作頻率是33MHz
當CPU外頻為133MHz時 clock generator便除以4 來供給PCI槽頻率
當我們CPU超頻時 假設到150MHz 除以4以後 變成37.5MHz
有些PCI device是無法承受如此高的頻率
常導致傳輸資料錯誤或者不動作
所以請勿說"差個1MHz沒什麼"
現在大多數的clock generator都有定頻功能了
就算CPU超頻也能使PCI槽維持在33MHz的頻率
頻率怎得出的呢?
SDRAM大家都知道 有 100MHz 133MHz 166MHz...等
100MHz而言 它的clock cycle time = 10 ns 所以 f = 1 / 10 ns =100 MHz
133MHz而言 它的clock cycle time = 7.5 ns 所以 f = 1 / 7.5 ns =133.333... MHz
廠商為了方便起見便簡寫成133MHz
軍方電腦也是電腦
針對特殊用途設計
用的頻率度量單位跟家用電腦完全一樣
只是浮點運算更強 更能精準追蹤或摧毀目標 誤差更小
3.
說到計算資料所需要用到的脈波
那就得導入pipeline的觀念
http://www.cis.nctu.edu.tw/~info27/ch6/6-1.htm
以下是譬喻 比較能讓人理解
http://oz.nthu.edu.tw/~d917522/pipelined.htm
我們所說的計算是一個指令脈波週期
但得到結果的時間可能是好幾個脈波周期以後
請務必要有latency觀念
4.
: P4以前均是32位元電腦 先在新出的AM2 C2D都是64位元電腦.
: 「位元」(bits)指的是處理器的暫存器(registers)一次所能儲存和處理的最大量
: 換言之,一顆64位元處理器能處理的量,是32位元處理器的兩倍大
: 32位元躍向64位元,也會導致處理器在每一時脈週期中所能處理的資料數量倍增
: 64位元系統的一大優點,是能支援更大的系統記憶容量。
: 32位元晶片通常只能支援4GB的記憶容量。
: 64位元處理器能支援巨大的記憶容量—最多能達到16EB
這裡所說的32bits 64bits是指CPU一次所能處理的資料量
在DDR DDR2時期 memory的data bus早就是64bits
這裡所說的是 資料匯流排一次能傳輸64bits資料 並非CPU一次所能處理的資料量
而管理記憶體容量的要牽扯到Address Bus
所以上封信我才建議先搞懂這2種匯流排再來談處理器類別
5.
以下為Cache原理與作用 我簡單摘要 不再詳述
http://www.csie.ntu.edu.tw/~r89004/hive/cache/page_1.html
Cache 的原理,主要是利用到大部分的程式,在處理資料時,都有一定程度的區域性。
所以,我們可以用一小塊快速的記憶體,來暫存目前需要的資料。
例如,幾乎所有的程式,大部分的執行時間是花在一些迴圈中。這些迴圈通常都不大,
可能只佔整個程式空間的百分之一。如果一個程式經常要執行這段程式數千、甚至數萬
次,那就可以把這一小段程式放在 cache 中,CPU 就不需要每次都到很慢的主記憶體
中讀取這段程式了。
Cache 對速度有什麼影響呢?這可以由 latency 來表示。CPU 在從記憶體中讀取資料
(或程式)時,會需要等待一段時間,這段時間就是 latency,通常用 cycle 數表示
。例如,一般來說,如果資料已經在 L1 cache 中,則 CPU 在讀取資料時(這種情形
稱為 L1 cache hit),CPU 是不需要多等的。但是,如果資料不在 L1 cache 中(這
種情形稱為 L1 cache miss),則 CPU 就得到 L2 cache 去讀取資料了。這種情形下
,CPU 就需要等待一段時間。如果需要的資料也不在 L2 cache 中,也就是 L2 cache
miss,那麼 CPU 就得到主記憶體中讀取資料了(假設沒有 L3 cache)。這時候,CPU
就得等待更長的時間。
6.
CPU就算是同時脈 也有封裝和設計方式不同 而有所差異
並不只能看cache大小來評斷CPU好壞
對於CPU我了解很少 所以有人想補充的 歡迎賜教
謝謝~
--
※ 發信站: 批踢踢實業坊(ptt.cc)
◆ From: 59.117.67.214
推
03/02 23:25, , 1F
03/02 23:25, 1F
推
03/02 23:29, , 2F
03/02 23:29, 2F
推
03/02 23:33, , 3F
03/02 23:33, 3F
推
03/02 23:49, , 4F
03/02 23:49, 4F
→
03/03 00:12, , 5F
03/03 00:12, 5F
推
03/03 00:28, , 6F
03/03 00:28, 6F
推
03/03 00:31, , 7F
03/03 00:31, 7F
推
03/03 02:27, , 8F
03/03 02:27, 8F
推
03/03 04:36, , 9F
03/03 04:36, 9F
推
03/03 07:37, , 10F
03/03 07:37, 10F
推
03/03 08:41, , 11F
03/03 08:41, 11F
推
03/03 09:20, , 12F
03/03 09:20, 12F
推
03/03 09:21, , 13F
03/03 09:21, 13F
推
03/03 09:56, , 14F
03/03 09:56, 14F
推
03/03 10:28, , 15F
03/03 10:28, 15F
→
03/03 10:30, , 16F
03/03 10:30, 16F
推
03/03 10:49, , 17F
03/03 10:49, 17F
→
03/03 10:54, , 18F
03/03 10:54, 18F
推
03/03 13:48, , 19F
03/03 13:48, 19F
推
03/03 15:46, , 20F
03/03 15:46, 20F
噓
03/03 16:23, , 21F
03/03 16:23, 21F
推
03/03 16:29, , 22F
03/03 16:29, 22F
→
03/03 19:23, , 23F
03/03 19:23, 23F
推
03/03 20:36, , 24F
03/03 20:36, 24F
推
03/03 21:03, , 25F
03/03 21:03, 25F
推
03/04 09:57, , 26F
03/04 09:57, 26F
推
03/04 11:07, , 27F
03/04 11:07, 27F
hardware 近期熱門文章
PTT數位生活區 即時熱門文章
-1
12