Re: [轉錄]Re: [情報] IBM式轉型 巨頭紛紛跟進 雲端

看板Cloud作者 (喵喵叫的蜜蜂貓)時間13年前 (2011/04/29 20:26), 編輯推噓2(201)
留言3則, 2人參與, 最新討論串2/2 (看更多)
最基本能自稱伺服器的主機,都是使用ECC Registed Ram 這一類型的記憶體傳輸時會多一個檢查碼,用來檢查記憶體是否有錯誤 再好些的伺服器,會有一套自檢查機制,當某條記憶體錯誤率超過某一個閥值時 提出警告及更換請求,這一類的伺服器也都能允許RAM的Hot Swap 更好些的伺服器則無所不能Hot Swap,也都配有各自的檢驗與警告機制 到了叢集&平行運算的時代,伺服器內部開始走倒車 Hot Swap的單位是以節點為單位,檢驗,容錯與警告的基礎單位也跟著上升 (單台伺服器有問題的話就卸下來離線檢驗,所以零件不需要熱抽換) 至於Google,據說是以貨櫃為單位在"Hot Swap"的.... 至於雲端運算,其底層結構還是叢集系統 只是有全為一,一為全的特性 一堆實體主機 => 一個運算中心 => 多個運算單元 (叢集只有前者,VPS只有後者) ================== 至於有了這些檢驗機制會不會讓整個服務崩潰? 當然會,前幾天才有亞馬遜EC2世界大當機事件 至於Gmail掛點已經到達[時有所聞]的程度... 最常見的幾種連鎖反應: 一批伺服器同時故障 => 超過容錯限制 => 大規模服務跳脫 or => 負載轉移到其他服務區 => 過載當機 => 轉移 => 當更大 or => 嚴重的延時失敗 簡單來說就是骨牌效應...(Gmail應該是第一種,Amazon是2+3) 隨著未來的雲一個造的比一個大,再加上自動轉移機制 骨牌倒起來會越來越嚴重,甚至跨越雲端服務區與雲端服務商 (ex.因為客戶可能會有自動從失敗的雲服務轉移到另外一個雲服務的機制...) -- ※ 發信站: 批踢踢實業坊(ptt.cc) ◆ From: 122.116.180.163

04/29 21:59, , 1F
技術根不上市場的成長
04/29 21:59, 1F

05/02 15:17, , 2F
其實這就是必然會發生的事情啊,所有設計都不是為了不出錯
05/02 15:17, 2F

05/02 15:17, , 3F
而是為了減少錯誤的影響不是嗎?
05/02 15:17, 3F
文章代碼(AID): #1Dkgvg4Y (Cloud)
文章代碼(AID): #1Dkgvg4Y (Cloud)