程序師世界是廣大編程愛好者互助、分享、學習的平台,程序師世界有你更精彩!
首頁
編程語言
C語言|JAVA編程
Python編程
網頁編程
ASP編程|PHP編程
JSP編程
數據庫知識
MYSQL數據庫|SqlServer數據庫
Oracle數據庫|DB2數據庫
 程式師世界 >> 編程語言 >> .NET網頁編程 >> 關於.NET >> Windows平台分布式架構實踐:負載均衡

Windows平台分布式架構實踐:負載均衡

編輯:關於.NET

概述

最近.NET的世界開始鬧騰了,微軟官方終於加入到了對.NET跨平台的支持,並且在不久的將來,我們在VS裡面寫的代碼可能就可以通過Mono直接在Linux和Mac上運行。那麼大家(開發者和企業)為什麼那麼的迫切的希望.NET跨平台呢?第一個理由是便宜,淘寶號稱4萬多台服務器全部運行在Linux,Linux平台下還有免費的MySql,這些都是免費的,這些省下來直接就是利潤呀,做企業的成本可以降低又沒有任何損失,何樂而不為呢?第二個理由是在Linux系統下還有很多非常優秀的構架(當然同樣也是免費的),分布式緩存Memcached, 大數據處理構架Hadoop等等,這些都為一些大型的分布式系統提供了很好的支撐,當然還有諸如Liniux系統本身的一些安全和網絡方面的優勢,等等。 所以也難怪大佬們都紛紛不約而同的沒有選擇.NET。

但是如果.NET也支持跨平台之後,那這樣的格局可能就要發生變化了。上面所有的優勢依然可以保留,並且加上它語法的優越性,以及快速的開發效率等,還是會為其爭得一席之地的。

但是,是不是Windows平台下就不能實現這些大型的分布式系統呢?我相信這個問題已經被廣泛討論過,但是至少我沒有看到比較清晰的,完整的案例。帶著這些問題,我決定升級我的機器,自己從頭到尾在windows平台下搭建一個高可擴展性的分布式網站出來。我經驗尚淺,很多的東西還處於摸索階段,所以如果有錯誤,還請大師多多指點。

什麼是負載均衡

負載均衡可以幫我們解決兩個方面的問題,第一個即提高可用性。這裡面的可用性主要是從WEB服務器,的角度來講的,如果說我們只有一台Web服務器,而它遇到了某種未知的錯誤導致IIS無法啟動,那麼我們的網站就無法訪問了,這就是一種比較低的可用性。那麼利用負載均衡,放在我們Web服務器的前面,由它來收集所有的請求,然後轉發給我們的Web服務器, 這時候我們就可以添加兩台Web服務器,如果其中有一台壞了,至少還有另一台在工作,也不至於導致我們的網絡無法訪問。

當然,有人可能會問,如果那台Load balancer壞了怎麼辦?那不是還是訪問不了網站麼?我們這裡討論的是提高可用性,在做到365天*24小時不間斷的服務,需要有另外的組件來支撐,我們留在後面討論。除了可用性以外,負載均衡還可以幫助我們提高可擴展性,當然這個可擴展性同樣是指的Web服務器層面。從網站性能的角度來講,好幾個程序員花上好幾天的時間做了一些優化所帶來的效果有時候可能還沒有直接加一根內存條來的快。內存加完了沒什麼影響,我們還可以換更好的CPU,CPU換完了,我們還可以用固態硬盤,甚至很多公司已經開始直接把數據放到內存中了(注:具體場景具體對待)。 如果這些都不可以再加了呢?那就再加機器吧,一台服務器可以處理1000個並發,那麼兩台理論上是2000了,所以這就有了我們的橫向擴展。

負責均衡器分發請求的類型

所有的請求首先全部到達Load balancer,再由它轉發到具體的Web服務器,轉發的方式分為以下幾種:

輪轉調度(Round-robin):最簡單的方式,這種方式基本上不能算是負載均衡。第一個請求給web1,下一個給web2,再下一個給web3... 不會考慮某 一個服務器是不是負荷太重等等。

基於權重的分配(Weight-based): 可以配置每一台服務器處理請求數據的比例,特別適合那種有某台服務器配置不一樣的場景。比如說某台服務器配置特別好,那我們可以讓它多處理一些請求。

隨機(Random): 隨機分配。

粘性session(Sticky Session): Load balancer會跟蹤請求,確保同一個session id的請求都交給同一樣服務器。

最空閒優先(Least current request)將最新的請求轉發給當前處理請求數量最小的那個服務器。

響應時間優先(Response time):哪台服務器當前響應時間最短就給哪台。

用戶或URL參數選擇(User or URL information)部分負載均衡器還提供根據一些參數來決定哪台服務器來處理,比如說根據用戶信息,地址位置,URL參數,cookie信息等 。

我們還可以根據負載均衡器所使用的技術將它們分為以下幾類:

反向代理:負載均衡器作為一個代理,同時維持著兩個TCP請求,從客戶端接收請求,然後將請求轉發給相應的Web 服務器,等Web返回Response的時候是返回給了代理服務器,然後再由代理服務器轉交給真正的客戶端。這樣就會導致有一些功能不可用,比如在WEB服務器環境查看請求的來源IP實際上成了我們代理服務器的IP等。

透明反向代理:和上面的代理服務器一樣,只不過WEB服務器從Request中獲取到的信息是真正客戶端的信息,就是好像沒有使用代理一樣的。

直接服務器返回:通過更改WEB服務器的MAC 地址來實現分發請求,在這種方式下,WEB服務器不會像上面使用代理服務器一樣,請求處理完之後是直接返回給客戶端的,所有相對於反向代理來說這種方式的性能會更快一些。

NAT 負載均衡:NAT(Network Address Translation網絡地址轉換),將網絡包(可以理解成TCP包)中的目標IP地址變成實現要處理這個請求的WEB服務器的地址。

Microsoft 網絡負載均衡:Windows 自帶的負載均衡組件,一會我們就用它來做測試。

不使用負載均衡的測試結果

一台獨立的服務器

我們可以從一個網站的最初級版本開始說起,最開始的時候我們決定搭建一個網站,但是我們也不知道效果會怎麼樣,光鍵是那時候,我們很窮,於是我們租用了一台托管主機,它可能承擔了至少三個或以上的角色:WEB服務器、靜態資源服務器,以及數據庫服務器。我們可以用ASP.NET MVC4 + SQL 2008來做一個基本的電子商務網站,基本夠用了。但是能夠承載多大的訪問量呢?下面我們來做一個簡單的測試(注意:本文以後本系列所面所有的測試都是在虛擬機上進行的,忽略網絡的因素,以及多台虛擬機同時運行時CPU資源的因素,所以測試結果只是一個參考)。

在我的機器上有一台虛擬機配置如下:

CPU: Intel Core I5- 4570, 3.19GHz,

內存: 4G

硬盤:20G (ShineDisk 固態硬盤)

測試頁面沒有什麼復雜的邏輯,利用ASP.NET MVC4 + Entityframework 6.0 + SQL 2008 + IIS8.5來實現, 我們的頁面也只是一個簡單的列表頁,列出系統裡面所有的商品。

Home Controller 代碼

Index.cshtml 代碼

在數據庫初始化的時候插入500條測試數據

連接字符串就使用本地連接就可以了。

<connectionStrings>
  <add name="CarolContext" connectionString="Server=localhost;database=carol;trusted_connection=true" providerName="System.Data.SqlClient"  />
</connectionStrings>

們使用的輕量級的ab來做壓力測試,如果不熟悉ab的可以點這裡,下面是測試的結果:

ab -n1000 -c100 http://192.168.1.131

通過測試發現,我們這單個服務器的吞吐率接近在110~130之間,而一旦並發數達到200以後,每個請求的處理時間就達到1.5s多了,400個並發用戶的時候每個請求要花上3s多的時間。如果在真實的網絡環境中可能會更差。由此我們可以得出我們這個服務器可能最大支持120人左右同時訪問。

WEB服務器與數據庫服務器分離

現在我們來做一個花費不是很大,又空間做的擴展,也不需要改任何架構,我們只是再加一台專門的數據庫服務器。

下面我們再來看一下測試結果:

大家可以看到,這裡我們的吞吐率(每秒處理請求數已經提升到了150左右),並發處理能力提升了50%,並且300和400並發的時候響應時間也比上面的架構要好一些。

使用負載均衡的測試結果

安裝網絡負載均衡(NLB)

上面我們一台獨立的Web服務器和一台獨立的數據庫服務器的組合已經可以處理150左右的並發了,現在我們假想一下如果網站的的知名度越來越大,如果同時有400個用戶來訪問怎麼辦? 從上面的圖中我們可以看到400個並發的時候服務器的處理時間為2582.637ms(實現上這是拿到響應的時間,因為我們是一台機器上的不同虛擬機,我是在主機上做測試,所以我們就忽略網絡傳輸的時間,假設這個就是我們的服務器處理時間),這個服務器響應時間也就是我們通過F12->網絡 中看到的等待時間 。

頁面什麼時候能拿到這個響應還要加上網絡傳輸的時間,也就是Receiving。1ms的傳輸時間堪稱神速啊!我家用的長城寬帶10M,總是早上網絡出奇的好,一到晚上就掛掉了,還有可能就是你們現在都沒有上博客園 :)

用戶體驗黃金法則之一: 網站加載時間 = 用戶體驗,別說3S,可能等個2S你頁面還不出來,用戶准備離開了,下面是淘寶購物車頁面的加載時間 。

這樣的話我們的服務器架構就成了下面這個樣子:

192.168.1.254 就是我們暴露的外部IP地址,訪問192.168.1.254的請求就會轉發給後面的兩台WEB服務器。

配置網絡負載均衡

在我們為上面2台WEB服務器安裝NLB之後,我們在其中任意一台上來新建群集,然後將另外一台加入到這個群集中即可,我們就在web-01(192.168.1.130)上來新建這個群集。在建立群集之前,我們要確保這2台服務器都是使用的靜態IP,否則無法將他們加入到群集中。

在web-01(192.168.1.130)上從管理工具中打開 網絡負載均衡器

右擊“網絡負載平衡群集”,選擇“新建群集”

在“新群集:連接”窗口中將 192.168.1.130添加為主機,點擊下一步

進入 “新群集:主機參數”,直接下一步

進入 “新群集:群集IP地址”, 添加窗口中的“添加” 將192.168.1.254 添加到窗口中然後點擊下一步

進入 “新群集:群集參數”,選擇“多播”然後點擊下一步

進入 “新群集:端口規則”,選中全部,然後點擊編輯

將端口范圍改成 80~80,協議選 “TCP”,相關性選“無”

點擊確定回到主窗口,然後點擊完成。

通過上面的步驟,我們已經建立了一個群集,並且將web-01加入到了群集中,我們還需要手動將web-02也加入到群集中。

在群集(192.168.1.254)上右鍵點擊“添加主機到群集”

在“將主機添加到群集:連接”窗口中的 主機中輸入192.168.1.131然後後面一下點下一步即可。

現在我們就可以到我們的真實機器上去訪問192.168.1.254了,也就是說馬上我們就進入測試環節了。

測試結果

本文中所有的測試結果都沒有取第一次的結果,EF也需要預熱,同樣的查詢在EF中也是有緩存的,所以第一次的結果會與後面的測試結果有很大的區別,後面的幾次(在相同參數下)基本差別就不大了。

可以看到現在我們的吞吐率大概平均在230左右,與一台WEB服務器+一台DB服務器相比,處理能力又提高了50%,為什麼不是100%呢?一台WEB服務器能處理150的並發,那兩台應該是300才對呀?我能夠想到以下原因:

我們的數據庫服務器只有一台,數據庫的處理能力提不上去最終影響WEB服務器的處理能力

我們采用的是虛擬機,並非實際的機器,他們實際上是共用CPU,不知道在這種情況下對測試結果會不會有影響(虛擬化專家可以分享一下)。

為了驗證一下,我再擴展了一台WEB服務器,我們使用3台WEB服務器+1台DB服務器看看是什麼效果。

我們新建一台虛擬機web-03,然後將它也加入到我們的群集中。

測試開始!

在加入第三台WEB服務器之後,我們的吞吐率(每秒處理請求數)再次得到提升從230升至360,並發處理能力再次提升56%,並且大家可以看到,400並發以下的平均每請求處理時間都在1s以內,可喜可賀啊!

最後上兩圖讓大家更直觀的看一下這些性能的變化:

以上數據均來自本人機器上的測試,虛擬機全部采用與第一台服務器同樣的配置。

小結

在網站架構的不斷演變中,負載均衡起著非常重要的位置,不僅僅為我們提升可靠性和可擴展性,有一些比較強大的硬件設備還能提供緩存,以及session機制。今天我們用到的負載均衡是Windows Server自帶的一個組件,它是最簡單實現負載均衡的方式,但是功能不是特別完善,而且一旦NLB本身發生錯誤那麼將導致所有的網站都不能訪問,我們後面就來通過引入APR(Application Request Router)來解決這個問題,想要真正了解大型網站的架構實現,而不是僅僅知道負載均衡,分布式緩存,數據庫分離這些名詞麼?那就來跟我一起學習吧!另外我們今天只是用一個簡單的頁面做了壓力測試,只有讀數據的操作,還沒有寫的操作,也沒有任何復雜的事務,但是別擔心,我們一步一步來 :) 。

作者:Jesse 出處: http://jesse2013.cnblogs.com/

  1. 上一頁:
  2. 下一頁:
Copyright © 程式師世界 All Rights Reserved