|
在互聯網快速發展的背景下,特別是Web 2.0,網絡上的數據內容呈幾何級的增長,而其中增長最快并且最容易給技術架構帶來挑戰的就是數目龐大的小文件,如何來解決這種高并發,大流量,小文件,熱點不集中的問題,經過我們大量研究,實踐之后,總結出這種海量小文件,高并發所存在的關鍵問題和解決方案。
我們先對比一下在Web 1.0的解決方案和Web 2.0的我們碰到的困難。
Web 1.0解決方案:
1、源數據量小,單臺squid即可達到很高的命中率。
2、請求量大,用lvs+squid或者dns輪詢即可解決問題。
3、squid服務器磁盤IO壓力大,用超大內存做Cache。
Web 2.0目前的瓶頸:
1、源數據數量很大,導致squid hash table索引效率不高,Cache命中率低。
為了提高對文件的訪問效率,往往會在前端配置一個稍大容量的緩存。但由于小文件的數量極其龐大,應用對這些文件訪問的隨機性非常高,使得Cache命中率極低,緩存失去了應有的作用,導致應用需要直接到后端存儲系統上讀取數據,給存儲系統帶來了極大的壓力。剛開始就是我們也采用了昂貴的高端存儲系統NETApp,但是在用戶高并發訪問的情況下,存儲系統經常出現長時間無響應的嚴重故障。
2、源數據容量巨大,海量文件檢索效率低,從而也導致單臺squid命中率很低。
有些頻道數據容量會超過200T,單臺squid只是杯水車薪,頻繁的Cache置換更是加劇了Cache效率低下,再加上現有的存儲系統無法有效管理海量小文件,并且在單個目錄下存放文件的數量有一定的限制,一旦文件數到達了一定規模之后,文件的檢索速度就急劇下降。我們只能通過多級目錄來組織存放大量的小文件,隨著目錄深度的增加,文件的檢索開銷進一步增大,檢索效率隨之下降。
3、大量的cache導致的磁盤IO問題。
由于目前單臺Cache容量已經達到上百G,文件系統瓶頸、磁盤IO問題也很快凸顯。
4、壓力過大導致的hit ratio抖動。
Cache刪除,寫操作達到一定的比例,同時如果壓力較高,會導致hit ratio呈線性下降。即使Cache沒down,但也因為命中率的下降而失去應有的作用。
5、特殊集群下的單臺失效問題。
在類url hash的集群下,單臺cache失效會導致hash rehash,那么整個集群的squid命中率都會被沖擊。
如何來解決這些問題,思路如下:
1、優化squid hash table索引算法,需要修改源squid代碼。
2、Cache集群,用類url hash的方法,以增加Cache容量。
◆wccp: cisco的路由器均有此功能
◆carp: ISA,squid自身的7層調度協議
◆url hash: nginx haproxy等7層代理
3、選擇合適的文件系統
XFS使用更多的內存來作為自己的高速緩存,以盡可能的延遲零散的寫操作,盡可能的執行批量寫操作。
4、選擇更合理的磁盤搭配策略,比如Raid策略或者單盤策略等
Raid 5,10帶來了不錯的安全性,但是會導致磁盤IO效率低下,不做Raid的單盤性能最高,更適合單臺服務器多squid進程模式。
5、集群下的單臺Cache失效的接管,以免單點故障,提高可用性。
針對以上分析,我們大量嘗試了開源的一些產品,像LVS,Nginx,Squid,XFS等。具體的軟件組合和架構如下:
(1)Web服務器的選擇,目前,大多數Web服務器的處理能力有限,互聯網廣泛上使用的Web服務器如Apache,其并發能力往往在2000以下,這是由Web服務器自身的設計模式(如多進程,無IO緩存等)決定的。因此,在較大規模的訪問情況下,通常會表現出用戶訪問網站慢,Web服務器負載高。為什么選擇Nginx?use linux epoll, sendfile and aio to improve the performanc,我們主要利用的是Nginx的第三方模塊ngx_http_upstream_hash_module做反向代理。部分代碼如下:
1. upstream img{
2. server squid1:81;
3. server squid2:81;
4. hash $request_uri;
5. hash_again 0; # default 0
6. hash_method crc32; # default “simple”
7. }
8.
9. server {
10. listen 80;
11. server_name images.gx.com;
12. location / {
13. proxy_pass http://img;
it知識庫:海量小文件導致高并發、大流量問題的探討,轉載需保留來源!
鄭重聲明:本文版權歸原作者所有,轉載文章僅為傳播更多信息之目的,如作者信息標記有誤,請第一時間聯系我們修改或刪除,多謝。