HttpClient 連接池設(shè)置引發(fā)的一次雪崩!
掃描二維碼
隨時(shí)隨地手機(jī)看文章
-
1
-
事件背景
我在鳳巢團(tuán)隊(duì)獨(dú)立搭建和運(yùn)維的一個(gè)高流量的推廣實(shí)況系統(tǒng),是通過HttpClient 調(diào)用大搜的實(shí)況服務(wù)。最近經(jīng)常出現(xiàn)Address already in use (Bind failed)的問題。
很明顯是一個(gè)端口綁定沖突的問題,于是大概排查了一下當(dāng)前系統(tǒng)的網(wǎng)絡(luò)連接情況和端口使用情況,發(fā)現(xiàn)是有大量time_wait的連接一直占用著端口沒釋放,導(dǎo)致端口被占滿(最高的時(shí)候6w+個(gè)),因此HttpClient建立連接的時(shí)候會(huì)出現(xiàn)申請端口沖突的情況。
具體情況如下:
于是為了解決time_wait的問題,網(wǎng)上搜索了些許資料加上自己的思考,于是認(rèn)為可以通過連接池來保存tcp連接,減少HttpClient在并發(fā)情況下隨機(jī)打開的端口數(shù)量,復(fù)用原來有效的連接。但是新的問題也由連接池的設(shè)置引入了。
-
2
-
問題過程
在估算連接池最大連接數(shù)的時(shí)候,參考了業(yè)務(wù)高峰期時(shí)的請求量為1分鐘1.2w pv,接口平響為1.3s(復(fù)雜的廣告推廣效果模擬系統(tǒng),在這種場景平響高是業(yè)務(wù)所需的原因),因此qps為12000*1.3\60=260
然后通過觀察了業(yè)務(wù)日志,每次連接建立耗時(shí)1.1s左右, 再留70%+的上浮空間(怕連接數(shù)設(shè)置小出系統(tǒng)故障),最大連接數(shù)估計(jì)為260*1.1*1.7約等于500
為了減少對之前業(yè)務(wù)代碼最小的改動(dòng),保證優(yōu)化的快速上線驗(yàn)證,仍然使用的是HttpClient3.1 的MultiThreadedHttpConnectionManager,設(shè)置核心代碼如下:
public void init() {
connectionManager = new MultiThreadedHttpConnectionManager();
HttpConnectionManagerParams managerParams = new HttpConnectionManagerParams();
managerParams.setMaxTotalConnections(500); // 最大連接數(shù)
connectionManager.setParams(managerParams);
client = new HttpClient(connectionManager);
}
然后在線下手寫了多線程的測試用例,測試了下并發(fā)度確實(shí)能比沒用線程池的時(shí)候更高,然后先在我們的南京機(jī)房小流量上線驗(yàn)證效果,效果也符合預(yù)期之后,就開始整個(gè)北京機(jī)房的轉(zhuǎn)全。結(jié)果轉(zhuǎn)全之后就出現(xiàn)了意料之外的系統(tǒng)異常。。。
-
3
-
案情回顧
在當(dāng)天晚上流量轉(zhuǎn)全之后,一起情況符合預(yù)期,但是到了第二天早上就看到用戶群和相關(guān)的運(yùn)維群里有一些人在反饋實(shí)況頁面打不開了。
這個(gè)時(shí)候我在路上,讓值班人幫忙先看了下大概的情況,定位到了耗時(shí)最高的部分正是通過連接池調(diào)用后端服務(wù)的部分,于是可以把這個(gè)突發(fā)問題的排查思路大致定在圍繞線程池的故障來考慮了。
于是等我到了公司,首先觀察了一下應(yīng)用整體的情況:
監(jiān)控平臺的業(yè)務(wù)流量表現(xiàn)正常,但是部分機(jī)器的網(wǎng)卡流量略有突增
接口的平響出現(xiàn)了明顯的上升
業(yè)務(wù)日志無明顯的異常,不是底層服務(wù)超時(shí)的原因,因此平響的原因肯定不是業(yè)務(wù)本身
發(fā)現(xiàn)30個(gè)機(jī)器實(shí)例竟然有9個(gè)出現(xiàn)了掛死的現(xiàn)象,其中6個(gè)北京實(shí)例,3個(gè)南京實(shí)例
-
4
-
深入排查
由于發(fā)現(xiàn)了有近 1/3的實(shí)例進(jìn)程崩潰,而業(yè)務(wù)流量沒變,由于RPC服務(wù)對provider的流量進(jìn)行負(fù)載均衡,所以引發(fā)單臺機(jī)器的流量升高,這樣會(huì)導(dǎo)致后面的存活實(shí)例更容易出現(xiàn)崩潰問題,于是高優(yōu)看了進(jìn)程掛死的原因。
由于很可能是修改了HttpClient連接方式為連接池引發(fā)的問題,最容易引起變化的肯定是線程和CPU狀態(tài),于是立即排查了線程數(shù)和CPU的狀態(tài)是否正常。
CPU狀態(tài)
如圖可見Java進(jìn)程占用cpu非常高,是平時(shí)的近10倍。
線程數(shù)監(jiān)控狀態(tài)
圖中可以看到多個(gè)機(jī)器大概在10點(diǎn)初時(shí),出現(xiàn)了線程數(shù)大量飆升,甚至超出了虛擬化平臺對容器的2000線程數(shù)限制(平臺為了避免機(jī)器上的部分容器線程數(shù)過高,導(dǎo)致機(jī)器整體夯死而設(shè)置的熔斷保護(hù)),因此實(shí)例是被虛擬化平臺kill了。之前為什么之前在南京機(jī)房小流量上線的時(shí)候沒出現(xiàn)線程數(shù)超限的問題,應(yīng)該和南京機(jī)房流量較少,只有北京機(jī)房流量的1/3有關(guān)。
接下來就是分析線程數(shù)為啥會(huì)快速積累直至超限了。這個(gè)時(shí)候我就在考慮是否是連接池設(shè)置的最大連接數(shù)有問題,限制了系統(tǒng)連接線程的并發(fā)度。為了更好的排查問題,我回滾了線上一部分的實(shí)例,于是觀察了下線上實(shí)例的 tcp連接情況和回滾之后的連接情況。
回滾之前tcp連接情況
回滾之后tcp連接情況
發(fā)現(xiàn)連接線程的并發(fā)度果然小很多了,這個(gè)時(shí)候要再確認(rèn)一下是否是連接池設(shè)置導(dǎo)致的原因,于是將沒回滾的機(jī)器進(jìn)行jstack了,對Java進(jìn)程中分配的子線程進(jìn)行了分析,總于可以確認(rèn)問題。
jstack狀態(tài)
從jstack的日志中可以很容易分析出來,有大量的線程在等待獲取連接池里的連接而進(jìn)行排隊(duì),因此導(dǎo)致了線程堆積,因此平響上升。由于線程堆積越多,系統(tǒng)資源占用越厲害,接口平響也會(huì)因此升高,更加劇了線程的堆積,因此很容易出現(xiàn)惡性循環(huán)而導(dǎo)致線程數(shù)超限。
那么為什么會(huì)出現(xiàn)并發(fā)度設(shè)置過小呢?之前已經(jīng)留了70%的上浮空間來估算并發(fā)度,這里面必定有蹊蹺!
于是我對源碼進(jìn)行了解讀分析,發(fā)現(xiàn)了端倪:
如MultiThreadedHttpConnectionManager源碼可見,連接池在分配連接時(shí)調(diào)用的doGetConnection方法時(shí),對能否獲得連接,不僅會(huì)對我設(shè)置的參數(shù)maxTotalConnections進(jìn)行是否超限校驗(yàn),還會(huì)對maxHostConnections進(jìn)行是否超限的校驗(yàn)。
于是我立刻網(wǎng)上搜索了下maxHostConnections的含義:每個(gè)host路由的默認(rèn)最大連接,需要通過setDefaultMaxConnectionsPerHost來設(shè)置,否則默認(rèn)值是2。
所以并不是我對業(yè)務(wù)的最大連接數(shù)計(jì)算失誤,而是因?yàn)椴恢酪O(shè)置DefaultMaxConnectionsPerHost而導(dǎo)致每個(gè)請求的Host并發(fā)連接數(shù)只有2,限制了線程獲取連接的并發(fā)度(所以難怪剛才觀察tcp并發(fā)度的時(shí)候發(fā)現(xiàn)只有2個(gè)連接建立 )
-
5
-
案情總結(jié)
到此這次雪崩事件的根本問題已徹底定位,讓我們再次精煉的總結(jié)一下這個(gè)案件的全過程:
連接池設(shè)置錯(cuò)參數(shù),導(dǎo)致最大連接數(shù)為2
大量請求線程需要等待連接池釋放連接,出現(xiàn)排隊(duì)堆積
夯住的線程變多,接口平響升高,占用了更多的系統(tǒng)資源,會(huì)加劇接口的耗時(shí)增加和線程堆積
最后直至線程超限,實(shí)例被虛擬化平臺kill
部分實(shí)例掛死,導(dǎo)致流量轉(zhuǎn)移到其他存活實(shí)例。其他實(shí)例流量壓力變大,容易引發(fā)雪崩。
關(guān)于優(yōu)化方案與如何避免此類問題再次發(fā)生,我想到的方案有3個(gè):
在做技術(shù)升級前,要仔細(xì)熟讀相關(guān)的官方技術(shù)文檔,最好不要遺漏任何細(xì)節(jié)
可以在網(wǎng)上找其他可靠的開源項(xiàng)目,看看別人的優(yōu)秀的項(xiàng)目是怎么使用的。比如github上就可以搜索技術(shù)關(guān)鍵字,找到同樣使用了這個(gè)技術(shù)的開源項(xiàng)目。要注意挑選質(zhì)量高的項(xiàng)目進(jìn)行參考
先在線下壓測,用控制變量法對比各類設(shè)置的不同情況,這樣把所有問題在線下提前暴露了,再上線心里就有底了
以下是我設(shè)計(jì)的一個(gè)壓測方案:
測試不用連接池和使用連接池時(shí),分析整體能承受的qps峰值和線程數(shù)變化
對比setDefaultMaxConnectionsPerHost設(shè)置和不設(shè)置時(shí),分析整體能承受的qps峰值和線程數(shù)變化
對比調(diào)整setMaxTotalConnections,setDefaultMaxConnectionsPerHost 的閾值,分析整體能承受的qps峰值和線程數(shù)變化
重點(diǎn)關(guān)注壓測時(shí)實(shí)例的線程數(shù),cpu利用率,tcp連接數(shù),端口使用情況,內(nèi)存使用率
綜上所述,一次連接池參數(shù)導(dǎo)致的雪崩問題已經(jīng)從分析到定位已全部解決。在技術(shù)改造時(shí)我們應(yīng)該要謹(jǐn)慎對待升級的技術(shù)點(diǎn)。在出現(xiàn)問題后,要重點(diǎn)分析問題的特征和規(guī)律,找到共性去揪出根本原因。
End
作者:zxcodestudy ,本文版權(quán)歸作者所有
https://blog.csdn.net/qq_16681169/article/details/94592472
特別推薦一個(gè)分享架構(gòu)+算法的優(yōu)質(zhì)內(nèi)容,還沒關(guān)注的小伙伴,可以長按關(guān)注一下:
長按訂閱更多精彩▼
如有收獲,點(diǎn)個(gè)在看,誠摯感謝
免責(zé)聲明:本文內(nèi)容由21ic獲得授權(quán)后發(fā)布,版權(quán)歸原作者所有,本平臺僅提供信息存儲(chǔ)服務(wù)。文章僅代表作者個(gè)人觀點(diǎn),不代表本平臺立場,如有問題,請聯(lián)系我們,謝謝!