www.久久久久|狼友网站av天堂|精品国产无码a片|一级av色欲av|91在线播放视频|亚洲无码主播在线|国产精品草久在线|明星AV网站在线|污污内射久久一区|婷婷综合视频网站

當前位置:首頁 > 公眾號精選 > 架構師社區(qū)
[導讀]來源:https://zhenbianshu.github.io/2018/12/troubleshooting_java_memory_leak.html|背景前些日子小組內安排值班,輪流看顧我們的服務,主要做一些報警郵件處理、Bug排查、運營issue處理的事。工作日還好,無...




| 背景

前些日子小組內安排值班,輪流看顧我們的服務,主要做一些報警郵件處理、Bug 排查、運營 issue 處理的事。工作日還好,無論干什么都要上班的,若是輪到周末,那這一天算是毀了。


不知道是公司網(wǎng)絡廣了就這樣還是網(wǎng)絡運維組不給力,網(wǎng)絡總有問題,不是這邊交換機脫網(wǎng)了就是那邊路由器壞了,還偶發(fā)地各種超時,而我們靈敏地服務探測服務總能準確地抓住偶現(xiàn)的小問題,給美好的工作加點料。好幾次值班組的小伙伴們一起吐槽,商量著怎么避過服務?;顧C制,偷偷停了探測服務而不讓人發(fā)現(xiàn)(雖然也并不敢)。


前些天我就在周末處理了一次探測服務的鍋。


|問


網(wǎng)絡問題?

晚上七點多開始,我就開始不停地收到報警郵件,郵件顯示探測的幾個接口有超時情況。多數(shù)執(zhí)行棧都在:


java.io.BufferedReader.readLine(BufferedReader.java:371)
java.io.BufferedReader.readLine(BufferReader.java:389)
java_io_BufferedReader$readLine.call(Unknown Source)
com.domain.detect.http.HttpClient.getResponse(HttpClient.groovy:122)
com.domain.detect.http.HttpClient.this$2$getResponse(HttpClient.groovy)
這個線程棧的報錯我見得多了,我們設置的 HTTP DNS 超時是 1s, connect 超時是 2s, read 超時是 3s,這種報錯都是探測服務正常發(fā)送了 HTTP 請求,服務器也在收到請求正常處理后正常響應了,但數(shù)據(jù)包在網(wǎng)絡層層轉發(fā)中丟失了,所以請求線程的執(zhí)行棧會停留在獲取接口響應的地方。這種情況的典型特征就是能在服務器上查找到對應的日志記錄。而且日志會顯示服務器響應完全正常。與它相對的還有線程棧停留在 Socket connect 處的,這是在建連時就失敗了,服務端完全無感知。


我注意到其中一個接口報錯更頻繁一些,這個接口需要上傳一個 4M 的文件到服務器,然后經過一連串的業(yè)務邏輯處理,再返回 2M 的文本數(shù)據(jù),而其他的接口則是簡單的業(yè)務邏輯,我猜測可能是需要上傳下載的數(shù)據(jù)太多,所以超時導致丟包的概率也更大吧。


根據(jù)這個猜想,群登上服務器,使用請求的 request_id 在近期服務日志中搜索一下,果不其然,就是網(wǎng)絡丟包問題導致的接口超時了。


當然這樣 leader 是不會滿意的,這個結論還得有人接鍋才行。于是趕緊聯(lián)系運維和網(wǎng)絡組,向他們確認一下當時的網(wǎng)絡狀態(tài)。網(wǎng)絡組同學回復說是我們探測服務所在機房的交換機老舊,存在未知的轉發(fā)瓶頸,正在優(yōu)化,這讓我更放心了,于是在部門群里簡單交待一下,算是完成任務。


| 問題爆發(fā)

本以為這次值班就起這么一個小波浪,結果在晚上八點多,各種接口的報警郵件蜂擁而至,打得準備收拾東西過周日單休的我措手不及。


這次幾乎所有的接口都在超時,而我們那個大量網(wǎng)絡 I/O 的接口則是每次探測必超時,難道是整個機房故障了么。


我再次通過服務器和監(jiān)控看到各個接口的指標都很正常,自己測試了下接口也完全 OK,既然不影響線上服務,我準備先通過探測服務的接口把探測任務停掉再慢慢排查。


結果給暫停探測任務的接口發(fā)請求好久也沒有響應,這時候我才知道沒這么簡單。


| 解決


內存泄漏

于是趕快登錄探測服務器,首先是top free df三連,結果還真發(fā)現(xiàn)了些異常。


Java?內存泄漏排查,新技能Get我們的探測進程 CPU 占用率特別高,達到了 900%。


我們的 Java 進程,并不做大量 CPU 運算,正常情況下,CPU 應該在 100~200% 之間,出現(xiàn)這種 CPU 飆升的情況,要么走到了死循環(huán),要么就是在做大量的 GC。


使用jstat -gc pid [interval]命令查看了 java 進程的 GC 狀態(tài),果然,F(xiàn)ULL GC 達到了每秒一次。


Java?內存泄漏排查,新技能Get這么多的 FULL GC,應該是內存泄漏沒跑了,于是 使用jstack pid > jstack.log保存了線程棧的現(xiàn)場,使用jmap -dump:format=b,file=heap.log pid保存了堆現(xiàn)場,然后重啟了探測服務,報警郵件終于停止了。


jstat

jstat 是一個非常強大的 JVM 監(jiān)控工具,一般用法是:jstat [-options] pid interval


它支持的查看項有:


  • -class 查看類加載信息
  • -compile 編譯統(tǒng)計信息
  • -gc 垃圾回收信息
  • -gcXXX 各區(qū)域 GC 的詳細信息 如 -gcold
使用它,對定位 JVM 的內存問題很有幫助。


| 排查

問題雖然解決了,但為了防止它再次發(fā)生,還是要把根源揪出來。


分析棧

棧的分析很簡單,看一下線程數(shù)是不是過多,多數(shù)棧都在干嘛。


> grep 'java.lang.Thread.State' jstack.log  | wc -l
> 464
才四百多線程,并無異常。


> grep -A 1 'java.lang.Thread.State' jstack.log  | grep -v 'java.lang.Thread.State' | sort | uniq -c |sort -n

10  at java.lang.Class.forName0(Native Method)
10  at java.lang.Object.wait(Native Method)
16  at java.lang.ClassLoader.loadClass(ClassLoader.java:404)
44  at sun.nio.ch.EPollArrayWrapper.epollWait(Native Method)
344  at sun.misc.Unsafe.park(Native Method)
線程狀態(tài)好像也無異常,接下來分析堆文件。


下載堆 dump 文件

堆文件都是一些二進制數(shù)據(jù),在命令行查看非常麻煩,Java 為我們提供的工具都是可視化的,Linux 服務器上又沒法查看,那么首先要把文件下載到本地。


由于我們設置的堆內存為 4G,所以 dump 出來的堆文件也很大,下載它確實非常費事,不過我們可以先對它進行一次壓縮。


gzip是個功能很強大的壓縮命令,特別是我們可以設置-1 ~ -9來指定它的壓縮級別,數(shù)據(jù)越大壓縮比率越大,耗時也就越長,推薦使用 -6~7, -9 實在是太慢了,且收益不大,有這個壓縮的時間,多出來的文件也下載好了。


使用 MAT 分析 jvm heap

MAT 是分析 Java 堆內存的利器,使用它打開我們的堆文件(將文件后綴改為.hprof), 它會提示我們要分析的種類,對于這次分析,果斷選擇memory leak suspect。


Java?內存泄漏排查,新技能Get 從上面的餅圖中可以看出,絕大多數(shù)堆內存都被同一個內存占用了,再查看堆內存詳情,向上層追溯,很快就發(fā)現(xiàn)了罪魁禍首。Java?內存泄漏排查,新技能Get

分析代碼

找到內存泄漏的對象了,在項目里全局搜索對象名,它是一個 Bean 對象,然后定位到它的一個類型為 Map 的屬性。


這個 Map 根據(jù)類型用 ArrayList 存儲了每次探測接口響應的結果,每次探測完都塞到 ArrayList 里去分析,由于 Bean 對象不會被回收,這個屬性又沒有清除邏輯,所以在服務十來天沒有上線重啟的情況下,這個 Map 越來越大,直至將內存占滿。


內存滿了之后,無法再給 HTTP 響應結果分配內存了,所以一直卡在 readLine 那。而我們那個大量 I/O 的接口報警次數(shù)特別多,估計跟響應太大需要更多內存有關。


給代碼 owner 提了 PR,問題圓滿解決。


| 小結

其實還是要反省一下自己的,一開始報警郵件里還有這樣的線程棧:


groovy.json.internal.JsonParserCharArray.decodeValueInternal(JsonParserCharArray.java:166)
groovy.json.internal.JsonParserCharArray.decodeJsonObject(JsonParserCharArray.java:132)
groovy.json.internal.JsonParserCharArray.decodeValueInternal(JsonParserCharArray.java:186)
groovy.json.internal.JsonParserCharArray.decodeJsonObject(JsonParserCharArray.java:132)
groovy.json.internal.JsonParserCharArray.decodeValueInternal(JsonParserCharArray.java:186)
看到這種報錯線程棧卻沒有細想,要知道 TCP 是能保證消息完整性的,況且消息沒有接收完也不會把值賦給變量,這種很明顯的是內部錯誤,如果留意后細查是能提前查出問題所在的,查問題真是差了哪一環(huán)都不行啊。



本站聲明: 本文章由作者或相關機構授權發(fā)布,目的在于傳遞更多信息,并不代表本站贊同其觀點,本站亦不保證或承諾內容真實性等。需要轉載請聯(lián)系該專欄作者,如若文章內容侵犯您的權益,請及時聯(lián)系本站刪除。
換一批
延伸閱讀

9月2日消息,不造車的華為或將催生出更大的獨角獸公司,隨著阿維塔和賽力斯的入局,華為引望愈發(fā)顯得引人矚目。

關鍵字: 阿維塔 塞力斯 華為

加利福尼亞州圣克拉拉縣2024年8月30日 /美通社/ -- 數(shù)字化轉型技術解決方案公司Trianz今天宣布,該公司與Amazon Web Services (AWS)簽訂了...

關鍵字: AWS AN BSP 數(shù)字化

倫敦2024年8月29日 /美通社/ -- 英國汽車技術公司SODA.Auto推出其旗艦產品SODA V,這是全球首款涵蓋汽車工程師從創(chuàng)意到認證的所有需求的工具,可用于創(chuàng)建軟件定義汽車。 SODA V工具的開發(fā)耗時1.5...

關鍵字: 汽車 人工智能 智能驅動 BSP

北京2024年8月28日 /美通社/ -- 越來越多用戶希望企業(yè)業(yè)務能7×24不間斷運行,同時企業(yè)卻面臨越來越多業(yè)務中斷的風險,如企業(yè)系統(tǒng)復雜性的增加,頻繁的功能更新和發(fā)布等。如何確保業(yè)務連續(xù)性,提升韌性,成...

關鍵字: 亞馬遜 解密 控制平面 BSP

8月30日消息,據(jù)媒體報道,騰訊和網(wǎng)易近期正在縮減他們對日本游戲市場的投資。

關鍵字: 騰訊 編碼器 CPU

8月28日消息,今天上午,2024中國國際大數(shù)據(jù)產業(yè)博覽會開幕式在貴陽舉行,華為董事、質量流程IT總裁陶景文發(fā)表了演講。

關鍵字: 華為 12nm EDA 半導體

8月28日消息,在2024中國國際大數(shù)據(jù)產業(yè)博覽會上,華為常務董事、華為云CEO張平安發(fā)表演講稱,數(shù)字世界的話語權最終是由生態(tài)的繁榮決定的。

關鍵字: 華為 12nm 手機 衛(wèi)星通信

要點: 有效應對環(huán)境變化,經營業(yè)績穩(wěn)中有升 落實提質增效舉措,毛利潤率延續(xù)升勢 戰(zhàn)略布局成效顯著,戰(zhàn)新業(yè)務引領增長 以科技創(chuàng)新為引領,提升企業(yè)核心競爭力 堅持高質量發(fā)展策略,塑強核心競爭優(yōu)勢...

關鍵字: 通信 BSP 電信運營商 數(shù)字經濟

北京2024年8月27日 /美通社/ -- 8月21日,由中央廣播電視總臺與中國電影電視技術學會聯(lián)合牽頭組建的NVI技術創(chuàng)新聯(lián)盟在BIRTV2024超高清全產業(yè)鏈發(fā)展研討會上宣布正式成立。 活動現(xiàn)場 NVI技術創(chuàng)新聯(lián)...

關鍵字: VI 傳輸協(xié)議 音頻 BSP

北京2024年8月27日 /美通社/ -- 在8月23日舉辦的2024年長三角生態(tài)綠色一體化發(fā)展示范區(qū)聯(lián)合招商會上,軟通動力信息技術(集團)股份有限公司(以下簡稱"軟通動力")與長三角投資(上海)有限...

關鍵字: BSP 信息技術
關閉
關閉