據(jù)說是阿里 P8 級高級架構師吐血總結的一份 Java 核心知識.pdf, 內容覆蓋很廣,Java 核心基礎、Java 多線程、高并發(fā)、Spring、微服務、Netty 與 RPC、Zookeeper、Kafka、RabbitMQ、Habase、設計模式、負載均衡、分布式緩存、Hadoop、Spark、Storm、云計算等。
另外,附送 100G 學習、面試視頻文檔喲~
獲取方式:【關注 轉發(fā)】后,私信我,回復關鍵字【資源】,即可免費無套路獲取哦~
以下是資源的部分目錄以及內容截圖:
重要的事再說一遍,獲取方式:【關注 轉發(fā)】后,私信我,回復關鍵字【資源】,即可免費無套路獲取哦~
前不久發(fā)過兩篇關于分表的文章:
從標題可以看得出來,當時我們只做了分表;還是由于業(yè)務發(fā)展,截止到現(xiàn)在也做了分庫,目前看來都還比較順利,所以借著腦子還記得清楚來一次復盤。
先來回顧下整個分庫分表的流程如下:
整個過程也很好理解,基本符合大部分公司的一個發(fā)展方向。
很少會有業(yè)務一開始就會設計為分庫分表,雖說這樣會減少后續(xù)的坑,但部分公司剛開始都是以業(yè)務為主。
直到業(yè)務發(fā)展到單表無法支撐時,自然而然會考慮分表甚至分庫的事情。
于是本篇會作一次總結,之前提過的內容可能會再重復一次。
首先討論下什么樣的情況下適合分表?
根據(jù)我的經(jīng)驗來看,當某張表的數(shù)據(jù)量已經(jīng)達到千萬甚至上億,同時日增數(shù)據(jù)量在 2% 以上。
當然這些數(shù)字并不是絕對的,最重要的還是對這張表的寫入和查詢都已經(jīng)影響到正常業(yè)務執(zhí)行,比如查詢速度明顯下降,數(shù)據(jù)庫整體 IO 居高不下等。
而談到分表時我們著重討論的還是水平分表;
也就是將一張大表數(shù)據(jù)通過某種路由算法將數(shù)據(jù)盡可能的均勻分配到 N 張小表中。
Range
而分表策略也有好幾種,分別適用不同的場景。
首先第一種是按照范圍劃分,比如我們可以將某張表的創(chuàng)建時間按照日期劃分存為月表;也可以將某張表的主鍵按照范圍劃分,比如 【1~10000】在一張表,【10001~20000】在一張表,以此類推。
這樣的分表適合需要對數(shù)據(jù)做歸檔處理,比如系統(tǒng)默認只提供近三個月歷史數(shù)據(jù)的查詢功能,這樣也方便操作;只需要把三月之前的數(shù)據(jù)單獨移走備份保存即可)。
這個方案有好處也有弊端:
Hash
按照日期這樣的范圍分表固然簡單,但適用范圍還是比較窄;畢竟我們大部分的數(shù)據(jù)查詢都不想帶上時間。
比如某個用戶想查詢他產(chǎn)生的所有訂單信息,這是很常見的需求。
于是我們分表的維度就得改改,分表算法可以采用主流的 hash mod 的組合。
這是一個經(jīng)典的算法,大名鼎鼎的 HashMap 也是這樣來存儲數(shù)據(jù)。
假設我們這里將原有的一張大表訂單信息分為 64 張分表:
這里的 hash 便是將我們需要分表的字段進行一次散列運算,使得經(jīng)過散列的數(shù)據(jù)盡可能的均勻并且不重復。
當然如果本身這個字段就是一個整形并且不重復也可以省略這個步驟,直接進行 Mod 得到分表下標即可。
分表數(shù)量選擇
至于這里的分表數(shù)量(64)也是有講究的,具體設為多少這個沒有標準值,需要根據(jù)自身業(yè)務發(fā)展,數(shù)據(jù)增量進行預估。
根據(jù)我個人的經(jīng)驗來看,至少需要保證分好之后的小表在業(yè)務發(fā)展的幾年之內都不會出現(xiàn)單表數(shù)據(jù)量過大(比如達到千萬級)。
我更傾向于在數(shù)據(jù)庫可接受的范圍內盡可能的增大這個分表數(shù),畢竟如果后續(xù)小表也達到瓶頸需要再進行一次分表擴容,那是非常痛苦的。
目前筆者還沒經(jīng)歷這一步,所以本文沒有相關介紹。
但是這個數(shù)量又不是瞎選的,和 HashMap 一樣,也建議得是 2^n,這樣可以方便在擴容的時盡可能的少遷移數(shù)據(jù)。
Range Hash
當然還有一種思路, Range 和 Hash 是否可以混用。
比如我們一開始采用的是 Hash 分表,但是數(shù)據(jù)增長巨大,導致每張分表數(shù)據(jù)很快達到瓶頸,這樣就不得不再做擴容,比如由 64 張表擴容到 256 張。
但擴容時想要做到不停機遷移數(shù)據(jù)非常困難,即便是停機,那停多久呢?也不好說。
所以我們是否可以在 Mod 分表的基礎上再分為月表,借助于 Range 自身的擴展性就不用考慮后續(xù)數(shù)據(jù)遷移的事情了。
這種方式理論可行,但我沒有實際用過,給大家的思路做個參考吧。
煩人的數(shù)據(jù)遷移
分表規(guī)則弄好后其實只是完成了分表的第一步,真正麻煩的是數(shù)據(jù)遷移,或者說是如何做到對業(yè)務影響最小的數(shù)據(jù)遷移。
除非是一開始就做了分表,所以數(shù)據(jù)遷移這一步驟肯定是跑不掉的。
下面整理下目前我們的做法供大家參考:
至此整個分表操作完成。
業(yè)務兼容
同時分表之后還需要兼容其他業(yè)務;比如原有的報表業(yè)務、分頁查詢等,現(xiàn)在來看看我們是如何處理的。
報表
首先是報表,沒分表之前之間查詢一張表就搞定了,現(xiàn)在不同,由一張表變?yōu)?N 張表。
所以原有的查詢要改為遍歷所有的分表,考慮到性能可以利用多線程并發(fā)查詢分表數(shù)據(jù)然后匯總。
不過只依靠 Java 來對這么大量的數(shù)據(jù)做統(tǒng)計分析還是不現(xiàn)實,剛開始可以應付過去,后續(xù)還得用上大數(shù)據(jù)平臺來處理。
查詢
再一個是查詢,原有的分頁查詢肯定是不能用了,畢竟對上億的數(shù)據(jù)分頁其實沒什么意義。
只能提供通過分表字段的查詢,比如是按照訂單 ID 分表,那查詢條件就得帶上這個字段,不然就會涉及到遍歷所有表。
這也是所有分表之后都會遇到的一個問題,除非不用 MySQL 這類關系型數(shù)據(jù)庫。
分表完成后可以解決單表的壓力,但數(shù)據(jù)庫本身的壓力卻沒有下降。
我們在完成分表之后的一個月內又由于數(shù)據(jù)庫里“其他表”的寫入導致整個數(shù)據(jù)庫 IO 增加,而且這些“其他表”還和業(yè)務關系不大。
也就是說一些可有可無的數(shù)據(jù)導致了整體業(yè)務受影響,這是非常不劃算的事情。
于是我們便把這幾張表單獨移到一個新的數(shù)據(jù)庫中,完全和現(xiàn)有的業(yè)務隔離開來。
這樣就會涉及到幾個改造:
目前我們將這類數(shù)據(jù)量巨大但對業(yè)務不太影響的表單獨遷到一個庫后,數(shù)據(jù)庫的整體 IO 下降明顯,業(yè)務也恢復正常。
最后我們還需要做一步歷史數(shù)據(jù)歸檔的操作,將 N 個月之前的數(shù)據(jù)要定期遷移到 HBASE 之類存儲,保證 MySQL 中的數(shù)據(jù)一直保持在一個可接受的范圍。
而歸檔數(shù)據(jù)的查詢便依賴于大數(shù)據(jù)提供服務。
本次分庫分表是一次非常難得的實踐操作,網(wǎng)上大部分的資料都是在汽車出廠前就換好了輪胎。
而我們大部分碰到的場景都是要對高速路上跑著的車子換胎,一不小心就“車毀人亡”。