精品欧美一区二区三区在线观看 _久久久久国色av免费观看性色_国产精品久久在线观看_亚洲第一综合网站_91精品又粗又猛又爽_小泽玛利亚一区二区免费_91亚洲精品国偷拍自产在线观看 _久久精品视频在线播放_美女精品久久久_欧美日韩国产成人在线

別再問“分庫分表”了,再問就崩潰了!

運維 數據庫運維
在談論數據庫架構和數據庫優化的時候,我們經常會聽到分庫分表,分庫分表其實涉及到很多難題,今天我們來匯總一下數據庫分庫分表解決方案。

 在談論數據庫架構和數據庫優化的時候,我們經常會聽到分庫分表,分庫分表其實涉及到很多難題,今天我們來匯總一下數據庫分庫分表解決方案。 

[[285748]]

圖片來自 Pexels

數據切分

關系型數據庫本身比較容易成為系統瓶頸,單機存儲容量、連接數、處理能力都有限。

當單表的數據量達到 1000W 或 100G 以后,由于查詢維度較多,即使添加從庫、優化索引,做很多操作時性能仍下降嚴重。

此時就要考慮對其進行切分了,切分的目的就在于減少數據庫的負擔,縮短查詢時間。

數據庫分布式核心內容無非就是數據切分(Sharding),以及切分后對數據的定位、整合。

數據切分就是將數據分散存儲到多個數據庫中,使得單一數據庫中的數據量變小,通過擴充主機的數量緩解單一數據庫的性能問題,從而達到提升數據庫操作性能的目的。

數據切分根據其切分類型,可以分為兩種方式:

  • 垂直(縱向)切分
  • 水平(橫向)切分

垂直(縱向)切分

垂直切分常見有垂直分庫和垂直分表兩種。

垂直分庫就是根據業務耦合性,將關聯度低的不同表存儲在不同的數據庫。做法與大系統拆分為多個小系統類似,按業務分類進行獨立劃分。

與"微服務治理"的做法相似,每個微服務使用單獨的一個數據庫,如下圖:

 

垂直分表是基于數據庫中的"列"進行,某個表字段較多,可以新建一張擴展表,將不經常用或字段長度較大的字段拆分出去到擴展表中。

在字段很多的情況下(例如一個大表有 100 多個字段),通過"大表拆小表",更便于開發與維護,也能避免跨頁問題,MySQL 底層是通過數據頁存儲的,一條記錄占用空間過大會導致跨頁,造成額外的性能開銷。

另外數據庫以行為單位將數據加載到內存中,這樣表中字段長度較短且訪問頻率較高,內存能加載更多的數據,命中率更高,減少了磁盤 IO,從而提升了數據庫性能。

 

垂直切分的優點如下:

  • 解決業務系統層面的耦合,業務清晰
  • 與微服務的治理類似,也能對不同業務的數據進行分級管理、維護、監控、擴展等
  • 高并發場景下,垂直切分一定程度的提升 IO、數據庫連接數、單機硬件資源的瓶頸

垂直切分的缺點如下:

  • 部分表無法 join,只能通過接口聚合方式解決,提升了開發的復雜度
  • 分布式事務處理復雜
  • 依然存在單表數據量過大的問題(需要水平切分)

水平(橫向)切分

當一個應用難以再細粒度的垂直切分,或切分后數據量行數巨大,存在單庫讀寫、存儲性能瓶頸,這時候就需要進行水平切分了。

水平切分分為庫內分表和分庫分表,是根據表內數據內在的邏輯關系,將同一個表按不同的條件分散到多個數據庫或多個表中,每個表中只包含一部分數據,從而使得單個表的數據量變小,達到分布式的效果。

如圖所示:

 

庫內分表只解決了單一表數據量過大的問題,但沒有將表分布到不同機器的庫上。

因此對于減輕 MySQL 數據庫的壓力來說,幫助不是很大,大家還是競爭同一個物理機的 CPU、內存、網絡 IO,最好通過分庫分表來解決。

水平切分的優點如下:

  • 不存在單庫數據量過大、高并發的性能瓶頸,提升系統穩定性和負載能力
  • 應用端改造較小,不需要拆分業務模塊

水平切分的缺點:

  • 跨分片的事務一致性難以保證
  • 跨庫的 join 關聯查詢性能較差
  • 數據多次擴展難度和維護量極大

水平切分后同一張表會出現在多個數據庫/表中,每個庫/表的內容不同。幾種典型的數據分片規則為:

①根據數值范圍:按照時間區間或 ID 區間來切分。

例如:按日期將不同月甚至是日的數據分散到不同的庫中;將 userId 為 1~9999 的記錄分到第一個庫,10000~20000 的分到第二個庫,以此類推。

某種意義上,某些系統中使用的"冷熱數據分離",將一些使用較少的歷史數據遷移到其他庫中,業務功能上只提供熱點數據的查詢,也是類似的實踐。

這樣的優點在于:

  • 單表大小可控
  • 天然便于水平擴展,后期如果想對整個分片集群擴容時,只需要添加節點即可,無需對其他分片的數據進行遷移
  • 使用分片字段進行范圍查找時,連續分片可快速定位分片進行快速查詢,有效避免跨分片查詢的問題。

缺點在于:熱點數據成為性能瓶頸。連續分片可能存在數據熱點,例如按時間字段分片,有些分片存儲最近時間段內的數據,可能會被頻繁的讀寫,而有些分片存儲的歷史數據,則很少被查詢。

 

②根據數值取模:一般采用 hash 取模 mod 的切分方式。

例如:將 Customer 表根據 cusno 字段切分到 4 個庫中,余數為 0 的放到第一個庫,余數為 1 的放到第二個庫,以此類推。

這樣同一個用戶的數據會分散到同一個庫中,如果查詢條件帶有 cusno 字段,則可明確定位到相應庫去查詢。

優點:數據分片相對比較均勻,不容易出現熱點和并發訪問的瓶頸。

缺點如下:

  • 后期分片集群擴容時,需要遷移舊的數據(使用一致性 hash 算法能較好的避免這個問題)
  • 容易面臨跨分片查詢的復雜問題。比如上例中,如果頻繁用到的查詢條件中不帶 cusno 時,將會導致無法定位數據庫,從而需要同時向 4 個庫發起查詢,再在內存中合并數據,取最小集返回給應用,分庫反而成為拖累。

 

分庫分表帶來的問題

分庫分表能有效的緩解單機和單庫帶來的性能瓶頸和壓力,突破網絡 IO、硬件資源、連接數的瓶頸,同時也帶來了一些問題。下面將描述這些技術挑戰以及對應的解決思路。

事務一致性問題

①分布式事務

當更新內容同時分布在不同庫中,不可避免會帶來跨庫事務問題。跨分片事務也是分布式事務,沒有簡單的方案,一般可使用"XA 協議"和"兩階段提交"處理。

分布式事務能最大限度保證了數據庫操作的原子性。但在提交事務時需要協調多個節點,推后了提交事務的時間點,延長了事務的執行時間。導致事務在訪問共享資源時發生沖突或死鎖的概率增高。

隨著數據庫節點的增多,這種趨勢會越來越嚴重,從而成為系統在數據庫層面上水平擴展的枷鎖。

②最終一致性

對于那些性能要求很高,但對一致性要求不高的系統,往往不苛求系統的實時一致性,只要在允許的時間段內達到最終一致性即可,可采用事務補償的方式。

與事務在執行中發生錯誤后立即回滾的方式不同,事務補償是一種事后檢查補救的措施。

一些常見的實現方法有:對數據進行對賬檢查,基于日志進行對比,定期同標準數據來源進行同步等等。事務補償還要結合業務系統來考慮。

跨節點關聯查詢 join 問題

切分之前,系統中很多列表和詳情頁所需的數據可以通過 sql join 來完成。

而切分之后,數據可能分布在不同的節點上,此時 join 帶來的問題就比較麻煩了,考慮到性能,盡量避免使用 join 查詢。

解決這個問題的一些方法:

①全局表:全局表,也可看做是"數據字典表",就是系統中所有模塊都可能依賴的一些表,為了避免跨庫 join 查詢,可以將這類表在每個數據庫中都保存一份。這些數據通常很少會進行修改,所以也不擔心一致性的問題。

②字段冗余:一種典型的反范式設計,利用空間換時間,為了性能而避免 join 查詢。

例如:訂單表保存 userId 時候,也將 userName 冗余保存一份,這樣查詢訂單詳情時就不需要再去查詢"買家 user 表"了。

但這種方法適用場景也有限,比較適用于依賴字段比較少的情況。而冗余字段的數據一致性也較難保證,就像上面訂單表的例子,買家修改了 userName 后,是否需要在歷史訂單中同步更新呢?這也要結合實際業務場景進行考慮。

③數據組裝:在系統層面,分兩次查詢,第一次查詢的結果集中找出關聯數據 id,然后根據 id 發起第二次請求得到關聯數據。最后將獲得到的數據進行字段拼裝。

④ER 分片:關系型數據庫中,如果可以先確定表之間的關聯關系,并將那些存在關聯關系的表記錄存放在同一個分片上,那么就能較好的避免跨分片 join 問題。在 1:1 或 1:n 的情況下,通常按照主表的 ID 主鍵切分。

如下圖所示:

這樣一來,Data Node1 上面的 order 訂單表與 orderdetail 訂單詳情表就可以通過 orderId 進行局部的關聯查詢了,Data Node2 上也一樣。

跨節點分頁、排序、函數問題

跨節點多庫進行查詢時,會出現 limit 分頁、order by 排序等問題。分頁需要按照指定字段進行排序,當排序字段就是分片字段時,通過分片規則就比較容易定位到指定的分片;當排序字段非分片字段時,就變得比較復雜了。

需要先在不同的分片節點中將數據進行排序并返回,然后將不同分片返回的結果集進行匯總和再次排序,最終返回給用戶。

如圖所示:

上圖中只是取第一頁的數據,對性能影響還不是很大。但是如果取得頁數很大,情況則變得復雜很多。

因為各分片節點中的數據可能是隨機的,為了排序的準確性,需要將所有節點的前 N 頁數據都排序好做合并,最后再進行整體的排序,這樣的操作是很耗費 CPU 和內存資源的,所以頁數越大,系統的性能也會越差。

在使用 Max、Min、Sum、Count 之類的函數進行計算的時候,也需要先在每個分片上執行相應的函數,然后將各個分片的結果集進行匯總和再次計算,最終將結果返回。

如圖所示:

全局主鍵避重問題

在分庫分表環境中,由于表中數據同時存在不同數據庫中,主鍵值平時使用的自增長將無用武之地,某個分區數據庫自生成的 ID 無法保證全局唯一。

因此需要單獨設計全局主鍵,以避免跨庫主鍵重復問題。有一些常見的主鍵生成策略:

①UUID

UUID 標準形式包含 32 個 16 進制數字,分為 5 段,形式為 8-4-4-4-12 的 36 個字符,例如:550e8400-e29b-41d4-a716-446655440000。

UUID 是主鍵是最簡單的方案,本地生成,性能高,沒有網絡耗時。但缺點也很明顯,由于 UUID 非常長,會占用大量的存儲空間。

另外,作為主鍵建立索引和基于索引進行查詢時都會存在性能問題,在 InnoDB 下,UUID 的無序性會引起數據位置頻繁變動,導致分頁。

②結合數據庫維護主鍵 ID 表

在數據庫中建立 sequence 表:

  1. CREATE TABLE `sequence` (   
  2.   `id` bigint(20) unsigned NOT NULL auto_increment,   
  3.   `stub` char(1) NOT NULL default '',   
  4.   PRIMARY KEY  (`id`),   
  5.   UNIQUE KEY `stub` (`stub`)   
  6. ) ENGINE=MyISAM; 

stub 字段設置為唯一索引,同一 stub 值在 sequence 表中只有一條記錄,可以同時為多張表生成全局 ID。

sequence 表的內容,如下所示:

  1. +-------------------+------+   
  2. | id                | stub |   
  3. +-------------------+------+   
  4. | 72157623227190423 |    a |   
  5. +-------------------+------+   

使用 MyISAM 存儲引擎而不是 InnoDB,以獲取更高的性能。MyISAM 使用的是表級別的鎖,對表的讀寫是串行的,所以不用擔心在并發時兩次讀取同一個 ID 值。

當需要全局唯一的 64 位 ID 時,執行:

  1. REPLACE INTO sequence (stub) VALUES ('a');   
  2. SELECT LAST_INSERT_ID();   

這兩條語句是 Connection 級別的,select last_insert_id() 必須與 replace into 在同一數據庫連接下才能得到剛剛插入的新 ID。

使用 replace into 代替 insert into 好處是避免了表行數過大,不需要另外定期清理。

此方案較為簡單,但缺點也明顯:存在單點問題,強依賴 DB,當 DB 異常時,整個系統都不可用。

配置主從可以增加可用性,但當主庫掛了,主從切換時,數據一致性在特殊情況下難以保證。另外性能瓶頸限制在單臺 MySQL 的讀寫性能。

flickr 團隊使用的一種主鍵生成策略,與上面的 sequence 表方案類似,但更好的解決了單點和性能瓶頸的問題。

這一方案的整體思想是:建立 2 個以上的全局 ID 生成的服務器,每個服務器上只部署一個數據庫,每個庫有一張 sequence 表用于記錄當前全局 ID。

表中 ID 增長的步長是庫的數量,起始值依次錯開,這樣能將 ID 的生成散列到各個數據庫上。

如下圖所示:

由兩個數據庫服務器生成 ID,設置不同的 auto_increment 值。第一臺 sequence 的起始值為 1,每次步長增長 2,另一臺的 sequence 起始值為 2,每次步長增長也是 2。 

結果第一臺生成的 ID 都是奇數(1, 3, 5, 7 ...),第二臺生成的 ID 都是偶數(2, 4, 6, 8 ...)。

這種方案將生成 ID 的壓力均勻分布在兩臺機器上。同時提供了系統容錯,第一臺出現了錯誤,可以自動切換到第二臺機器上獲取 ID。

但有以下幾個缺點:系統添加機器,水平擴展時較復雜;每次獲取 ID 都要讀寫一次 DB,DB 的壓力還是很大,只能靠堆機器來提升性能。

可以基于 flickr 的方案繼續優化,使用批量的方式降低數據庫的寫壓力,每次獲取一段區間的 ID 號段,用完之后再去數據庫獲取,可以大大減輕數據庫的壓力。

如下圖所示:

 

還是使用兩臺 DB 保證可用性,數據庫中只存儲當前的最大 ID。ID 生成服務每次批量拉取 6 個 ID,先將 max_id 修改為 5,當應用訪問 ID 生成服務時,就不需要訪問數據庫,從號段緩存中依次派發 0~5 的 ID。

當這些 ID 發完后,再將 max_id 修改為 11,下次就能派發 6~11 的 ID。于是,數據庫的壓力降低為原來的 1/6。

③Snowflake 分布式自增 ID 算法

Twitter 的 Snowflake 算法解決了分布式系統生成全局 ID 的需求,生成 64 位的 Long 型數字。

組成部分:

  • 第一位未使用。
  • 接下來 41 位是毫秒級時間,41 位的長度可以表示 69 年的時間。
  • 5 位 datacenterId,5 位 workerId。10 位的長度最多支持部署 1024 個節點。
  • 最后 12 位是毫秒內的計數,12 位的計數順序號支持每個節點每毫秒產生 4096 個 ID 序列。

這樣的好處是:毫秒數在高位,生成的 ID 整體上按時間趨勢遞增;不依賴第三方系統,穩定性和效率較高。 

理論上 QPS 約為 409.6w/s(1000*2^12),并且整個分布式系統內不會產生 ID 碰撞;可根據自身業務靈活分配 bit 位。

不足就在于:強依賴機器時鐘,如果時鐘回撥,則可能導致生成 ID 重復。

綜上結合數據庫和 Snowflake 的唯一 ID 方案,可以參考業界較為成熟的解法:Leaf——美團點評分布式 ID 生成系統,并考慮到了高可用、容災、分布式下時鐘等問題:

  1. https://tech.meituan.com/2017/04/21/mt-leaf.html 

數據遷移、擴容問題

當業務高速發展,面臨性能和存儲的瓶頸時,才會考慮分片設計,此時就不可避免的需要考慮歷史數據遷移的問題。

一般做法是先讀出歷史數據,然后按指定的分片規則再將數據寫入到各個分片節點中。

此外還需要根據當前的數據量和 QPS,以及業務發展的速度,進行容量規劃,推算出大概需要多少分片(一般建議單個分片上的單表數據量不超過 1000W)。

如果采用數值范圍分片,只需要添加節點就可以進行擴容了,不需要對分片數據遷移。如果采用的是數值取模分片,則考慮后期的擴容問題就相對比較麻煩。

什么時候考慮切分

下面講述一下什么時候需要考慮做數據切分。

①能不切分盡量不要切分

并不是所有表都需要進行切分,主要還是看數據的增長速度。切分后會在某種程度上提升業務的復雜度,數據庫除了承載數據的存儲和查詢外,協助業務更好的實現需求也是其重要工作之一。

不到萬不得已不用輕易使用分庫分表這個大招,避免"過度設計"和"過早優化"。

分庫分表之前,不要為分而分,先盡力去做力所能及的事情,例如:升級硬件、升級網絡、讀寫分離、索引優化等等。當數據量達到單表的瓶頸時候,再考慮分庫分表。

②數據量過大,正常運維影響業務訪問

這里說的運維指:

  • 對數據庫備份,如果單表太大,備份時需要大量的磁盤 IO 和網絡 IO。例如 1T 的數據,網絡傳輸占 50MB 時候,需要 20000 秒才能傳輸完畢,整個過程的風險都是比較高的。
  • 對一個很大的表進行 DDL 修改時,MySQL 會鎖住全表,這個時間會很長,這段時間業務不能訪問此表,影響很大。

如果使用 pt-online-schema-change,使用過程中會創建觸發器和影子表,也需要很長的時間。在此操作過程中,都算為風險時間。將數據表拆分,總量減少,有助于降低這個風險。

  • 大表會經常訪問與更新,就更有可能出現鎖等待。將數據切分,用空間換時間,變相降低訪問壓力。

③隨著業務發展,需要對某些字段垂直拆分

舉個例子,假如項目一開始設計的用戶表如下:

id bigint #用戶的IDname varchar #用戶的名字last_login_time datetime #最近登錄時間personal_info text #私人信息..... #其他信息字段

在項目初始階段,這種設計是滿足簡單的業務需求的,也方便快速迭代開發。

而當業務快速發展時,用戶量從 10w 激增到 10 億,用戶非常的活躍,每次登錄會更新 last_login_name 字段,使得 user 表被不斷 update,壓力很大。

而其他字段:id,name,personal_info 是不變的或很少更新的,此時在業務角度,就要將 last_login_time 拆分出去,新建一個 user_time 表。

personal_info 屬性是更新和查詢頻率較低的,并且 text 字段占據了太多的空間。這時候,就要對此垂直拆分出 user_ext 表了。

④數據量快速增長

隨著業務的快速發展,單表中的數據量會持續增長,當性能接近瓶頸時,就需要考慮水平切分,做分庫分表了。此時一定要選擇合適的切分規則,提前預估好數據容量。

⑤安全性和可用性

雞蛋不要放在一個籃子里。在業務層面上垂直切分,將不相關的業務的數據庫分隔,因為每個業務的數據量、訪問量都不同,不能因為一個業務把數據庫搞掛而牽連到其他業務。

利用水平切分,當一個數據庫出現問題時,不會影響到 100% 的用戶,每個庫只承擔業務的一部分數據,這樣整體的可用性就能提高。

案例分析

用戶中心業務場景

用戶中心是一個非常常見的業務,主要提供用戶注冊、登錄、查詢/修改等功能,其核心表為:

  1. User(uid, login_name, passwd, sex, age, nickname) 
  2.  
  3. uid為用戶ID,  主鍵 
  4. login_name, passwd, sex, age, nickname,  用戶屬性 

任何脫離業務的架構設計都是耍流氓,在進行分庫分表前,需要對業務場景需求進行梳理:

用戶側:前臺訪問,訪問量較大,需要保證高可用和高一致性。

主要有兩類需求:

  • 用戶登錄:通過 login_name/phone/email 查詢用戶信息,1% 請求屬于這種類型。
  • 用戶信息查詢:登錄之后,通過 uid 來查詢用戶信息,99% 請求屬這種類型。

運營側:后臺訪問,支持運營需求,按照年齡、性別、登陸時間、注冊時間等進行分頁的查詢。是內部系統,訪問量較低,對可用性、一致性的要求不高。

水平切分方法

當數據量越來越大時,需要對數據庫進行水平切分,上文描述的切分方法有"根據數值范圍"和"根據數值取模"。

"根據數值范圍":以主鍵 uid 為劃分依據,按 uid 的范圍將數據水平切分到多個數據庫上。

例如:user-db1 存儲 uid 范圍為 0~1000w 的數據,user-db2 存儲 uid 范圍為 1000w~2000w uid 數據。

優點是:擴容簡單,如果容量不夠,只要增加新 DB 即可。

不足是:請求量不均勻,一般新注冊的用戶活躍度會比較高,所以新的 user-db2 會比 user-db1 負載高,導致服務器利用率不平衡。

"根據數值取模":也是以主鍵 uid 為劃分依據,按 uid 取模的值將數據水平切分到多個數據庫上。

例如:user-db1 存儲 uid 取模得 1 的數據,user-db2 存儲 uid 取模得 0 的 uid 數據。

優點是:數據量和請求量分布均勻。

不足是:擴容麻煩,當容量不夠時,新增加 DB,需要 rehash。需要考慮對數據進行平滑的遷移。

非 uid 的查詢方法

水平切分后,對于按 uid 查詢的需求能很好的滿足,可以直接路由到具體數據庫。

而按非 uid 的查詢,例如 login_name,就不知道具體該訪問哪個庫了,此時需要遍歷所有庫,性能會降低很多。

對于用戶側,可以采用"建立非 uid 屬性到 uid 的映射關系"的方案;對于運營側,可以采用"前臺與后臺分離"的方案。

①建立非 uid 屬性到 uid 的映射關系

映射關系:例如:login_name 不能直接定位到數據庫,可以建立 login_name→uid 的映射關系,用索引表或緩存來存儲。

當訪問 login_name 時,先通過映射表查詢出 login_name 對應的 uid,再通過 uid 定位到具體的庫。

映射表只有兩列,可以承載很多數據,當數據量過大時,也可以對映射表再做水平切分。

這類 kv 格式的索引結構,可以很好的使用 cache 來優化查詢性能,而且映射關系不會頻繁變更,緩存命中率會很高。

基因法:分庫基因,假如通過 uid 分庫,分為 8 個庫,采用 uid%8 的方式進行路由,此時是由 uid 的最后 3bit 來決定這行 User 數據具體落到哪個庫上,那么這 3bit 可以看為分庫基因。

上面的映射關系的方法需要額外存儲映射表,按非 uid 字段查詢時,還需要多一次數據庫或 cache 的訪問。

如果想要消除多余的存儲和查詢,可以通過 f 函數取 login_name 的基因作為 uid 的分庫基因。

生成 uid 時,參考上文所述的分布式唯一 ID 生成方案,再加上最后 3 位 bit 值=f(login_name)。

當查詢 login_name 時,只需計算 f(login_name)%8 的值,就可以定位到具體的庫。

不過這樣需要提前做好容量規劃,預估未來幾年的數據量需要分多少庫,要預留一定 bit 的分庫基因。

 

②前臺與后臺分離

對于用戶側,主要需求是以單行查詢為主,需要建立 login_name/phone/email 到 uid 的映射關系,可以解決這些字段的查詢問題。

而對于運營側,很多批量分頁且條件多樣的查詢,這類查詢計算量大,返回數據量大,對數據庫的性能消耗較高。

此時,如果和用戶側共用同一批服務或數據庫,可能因為后臺的少量請求,占用大量數據庫資源,而導致用戶側訪問性能降低或超時。

這類業務最好采用"前臺與后臺分離"的方案,運營側后臺業務抽取獨立的 service 和 DB,解決和前臺業務系統的耦合。

由于運營側對可用性、一致性的要求不高,可以不訪問實時庫,而是通過 binlog 異步同步數據到運營庫進行訪問。

在數據量很大的情況下,還可以使用 ES 搜索引擎或 Hive 來滿足后臺復雜的查詢方式。

支持分庫分表中間件

站在巨人的肩膀上能省力很多,目前分庫分表已經有一些較為成熟的開源解決方案:

  • sharding-jdbc(當當)

https://github.com/shardingjdbc

  • TSharding(蘑菇街)

https://github.com/baihui212/tsharding

  • Atlas(奇虎360)

https://github.com/Qihoo360/Atlas

  • Cobar(阿里巴巴)

https://github.com/alibaba/cobar

  • MyCAT(基于 Cobar)

http://www.mycat.io/

  • Oceanus(58 同城)

https://github.com/58code/Oceanus

  • Vitess(谷歌)

https://github.com/vitessio/vitess

參考文章:

  • 數據庫分布式架構掃盲——分庫分表(及銀行核心系統適用性思考)
  • 分庫分表的思想
  • 水平分庫分表的關鍵步驟以及可能遇到的問題
  • 從原則、方案、策略及難點闡述分庫分表
  • Leaf——美團點評分布式 ID 生成系統
  • 架構師之路公眾號

 

責任編輯:武曉燕 來源: 博客園
相關推薦

2018-09-28 05:25:53

TopK算法代碼

2020-12-11 09:24:19

Elasticsear存儲數據

2020-04-22 11:19:07

貪心算法動態規劃

2018-10-28 22:37:00

計數排序排序面試

2018-11-01 13:49:23

桶排序排序面試

2020-09-24 14:40:55

Python 開發編程語言

2015-02-13 10:42:31

前端工具Dreamweaver

2021-01-22 10:09:23

簡歷求職者面試

2020-04-16 08:22:11

HTTPS加解密協議

2025-02-17 10:30:01

2024-08-07 10:34:46

2023-03-28 08:58:47

分庫分表TiDB

2020-03-30 17:20:54

B+樹SQL索引

2019-07-08 10:00:52

Java內存模型并發

2015-09-14 11:06:53

PYTHON運維

2019-07-10 10:06:24

面試官三次握手四次揮手

2020-08-26 08:18:39

數據索引查詢

2018-11-06 11:40:19

時間復雜度面試算法

2020-09-02 08:04:59

多線程互聯網高并發

2019-04-16 13:30:05

表達式求值數據結構算法
點贊
收藏

51CTO技術棧公眾號

午夜精品福利一区二区| 亚洲老头老太hd| av中文字幕av| 91丨porny丨在线中文 | av在线资源| 99视频超级精品| 国产91露脸中文字幕在线| 91成人在线免费视频| 97久久中文字幕| 亚洲成a人v欧美综合天堂 | 欧美特黄aaa| 神马午夜伦理不卡| 91在线视频免费观看| 国产日产久久高清欧美一区| 少妇影院在线观看| 香蕉一区二区| 91精品国产综合久久香蕉的特点| 一区二区精品在线观看| 手机看片一区二区| 免费观看30秒视频久久| 欧美精品videosex牲欧美| 泷泽萝拉在线播放| 久久影院一区二区三区| 欧美视频一区二区三区…| 中文字幕一区二区三区乱码 | 成人av在线资源网| 国产日本欧美视频| 在线能看的av| 一个色综合网| 亚洲欧美在线免费观看| 杨幂一区二区国产精品| 亚洲综合在线电影| 红桃视频成人在线观看| 99精品视频网站| 国产一级片在线| 成人黄色网址在线观看| 国产一区二区丝袜| 超碰在线观看91| 国产一区观看| 久久天天躁狠狠躁夜夜爽蜜月 | 日韩成人一级| 日韩欧美国产午夜精品| 成人性生交免费看| 四虎4545www国产精品| 亚洲一区二区美女| 国产又粗又爽又黄的视频| 二区在线观看| 久久久精品国产免大香伊| 国产伦精品一区二区三| 国产精品欧美亚洲| 麻豆精品国产91久久久久久| 啪一啪鲁一鲁2019在线视频| 日本熟妇毛茸茸丰满| 一区二区在线| 久久国产精品久久久久久| 极品尤物一区二区| 18深夜在线观看免费视频| 亚洲欧美日韩成人在线| 成人午夜av电影| 国产精品久久国产三级国电话系列| 中文字幕欧美人妻精品一区蜜臀| 日韩高清在线一区| 日本国产精品视频| 亚洲日本韩国在线| 亚洲免费一区二区| 国产成+人+综合+亚洲欧洲| 自拍偷拍欧美亚洲| 亚洲专区一区| 国产成人精品亚洲精品| 欧美人一级淫片a免费播放| 久久视频一区| 国产精品扒开腿爽爽爽视频| 无码人妻黑人中文字幕| 日韩国产欧美视频| 国产精品爽黄69| 国产精品一区二区av白丝下载| 狠狠色丁香婷婷综合久久片| 91黄在线观看| 天天干天天做天天操| 91一区一区三区| 欧美亚洲另类在线一区二区三区| 国产高清一级毛片在线不卡| 国产精品国产三级国产专播品爱网| 玉足女爽爽91| 国产精品大全| 日韩在线免费看| 欧美激情一区二区三区不卡 | 国模吧精品人体gogo| 中文子幕无线码一区tr| 欧美日韩一级在线| 国产丝袜视频在线播放| 色综合久久精品| 手机版av在线| 超碰成人福利| 亚洲全黄一级网站| 日韩精品一区二区亚洲av性色| 欧美日韩国内| 青草热久免费精品视频| 一级黄色片在线播放| 成人性生交大合| 欧美日韩国产精品一卡| 日本美女高清在线观看免费| 亚洲一区二区三区四区的| 日韩av一二三四| 精品国产鲁一鲁****| 日韩精品视频在线| 潘金莲一级黄色片| 亚洲在线观看| 亚洲va久久久噜噜噜| 色视频免费在线观看| 国产精品电影一区二区三区| 欧美视频在线第一页| 精品无人乱码一区二区三区 | 全色精品综合影院| 亚洲欧洲av在线| 97在线免费公开视频| 在线观看亚洲精品福利片| 精品国产免费人成在线观看| 高清国产在线观看| 亚洲九九精品| 亚洲xxxx在线| 性开放的欧美大片| 精品动漫一区二区三区| 性鲍视频在线观看| 成人aaaa| 日本久久久久久久| 人妻无码一区二区三区久久99| 国产精品免费视频一区| 3d动漫一区二区三区| 韩国一区二区三区视频| 一区二区三区国产在线观看| 日韩av片在线播放| 国产一区二区三区在线观看免费| 欧洲亚洲一区二区| av毛片午夜不卡高**水| 日韩一级片在线播放| 成年人免费视频播放| 久久精品卡一| 精品一区久久久久久| 污污网站在线观看| 欧美一区在线视频| 91免费在线看片| 日韩**一区毛片| 免费久久久一本精品久久区| av免费在线视| 91精品国产麻豆| 永久免费看mv网站入口| 免费成人在线网站| 日韩免费毛片| 巨胸喷奶水www久久久免费动漫| 日韩电影中文字幕在线观看| 日韩精品视频播放| 成人激情小说乱人伦| 免费视频爱爱太爽了| 日韩视频一二区| 欧美日韩不卡合集视频| av中文字幕免费在线观看| **性色生活片久久毛片| av免费一区二区| 偷拍欧美精品| 亚洲在线一区二区| 婷婷在线播放| 精品国产区一区| 免费在线观看黄网站| 91老师片黄在线观看| 日本精品www| 欧美伦理在线视频| 国产精品视频资源| 国产网友自拍视频导航网站在线观看 | 日本三级中国三级99人妇网站| 欧美天堂视频| 色偷偷偷综合中文字幕;dd| 在线观看日韩一区二区| 国产精品福利一区二区三区| 国产男女无遮挡猛进猛出| 午夜精品剧场| 久久精品99| h1515四虎成人| 美日韩精品免费视频| www.久久精品.com| 欧美天堂在线观看| 久久久精品成人| 国产精品一区二区无线| 五十路熟女丰满大屁股| 蜜桃国内精品久久久久软件9| 国产精品露脸自拍| 91福利国产在线观看菠萝蜜| 亚洲精品一区二区三区四区高清| 欧美特黄aaaaaa| 国产亚洲污的网站| 樱花草www在线| 中文精品视频| 亚洲资源在线网| 久久亚洲道色| 国产精品揄拍一区二区| 三级资源在线| 一本色道久久88精品综合| 99国产精品99| 日韩欧美高清在线视频| 日韩在线不卡av| 91美女片黄在线| 欧美体内she精高潮| 亚洲一级在线| 日韩不卡视频一区二区| 日韩成人午夜| 亚洲aa中文字幕| 国模套图日韩精品一区二区| 久久精品视频在线播放| 四虎精品在永久在线观看 | 亚洲视频一二三四| 亚洲国产一区二区精品专区| 日韩在线导航| 久久人人爽人人爽人人片av不| 国产区亚洲区欧美区| 亚洲美女炮图| 久久久久国产精品免费| www 日韩| 日韩电影中文字幕在线| 成人av手机在线| 欧美日韩一区 二区 三区 久久精品| 日本一区二区免费在线观看| |精品福利一区二区三区| 久久国产柳州莫菁门| www.视频一区| 亚洲欧美激情一区二区三区| 蜜臀av一区二区在线免费观看| 欧美 日本 亚洲| 伊人成人在线视频| 永久免费在线看片视频| 精品免费av| 欧美日韩国产不卡在线看| 美女一区二区在线观看| 97视频热人人精品| 国产亚洲亚洲国产一二区| 国产精品一区=区| 日韩av电影资源网| 日本一本a高清免费不卡| 波多野结衣精品| 色综合天天狠天天透天天伊人| 尤物网在线观看| 中国人与牲禽动交精品| 国产系列电影在线播放网址| 日韩精品在线播放| 亚洲欧美综合一区二区| 亚洲成人黄色在线观看| 欧美特黄一级视频| 精品成人在线观看| 亚洲精品久久久久久久久久 | 国产伦理在线观看| 国产999精品久久久久久| 日本人dh亚洲人ⅹxx| 国产风韵犹存在线视精品| 久久久久久久久久毛片| 国产真实乱偷精品视频免| 天天干天天色天天干| 激情五月婷婷综合网| 亚洲制服在线观看| 国产成人高清视频| 性色av蜜臀av浪潮av老女人| 99免费精品视频| 受虐m奴xxx在线观看| 国产欧美一区二区精品久导航 | 91高清视频免费观看| 超碰在线最新网址| 午夜欧美大片免费观看| 俺来也官网欧美久久精品| 欧美俄罗斯乱妇| 成人高清网站| 综合av色偷偷网| 日本天堂在线观看| 九九热99久久久国产盗摄| 毛片免费不卡| 美女av一区二区三区| 免费在线看电影| 国内久久久精品| 18video性欧美19sex高清| 欧美综合在线第二页| 2022成人影院| 国产精品国模在线| 精品三级久久久| av噜噜色噜噜久久| 97久久综合区小说区图片区| 蜜桃成人免费视频| 欧美亚洲在线日韩| 久久午夜羞羞影院免费观看| 动漫美女无遮挡免费| 成人视屏免费看| 成人免费播放视频| 91玉足脚交白嫩脚丫在线播放| www.免费av| 久久久久久影视| 色欲一区二区三区精品a片| 亚洲免费av在线| 五月天婷婷久久| 欧美视频你懂的| 91国偷自产中文字幕久久| 精品国产一区二区三区四区四| 日本成人动漫在线观看| 国产视频精品一区二区三区| 日本视频在线观看一区二区三区| 亚洲天堂2020| 黄a在线观看| 欧洲成人午夜免费大片| 精品美女一区| www.成人三级视频| 清纯唯美日韩| 日产精品久久久久久久蜜臀| 亚洲经典在线| 色婷婷一区二区三区在线观看| 成人毛片在线观看| 美国黑人一级大黄| 亚洲国产成人av网| 亚洲精品国产精品乱码视色| 欧美日韩中文另类| 色综合888| 久久影视电视剧免费网站清宫辞电视 | 男人天堂手机在线视频| 欧美中文日韩| 人妻巨大乳一二三区| 91丨九色丨蝌蚪富婆spa| 永久免费看黄网站| 色成人在线视频| 亚洲一区精品在线观看| 亚洲欧美一区二区激情| 欧美jizzhd欧美| 91av视频在线| 久久久91麻豆精品国产一区| 久久资源av| 国产精品久久777777毛茸茸| 天堂在线一区二区三区| 2021国产精品久久精品| 亚洲一区 视频| 8x8x8国产精品| 午夜视频免费在线| 国内精品久久久久影院 日本资源| 精品国产美女a久久9999| 欧美人xxxxx| 在线精品在线| 国产91在线免费观看| 亚洲欧美日韩人成在线播放| 亚洲男人天堂网址| 亚洲国产成人精品女人久久久| av网站网址在线观看| 国产精品视频白浆免费视频| 国产精品羞羞答答在线观看| 精品美女一区二区三区| 中文字幕理论片| 国产亚洲精品久久久久久777| 污片视频在线免费观看| 日本成人激情视频| 国产精品免费99久久久| 男女猛烈激情xx00免费视频| 成人精品视频一区二区三区 | 成人黄色在线观看视频| 亚洲无限av看| 色是在线视频| 久久这里精品国产99丫e6| 亚洲欧洲日本一区二区三区| 亚洲精品第三页| 亚洲精品老司机| 91欧美日韩麻豆精品| 欧美精品亚州精品| 国产精品久久久久久av公交车| 视频一区二区三| 精品夜夜嗨av一区二区三区| 东方伊人免费在线观看| 欧美日韩免费视频| av一区在线观看| 国产精品国产福利国产秒拍| 99re久久最新地址获取| 亚洲激情在线观看视频| 久久久国产综合精品女国产盗摄| 一级黄色在线观看| 亚洲午夜av电影| 北岛玲精品视频在线观看| 日本黄色播放器| 紧缚奴在线一区二区三区| 精品在线视频观看| 亚洲大胆人体在线| 色豆豆成人网| 亚洲欧洲久久| 精品一区二区三区影院在线午夜 | 4438全国成人免费| 妖精视频一区二区三区| 一本色道久久亚洲综合精品蜜桃| 国产精品午夜在线观看| 久草视频在线免费| 欧美成人精品不卡视频在线观看| 日韩精品成人| 老熟妇仑乱视频一区二区| 国产欧美日韩激情| 国产乱码在线观看| 久久久久中文字幕| 日韩有码一区| 天天久久综合网| 亚洲a一区二区| 丰满少妇在线观看bd| 国产成人激情小视频| 四虎成人精品永久免费av九九| 亚洲一区二区三区黄色|