博客 / 詳情

返回

減少80%存儲-風控名單服務重構剖析

引言

小小的 Redis 大大的不簡單,本文將結合風控名單服務在使用 Redis 存儲數據時的數據結構設計及優化,並詳細分析 redis 底層實現對數據結構選型的重要性。

背景

先來交代下使用場景,在風控場景下,名單服務每時每刻都需要承受海量數據查詢。

名單檢索內容涉及維度非常廣:用户業務標識(UID)、手機號、身份證號、設備號、IMEI(International Mobile Equipment Identity, 國際移動設備識別碼)、Wifi Mac、IP 等等。用户的一次業務請求,在風控的中會擴散到多個名單維度,同時還需要在 RT(Response-time) 上滿足業務場景訴求。

這就導致名單服務的構建需要承受住如下挑戰:

  • 海量數據存儲:維度多,存儲內容尚可(是否命中),按照 X 個用户,Y 個維度,Z 個業務線(隔離),量級非常大
  • 大流量、高併發:業務場景下任何存在風險敞口的點都需要評估過風控,每天決策峯值 TPS 過萬
  • 極低耗時:留給名單服務的時間不多了,如果整體業務系統給風控決策的耗時是 200 ms,名單服務必須要在 30 ~ 50 ms 就得得到結果,否則將極大影響後續規則引擎的運算執行進度

如上系統要求其實在大數據系統架構下都是適用的,只是名單服務要的更極致而已。

在上一篇 《風控核心子域——名單服務構建及挑戰》 文章中已經介紹了名單服務設計,選用了 Redis 作為存儲,目前也只能是 Redis 能滿足名單服務場景的高性能訴求。同時也介紹了選擇用 Redis 中遇到的數據異常及高可用設計架構,忘了或者感興趣的朋友可以再回顧一遍。

名單數據的存儲結構選用的是 Hash 存儲,結構如下:

在此我提出幾個疑問(不知道讀者看完後是否也有~):

  • 為何使用 Hash? 使用 set key-value 結構可以麼?
  • 過期時間如何維護?set key-val 可以直接基於 expire 設置, hash 結構內過期的數據是如何刪除的?
  • 當前設計架構,對 Redis 的內存消耗大概在什麼水位?可預見的未來能夠滿足業務的增長需求麼?

如果你也有這些疑問,那麼本篇文章將為你解惑,希望能有收穫。

Redis 是如何存儲數據的?


工欲善其事必先利其器,我們先將常用的 Redis 結構底層實現摸透,才能在使用上游刃有餘,由於本文在用的 redis 結構只會涉及到 stringhash,筆者僅分析這兩種,其它的讀者們感興趣可以自行搜索。

字符串存儲

string 是 redis 中最常用的存儲結構,redis 實現是是基於 C 語言,此處的字符串並不是直接使用 c 中的字符串,而是自己實現了一套 “SDS”(簡單動態字符串)。

struct sdshdr(
    //記錄 buf 數組中已使用字節的數量
    //等於 SDS 保存字符串的長度
    int len;
    //記錄 buf 數組中未使用字節的數量
    int free;
    //字節數組,用於保存字符串
    char buf[];
}

redis 的底層存儲會使用三種方式來存儲數據:**int****raw****embstr**

int 類型

存儲值:整形,且可以用 long 類型來表示的。舉例如下:

redis> OBJECT ENCODING number
"int"

raw 類型

存儲值:字符串值,且字符串長度 > 39 字節的。舉例如下:

redis> SET story "Long, long, long ago there lived a king ..."
OK

redis> STRLEN story
(integer) 43

redis> OBJECT ENCODING story
"raw"

embstr 類型

存儲值:字符串值,且字符串長度 <= 39 字節的。

embstr 編碼的字符串對象在執行命令時, 產生的效果和 raw 編碼的字符串對象執行命令時產生的效果是相同的, 但使用 embstr 編碼的字符串對象來保存短字符串值有以下好處:

  1. embstr 編碼將創建字符串對象所需的內存分配次數從 raw 編碼的兩次降低為一次
  2. 釋放 embstr 編碼的字符串對象只需要調用一次內存釋放函數, 而釋放 raw 編碼的字符串對象需要調用兩次內存釋放函數。
  3. 因為 embstr 編碼的字符串對象的所有數據都保存在一塊連續的內存裏面, 所以這種編碼的字符串對象比起 raw 編碼的字符串對象能夠更好地利用緩存帶來的優勢

舉例如下:

redis> SET msg "hello"
OK

redis> OBJECT ENCODING msg
"embstr"

總結如下(redis version > 3.2):

編碼 佔用內存
可以用 long 類型保存的整數。 int 定長 8 字節
可以用 long double 類型保存的浮點數。 embstr 或者 raw 動態擴容的,每次擴容 1 倍,超過 1M 時,每次只擴容 1M。
字符串值, 或者因為長度太大而沒辦法用 long 類型表示的整數, 又或者因為長度太大而沒辦法用 long double 類型表示的浮點數。 embstr 或者 raw 用來存儲大於 44 個字節的字符串。

Hash 存儲

哈希對象的編碼可以是 ziplist 或者 hashtable 。

ziplist 類型

ziplist 編碼的哈希對象使用壓縮列表作為底層實現, 每當有新的鍵值對要加入到哈希對象時, 程序會先將保存了鍵的壓縮列表節點推入到壓縮列表表尾, 然後再將保存了值的壓縮列表節點推入到壓縮列表表尾, 因此:

  • 保存了同一鍵值對的兩個節點總是緊挨在一起, 保存鍵的節點在前, 保存值的節點在後;
  • 先添加到哈希對象中的鍵值對會被放在壓縮列表的表頭方向, 而後來添加到哈希對象中的鍵值對會被放在壓縮列表的表尾方向。

舉例如下:

redis> HSET profile name "Tom"
(integer) 1

redis> HSET profile age 25
(integer) 1

redis> HSET profile career "Programmer"
(integer) 1


hashtable 類型

哈希對象中的每個鍵值對都使用一個字典鍵值對來保存:

  • 字典的每個鍵都是一個字符串對象, 對象中保存了鍵值對的鍵;
  • 字典的每個值都是一個字符串對象, 對象中保存了鍵值對的值。

如果上述例子的底層存儲方式是 hashtable,那麼對象結構會如圖所示:

總結如下(redis version < 3.2,新版本的優化了使用 quicklist,更新的版本使用 listpack,道理一樣,此處以 ziplist 總結):

編碼 佔用內存

| 哈希對象保存的所有鍵值對的鍵和值的字符串長度都小於 64 字節;
哈希對象保存的鍵值對數量小於 512 個; | ziplist | 本質是一個字符串;尋值需要遍歷字符串;缺點是耗費更多的 cpu 來查詢(如果值很少,可以忽略不計) |
| 不滿足上述 ziplist 條件的值 | hashtable | 類似 java HashMap 實現;空間換時間;需要多花費本身存儲的 25%內存 |

注意:ziplist 兩個條件的上限值是可以修改的, 具體請看配置文件 redis.conf 中關於 hash-max-ziplist-value 選項和 hash-max-ziplist-entries 選項的説明。

兩種數據結構,按照解釋,當 value 數量控制在 512 時,性能和單純的使用 hashtable 基本一致,value 數量在不超過 1024 時,性能只有極小的降低,然而內存的佔用 ziplist 比 hashtable 降低了 80% 左右。

名單服務改造

通過如上的分析,我們得出兩個重要結論:

  • key 或者 val 使用編碼是 int 類型時(8 個字節),要比編碼使用 string 即 raw|embstr 要省很多空間
  • 使用 ziplist 存儲,要比使用 key-value 節省巨大的空間

分析一下名單服務支撐的業務數據量,假設有 5 億個用户(可能非活躍,就假設全量),每個用户衍生出 10 個名單維度(手機號、身份證、設備等等),每個維度再衍生出 10 個沙盒隔離環境(業務線、渠道等等),那麼總的數據量級在: 500 億左右

分桶

500 億個值如果都存放在 hash 結構中,需要分散到不同的桶(bucket)中,每個桶最大不超過 512 個(這個可以自行配置,最好不超 1024 個,不然損失了查詢性能,配置過大後需要實際壓測檢驗)。從而避免 hash 的編碼從 ziplist 切換至 hashtable。

bucket 數量 = 500 億 / 512 = 97,656,250,即需要這麼多桶來承載,如果是 1024 個,則桶的量可縮小一倍,但是意義不大。

hash 算法選擇

需要將這麼多維度的數據通過 hash 算法,均勻、離散的分攤到這些個 bucket 內,必須選擇業內比較有名且碰撞率不高的優秀算法。可以選擇 crc32(key) % bucketNum,得到該存在哪個 bucket 內,此時再使用 hash 算法(需要考慮前後兩次 hash 的碰撞率,建議選擇與分桶算法不一致)或者直接使用 Java 對象的 hashcode 作為 field 即可,整體效果如圖:

新老數據比對


我將用三種數據作比對,分別是:字符串直插、老的名單服務數據、新的數據結構

字符串直插

key = deviceHash-${名單類型}-${設備指紋}-${沙盒隔離標識}
val = 過期時間戳

模擬在同一個設備指紋下有 10 個業務域隔離,即需要插入 10 條數據

## 插入 10 條數據,此處省略剩餘 9 條
127.0.0.1:6379> set deviceHash-3-a313633418103bf58fe65b56bef28884e0ada768d20c94d69fc49ad618d92724-100000 1678157018608
OK

## 單條佔用內存大小(字節)
127.0.0.1:6379> memory usage deviceHash-3-a313633418103bf58fe65b56bef28884e0ada768d20c94d69fc49ad618d92724-100000
(integer) 136

## 編碼類型
127.0.0.1:6379> debug object deviceHash-3-a313633418103bf58fe65b56bef28884e0ada768d20c94d69fc49ad618d92724-100000
Value at:0xffffb9a7c0c0 refcount:1 encoding:int serializedlength:14 lru:439622 lru_seconds_idle:745

整體佔用內存(字節) = 136 * 10 = 1360

老名單服務數據結構

key = deviceHash-${名單類型}-${設備指紋}
field = ${沙盒隔離標識}
val = 過期時間戳

模擬在同一個設備指紋下有 10 個業務域隔離,即需要插入 10 條數據

## 插入 10 條數據,此處省略剩餘 9 條
127.0.0.1:6379> hset deviceHash-3-a313633418103bf58fe65b56bef28884e0ada768d20c94d69fc49ad618d92724 100000 1678157018608
(integer) 1

## 單條佔用內存大小(字節)
memory usage deviceHash-3-a313633418103bf58fe65b56bef28884e0ada768d20c94d69fc49ad618d92724
(integer) 296

## 編碼類型
127.0.0.1:6379> debug object deviceHash-3-a313633418103bf58fe65b56bef28884e0ada768d20c94d69fc49ad618d92724
Value at:0xffffb9a7c0d0 refcount:1 encoding:ziplist serializedlength:75 lru:439622 lru_seconds_idle:1168

整體佔用內存(字節) = 296
注:此處 hash 的 field 和 val 都為超 64 字節,滿足 ziplist 要求。

新名單服務數據結構

key = bucket_${取餘}
field = hash_long_method(deviceHash-${名單類型}-${設備指紋}-${沙盒隔離標識})
val = 過期時間戳

模擬在同一個設備指紋下有 10 個業務域隔離,即需要插入 10 條數據

## 插入 10 條數據,此處省略剩餘 9 條
127.0.0.1:6379> hset bucket_11 206652428 1678157018608
(integer) 1

## 單條佔用內存大小(字節)
127.0.0.1:6379> memory usage bucket_11
(integer) 248

## 編碼類型
127.0.0.1:6379> debug object bucket_11
Value at:0xffffb9a7c050 refcount:1 encoding:ziplist serializedlength:76 lru:439622 lru_seconds_idle:1214

整體佔用內存(字節) = 248(此處實際節省的是原始字符串作直接作為 key 所帶來的消耗)

可見,如上按照 500 億數據計算的話,去除 10 個沙盒隔離維度,則老方案需要 50 億個 hash 結構來存儲,新方案只需要不到 1 億個 結構來存儲,節省的內存還是很客觀的。

由於名單服務比較特殊,fieldval 都不大,假設業務上存儲的值超 64 字節或者 filed 個數超 512,轉變為 hashtable 的話,則新方案節省的就是巨量的內存。

總結

新的數據設計結構規避了如下幾個問題:

  • 使用 Hash 是有代價的,底層如果是 hashtable 實現的話,會多用 25% 內存空間,畢竟空間換時間嘛
  • key 最好不用原始的字符串,更有勝者,長短不一,導致內存碎片,佔用空間情況更加嚴重
  • 部分開發者喜歡原始字符串加 MD5 後得到 32 位字符,解決了內存碎片問題,但是相比於編碼是 int 類型,emstr 更佔用空間,畢竟前者只需固定 8 個字節
  • 如上 value 我們只存儲了時間戳,即是 long 類型整數,沒有什麼好優化的,假設業務中需要存儲的是 字符串,序列化 JSON 串等,應採用高效的 byte[] 壓縮算法,如 Protocol Buffers 等等

同時,在實施過程中也要注意一些問題:

  • hash 算法終歸是有碰撞率的,在一些不容許錯誤的(比如金融、風控)等場景下,需要一定的取捨
  • 才有 hash 結構存儲數據,失去了 redis 天然的支持 expire 功能,需要自主維護數據的生命週期,比如在值中追加生命時間戳,整體的高可用也需要保證

往期精彩

  • 風控規則引擎構建及挑戰
  • 風控決策引擎——決策流路徑規劃
  • 風控決策引擎——決策流構建實戰
歡迎關注公眾號:咕咕雞技術專欄
個人技術博客:https://jifuwei.github.io/ >
user avatar
0 位用戶收藏了這個故事!

發佈 評論

Some HTML is okay.