go sync.Map基本原理深入解析

引言

我們知道,go 裡面提供瞭 map 這種類型讓我們可以存儲鍵值對數據,但是如果我們在並發的情況下使用 map 的話,就會發現它是不支持並發地進行讀寫的(會報錯)。 在這種情況下,我們可以使用 sync.Mutex 來保證並發安全,但是這樣會導致我們在讀寫的時候,都需要加鎖,這樣就會導致性能的下降。

除瞭使用互斥鎖這種相對低效的方式,我們還可以使用 sync.Map 來保證並發安全,它在某些場景下有比使用 sync.Mutex 更高的性能。 本文就來探討一下 sync.Map 中的一些大傢比較感興趣的問題,比如為什麼有瞭 map 還要 sync.Map?它為什麼快?sync.Map 的適用場景(註意:不是所有情況下都快。)等。

關於 sync.Map 的設計與實現原理,會在下一篇中再做講解。

map 在並發下的問題

如果我們看過 map 的源碼,就會發現其中有不少會引起 fatal 錯誤的地方,比如 mapaccess1(從 map 中讀取 key 的函數)裡面,如果發現正在寫 map,則會有 fatal 錯誤。 (如果還沒看過,可以跟著這篇 《go map 設計與實現》 看一下)

if h.flags&hashWriting != 0 {
    fatal("concurrent map read and map write")
}

map 並發讀寫異常的例子

下面是一個實際使用中的例子:

var m = make(map[int]int)
// 往 map 寫 key 的協程
go func() {
   // 往 map 寫入數據
    for i := 0; i < 10000; i++ {
        m[i] = i
    }
}()
// 從 map 讀取 key 的協程
go func() {
   // 從 map 讀取數據
    for i := 10000; i > 0; i-- {
        _ = m[i]
    }
}()
// 等待兩個協程執行完畢
time.Sleep(time.Second)

這會導致報錯:

fatal error: concurrent map read and map write

這是因為我們同時對 map 進行讀寫,而 map 不支持並發讀寫,所以會報錯。如果 map 允許並發讀寫,那麼可能在我們使用的時候會有很多錯亂的情況出現。 (具體如何錯亂,我們可以對比多線程的場景思考一下,本文不展開瞭)。

使用 sync.Mutex 保證並發安全

對於 map 並發讀寫報錯的問題,其中一種解決方案就是使用 sync.Mutex 來保證並發安全, 但是這樣會導致我們在讀寫的時候,都需要加鎖,這樣就會導致性能的下降。

使用 sync.Mutex 來保證並發安全,上面的代碼可以改成下面這樣:

var m = make(map[int]int)
// 互斥鎖
var mu sync.Mutex
// 寫 map 的協程
go func() {
    for i := 0; i < 10000; i++ {
        mu.Lock() // 寫 map,加互斥鎖
        m[i] = i
        mu.Unlock()
    }
}()
// 讀 map 的協程序
go func() {
    for i := 10000; i > 0; i-- {
        mu.Lock() // 讀 map,加互斥鎖
        _ = m[i]
        mu.Unlock()
    }
}()
time.Sleep(time.Second)

這樣就不會報錯瞭,但是性能會有所下降,因為我們在讀寫的時候都需要加鎖。(如果需要更高性能,可以繼續讀下去,不要急著使用 sync.Mutex

sync.Mutex 的常見的用法是在結構體中嵌入 sync.Mutex,而不是定義獨立的兩個變量。

使用 sync.RWMutex 保證並發安全

在上一小節中,我們使用瞭 sync.Mutex 來保證並發安全,但是在讀和寫的時候我們都需要加互斥鎖。 這就意味著,就算多個協程進行並發讀,也需要等待鎖。 但是互斥鎖的粒度太大瞭,但實際上,並發讀是沒有什麼太大問題的,應該被允許才對,如果我們允許並發讀,那麼就可以提高性能

當然 go 的開發者也考慮到瞭這一點,所以在 sync 包中提供瞭 sync.RWMutex,這個鎖可以允許進行並發讀,但是寫的時候還是需要等待鎖。 也就是說,一個協程在持有寫鎖的時候,其他協程是既不能讀也不能寫的,隻能等待寫鎖釋放才能進行讀寫

使用 sync.RWMutex 來保證並發安全,我們可以改成下面這樣:

var m = make(map[int]int)
// 讀寫鎖(允許並發讀,寫的時候是互斥的)
var mu sync.RWMutex
// 寫入 map 的協程
go func() {
    for i := 0; i < 10000; i++ {
        // 寫入的時候需要加鎖
        mu.Lock()
        m[i] = i
        mu.Unlock()
    }
}()
// 讀取 map 的協程
go func() {
    for i := 10000; i > 0; i-- {
        // 讀取的時候需要加鎖,但是這個鎖是讀鎖
        // 多個協程可以同時使用 RLock 而不需要等待
        mu.RLock()
        _ = m[i]
        mu.RUnlock()
    }
}()
// 另外一個讀取 map 的協程
go func() {
    for i := 20000; i > 10000; i-- {
        // 讀取的時候需要加鎖,但是這個鎖是讀鎖
        // 多個協程可以同時使用 RLock 而不需要等待
        mu.RLock()
        _ = m[i]
        mu.RUnlock()
    }
}()
time.Sleep(time.Second)

這樣就不會報錯瞭,而且性能也提高瞭,因為我們在讀的時候,不需要等待鎖。

說明:

  • 多個協程可以同時使用 RLock 而不需要等待,這是讀鎖。
  • 隻有一個協程可以使用 Lock,這是寫鎖,有寫鎖的時候,其他協程不能讀也不能寫。
  • 持有寫鎖的協程,可以使用 Unlock 來釋放鎖。
  • 寫鎖釋放之後,其他協程才能獲取到鎖(讀鎖或者寫鎖)。

也就是說,使用 sync.RWMutex 的時候,讀操作是可以並發執行的,但是寫操作是互斥的。 這樣一來,相比 sync.Mutex 來說等待鎖的次數就少瞭,自然也就能獲得更好的性能瞭。

gin 框架裡面就使用瞭 sync.RWMutex 來保證 Keys 讀寫操作的並發安全。

有瞭讀寫鎖為什麼還要有 sync.Map?

通過上面的內容,我們知道瞭,有下面兩種方式可以保證並發安全:

  • 使用 sync.Mutex,但是這樣的話,讀寫都是互斥的,性能不好。
  • 使用 sync.RWMutex,可以並發讀,但是寫的時候是互斥的,性能相對 sync.Mutex 要好一些。

但是就算我們使用瞭 sync.RWMutex,也還是有一些鎖的開銷。那麼我們能不能再優化一下呢?答案是可以的。那就是使用 sync.Map

sync.Map 在鎖的基礎上做瞭進一步優化,在一些場景下使用原子操作來保證並發安全,性能更好。

使用原子操作替代讀鎖

但是就算使用 sync.RWMutex,讀操作依然還有鎖的開銷,那麼有沒有更好的方式呢? 答案是有的,就是使用原子操作來替代讀鎖。

舉一個很常見的例子就是多個協程同時讀取一個變量,然後對這個變量進行累加操作:

var a int32
var wg sync.WaitGroup
wg.Add(2)
go func() {
    for i := 0; i < 10000; i++ {
        a++
    }
    wg.Done()
}()
go func() {
    for i := 0; i < 10000; i++ {
        a++
    }
    wg.Done()
}()
wg.Wait()
// a 期望結果應該是 20000才對。
fmt.Println(a) // 實際:17089,而且每次都不一樣

這個例子中,我們期望的結果是 a 的值是 20000,但是實際上,每次運行的結果都不一樣,而且都不會等於 20000。 其中很簡單粗暴的一種解決方法是加鎖,但是這樣的話,性能就不好瞭,但是我們可以使用原子操作來解決這個問題:

var a atomic.Int32
var wg sync.WaitGroup
wg.Add(2)
go func() {
    for i := 0; i < 10000; i++ {
        a.Add(1)
    }
    wg.Done()
}()
go func() {
    for i := 0; i < 10000; i++ {
        a.Add(1)
    }
    wg.Done()
}()
wg.Wait()
fmt.Println(a.Load()) // 20000

鎖跟原子操作的性能差多少?

我們來看一下,使用鎖和原子操作的性能差多少:

func BenchmarkMutexAdd(b *testing.B) {
   var a int32
   var mu sync.Mutex
   for i := 0; i < b.N; i++ {
      mu.Lock()
      a++
      mu.Unlock()
   }
}
func BenchmarkAtomicAdd(b *testing.B) {
   var a atomic.Int32
   for i := 0; i < b.N; i++ {
      a.Add(1)
   }
}

結果:

BenchmarkMutexAdd-12       100000000          10.07 ns/op
BenchmarkAtomicAdd-12      205196968           5.847 ns/op

我們可以看到,使用原子操作的性能比使用鎖的性能要好一些。

也許我們會覺得上面這個例子是寫操作,那麼讀操作呢?我們來看一下:

func BenchmarkMutex(b *testing.B) {
   var mu sync.RWMutex
   for i := 0; i < b.N; i++ {
      mu.RLock()
      mu.RUnlock()
   }
}
func BenchmarkAtomic(b *testing.B) {
   var a atomic.Int32
   for i := 0; i < b.N; i++ {
      _ = a.Load()
   }
}

結果:

BenchmarkMutex-12      100000000          10.12 ns/op
BenchmarkAtomic-12     1000000000          0.3133 ns/op

我們可以看到,使用原子操作的性能比使用鎖的性能要好很多。而且在 BenchmarkMutex 裡面甚至還沒有做讀取數據的操作。

sync.Map 裡面的原子操作

sync.Map 裡面相比 sync.RWMutex,性能更好的原因就是使用瞭原子操作。 在我們從 sync.Map 裡面讀取數據的時候,會先使用一個原子 Load 操作來讀取 sync.Map 裡面的 key(從 read 中讀取)。 註意:這裡拿到的是 key 的一份快照,我們對其進行讀操作的時候也可以同時往 sync.Map 中寫入新的 key,這是保證它高性能的一個很關鍵的設計(類似讀寫分離)。

sync.Map 裡面的 Load 方法裡面就包含瞭上述的流程:

// Load 方法從 sync.Map 裡面讀取數據。
func (m *Map) Load(key any) (value any, ok bool) {
   // 先從隻讀 map 裡面讀取數據。
   // 這一步是不需要鎖的,隻有一個原子操作。
   read := m.loadReadOnly()
   e, ok := read.m[key]
   if !ok && read.amended { // 如果沒有找到,並且 dirty 裡面有一些 read 中沒有的 key,那麼就需要從 dirty 裡面讀取數據。
      // 這裡才需要鎖
      m.mu.Lock()
      read = m.loadReadOnly()
      e, ok = read.m[key]
      if !ok && read.amended {
         e, ok = m.dirty[key]
         m.missLocked()
      }
      m.mu.Unlock()
   }
   // key 不存在
   if !ok {
      return nil, false
   }
   // 使用原子操作讀取
   return e.Load()
}

上面的代碼我們可能還看不懂,但是沒關系,這裡我們隻需要知道的是,從 sync.Map 讀取數據的時候,會先做原子操作,如果沒找到,再進行加鎖操作,這樣就減少瞭使用鎖的頻率瞭,自然也就可以獲得更好的性能(但要註意的是並不是所有情況下都能獲得更好的性能)。至於具體實現,在下一篇文章中會進行更加詳細的分析。

也就是說,sync.Map 之所以更快,是因為相比 RWMutex,進一步減少瞭鎖的使用,而這也就是 sync.Map 存在的原因瞭

sync.Map 的基本用法

現在我們知道瞭,sync.Map 裡面是利用瞭原子操作來減少鎖的使用。但是我們好像連 sync.Map 的一些基本操作都還不瞭解,現在就讓我們再來看看 sync.Map 的基本用法。

sync.Map 的使用還是挺簡單的,map 中有的操作,在 sync.Map 都有,隻不過區別是,在 sync.Map 中,所有的操作都需要通過調用其方法來進行。 sync.Map 裡面幾個常用的方法有(CRUD):

  • Store:我們新增或者修改數據的時候,都可以使用 Store 方法。
  • Load:讀取數據的方法。
  • Range:遍歷數據的方法。
  • Delete:刪除數據的方法。
var m sync.Map
// 寫入/修改
m.Store("foo", 1)
// 讀取
fmt.Println(m.Load("foo")) // 1 true
// 遍歷
m.Range(func(key, value interface{}) bool {
    fmt.Println(key, value) // foo 1
    return true
})
// 刪除
m.Delete("foo")
fmt.Println(m.Load("foo")) // nil false

註意:在 sync.Map 中,keyvalue 都是 interface{} 類型的,也就是說,我們可以使用任意類型的 keyvalue。 而不像 map,隻能存在一種類型的 keyvalue。從這個角度來看,它的類型類似於 map[any]any

另外一個需要註意的是,Range 方法的參數是一個函數,這個函數如果返回 false,那麼遍歷就會停止。

sync.Map 的使用場景

sync.Map 源碼中,已經告訴瞭我們 sync.Map 的使用場景:

The Map type is optimized for two common use cases: (1) when the entry for a given
key is only ever written once but read many times, as in caches that only grow,
or (2) when multiple goroutines read, write, and overwrite entries for disjoint
sets of keys. In these two cases, use of a Map may significantly reduce lock
contention compared to a Go map paired with a separate Mutex or RWMutex.

翻譯過來就是,Map 類型針對兩種常見用例進行瞭優化:

  • 當給定 key 的條目隻寫入一次但讀取多次時,如在隻會增長的緩存中。(讀多寫少)
  • 當多個 goroutine 讀取、寫入和覆蓋不相交的鍵集的條目。(不同 goroutine 操作不同的 key)

在這兩種情況下,與 Go map 與單獨的 MutexRWMutex 配對相比,使用 sync.Map 可以顯著減少鎖競爭(很多時候隻需要原子操作就可以)。

總結

普通的 map 不支持並發讀寫。

有以下兩種方式可以實現 map 的並發讀寫:

  • 使用 sync.Mutex 互斥鎖。讀和寫的時候都使用互斥鎖,性能相比 sync.RWMutex 會差一些。
  • 使用 sync.RWMutex 讀寫鎖。讀的鎖是可以共享的,但是寫鎖是獨占的。性能相比 sync.Mutex 會好一些。
  • sync.Map 裡面會先進行原子操作來讀取 key,如果讀取不到的時候,才會需要加鎖。所以性能相比 sync.Mutexsync.RWMutex 會好一些。

sync.Map 裡面幾個常用的方法有(CRUD):

  • Store:我們新增或者修改數據的時候,都可以使用 Store 方法。
  • Load:讀取數據的方法。
  • Range:遍歷數據的方法。
  • Delete:刪除數據的方法。

sync.Map 的使用場景,sync.Map 針對以下兩種場景做瞭優化:

  • key 隻會寫入一次,但是會被讀取多次的場景。
  • 多個 goroutine 讀取、寫入和覆蓋不相交的鍵集的條目。

以上就是go sync.Map基本原理深入解析的詳細內容,更多關於go sync.Map基本原理的資料請關註WalkonNet其它相關文章!

推薦閱讀: