go中控制goroutine數量的方法
前言
goroutine被無限制的大量創建,造成的後果就不囉嗦瞭,主要討論幾種如何控制goroutine的方法
控制goroutine的數量
通過channel+sync
var ( // channel長度 poolCount = 5 // 復用的goroutine數量 goroutineCount = 10 ) func pool() { jobsChan := make(chan int, poolCount) // workers var wg sync.WaitGroup for i := 0; i < goroutineCount; i++ { wg.Add(1) go func() { defer wg.Done() for item := range jobsChan { // ... fmt.Println(item) } }() } // senders for i := 0; i < 1000; i++ { jobsChan <- i } // 關閉channel,上遊的goroutine在讀完channel的內容,就會通過wg的done退出 close(jobsChan) wg.Wait() }
通過WaitGroup啟動指定數量的goroutine,監聽channel的通知。發送者推送信息到channel,信息處理完瞭,關閉channel,等待goroutine依次退出。
使用semaphore
package main import ( "context" "fmt" "sync" "time" "golang.org/x/sync/semaphore" ) const ( // 同時運行的goroutine上限 Limit = 3 // 信號量的權重 Weight = 1 ) func main() { names := []string{ "小白", "小紅", "小明", "小李", "小花", } sem := semaphore.NewWeighted(Limit) var w sync.WaitGroup for _, name := range names { w.Add(1) go func(name string) { sem.Acquire(context.Background(), Weight) // ... 具體的業務邏輯 fmt.Println(name, "-吃飯瞭") time.Sleep(2 * time.Second) sem.Release(Weight) w.Done() }(name) } w.Wait() fmt.Println("ending--------") }
借助於x包中的semaphore,也可以進行goroutine的數量限制。
線程池
不過原本go中的協程已經是非常輕量瞭,對於協程池還是要根據具體的場景分析。
對於小場景使用channel+sync就可以,其他復雜的可以考慮使用第三方的協程池庫。
panjf2000/ants
go-playground/pool
Jeffail/tunny
幾個開源的線程池的設計
fasthttp中的協程池實現
fasthttp比net/http效率高很多倍的重要原因,就是利用瞭協程池。來看下大佬的設計思路。
1、按需增長goroutine數量,有一個最大值,同時監聽channel,Server會把accept到的connection放入到channel中,這樣監聽的goroutine就能處理消費。
2、本地維護瞭一個待使用的channel列表,當本地channel列表拿不到ch,會在sync.pool中取。
3、如果workersCount沒達到上限,則從生成一個workerFunc監聽workerChan。
4、對於待使用的channel列表,會定期清理掉超過最大空閑時間的workerChan。
看下具體實現
// workerPool通過一組工作池服務傳入的連接 // 按照FILO(先進後出)的順序,即最近停止的工作人員將為下一個工作傳入的連接。 // // 這種方案能夠保持cpu的緩存保持高效(理論上) type workerPool struct { // 這個函數用於server的連接 // It must leave c unclosed. WorkerFunc ServeHandler // 最大的Workers數量 MaxWorkersCount int LogAllErrors bool MaxIdleWorkerDuration time.Duration Logger Logger lock sync.Mutex // 當前worker的數量 workersCount int // worker停止的標識 mustStop bool // 等待使用的workerChan // 可能會被清理 ready []*workerChan // 用來標識start和stop stopCh chan struct{} // workerChan的緩存池,通過sync.Pool實現 workerChanPool sync.Pool connState func(net.Conn, ConnState) } // workerChan的結構 type workerChan struct { lastUseTime time.Time ch chan net.Conn }
Start
func (wp *workerPool) Start() { // 判斷是否已經Start過瞭 if wp.stopCh != nil { panic("BUG: workerPool already started") } // stopCh塞入值 wp.stopCh = make(chan struct{}) stopCh := wp.stopCh wp.workerChanPool.New = func() interface{} { // 如果單核cpu則讓workerChan阻塞 // 否則,使用非阻塞,workerChan的長度為1 return &workerChan{ ch: make(chan net.Conn, workerChanCap), } } go func() { var scratch []*workerChan for { wp.clean(&scratch) select { // 接收到退出信號,退出 case <-stopCh: return default: time.Sleep(wp.getMaxIdleWorkerDuration()) } } }() } // 如果單核cpu則讓workerChan阻塞 // 否則,使用非阻塞,workerChan的長度為1 var workerChanCap = func() int { // 如果GOMAXPROCS=1,workerChan的長度為0,變成一個阻塞的channel if runtime.GOMAXPROCS(0) == 1 { return 0 } // 如果GOMAXPROCS>1則使用非阻塞的workerChan return 1 }()
梳理下流程:
1、首先判斷下stopCh是否為nil,不為nil表示已經started瞭;
2、初始化wp.stopCh = make(chan struct{}),stopCh是一個標識,用瞭struct{}不用bool,因為空結構體變量的內存占用大小為0,而bool類型內存占用大小為1,這樣可以更加最大化利用我們服務器的內存空間;
3、設置workerChanPool的New函數,然後可以在Get不到東西時,自動創建一個;如果單核cpu則讓workerChan阻塞,否則,使用非阻塞,workerChan的長度設置為1;
4、啟動一個goroutine,處理clean操作,在接收到退出信號,退出。
Stop
func (wp *workerPool) Stop() { // 同start,stop也隻能觸發一次 if wp.stopCh == nil { panic("BUG: workerPool wasn't started") } // 關閉stopCh close(wp.stopCh) // 將stopCh置為nil wp.stopCh = nil // 停止所有的等待獲取連接的workers // 正在運行的workers,不需要等待他們退出,他們會在完成connection或mustStop被設置成true退出 wp.lock.Lock() ready := wp.ready // 循環將ready的workerChan置為nil for i := range ready { ready[i].ch <- nil ready[i] = nil } wp.ready = ready[:0] // 設置mustStop為true wp.mustStop = true wp.lock.Unlock() }
梳理下流程:
1、判斷stop隻能被關閉一次;
2、關閉stopCh,設置stopCh為nil;
3、停止所有的等待獲取連接的workers,正在運行的workers,不需要等待他們退出,他們會在完成connection或mustStop被設置成true退出。
clean
func (wp *workerPool) clean(scratch *[]*workerChan) { maxIdleWorkerDuration := wp.getMaxIdleWorkerDuration() // 清理掉最近最少使用的workers如果他們過瞭maxIdleWorkerDuration時間沒有提供服務 criticalTime := time.Now().Add(-maxIdleWorkerDuration) wp.lock.Lock() ready := wp.ready n := len(ready) // 使用二分搜索算法找出最近可以被清除的worker // 最後使用的workerChan 一定是放回隊列尾部的。 l, r, mid := 0, n-1, 0 for l <= r { mid = (l + r) / 2 if criticalTime.After(wp.ready[mid].lastUseTime) { l = mid + 1 } else { r = mid - 1 } } i := r if i == -1 { wp.lock.Unlock() return } // 將ready中i之前的的全部清除 *scratch = append((*scratch)[:0], ready[:i+1]...) m := copy(ready, ready[i+1:]) for i = m; i < n; i++ { ready[i] = nil } wp.ready = ready[:m] wp.lock.Unlock() // 通知淘汰的workers停止 // 此通知必須位於wp.lock之外,因為ch.ch // 如果有很多workers,可能會阻塞並且可能會花費大量時間 // 位於非本地CPU上。 tmp := *scratch for i := range tmp { tmp[i].ch <- nil tmp[i] = nil } }
主要是清理掉最近最少使用的workers如果他們過瞭maxIdleWorkerDuration時間沒有提供服務
getCh
獲取一個workerChan
func (wp *workerPool) getCh() *workerChan { var ch *workerChan createWorker := false wp.lock.Lock() ready := wp.ready n := len(ready) - 1 // 如果ready為空 if n < 0 { if wp.workersCount < wp.MaxWorkersCount { createWorker = true wp.workersCount++ } } else { // 不為空從ready中取一個 ch = ready[n] ready[n] = nil wp.ready = ready[:n] } wp.lock.Unlock() // 如果沒拿到ch if ch == nil { if !createWorker { return nil } // 從緩存中獲取一個ch vch := wp.workerChanPool.Get() ch = vch.(*workerChan) go func() { // 具體的執行函數 wp.workerFunc(ch) // 再放入到pool中 wp.workerChanPool.Put(vch) }() } return ch }
梳理下流程:
1、獲取一個可執行的workerChan,如果ready中為空,並且workersCount沒有達到最大值,增加workersCount數量,並且設置當前操作createWorker = true;
2、ready中不為空,直接在ready獲取一個;
3、如果沒有獲取到則在sync.pool中獲取一個,之後再放回到pool中;
4、拿到瞭就啟動一個workerFunc監聽workerChan,處理具體的業務邏輯。
workerFunc
func (wp *workerPool) workerFunc(ch *workerChan) { var c net.Conn var err error // 監聽workerChan for c = range ch.ch { if c == nil { break } // 具體的業務邏輯 ... c = nil // 釋放workerChan // 在mustStop的時候將會跳出循環 if !wp.release(ch) { break } } wp.lock.Lock() wp.workersCount-- wp.lock.Unlock() } // 把Conn放入到channel中 func (wp *workerPool) Serve(c net.Conn) bool { ch := wp.getCh() if ch == nil { return false } ch.ch <- c return true } func (wp *workerPool) release(ch *workerChan) bool { // 修改 ch.lastUseTime ch.lastUseTime = time.Now() wp.lock.Lock() // 如果需要停止,直接返回 if wp.mustStop { wp.lock.Unlock() return false } // 將ch放到ready中 wp.ready = append(wp.ready, ch) wp.lock.Unlock() return true }
梳理下流程:
1、workerFunc會監聽workerChan,並且在使用完workerChan歸還到ready中;
2、Serve會把connection放入到workerChan中,這樣workerFunc就能通過workerChan拿到需要處理的連接請求;
3、當workerFunc拿到的workerChan為nil或wp.mustStop被設為瞭true,就跳出for循環。
panjf2000/ants
先看下示例
示例一
package main import ( "fmt" "sync" "sync/atomic" "time" "github.com/panjf2000/ants" ) func demoFunc() { time.Sleep(10 * time.Millisecond) fmt.Println("Hello World!") } func main() { defer ants.Release() runTimes := 1000 var wg sync.WaitGroup syncCalculateSum := func() { demoFunc() wg.Done() } for i := 0; i < runTimes; i++ { wg.Add(1) _ = ants.Submit(syncCalculateSum) } wg.Wait() fmt.Printf("running goroutines: %d\n", ants.Running()) fmt.Printf("finish all tasks.\n") }
示例二
package main import ( "fmt" "sync" "sync/atomic" "time" "github.com/panjf2000/ants" ) var sum int32 func myFunc(i interface{}) { n := i.(int32) atomic.AddInt32(&sum, n) fmt.Printf("run with %d\n", n) } func main() { var wg sync.WaitGroup runTimes := 1000 // Use the pool with a method, // set 10 to the capacity of goroutine pool and 1 second for expired duration. p, _ := ants.NewPoolWithFunc(10, func(i interface{}) { myFunc(i) wg.Done() }) defer p.Release() // Submit tasks one by one. for i := 0; i < runTimes; i++ { wg.Add(1) _ = p.Invoke(int32(i)) } wg.Wait() fmt.Printf("running goroutines: %d\n", p.Running()) fmt.Printf("finish all tasks, result is %d\n", sum) if sum != 499500 { panic("the final result is wrong!!!") } }
設計思路
整體的設計思路
梳理下思路:
1、先初始化緩存池的大小,然後處理任務事件的時候,一個task分配一個goWorker;
2、在拿goWorker的過程中會存在下面集中情況;
- 本地的緩存中有空閑的goWorker,直接取出;
- 本地緩存沒有就去sync.Pool,拿一個goWorker;
3、如果緩存池滿瞭,非阻塞模式直接返回nil,阻塞模式就循環去拿直到成功拿出一個;
4、同時也會定期清理掉過期的goWorker,通過sync.Cond喚醒其的阻塞等待;
5、對於使用完成的goWorker在使用完成之後重新歸還到pool。
具體的設計細節可參考,作者的文章Goroutine 並發調度模型深度解析之手擼一個高性能 goroutine 池
go-playground/pool
go-playground/pool會在一開始就啟動
先放幾個使用的demo
Per Unit Work
package main import ( "fmt" "time" "gopkg.in/go-playground/pool.v3" ) func main() { p := pool.NewLimited(10) defer p.Close() user := p.Queue(getUser(13)) other := p.Queue(getOtherInfo(13)) user.Wait() if err := user.Error(); err != nil { // handle error } // do stuff with user username := user.Value().(string) fmt.Println(username) other.Wait() if err := other.Error(); err != nil { // handle error } // do stuff with other otherInfo := other.Value().(string) fmt.Println(otherInfo) } func getUser(id int) pool.WorkFunc { return func(wu pool.WorkUnit) (interface{}, error) { // simulate waiting for something, like TCP connection to be established // or connection from pool grabbed time.Sleep(time.Second * 1) if wu.IsCancelled() { // return values not used return nil, nil } // ready for processing... return "Joeybloggs", nil } } func getOtherInfo(id int) pool.WorkFunc { return func(wu pool.WorkUnit) (interface{}, error) { // simulate waiting for something, like TCP connection to be established // or connection from pool grabbed time.Sleep(time.Second * 1) if wu.IsCancelled() { // return values not used return nil, nil } // ready for processing... return "Other Info", nil } }
Batch Work
package main import ( "fmt" "time" "gopkg.in/go-playground/pool.v3" ) func main() { p := pool.NewLimited(10) defer p.Close() batch := p.Batch() // for max speed Queue in another goroutine // but it is not required, just can't start reading results // until all items are Queued. go func() { for i := 0; i < 10; i++ { batch.Queue(sendEmail("email content")) } // DO NOT FORGET THIS OR GOROUTINES WILL DEADLOCK // if calling Cancel() it calles QueueComplete() internally batch.QueueComplete() }() for email := range batch.Results() { if err := email.Error(); err != nil { // handle error // maybe call batch.Cancel() } // use return value fmt.Println(email.Value().(bool)) } } func sendEmail(email string) pool.WorkFunc { return func(wu pool.WorkUnit) (interface{}, error) { // simulate waiting for something, like TCP connection to be established // or connection from pool grabbed time.Sleep(time.Second * 1) if wu.IsCancelled() { // return values not used return nil, nil } // ready for processing... return true, nil // everything ok, send nil, error if not } }
來看下實現
workUnit
workUnit作為channel信息進行傳遞,用來給work傳遞當前需要執行的任務信息。
// WorkUnit contains a single uint of works values type WorkUnit interface { // 阻塞直到當前任務被完成或被取消 Wait() // 執行函數返回的結果 Value() interface{} // Error returns the Work Unit's error Error() error // 取消當前的可執行任務 Cancel() // 判斷當前的可執行單元是否被取消瞭 IsCancelled() bool } var _ WorkUnit = new(workUnit) // workUnit contains a single unit of works values type workUnit struct { // 任務執行的結果 value interface{} // 錯誤信息 err error // 通知任務完成 done chan struct{} // 需要執行的任務函數 fn WorkFunc // 任務是會否被取消 cancelled atomic.Value // 是否正在取消任務 cancelling atomic.Value // 任務是否正在執行 writing atomic.Value }
limitedPool
var _ Pool = new(limitedPool) // limitedPool contains all information for a limited pool instance. type limitedPool struct { // 並發量 workers uint // work的channel work chan *workUnit // 通知結束的channel cancel chan struct{} // 是否關閉的標識 closed bool // 讀寫鎖 m sync.RWMutex } // 初始化一個pool func NewLimited(workers uint) Pool { if workers == 0 { panic("invalid workers '0'") } // 初始化pool的work數量 p := &limitedPool{ workers: workers, } // 初始化pool的操作 p.initialize() return p } func (p *limitedPool) initialize() { // channel的長度為work數量的兩倍 p.work = make(chan *workUnit, p.workers*2) p.cancel = make(chan struct{}) p.closed = false // fire up workers here for i := 0; i < int(p.workers); i++ { p.newWorker(p.work, p.cancel) } } // 將工作傳遞並取消頻道到newWorker()以避免任何潛在的競爭狀況 // 在p.work讀寫之間 func (p *limitedPool) newWorker(work chan *workUnit, cancel chan struct{}) { go func(p *limitedPool) { var wu *workUnit defer func(p *limitedPool) { // 捕獲異常,結束掉異常的工作單元,並將其再次作為新的任務啟動 if err := recover(); err != nil { trace := make([]byte, 1<<16) n := runtime.Stack(trace, true) s := fmt.Sprintf(errRecovery, err, string(trace[:int(math.Min(float64(n), float64(7000)))])) iwu := wu iwu.err = &ErrRecovery{s: s} close(iwu.done) // 重新啟動 p.newWorker(p.work, p.cancel) } }(p) var value interface{} var err error // 監聽channel,讀取內容 for { select { // channel中取出數據 case wu = <-work: // 防止channel 被關閉後讀取到零值 if wu == nil { continue } // 單個和批量的cancellation這個都支持 if wu.cancelled.Load() == nil { // 執行我們的業務函數 value, err = wu.fn(wu) wu.writing.Store(struct{}{}) // 如果WorkFunc取消瞭此工作單元,則需要再次檢查 // 防止產生競爭條件 if wu.cancelled.Load() == nil && wu.cancelling.Load() == nil { wu.value, wu.err = value, err // 執行完成,關閉當前channel close(wu.done) } } // 如果取消瞭,就退出 case <-cancel: return } } }(p) } // 放置一個執行的task到channel,並返回channel func (p *limitedPool) Queue(fn WorkFunc) WorkUnit { // 初始化一個workUnit類型的channel w := &workUnit{ done: make(chan struct{}), // 具體的執行函數 fn: fn, } go func() { p.m.RLock() // 如果pool關閉的時候通知channel關閉 if p.closed { w.err = &ErrPoolClosed{s: errClosed} if w.cancelled.Load() == nil { close(w.done) } p.m.RUnlock() return } // 將channel傳遞給pool的work p.work <- w p.m.RUnlock() }() return w }
梳理下流程:
1、首先初始化pool的大小;
2、然後根據pool的大小啟動對應數量的worker,阻塞等待channel被塞入可執行函數;
3、然後可執行函數會被放入workUnit,然後通過channel傳遞給阻塞的worker。
同樣這裡也提供瞭批量執行的方法
batch
// batch contains all information for a batch run of WorkUnits type batch struct { pool Pool m sync.Mutex // WorkUnit的切片 units []WorkUnit // 結果集,執行完後的workUnit會更新其value,error,可以從結果集channel中讀取 results chan WorkUnit // 通知batch是否完成 done chan struct{} closed bool wg *sync.WaitGroup } // 初始化Batch func newBatch(p Pool) Batch { return &batch{ pool: p, units: make([]WorkUnit, 0, 4), results: make(chan WorkUnit), done: make(chan struct{}), wg: new(sync.WaitGroup), } } // 將WorkFunc放入到WorkUnit中並保留取消和輸出結果的參考。 func (b *batch) Queue(fn WorkFunc) { b.m.Lock() if b.closed { b.m.Unlock() return } // 返回一個WorkUnit wu := b.pool.Queue(fn) // 放到WorkUnit的切片中 b.units = append(b.units, wu) // 通過waitgroup進行goroutine的執行控制 b.wg.Add(1) b.m.Unlock() // 執行任務 go func(b *batch, wu WorkUnit) { wu.Wait() // 將執行的結果寫入到results中 b.results <- wu b.wg.Done() }(b, wu) } // QueueComplete讓批處理知道不再有排隊的工作單元 // 以便在所有工作完成後可以關閉結果渠道。 // 警告:如果未調用此函數,則結果通道將永遠不會耗盡, // 但會永遠阻止以獲取更多結果。 func (b *batch) QueueComplete() { b.m.Lock() b.closed = true close(b.done) b.m.Unlock() } // 取消批次的任務 func (b *batch) Cancel() { b.QueueComplete() b.m.Lock() // 一個個取消units,倒敘的取消 for i := len(b.units) - 1; i >= 0; i-- { b.units[i].Cancel() } b.m.Unlock() } // 輸出執行完成的結果集 func (b *batch) Results() <-chan WorkUnit { // 啟動一個協程監聽完成的通知 // waitgroup阻塞直到所有的worker都完成退出 // 最後關閉channel go func(b *batch) { <-b.done b.m.Lock() // 阻塞直到上面waitgroup中的goroutine一個個執行完成退出 b.wg.Wait() b.m.Unlock() // 關閉channel close(b.results) }(b) return b.results }
梳理下流程:
1、首先初始化Batch的大小;
2、然後Queue將一個個WorkFunc放入到WorkUnit中,執行,並將結果寫入到results中,全部執行完成,調用QueueComplete,發送執行完成的通知;
3、Results會打印出所有的結果集,同時監聽所有的worker執行完成,關閉channel,退出。
總結
控制goroutine數量一般使用兩種方式:
- 簡單的場景使用sync+channel就可以瞭;
- 復雜的場景可以使用goroutine pool
參考
【Golang 開發需要協程池嗎?】https://www.zhihu.com/question/302981392
【來,控制一下 Goroutine 的並發數量】https://segmentfault.com/a/1190000017956396
【golang協程池設計】https://segmentfault.com/a/1190000018193161
【fasthttp中的協程池實現】https://segmentfault.com/a/1190000009133154
【panjf2000/ants】https://github.com/panjf2000/ants
【golang協程池設計】https://segmentfault.com/a/1190000018193161
到此這篇關於go中控制goroutine數量的方法的文章就介紹到這瞭,更多相關go控制goroutine數量內容請搜索WalkonNet以前的文章或繼續瀏覽下面的相關文章希望大傢以後多多支持WalkonNet!
推薦閱讀:
- Golang 內存模型The Go Memory Model
- Go語言如何輕松編寫高效可靠的並發程序
- go等待一組協程結束的操作方式
- 一文帶你深入理解Go語言中的sync.Cond
- GO實現協程池管理的方法