openstack中的rpc遠程調用的方法
眾所周知,OpenStack的通信方式有兩種,一種是基於HTTP協議的RESTFul API方式,另一種則是RPC調用。兩種通信方式的應用場景有所不同,在OpenStack中,前者主要用於各組件之間的通信(如nova與glance的通信),而後者則用於同一組件中各個不同模塊之間的通信(如nova組件中nova-compute與nova-scheduler的通信)。
nova中rpc調用非常多,用pycharm點點點跟函數的時候遇到rpc就會點不下去瞭,不解決直接就看不下去瞭那種多法
什麼是 RPC
看不明白這個圖對於看nova代碼,其實不是很重要,直接忽略以後再看也可以,當務之急是解決一下看openstack代碼遇到rpc就跟丟瞭的問題
RPC、消息隊列、RESTful
這三個其實不是一個層面的東西,本質上不應該放在一起比,但是因為都用來通信,比較容易混淆就還是解釋一下
- RESTful:主要用於各組件之間的通信(比如nova與glance的通信),或者說用於組件對外提供調用接口
- RPC:則用於同一組件中各個不同模塊之間的通信(比如nova組件中nova-compute與-nova-scheduler的通信)
- 消息隊列:用於解耦組件,也是組件間通信用的,而且會有一個隊列用來暫存消息
在nova中的典型rpc
nova/nova/nova/conductor/tasks/live_migrate.py
class LiveMigrationTask(base.TaskBase): def __init__(self, context, instance, destination, block_migration, disk_over_commit, migration, compute_rpcapi, servicegroup_api, scheduler_client): super(LiveMigrationTask, self).__init__(context, instance) ... def _execute(self): self._check_instance_is_active() self._check_host_is_up(self.source) if not self.destination: self.destination = self._find_destination() self.migration.dest_compute = self.destination self.migration.save() else: self._check_requested_destination() # TODO(johngarbutt) need to move complexity out of compute manager # TODO(johngarbutt) disk_over_commit? #調用 ComputeAPI 類中的 live_migration() RPC接口 return self.compute_rpcapi.live_migration(self.context, host=self.source, instance=self.instance, dest=self.destination, block_migration=self.block_migration, migration=self.migration, migrate_data=self.migrate_data)
conductor
以compute_rpcapi.live_migration
的方式遠程調用compute
的live_migration
,過程就是, conductor
以RPC
的方式發出一個請求到Queue
再被nova-compute
接收
nova/nova/nova/compute/rpcapi.py
class ComputeAPI(object): # 這是一個RPC遠程調用的方法 def live_migration(self, ctxt, instance, dest, block_migration, host, migration, migrate_data=None): args = {'migration': migration} version = '4.2' if not self.client.can_send_version(version): version = '4.0' # 獲取目標 compute 主機(DEST HOST)的RPC client,即被調用的服務進程的HostIP cctxt = self.client.prepare(server=host, version=version) # 通過目標主機對象的 RPC cliient 來調用遠程過程方法 cast() ,以此來實現遠程調用 cctxt.cast(ctxt, 'live_migration', instance=instance, dest=dest, block_migration=block_migration, migrate_data=migrate_data, **args) # cast()異步遠程調用,不會阻塞別的進程,適合於需要長時間進行的執行過程 # cast()的第二個參數是RPC client調用的函數名,case()後面的參數會繼續作為參數傳入該調用函數 # cast()函數內的live_migration()函數是 manager.live_migration() 視具體實現遷移功能的函數,在manager.py內實現。
調用的時候是從nova/nova/conductor/tasks/live_migrate.py
到nova/nova/compute/rpcapi.py
,但是實際上是compute
服務首先得在rpcapi.py
提供出接口函數,然後使用者通過
– 1. import導入的方式去使用rpc調用
– 2. 類實例化傳參的方式去引入
熱遷移這裡用的就是類實例化傳參
tip: call()表示同步調用 和 cast()表示異步調用
根據在rpc.py
或者rpcapi.py
中的cast()
的第二個參數,去該服務下的manager.py
中找和這個參數同名的函數(這個就是rpc
最終想要調用的函數),我們這裡是compute_rpcapi
,所以要去找compute
下的mannager.py
為什麼要去找mannager,是因為nova.compute.manager 會一直監聽 Queue ,當Queue中存在相關的 RPC 請求時,就去完成這個請求
nova/nova/nova/compute/manager.py
@wrap_exception() @wrap_instance_event(prefix='compute') @wrap_instance_fault def live_migration(self, context, dest, instance, block_migration, migration, migrate_data): """執行實時遷移。 :param context: security context :param dest: destination host :param instance: a nova.objects.instance.Instance object :param block_migration: if true, prepare for block migration :param migration: an nova.objects.Migration object :param migrate_data: implementation specific params """ self._set_migration_status(migration, 'queued') def dispatch_live_migration(*args, **kwargs): with self._live_migration_semaphore: # 調用_do_live_migration執行遷移 self._do_live_migration(*args, **kwargs) # NOTE(danms): We spawn here to return the RPC worker thread back to # the pool. Since what follows could take a really long time, we don't # want to tie up RPC workers. utils.spawn_n(dispatch_live_migration, context, dest, instance, block_migration, migration, migrate_data)
當然實際幹活的還不是manager.py
的def live_migration
,而是live_migration
函數去調用_do_live_migration
,但是之後的就是熱遷移的流程,在之前的文檔裡寫瞭就不展開瞭,反正rpc的體現就隻到這裡
冷遷移中還有很多例子,不一一列舉瞭,有興趣可以去看冷遷移源碼分析這篇博客
看完例子會發現,既然原生的代碼既然已經寫瞭rpc調用,那麼對應的服務肯定已經提供瞭rpc接口,所以實際上看到compute_rpcapi
,可以不去compute
下的rpc
文件中找瞭,直接去compute
下的manager
看具體實現(不止compute
,其他服務也一樣),當然,如果需要雪確定是同步還是異步調用那還是不要偷這一步的懶。
總結
完整的rpc應該具有
- 組件A提供出rpc調用接口(
rpc.py
或者rpcapi.py
文件) - 組件B引入組件A的rpc (
import
或者類實例化傳參
) - 組件B調用組件A的rpc(以
rpc
方式發送一個請求到消息隊列) - 組件A處理請求(組件A監聽到發給自己的
rpc
請求會通過manager
處理請求)
如果隻是看代碼,那麼去對應的manager
下面找實現就可以瞭,但是如果自己要加就還是的明白從哪裡提供的、怎樣導入,何種途徑接收,這樣想在代碼裡添加自己的rpc調用才心裡有數
參考文獻:
https://zhuanlan.zhihu.com/p/36427583
https://blog.csdn.net/Jmilk/article/details/52655645
https://www.cnblogs.com/wongbingming/p/11086773.html
https://blog.csdn.net/qq_33909098/article/details/118578133
到此這篇關於openstack中的rpc遠程調用的文章就介紹到這瞭,更多相關openstack rpc調用內容請搜索WalkonNet以前的文章或繼續瀏覽下面的相關文章希望大傢以後多多支持WalkonNet!
推薦閱讀:
- 如何使用Linux的rsync
- spring框架集成flyway項目的詳細過程
- php artisan命令信息列舉
- Android開發Jetpack組件Room用例講解
- python框架flask知識總結