使用docker compose搭建consul集群環境的例子
consul基本概念
server模式和client模式
server模式和client模式是consul節點的類型;client不是指的用戶客戶端。
- server模式提供數據持久化功能。
- client模式不提供持久化功能,並且實際上他也不工作,隻是把用戶客戶端的請求轉發到server模式的節點。所以可以把client模式的節點想象成LB(load balance),隻負責請求轉發。
- 通常server模式的節點需要配置成多個例如3個,5個。而client模式節點個數沒有限制。
server模式啟動的命令行參數
- -server:表示當前使用的server模式;如果沒有指定,則表示是client模式。
- -node:指定當前節點在集群中的名稱。
- -config-dir:指定配置文件路徑,定義服務的;路徑下面的所有.json結尾的文件都被訪問;缺省值為:/consul/config。
- -data-dir: consul存儲數據的目錄;缺省值為:/consul/data。
- -datacenter:數據中心名稱,缺省值為dc1。
- -ui:使用consul自帶的web UI界面 。
- -join:加入到已有的集群中。
- -enable-script-checks: 檢查服務是否處於活動狀態,類似開啟心跳。
- -bind: 綁定服務器的ip地址。
- -client: 客戶端可訪問ip,缺省值為:“127.0.0.1”,即僅允許環回連接。
- -bootstrap-expect:在一個datacenter中期望的server節點數目,consul啟動時會一直等待直到達到這個數目的server才會引導整個集群。這個參數的值在同一個datacenter的所有server節點上必須保持一致。
這裡說明一下,另外一個參數-bootstrap,用來控制一個server是否運行在bootstrap模式:當一個server處於bootstrap模式時,它可以選舉自己為leader;註意在一個datacenter中隻能有一個server處於bootstrap模式。所以這個參數一般隻能用在隻有一個server的開發環境中,在有多個server的cluster產品環境中,不能使用這個參數,否則如果多個server都標記自己為leader那麼會導致數據不一致。另外該標記不能和-bootstrap-expect同時指定。
使用docker-compose來搭建如下的consul集群環境
- 集群包含三個server:node1, node2, node3
- 集群包含一個client:node4;並且在client上提供web UI訪問服務。.
編輯docker-compose.yml文件
version: '2' networks: byfn: services: consul1: image: consul container_name: node1 command: agent -server -bootstrap-expect=3 -node=node1 -bind=0.0.0.0 -client=0.0.0.0 -datacenter=dc1 networks: - byfn consul2: image: consul container_name: node2 command: agent -server -retry-join=node1 -node=node2 -bind=0.0.0.0 -client=0.0.0.0 -datacenter=dc1 depends_on: - consul1 networks: - byfn consul3: image: consul container_name: node3 command: agent -server -retry-join=node1 -node=node3 -bind=0.0.0.0 -client=0.0.0.0 -datacenter=dc1 depends_on: - consul1 networks: - byfn consul4: image: consul container_name: node4 command: agent -retry-join=node1 -node=ndoe4 -bind=0.0.0.0 -client=0.0.0.0 -datacenter=dc1 -ui ports: - 8500:8500 depends_on: - consul2 - consul3 networks: - byfn
啟動服務
$ docker-compose up $ docker exec -t node1 consul members Node Address Status Type Build Protocol DC Segment node1 172.21.0.2:8301 alive server 1.4.0 2 dc1 <all> node2 172.21.0.4:8301 alive server 1.4.0 2 dc1 <all> node3 172.21.0.3:8301 alive server 1.4.0 2 dc1 <all> ndoe4 172.21.0.5:8301 alive client 1.4.0 2 dc1 <default>
訪問http://127.0.0.1:8500
註冊配置中心例子
spring: application: name: cloud-payment-service ####consul註冊中心地址 cloud: consul: enabled: true host: 127.0.0.1 port: 8500 discovery: hostname: 127.0.0.1 prefer-ip-address: true service-name: ${spring.application.name} #healthCheckInterval: 15s instance-id: ${spring.application.name}-8002 enabled: true
KV訪問的例子
$ docker exec -t node4 consul kv put foo "Hello foo" $ docker exec -t node4 consul kv put foo/foo1 "Hello foo1" $ docker exec -t node4 consul kv put foo/foo2 "Hello foo2" $ docker exec -t node4 consul kv put foo/foo21 "Hello foo21" $ docker exec -t node4 consul kv get foo Hello foo $ docker exec -t node4 consul kv get -detailed foo/foo1 CreateIndex 124 Flags 0 Key foo/foo1 LockIndex 0 ModifyIndex 124 Session - Value Hello foo1 $ docker exec -t node4 consul kv get -keys -separator="" foo foo foo/foo1 foo/foo2 foo/foo2/foo21 $ docker exec -t node4 consul kv get not-a-real-key Error! No key exists at: not-a-real-key
以上就是使用docker compose搭建consul集群環境的詳細內容,更多關於docker compose集群環境的資料請關註WalkonNet其它相關文章!
推薦閱讀:
- windows下搭建Consul集群
- 一文詳解Golang中consul的基本使用
- Docker容器Consul部署概述
- 快速使用docker-compose部署clickhouse的教程
- docker如何部署etcd集群