一、K8s 部署 elasticsearch-7.14.0 集群
安装规划
组件 | replicas | 类型 |
---|---|---|
es | 3 | StatefulSet |
kibana | 1 | Deployment |
使用 k8s
版本为:v1.18.0
。
本次使用 OpenEBS
来作为存储引擎,OpenEBS
是一个开源的、可扩展的存储平台,它提供了一种简单的方式来创建和管理持久化存储卷。它支持各种存储后端,包括但不限于 ZFS
、Btrfs
、XFS
等。同时,OpenEBS
具有高度的可扩展性和可配置性,可以满足不同的存储需求。
安装 OpenEBS
:
kubectl apply -f https://openebs.github.io/charts/openebs-operator.yaml
验证OpenEBS
是否正确安装:
kubectl get pods -n openebs
所有的 OpenEBS pods
都处于Running
状态表示正常。
1. 创建命名空间
vi es-ns.yml
apiVersion: v1
kind: Namespace
metadata:
name: es
labels:
name: es
kubectl apply -f es-ns.yml
查看命名空间:
kubectl get ns
2. 创建存储卷
使用 OpenEBS
本地存储模式:
vi es-local-storage.yml
apiVersion: storage.k8s.io/v1
kind: StorageClass
metadata:
name: es-local-storage
annotations:
openebs.io/cas-type: local
cas.openebs.io/config: |
- name: StorageType
value: hostpath
- name: BasePath
value: /data/openebs/es
provisioner: openebs.io/local
reclaimPolicy: Delete
volumeBindingMode: WaitForFirstConsumer
kubectl apply -f es-local-storage.yml
查看存储卷:
kubectl get sc
3. 创建 ConfigMap 配置
主要声明 elasticsearch.yml
配置文件:
vi es-config.yml
apiVersion: v1
kind: ConfigMap
metadata:
name: es-config
namespace: es
labels:
app: es-config
data:
elasticsearch.yml: |+
#集群名称
cluster.name: cluster-es
#节点名称,每个节点的名称不能重复,这里不指定,使用当前主机的名称
# node.name:
#ip 地址,每个节点的地址不能重复
network.host: 0.0.0.0
#是不是有资格主节点
node.master: true
node.data: true
http.port: 9200
# head 插件需要这打开这两个配置,解决跨域问题
http.cors.allow-origin: "*"
http.cors.enabled: true
http.max_content_length: 200mb
#es7.x 之后新增的配置,初始化一个新的集群时需要此配置来选举 master
cluster.initial_master_nodes: ["es-0"]
#es7.x 之后新增的配置,节点发现
discovery.seed_hosts: ["es-0.es-svc.es.svc.cluster.local:9300","es-1.es-svc.es.svc.cluster.local:9300","es-2.es-svc.es.svc.cluster.local:9300"]
gateway.recover_after_nodes: 2
network.tcp.keep_alive: true
network.tcp.no_delay: true
transport.tcp.compress: true
#集群内同时启动的数据任务个数,默认是 2 个
cluster.routing.allocation.cluster_concurrent_rebalance: 16
#添加或删除节点及负载均衡时并发恢复的线程个数,默认 4 个
cluster.routing.allocation.node_concurrent_recoveries: 16
#初始化数据恢复时,并发恢复线程的个数,默认 4 个
cluster.routing.allocation.node_initial_primaries_recoveries: 16
注意这里的集群间的访问使用域名:es-X.es-svc.es.svc.cluster.local
,格式为:
(podname).(headless server name).(namespace).svc.cluster.local
所以注意下面创建 Headless Service
服务名字需要为 es-svc
,StatefulSet
中Pod
的名字需要为 es
。
kubectl apply -f es-config.yml
查看 ConfigMap:
kubectl get cm -n es
4. 创建 Service 服务
这里需要创建两个,一个用于集群建访问的 Headless Service
,一个用于外部访问的 NodePort Service
:
vi es-svc.yml
# headless service
apiVersion: v1
kind: Service
metadata:
name: es-svc
namespace: es
labels:
app: es-svc
spec:
clusterIP: None
ports:
- name: rest-port
port: 9200
- name: cluster-port
port: 9300
selector:
app: es
---
# NodePort service
apiVersion: v1
kind: Service
metadata:
name: es-svc-nodeport
namespace: es
labels:
app: es-svc
spec:
clusterIP:
ports:
- name: rest-port
port: 9200
nodePort: 31920
targetPort: 9200
selector:
app: es
type: NodePort
target-port:
externalTrafficPolicy: Cluster # Local 只有所在node可以访问,Cluster 公平转发
kubectl apply -f es-svc.yml
查看创建的 Service
:
kubectl get svc -n es
5. 创建 StatefulSet 应用
vi es-sfe.yml
apiVersion: apps/v1
kind: StatefulSet
metadata:
name: es
namespace: es
spec:
serviceName: "es-svc" #填写无头服务的名称
replicas: 3
selector:
matchLabels:
app: es
template:
metadata:
labels:
app: es
spec:
containers:
- name: es
image: elasticsearch:7.14.0
ports:
- containerPort: 9200
name: es-rest-port
- containerPort: 9200
name: es-cluster-port
env:
- name: ES_JAVA_OPTS
value: "-Xms1g -Xmx1g"
volumeMounts:
- name: es-config #挂载配置
mountPath: /usr/share/elasticsearch/config/elasticsearch.yml
subPath: elasticsearch.yml
- name: es-data #挂载数据
mountPath: /usr/share/elasticsearch/data
volumes:
- name: es-config
configMap:
name: es-config
volumeClaimTemplates:
- metadata:
name: es-data
spec:
accessModes: ["ReadWriteOnce"]
storageClassName: es-local-storage
resources:
requests:
storage: 5Gi
这里使用 volumeClaimTemplates
动态创建 pv
和 pvc
。
kubectl apply -f es-sfe.yml
查看 statefulset :
kubectl get statefulset -n es
查看 pod:
kubectl get pods -n es
使用 http
请求验证 es
服务是否正常:
http://ip:31920/_cluster/health?pretty
从结果上可以看出 ES
启动正常。
二、K8s 部署 kibana 客户端
1. 创建 Service 服务
vi kibana-svc.yml
apiVersion: v1
kind: Service
metadata:
name: kibana-svc-nodeport
namespace: es
labels:
app: kibana-svc
spec:
clusterIP:
ports:
- name: kibana
port: 5601
nodePort: 31561
targetPort: 5601
selector:
app: kibana
type: NodePort
target-port:
externalTrafficPolicy: Cluster # Local 只有所在node可以访问,Cluster 公平转发
kubectl apply -f kibana-svc.yml
2. 创建 Deployment 应用
vi kibana-dm.yml
apiVersion: apps/v1
kind: Deployment
metadata:
name: kibana
namespace: es
spec:
replicas: 1
selector:
matchLabels:
app: kibana
template:
metadata:
labels:
app: kibana
spec:
containers:
- name: kibana
image: kibana:7.14.0
ports:
- containerPort: 5601
name: ui-port
env:
- name: ELASTICSEARCH_HOSTS
value: http://es-0.es-svc.es.svc.cluster.local:9200
kubectl apply -f kibana-dm.yml
查看 pod :
kubectl get pods -n es
下面在浏览器访问 kibana 页面:
http://ip:31561/
三、测试
使用 kibana
创建一个 test_index
索引:
PUT /test_index
查看 test_index
索引信息:
GET /test_index
向 test_index
索引中添加数据:
PUT /test_index/user/1
{
"name": "张三",
"age": 15,
"sex": "男"
}
查询添加的数据:
GET /test_index/user/1