Elasticsearch 作为一个搜索引擎,我们对它的基本要求就是存储海量数据并且可以在非常短的时间内查询到我们想要的信息。所以第一步我们需要保证的就是 Elasticsearch 的高可用性,什么是高可用性呢?它通常是指,通过设计减少系统不能提供服务的时间。假设系统一直能够提供服务,我们说系统的可用性是 100%。如果系统在某个时刻宕掉了,比如某个网站在某个时间挂掉了,那么就可以它临时是不可用的。所以,为了保证 Elasticsearch 的高可用性,我们就应该尽量减少 Elasticsearch 的不可用时间
针对一个索引,Elasticsearch 中其实有专门的衡量索引健康状况的标志,分为三个等级:
green,绿色。这代表所有的主分片和副本分片都已分配。你的集群是 100% 可用的。
yellow,黄色。所有的主分片已经分片了,但至少还有一个副本是缺失的。不会有数据丢失,所以搜索结果依然是完整的。不过,你的高可用性在某种程度上被弱化。如果更多的分片消失,你就会丢数据了。所以可把 yellow 想象成一个需要及时调查的警告。
red,红色。至少一个主分片以及它的全部副本都在缺失中。这意味着你在缺少数据:搜索只能返回部分数据,而分配到这个分片上的写入请求会返回一个异常。
如果你只有一台主机的话,其实索引的健康状况也是 yellow,因为一台主机,集群没有其他的主机可以防止副本,所以说,这就是一个不健康的状态,因此集群也是十分有必要的。
另外,既然是群集,那么存储空间肯定也是联合起来的,假如一台主机的存储空间是固定的,那么集群它相对于单个主机也有更多的存储空间,可存储的数据量也更大。
详细了解 Elasticsearch 集群
接下来我们再来了解下集群的结构是怎样的。
首先我们应该清楚多台主机构成了一个集群,每台主机称作一个节点(Node)。
如图就是一个三节点的集群:
每个 Node 都有三个分片,其中 P 开头的代表 Primary 分片,即主分片,R 开头的代表 Replica 分片,即副本分片。所以图中主分片 1、2,副本分片 0 储存在 1 号节点,副本分片 0、1、2 储存在 2 号节点,主分片 0 和副本分片 1、2 储存在 3 号节点,一共是 3 个主分片和 6 个副本分片。同时我们还注意到 1 号节点还有个 MASTER 的标识,这代表它是一个主节点,它相比其他的节点更加特殊,它有权限控制整个集群,比如资源的分配、节点的修改等等。
这里就引出了一个概念就是节点的类型,我们可以将节点分为这么四个类型:
主节点:即 Master 节点。主节点的主要职责是和集群操作相关的内容,如创建或删除索引,跟踪哪些节点是群集的一部分,并决定哪些分片分配给相关的节点。稳定的主节点对集群的健康是非常重要的。默认情况下任何一个集群中的节点都有可能被选为主节点。索引数据和搜索查询等操作会占用大量的cpu,内存,io资源,为了确保一个集群的稳定,分离主节点和数据节点是一个比较好的选择。虽然主节点也可以协调节点,路由搜索和从客户端新增数据到数据节点,但最好不要使用这些专用的主节点。一个重要的原则是,尽可能做尽量少的工作。
数据节点:即 Data 节点。数据节点主要是存储索引数据的节点,主要对文档进行增删改查操作,聚合操作等。数据节点对 CPU、内存、IO 要求较高,在优化的时候需要监控数据节点的状态,当资源不够的时候,需要在集群中添加新的节点。
负载均衡节点:也称作 Client 节点,也称作客户端节点。当一个节点既不配置为主节点,也不配置为数据节点时,该节点只能处理路由请求,处理搜索,分发索引操作等,从本质上来说该客户节点表现为智能负载平衡器。独立的客户端节点在一个比较大的集群中是非常有用的,他协调主节点和数据节点,客户端节点加入集群可以得到集群的状态,根据集群的状态可以直接路由请求。
预处理节点:也称作 Ingest 节点,在索引数据之前可以先对数据做预处理操作,所有节点其实默认都是支持 Ingest 操作的,也可以专门将某个节点配置为 Ingest 节点。
以上就是节点几种类型,一个节点其实可以对应不同的类型,如一个节点可以同时成为主节点和数据节点和预处理节点,但如果一个节点既不是主节点也不是数据节点,那么它就是负载均衡节点。具体的类型可以通过具体的配置文件来设置。
搭建集群
环境说明
修改内核参数
登录到每一台服务器,修改内核参数
vi /etc/sysctl.conf
修改以下参数,如果没有,则添加
vm.max_map_count=262144
刷新参数
sysctl -p
启动elasticsearch
node-1执行
docker run -d \
--name=elasticsearch \
--restart=always \
-p 9200:9200 \
-p 9300:9300 \
-e node.name=node-1 \
-e network.publish_host=192.168.31.149 \
-e network.host=0.0.0.0 \
-e discovery.seed_hosts=192.168.31.149,192.168.31.181,192.168.31.233 \
-e cluster.initial_master_nodes=192.168.31.149,192.168.31.181,192.168.31.233 \
-e cluster.name=es-cluster \
-e "ES_JAVA_OPTS=-Xms512m -Xmx512m" \
elasticsearch:7.5.1
环境变量说明:
node.name 节点名称,集群模式下每个节点名称唯一
network.publish_host 用于集群内各机器间通信,对外使用,其他机器访问本机器的es服务,一般为本机宿主机IP
network.host 设置绑定的ip地址,可以是ipv4或ipv6的,默认为0.0.0.0,即本机
discovery.seed_hosts es7.0之后新增的写法,写入候选主节点的设备地址,在开启服务后,如果master挂了,哪些可以被投票选为主节点
cluster.initial_master_nodes es7.0之后新增的配置,初始化一个新的集群时需要此配置来选举master
cluster.name 集群名称,相同名称为一个集群, 三个es节点须一致
ES_JAVA_OPTS 设置内存,如内存不足,可以尝试调低点
node-2执行
docker run -d \
--name=elasticsearch \
--restart=always \
-p 9200:9200 \
-p 9300:9300 \
-e node.name=node-2 \
-e network.publish_host=192.168.31.181 \
-e network.host=0.0.0.0 \
-e discovery.seed_hosts=192.168.31.149,192.168.31.181,192.168.31.233 \
-e cluster.initial_master_nodes=192.168.31.149,192.168.31.181,192.168.31.233 \
-e cluster.name=es-cluster \
-e "ES_JAVA_OPTS=-Xms512m -Xmx512m" \
elasticsearch:7.5.1
注意:修改node.name和network.publish_host参数即可
node-3执行
docker run -d \
--name=elasticsearch \
--restart=always \
-p 9200:9200 \
-p 9300:9300 \
-e node.name=node-3 \
-e network.publish_host=192.168.31.233 \
-e network.host=0.0.0.0 \
-e discovery.seed_hosts=192.168.31.149,192.168.31.181,192.168.31.233 \
-e cluster.initial_master_nodes=192.168.31.149,192.168.31.181,192.168.31.233 \
-e cluster.name=es-cluster \
-e "ES_JAVA_OPTS=-Xms512m -Xmx512m" \
elasticsearch:7.5.1
修改配置文件
默认的elasticsearch不允许跨域,因此elasticsearch head插件无法连接。需要修改配置文件才行!
拷贝数据文件
登录node-1,node-2,node-3分别执行:
mkdir -p /data/elk7
docker cp elasticsearch:/usr/share/elasticsearch /data/elk7/
编辑配置文件
vi /data/elk7/elasticsearch/config/elasticsearch.yml
内容如下:
cluster.name: "docker-cluster"
network.host: 0.0.0.0
http.cors.enabled: true
http.cors.allow-origin: "*"
重启eelasticsearch
docker restart elasticsearch