elasticsearch配置文件解析

摘要:
默认值为弹性搜索#如果在同一网络中运行多个集群,请确保集群名称是唯一的##集群。name:my-application2.Node#节点名称将在启动时自动生成,因此不需要手动配置。


1.Cluster(集群)
# 集群名称标识了你的集群,自动探查会用到它。默认值为elasticsearch
# 如果你在同一个网络中运行多个集群,那就要确保你的集群名称是独一无二的。
#
# cluster.name: my-application

2.Node(节点)
# 节点名称会在启动的时候自动生成,所以你可以不用手动配置。你也可以给节点指定一个
# 特定的名称
#
# node.name: "Franz Kafka"

一个节点不成为主节点,只想用来存储数据。这个节点会成为你的集群的“负载器”
一个节点成为主节点,并且不用来存储任何数据,并且拥有空闲资源。 这个节点会成为你集群中的“协调器”
这个节点变成主节点也不想让其变成数据节点,只想让其成为一个“搜索负载均衡器”
# Allow this node to be eligible as a master node (enabled by default):
# 允许这个节点被选举为一个主节点(默认为允许)
# node.master: true

# Allow this node to store data (enabled by default):
# 允许这个节点存储数据(默认为允许)
# node.data: true

# 默认的,多个节点允许从单个系统启动。若想禁止这个特性,按照下面所示配置:
# node.max_local_storage_nodes: 1

3.Index(索引)
# 设置一个索引的分片数量(默认为5)
# index.number_of_shards: 5

# 设置一个索引的副本数量(默认为1)
# index.number_of_replicas: 1

4.Paths(路径)
# 包含配置(这个文件和logging.yml)的目录的路径
# path.conf: /path/to/conf

# 存储这个节点的索引数据的目录的路径(可以随意的包含不止一个位置,优先选择大的剩余空间的位置)
# path.data: /path/to/data
# path.data: /path/to/data1,/path/to/data2

#临时文件的路径
# path.work: /path/to/work

# 日志文件的路径
# path.logs: /path/to/logs

# 插件安装路径
# path.plugins: /path/to/plugins

5.plugin(插件)
#如果当前节点没有安装下面列出的插件,结点不会启动
# plugin.mandatory: mapper-attachments,lang-groovy

6.Memory(内存)
# 设置这个属性为true来锁定内存
# bootstrap.mlockall: true

7.Network(网络)
# 默认的ElasticSearch把自己和0.0.0.0地址绑定,HTTP传输的监听端口在[9200-9300],节点之间
# 通信的端口在[9300-9400]。(范围的意思是说如果一个端口已经被占用,它将会自动尝试下一个端口)
# 设置一个特定的绑定地址(IPv4 or IPv6):
# network.bind_host: 192.168.0.1

# 设置其他节点用来与这个节点通信的地址。如果没有设定,会自动获取。
# network.publish_host: 192.168.0.1

# Set both 'bind_host' and 'publish_host':
# 'bind_host'和'publish_host'都设置
# network.host: 192.168.0.1

# 为节点之间的通信设置一个自定义端口(默认为9300)
# transport.tcp.port: 9300

# 为所有的节点间的通信启用压缩(默认为禁用)
# transport.tcp.compress: true

# 设置一个监听HTTP传输的自定义端口
# http.port: 9200

# 设置一个自定义的允许的内容长度
# http.max_content_length: 100mb

# 完全禁用HTTP
# http.enabled: false

8.Gateway(网关)
# 默认的gateway类型是 "local" gateway(推荐)
# gateway.type: local

# 一个集群中的N个节点启动后,才允许进行恢复处理
# gateway.recover_after_nodes: 1

# 设置初始化恢复过程的超时时间,超时时间从上一个配置中配置的N个节点启动后算起
# gateway.recover_after_time: 5m

# 设置这个集群中期望有多少个节点。一旦这N个节点启动(并且recover_after_nodes也符合),
# 立即开始恢复过程(不等待recover_after_time超时)
# gateway.expected_nodes: 2

参考文档:http://www.linuxidc.com/Linux/2015-02/114244.htm

免责声明:文章转载自《elasticsearch配置文件解析》仅用于学习参考。如对内容有疑问,请及时联系本站处理。

上篇JAVA android 关于全局监听器Kibana 管理界面使用教程下篇

宿迁高防,2C2G15M,22元/月;香港BGP,2C5G5M,25元/月 雨云优惠码:MjYwNzM=

相关文章

ELK 二进制安装并收集nginx日志

对于日志来说,最常见的需求就是收集、存储、查询、展示,开源社区正好有相对应的开源项目:logstash(收集)、elasticsearch(存储+搜索)、kibana(展示),我们将这三个组合起来的技术称之为ELKStack,所以说ELKStack指的是Elasticsearch(java)、Logstash(jruby)、Kibana技术栈的结合, EL...

elasticsearch内存优化设置

1、禁用交换分区 最简单的选项是完全禁用交换,通常elasticsearch是在框上运行的唯一服务,内存由ES_HEAP_SIZE环境变量控制,设有必要启用交换分区 linux:swapoff -a 关闭交换分区 永久禁用:编辑/etc/fstab注释掉任何包含单词swap的行 windows:系统属性 -> 高级 -> 性能 -> 高级...

ES系列二、Mac 通过docker搭建ELK日志收集系统

一、ELK简介 Elasticsearch:用于存储收集到的日志信息; Logstash:用于监控,过滤,收集日志,SpringBoot应用整合了Logstash以后会把日志发送给Logstash, Logstash再把日志转发给Elasticsearch; Kibana:通过Web端的可视化界面来查看日志。 二、解决docker拉取镜像慢的问题...

解决logstash.outputs.elasticsearch[main] Could not index event to Elasticsearch status 404

现象:lostack启动正常,logstack收集输入redis数据,输出到elasticsearch写入失败 提示:去建索引 的时候elasticsearch返回404 [2019-11-12T11:37:29,009][WARN ][logstash.outputs.elasticsearch][main] Could not index even...

ES之6:restHighLevelClient源码

本文讨论的是JAVA High Level Rest Client向ElasticSearch6.3.2发送请求(index操作、update、delete……)的一个详细过程的理解,主要涉及到Rest Client如何选择哪一台Elasticsearch服务器发起请求。 maven依赖如下: <dependency> <gro...

安装ELK 日志收集

ELK 官网: https://www.elastic.co/cn/what-is/elk-stack ElasticSearch ElasticSearch 是一个高可用开源全文检索和分析组件。提供存储服务,搜索服务,大数据准实时分析等。一般用于提供一些提供复杂搜索的应用 基本概念: Index 定义:类似于mysql中的database。索引只是一个逻...