标签:node 某云 shard primary elasticsearch allocate 节点
某云es节点失效,重置primary,迁移分区
接手另一个团队的elasticsearch服务,服务布署在某云上,迁移计划执行期间,集群状态yellow,多sharding UNASSIGNED
夹一个私货,个人其实是不喜欢云的,有能力自已维护机房和物理服务器的,还是用服务器成本低
集群版本5.5,使用kibana作监控,未使用cerebro
简单排查一番后,某云反应是硬盘失效,确定数据无法完全恢复
10个有效节点,2个节点的数据完全丢失,多index异
elasticsearch 只在数据无损的情况在后台自动执行迁移复制
可能会导致数据损坏的迁移,需要明确手动来执行
对主节点数据无法完全恢复的场景,es提供两种操作方式,都需要明确指定 "accept_data_loss":true
https://www.elastic.co/guide/en/elasticsearch/reference/5.5/cluster-reroute.html
https://www.elastic.co/guide/en/elasticsearch/reference/current/cluster-reroute.html
-
1 allocate_stale_primary 选择一个从节点作为主节点(存在有效从节点的情况下),若原主节点恢复,则会以新主(原从)覆盖旧主的数据
node选择一个存在从shard的node
post http://3464.xyz.com:9200/_cluster/reroute
{
"commands" : [
{
"allocate_stale_primary" : {
"index" : "uc_2020", "shard" : 2,
"node" : "3456","accept_data_loss":true
}
}
]
}
- 2 allocate_empty_primary 指定一个空主,若原主节点恢复,则旧主会被完全清除
post http://3464.xyz.com:9200/_cluster/reroute
{
"commands" : [
{
"allocate_empty_primary" : {
"index" : "uc_2019", "shard" : 2,
"node" : "3456","accept_data_loss":true
}
}
]
}
因为旧主已经不可能恢复了,查看sharding的状态,还有从的指定allocate_stale_primary,所有从都失效,或index 的replicas为1的指定allocate_empty_primary
因为两个节点的丢失,shard分配一团乱,顺带手动执行一些shard的迁移
POST http://3464.xyz.com:9200/_cluster/reroute
{
"commands" : [
{
"move" : {
"index" : "test", "shard" : 0,
"from_node" : "node1", "to_node" : "node2"
}
}
]
}
End
标签:node,某云,shard,primary,elasticsearch,allocate,节点 来源: https://www.cnblogs.com/zihunqingxin/p/14916291.html
本站声明: 1. iCode9 技术分享网(下文简称本站)提供的所有内容,仅供技术学习、探讨和分享; 2. 关于本站的所有留言、评论、转载及引用,纯属内容发起人的个人观点,与本站观点和立场无关; 3. 关于本站的所有言论和文字,纯属内容发起人的个人观点,与本站观点和立场无关; 4. 本站文章均是网友提供,不完全保证技术分享内容的完整性、准确性、时效性、风险性和版权归属;如您发现该文章侵犯了您的权益,可联系我们第一时间进行删除; 5. 本站为非盈利性的个人网站,所有内容不会用来进行牟利,也不会利用任何形式的广告来间接获益,纯粹是为了广大技术爱好者提供技术内容和技术思想的分享性交流网站。