ICode9

精准搜索请尝试: 精确搜索
  • ZABBIX之MySQL数据库历史表优化2022-07-31 09:00:08

    前言   手上有一套ZABBIX监控上线后,没特意关注过数据库,没想到两年不到的时间数据量增长到了500G,造成磁盘空间。 方案1:DELETE删除旧数据,周期太长了,而且空间释放不及时,optimize操作也费时间。 方案2:将体积大的表改造成分区表,将部分历史数据导入新表中,后期分区表删除分区释放空间更

  • 推荐一个 Chrome 浏览历史记录管理的扩展 - History Trends Unlimited2021-12-13 14:04:12

    为什么我要查找这个 Chrome 扩展呢?七月份的时候,我曾经浏览过一篇博客,当时忘记收藏了。现在12月了,我想重新找到那篇博客,但是在 Chrome 历史记录里没有找到。 因此就想寻找一款功能强大的 Chrome 历史记录管理应用。 在 Chrome 扩展商场里转了一圈后,发现了这个扩展。 看看它有哪些功

  • zabbix4.0表分区优化+备份2021-07-09 15:31:08

    前言: zabbix运行时间长了,卡顿现象严重。 当zabbix数据库达到7亿多条之后会出现洪水告警。原因是,zabbix数据库压力过大,写入新的数据需要10秒左右。 现在查询zabbix的history_uint 历史数据表,已经高达10亿条以上,现在每次查询都要十多秒,如下图 要做哪些? 保留之前的历史数据对现

  • shell log2021-06-16 15:34:40

    #!/bin/bash echo 'begin...' #docker exec -u root scrapy_frame_new /bin/bash -c 'cd /aihuishou_spider/scrapy_frame/run_script && ./runlogistics.sh' #docker exec -u root scrapy_frame /bin/bash -c 'cd /aihuishou_spider/scra

  • 群落生态学综述撷取2021-02-27 11:33:28

    一、一些基础概念及方法 [1] Cavender-Bares J, Kozak KH, Fine PV, Kembel SW. The merging of community ecology and phylogenetic biology. Ecol Lett. 2009;12(7):693-715. doi:10.1111/j.1461-0248.2009.01314.x 谱系相关的经典综述,被引 1142 [2] Wilcox TM, Schwartz MK, L

  • Python自动化:导出zabbix数据并发邮件脚本2019-08-15 22:39:56

    Zabbix没有报表导出的功能,于是通过编写脚本导出zabbix数据并发邮件。效果如下: [外链图片转存中…(img-YujWHCbu-1565876650802)] 下面是脚本,可根据自己的具体情况修改: `#!/usr/bin/python` `#coding:utf-8` `import MySQLdb` `import time,datetime` `import xlsxwrite

  • zabbix(4)数据库表分区优化2019-05-15 19:53:02

              一、zabbix 数据库存储   zabbix-server将采集到的数据存储在数据库(mysql、oracle等),而数据存储的大小与每秒处理的数量量有关,因此数据存储取决于以下两个因数:   (1)Required server performance, new values per second(每秒处理的数据量)   (2)Housekeeper的设置

专注分享技术,共同学习,共同进步。侵权联系[81616952@qq.com]

Copyright (C)ICode9.com, All Rights Reserved.

ICode9版权所有