故障诊断模块

主要分为两个子模块:

  1. 诊断调度器模块:负责响应上层用户发来的restful请求,以及生成诊断消息发入消息队列,供诊断执行器执行相应诊断。
  2. 诊断执行器模块:负责从消息队列中消费消息,执行诊断后,将诊断结果存入数据库中。

架构

系统采用flask-restful开发,架构如下图所示。

1.在配置文件中对相应参数进行配置,系统的默认配置文件存放在 /etc/aops/diag_scheduler.ini 以及 /etc/aops/diag_executor.ini中,请根据实际情况进行配置更改。

  1. # kafka server 地址,必须使用主机真实ip地址
  2. kafka_server_list=10.0.0.0:9092
  3. # 指定的kafka api版本
  4. api_version=0.11.5
  5. # acks 0表示producer不理睬发送是否成功;1表示需要等待leader成功写入日志才返回;all表示所有副本都写入日志才返回
  6. acks=1
  7. # 消息发送失败后尝试重发的次数
  8. retries=3
  9. # 每次重试间隔多少毫秒
  10. retry_backoff_ms=100
  11. [topic]
  12. # 诊断topic
  13. name=DIAGNOSE_EXECUTE_REQ
  14. [diag_scheduler]
  15. # flask服务启动的ip
  16. ip=127.0.0.1
  17. # flask服务启动的端口号
  18. port=60116
  19. [uwsgi]
  20. # 服务启动脚本
  21. wsgi-file=manage.py
  22. # 操作日志路径
  23. daemonize=/var/log/aops/uwsgi/diag_scheduler.log
  24. # 服务响应时间
  25. harakiri=600
  1. [consumer]
  2. # kafka server 地址,必须使用主机真实ip地址
  3. kafka_server_list=10.0.0.0:9092
  4. # 消费者组, 同一组的消费者消费的消息不会重复
  5. group_id=DiagGroup
  6. # 是否自动提交偏移量
  7. enable_auto_commit=False
  8. # 重置偏移量,earliest移到最早的可用消息,latest最新的消息
  9. auto_offset_reset=earliest
  10. # 在buffer中拉取时等待的毫秒
  11. timeout_ms=5
  12. # 一次拉取的消息数量
  13. max_records=3
  14. [topic]
  15. # 消费的诊断topic
  16. name=DIAGNOSE_EXECUTE_REQ

服务启动和停止

部署好后的诊断调度器以及诊断执行器通过systemctl去启动。

  1. systemctl start adoctor-diag-executor 启动诊断调度器服务
  2. systemctl stop adoctor-diag-executor 停止诊断调度器服务
  3. systemctl restart adoctor-diag-executor 重启诊断调度器服务

诊断模块支持三大类操作:故障树相应操作、诊断操作以及诊断任务相关操作。大部分操作同时支持web界面以及cli命令,根据不同场景可以进行选择。

arch

  1. 故障树相应操作
  • 导入故障树

    • web:

      点击“新增故障树” 区域,进入新增故障树子界面,指定诊断树的名称、本地文件以及诊断树描述,将诊断树添加进数据库中:

  • cli:

    adoctor faultree --action add --tree_list tree1 --conf [conf.json] [--access_token] [token]

    • 必选参数

      • --conf

        action=add时使用,指定故障树文件(json)

      • 指定插入的诊断树的名字 (注意 只能单棵添加)

      • --access_token

        授权码

    • 举例

      • 导入tree1故障树

      adoctor faultree --action add --tree_list tree1 --conf tree1.json --access_token token

  • 查看,导出和删除故障树

    • web:

      在“新增故障树”区域右侧的某一故障树的右下角,点击操作按钮,可以对该树进行删除操作, 导出web端暂不支持;

    点击某一故障树,可以看到故障树的更详细信息,也可以在此界面进行删除:

    arch

  1. 诊断操作

  1. 诊断任务相关操作
  • 查看诊断任务列表

    • web: 在诊断主界面,用户可以查看并点选相应任务,进行查看

    • cli:

      执行诊断后,cli会返回此次诊断的任务id。目前命令行不支持根据用户id去查找任务列表

  • 查看和删除诊断报告

    • web: 点击进入某一诊断任务的界面之后,用户可以点选报告进行查看。

      诊断列表如下:

      诊断报告如下:

      arch

    • cli:

      adoctor report [--action] [action] [--tree_list] [tree1] [--host_list] [list] [--start] [time1] [--end] [time2] [--report_list] [id1,id2] [--task_id] [id]

      • 必选参数

        • --action

          get表示获取report,delete表示删除report

        • --access_token

          授权码

      • 可选参数

        • --tree_list

          指定故障树,以逗号分隔,未指定report_id和task_id时根据这个查询

        • --host_list

          指定诊断的主机id,以逗号分隔,未指定report_id和task_id时根据这个查询

        • --start

          指定故障诊断的起始时间

        • --end 指定故障诊断的截止时间

        • --task_id

          可根据任务id来查询报告,如果指定该项,只根据该项查询

        • --report_list

          报告id列表,查询和删除详细报告时使用

      • 举例

        • 删除指定的报告

          aops report --action delete --report_list r1,r2 --access_token token

        • 获取指定树指定主机的诊断报告列表 aops report --action get --tree_list tree1,tree2 --host_list id1,id2 --start xxx --end xx --access_token token

        • 根据任务id查询报告列表

        • 根据报告id查询报告详细内容

          aops report --action get --report_list id1,id2 --access_token token

日志查看

诊断模块的日志分为两类,scheduler的日志记录在/var/log/aops/uwsgi/diag_scheduler.log中,executor的日志记录在/var/log/aops.log中。日志转储的相关配置设置在/etc/aops/system.ini中,为aops统一的日志配置。

  1. 诊断执行器启动失败,提示NoBrokerAvailable.

    这个报错是由于executor连接kafka失败。需要确认kafka是否启动正常,以及executor的配置文件中 kafka_server_list参数是否准确写明kafka的地址。

诊断调度器也会遇到同样的问题,但是由于诊断调度器启动时并不会直接创建kafka生产者,要触发诊断命令才会创建,所以只能在诊断后观察命令回显或者服务日志,去判断与kafka的连接是否正常。