Tsar是淘宝的一个用来收集服务器系统和应用信息的采集报告工具,如收集服务器的系统信息,以及应用数据,收集到的数据存储在服务器磁盘上,可以随时查询历史信息,也可以将数据发送到nagios报警。 Tsar能够比较方便地增加模块,只需要按照 tsar 的要求编写数据的采集函数和展现函数,就可以把自定义的模块加入到tsar中。
安装Tsar目前托管在GitHub上,下载编译安装步骤:$sudo wget -O tsar.zip https://github.com/alibaba/tsar/archive/master.zip --no-check-certificate$ sudo unzip tsar.zip$ cd tsar$ sudo make# sudo make install
CPU的占用率计算,都是根据/proc/stat计数器文件而来,stat文件的内容基本格式是:cpu 67793686 1353560 66172807 4167536491 2705057 0 195975 609768cpu0 10529517 944309 11652564 835725059 2150687 0 74605 196726cpu1 14380773 127146 13908869 832565666 150815 0 31780 108418
cpu是总的信息,cpu0,cpu1等是各个具体cpu的信息,共有8个值,单位是ticks,分别是
User time, 67793686 Nice time, 1353560 System time, 66172807 Idle time, 4167536491 Waiting time, 2705057 Hard Irq time, 0 SoftIRQ time, 195975 Steal time, 609768
CPU总时间=user+system+nice+idle+iowait+irq+softirq+Stl各个状态的占用=状态的cpu时间%CPU总时间*100%比较特殊的是CPU总使用率的计算(util),目前的算法是:util = 1 - idle - iowait - steal
mem字段含义内存的计数器在/proc/meminfo,里面有一些关键项MemTotal: 7680000 kBMemFree: 815652 kBBuffers: 1004824 kBCached: 4922556 kB
含义就不解释了,主要介绍一下内存使用率的计算算法:util = (total - free - buff - cache) / total * 100%
load字段含义/proc/loadavg文件中保存的有负载相关的数据0.00 0.01 0.00 1/271 23741分别是1分钟负载,五分钟负载,十五分钟负载,运行进程/总进程 最大的pid只需要采集前五个数据既可得到所有信息注意:只有当系统负载除cpu核数>1的时候,系统负载较高
traffic字段含义流量的计数器信息来自:/proc/net/devface |bytes packets errs drop fifo frame compressed multicast|bytes packets errs drop fifo colls carrier compressedlo:1291647853895 811582000 0 0 0 0 0 0 1291647853895 811582000 0 0 0 0 0 0eth0:853633725380 1122575617 0 0 0 0 0 0 1254282827126 808083790 0 0 0 0 0 0
字段的含义第一行已经标示出来,每一行代表一个网卡,tsar主要采集的是出口和入口的bytes/packets注意tsar只对以eth和em开头的网卡数据进行了采集,像lo这种网卡直接就忽略掉了,流量的单位是byte
tcp字段含义tcp的相关计数器文件是:/proc/net/snmpTcp: RtoAlgorithm RtoMin RtoMax MaxConn ActiveOpens PassiveOpens AttemptFails EstabResets CurrEstab InSegs OutSegs RetransSegs InErrs OutRstsTcp: 1 200 120000 -1 31702170 14416937 935062 772446 16 1846056224 1426620266 448823 0 5387732
我们主要关注其中的ActiveOpens/PassiveOpens/AttemptFails/EstabResets/CurrEstab/InSegs/OutSegs/RetransSegs主要关注一下重传率的计算方式:retran = (RetransSegs-last RetransSegs) / (OutSegs-last OutSegs) * 100%
udp字段含义UDP的数据来源文件和TCP一样,也是在/proc/net/snmpUdp: InDatagrams NoPorts InErrors OutDatagramsUdp: 31609577 10708119 0 159885874
io字段含义IO的计数器文件是:/proc/diskstats,比如:202 0 xvda 12645385 1235409 416827071 59607552 193111576 258112651 3679534806 657719704 0 37341324 717325100202 1 xvda1 421 2203 3081 9888 155 63 421 1404 0 2608 11292
每一行字段的含义是:
通过这些计数器可以算出来上面的每个字段的值double n_ios = rd_ios + wr_ios;double n_ticks = rd_ticks + wr_ticks;double n_kbytes = (rd_sectors + wr_sectors) / 2;st_array = rd_merges / (inter * 1.0);st_array = wr_merges / (inter * 1.0);st_array = rd_ios / (inter * 1.0);st_array = wr_ios / (inter * 1.0);st_array = rd_sectors / (inter * 2.0);st_array = wr_sectors / (inter * 2.0);st_array = n_ios ? n_kbytes / n_ios : 0.0;st_array = aveq / (inter * 1000);st_array = n_ios ? n_ticks / n_ios : 0.0;st_array = n_ios ? ticks / n_ios : 0.0;st_array = ticks / (inter * 10.0);
注意:
paritition字段含义扇区一般都是512字节,因此有的地方除以2了 ws是指真正落到io设备上的写次数, wrqpms是指系统调用合并的写次数, 它们之间的大小关系没有可比性,因为不知道多少请求能够被合并,比如发起了100个read系统调用,每个读4K,假如这100个都是连续的读,由于硬盘通常允许最大的request为256KB,那么block层会把这100个读请求合并成2个request,一个256KB,另一个144KB,rrqpm/s为100,因为100个request都发生了合并,不管它最后合并成几个;r/s为2,因为最后的request数为2
首先通过/etc/mtab获取到分区信息,然后通过statfs访问该分区的信息,查询文件系统相关信息,包含:struct statfs {long f_type; long f_bsize; long f_blocks; long f_bfree; long f_bavail; long f_files; long f_ffree; fsid_t f_fsid; long f_namelen; };
然后就可以计算出tsar需要的信息,分区的字节数=块数*块大小=f_blocks * f_bsize
pcsw字段含义计数器在/proc/stat:ctxt 19873315174processes 296444211
分别代表进程切换次数,以及进程数
tcpx字段含义recvq sendq est twait fwait1 fwait2 lisq lising lisove cnest ndrop edrop rdrop pdrop kdrop分别代表tcprecvq tcpsendq tcpest tcptimewait tcpfinwait1 tcpfinwait2 tcplistenq tcplistenincq tcplistenover tcpnconnest tcpnconndrop tcpembdrop tcprexmitdrop tcppersistdrop tcpkadrop
采集方法计数器来自:/proc/net/netstat /proc/net/snmp 里面用到的数据有:TcpExt: SyncookiesSent SyncookiesRecv SyncookiesFailed EmbryonicRsts PruneCalled RcvPruned OfoPruned OutOfWindowIcmps LockDroppedIcmps ArpFilter TW TWRecycled TWKilled PAWSPassive PAWSActive PAWSEstab DelayedACKs DelayedACKLocked DelayedACKLost ListenOverflows ListenDrops TCPPrequeued TCPDirectCopyFromBacklog TCPDirectCopyFromPrequeue TCPPrequeueDropped TCPHPHits TCPHPHitsToUser TCPPureAcks TCPHPAcks TCPRenoRecovery TCPSackRecovery TCPSACKReneging TCPFACKReorder TCPSACKReorder TCPRenoReorder TCPTSReorder TCPFullUndo TCPPartialUndo TCPDSACKUndo TCPLossUndo TCPLoss TCPLostRetransmit TCPRenoFailures TCPSackFailures TCPLossFailures TCPFastRetrans TCPForwardRetrans TCPSlowStartRetrans TCPTimeouts TCPRenoRecoveryFail TCPSackRecoveryFail TCPSchedulerFailed TCPRcvCollapsed TCPDSACKOldSent TCPDSACKOfoSent TCPDSACKRecv TCPDSACKOfoRecv TCPAbortOnSyn TCPAbortOnData TCPAbortOnClose TCPAbortOnMemory TCPAbortOnTimeout TCPAbortOnLinger TCPAbortFailed TCPMemoryPressuresTcpExt: 0 0 0 80 539 0 0 0 0 0 3733709 51268 0 0 0 80 5583301 5966 104803 146887 146887 6500405 39465075 2562794034 0 689613557 2730596 540646233 234702206 0 44187 2066 94 240 0 114 293 1781 7221 60514 185158 2 2 3403 400 107505 5860 24813 174014 0 2966 7 168787 106151 40 32851 2 0 2180 9862 0 15999 0 0 0
具体字段找到并且获取即可
percpu ncpu字段含义字段含义等同cpu模块,只不过能够支持采集具体的每一个cpu的信息
采集方法等同于cpu模块
pernic字段含义字段含义等同traffic模块,只不过能够支持采集具体的每一个网卡的信息
采集方法等同于traffic模块
应用模块proc字段含义计数器文件
/proc/pid/stat:获取进程的cpu信息/proc/pid/status:获取进程的mem信息/proc/pid/io:获取进程的读写IO信息
注意,需要将采集的进程名称配置在/etc/tsar/tsar.conf总的mod_proc on procname,这样就会找到procname的pid,并进行数据采集
nginx字段含义通过nginx的采集模块配置,访问特定地址,具体参见:https://github.com/taobao/tsar-mod_nginxlocation = /nginx_status {stub_status on;}
请求到的数据是:Active connections: 1server accepts handled requests request_time24 24 7 0Reading: 0 Writing: 1 Waiting: 0
需要确保nginx配置该location,并且能够访问curl http://localhost/nginx_status得到上面的数据如果nginx的端口不是80,则需要在配置文件中指定端口,配置文件是/etc/tsar/tsar.conf,修改mod_nginx on为mod_nginx on 8080类似的有nginx_code, nginx_domain模块,相应的配置是:req_status_zone server "$host" 20M;req_status server;location /traffic_status {req_status_show;}
通过访问curl http://localhost/traffic_status能够得到如下字段的数据localhost,0,0,2,2,2,0,0,0,0,0,0,0,0,2,0,0,0,0,0,0,0,0,0,0,0,0,0请求到的数据每个字段的含义是:
如果domain数量太多,或者端口不是80,需要进行专门的配置,配置文件内容如下:port=8080 #指定nginx的端口top=10 #指定最多采集的域名个数,按照请求总个数排列domain=a.com b.com #指定特定需要采集的域名列表,分隔符为空格,逗号,或者制表符在/etc/tsar/tsar.conf中指定配置文件的路径:mod_nginx_domain on /tmp/my.conf
squid字段含义访问squid的mgrinfo信息获取,有些字段经过了一些patch,可能不适用外部版本
haproxy字段含义haproxy经过了patch,能够在多进程模式下进行统计信息的汇总,然后通过haproxy的本地访问其状态页面admin分析得到
lvs字段含义访问lvs的统计文件:/proc/net/ip_vs_stats
免责声明:本站内容和图片由网友提供或来自网络。
如有违反到您的权益,请通知我们删除处理。文章仅代表作者本人的观点,与本站立场无关!
© 2023 nvsheng.cc 女生-个人图集收集 蜀ICP备2021006193号-3|川公网安备 51130202000403号
发表评论