黑帽联盟

 找回密码
 会员注册
查看: 1904|回复: 0
打印 上一主题 下一主题

[基础服务] linux系统四大压力测试工具

[复制链接]
yun 黑帽联盟官方人员 

920

主题

37

听众

1364

积分

超级版主

Rank: 8Rank: 8

  • TA的每日心情
    奋斗
    2019-10-18 11:20
  • 签到天数: 678 天

    [LV.9]以坛为家II

    一、http_load
    程序非常小,解压后也不到100K
    http_load以并行复用的方式运行,用以测试web服务器的吞吐量与负载。但是它不同于大多数压力测试工
    具,它可以以一个单一的进程运行,一般不会把客户机搞死。还可以测试HTTPS类的网站请求。
    安装很简单
    #tar zxvf http_load-12mar2006.tar.gz
    #cd http_load-12mar2006
    #make && make install
    命令格式:http_load  -p 并发访问进程数  -s 访问时间  需要访问的URL文件
    参数其实可以自由组合,参数之间的选择并没有什么限制。比如你写成http_load -parallel 5 -seconds
    300 urls.txt也是可以的。我们把参数给大家简单说明一下。
    -parallel 简写-p :含义是并发的用户进程数。
    -fetches 简写-f :含义是总计的访问次数
    -rate    简写-p :含义是每秒的访问频率
    -seconds简写-s :含义是总计的访问时间
    准备URL文件:urllist.txt,文件格式是每行一个URL,URL最好超过50-100个测试效果比较好


    例如:
    http_load -p 30 -s 60  urllist.txt
    参数了解了,我们来看运行一条命令来看看它的返回结果
    命令:% ./http_load -rate 5 -seconds 10 urls说明执行了一个持续时间10秒的测试,每秒的频率为5。
    49 fetches, 2 max parallel, 289884 bytes, in 10.0148 seconds5916 mean bytes/connection4.89274
    fetches/sec, 28945.5 bytes/secmsecs/connect: 28.8932 mean, 44.243 max, 24.488 minmsecs/first
    -response: 63.5362 mean, 81.624 max, 57.803 minHTTP response codes: code 200 — 49
    结果分析:
    1.49 fetches, 2 max parallel, 289884 bytes, in 10.0148 seconds
    说明在上面的测试中运行了49个请求,最大的并发进程数是2,总计传输的数据是289884bytes,运行的时间是10.0148秒
    2.5916 mean bytes/connection说明每一连接平均传输的数据量289884/49=5916
    3.4.89274 fetches/sec, 28945.5 bytes/sec
    说明每秒的响应请求为4.89274,每秒传递的数据为28945.5 bytes/sec
    4.msecs/connect: 28.8932 mean, 44.243 max, 24.488 min说明每连接的平均响应时间是28.8932 msecs
    ,最大的响应时间44.243 msecs,最小的响应时间24.488 msecs
    5.msecs/first-response: 63.5362 mean, 81.624 max, 57.803 min
    6、HTTP response codes: code 200 — 49     说明打开响应页面的类型,如果403的类型过多,那可能
    要注意是否系统遇到了瓶颈。
    特殊说明:
    测试结果中主要的指标是 fetches/sec、msecs/connect 这个选项,即服务器每秒能够响应的查询次数,
    用这个指标来衡量性能。似乎比 apache的ab准确率要高一些,也更有说服力一些。
    Qpt-每秒响应用户数和response time,每连接响应用户时间。
    测试的结果主要也是看这两个值。当然仅有这两个指标并不能完成对性能的分析,我们还需要对服务器的
    cpu、men进行分析,才能得出结论


    二、webbench
    webbench是Linux下的一个网站压力测试工具,最多可以模拟3万个并发连接去测试网站的负载能力。下载地址可以到google搜,我这里给出一个
    这个程序更小,解压后不到50K,呵呵
    安装非常简单
    #tar zxvf webbench-1.5.tar.gz
    #cd webbench-1.5
    #make && make install
    会在当前目录生成webbench可执行文件,直接可以使用了
    用法:
    webbench -c 并发数 -t 运行测试时间 URL
    如:
    webbench -c 5000 -t 120 http://www.cnblackhat.com
    三、ab
    ab是apache自带的一款功能强大的测试工具
    安装了apache一般就自带了,
    用法可以查看它的说明
    $ ./ab
    ./ab: wrong number of arguments
    Usage: ./ab [options] [http://]hostname[:port]/path
    Options are:
    -n requests Number of requests to perform
    -c concurrency Number of multiple requests to make
    -t timelimit Seconds to max. wait for responses
    -p postfile File containing data to POST
    -T content-type Content-type header for POSTing
    -v verbosity How much troubleshooting info to print
    -w Print out results in HTML tables
    -i Use HEAD instead of GET
    -x attributes String to insert as table attributes
    -y attributes String to insert as tr attributes
    -z attributes String to insert as td or th attributes
    -C attribute Add cookie, eg. ‘Apache=1234. (repeatable)
    -H attribute Add Arbitrary header line, eg. ‘Accept-Encoding: gzip’
    Inserted after all normal header lines. (repeatable)
    -A attribute Add Basic WWW Authentication, the attributes
    are a colon separated username and password.
    -P attribute Add Basic Proxy Authentication, the attributes
    are a colon separated username and password.
    -X proxy:port Proxyserver and port number to use
    -V Print version number and exit
    -k Use HTTP KeepAlive feature
    -d Do not show percentiles served table.
    -S Do not show confidence estimators and warnings.
    -g filename Output collected data to gnuplot format file.
    -e filename Output CSV file with percentages served
    -h Display usage information (this message)
    参数众多,一般我们用到的是-n 和-c
    例如:
    ./ab -c 1000 -n 100 https://bbs.cnblackhat.com/index.php
    这个表示同时处理1000个请求并运行100次index.php文件.
    四、Siege
    一款开源的压力测试工具,可以根据配置对一个WEB站点进行多用户的并发访问,记录每个用户所有请求过程的相应时间,并在一定数量的并发访问下重复进行。
    解压:
    # tar -zxf siege-2.67.tar.gz
    进入解压目录:
    # cd siege-2.67/
    安装:
    #./configure ; make
    #make install
    使用
    siege -c 200 -r 10 -f example.url
    -c是并发量,-r是重复次数。 url文件就是一个文本,每行都是一个url,它会从里面随机访问的。
    example.url内容:
    http://www.cnblackhat.com
    http://www.cnblackhat.com
    https://bbs.cnblackhat.com
    结果说明
    Lifting the server siege… done.
    Transactions: 3419263 hits //完成419263次处理
    Availability: 100.00 % //100.00 % 成功率
    Elapsed time: 5999.69 secs //总共用时
    Data transferred: 84273.91 MB //共数据传输84273.91 MB
    Response time: 0.37 secs //相应用时1.65秒:显示网络连接的速度
    Transaction rate: 569.91 trans/sec //均每秒完成 569.91 次处理:表示服务器后
    Throughput: 14.05 MB/sec //平均每秒传送数据
    Concurrency: 213.42 //实际最高并发数
    Successful transactions: 2564081 //成功处理次数
    Failed transactions: 11 //失败处理次数
    Longest transaction: 29.04 //每次传输所花最长时间
    Shortest transaction: 0.00 //每次传输所花最短时间
    帖子永久地址: 

    黑帽联盟 - 论坛版权1、本主题所有言论和图片纯属会员个人意见,与本论坛立场无关
    2、本站所有主题由该帖子作者发表,该帖子作者与黑帽联盟享有帖子相关版权
    3、其他单位或个人使用、转载或引用本文时必须同时征得该帖子作者和黑帽联盟的同意
    4、帖子作者须承担一切因本文发表而直接或间接导致的民事或刑事法律责任
    5、本帖部分内容转载自其它媒体,但并不代表本站赞同其观点和对其真实性负责
    6、如本帖侵犯到任何版权问题,请立即告知本站,本站将及时予与删除并致以最深的歉意
    7、黑帽联盟管理员和版主有权不事先通知发贴者而删除本文

    您需要登录后才可以回帖 登录 | 会员注册

    发布主题 !fastreply! 收藏帖子 返回列表 搜索
    回顶部