linux性能分析匯總

????

性能分析工具匯總 收藏

一、分析工具

1、CPU性能分析工具:

vmstat

ps

sar

time

strace

pstree

top

2、Memory性能分析工具:

vmstat

strace

top

ipcs

ipcrm

cat /proc/meminfo

cat /proc/slabinfo

cat /proc//maps

3、I/O性能分析工具:

vmstat

ipstat

repquota

quotacheck

4、Network性能分析工具:

ifconfig

ethereal

tethereal

iptraf

iwconfig

nfsstat

mrtg

ntop

netstat

cat /proc/sys/net

二、Linux 性能調(diào)優(yōu)工具

當(dāng)通過上述工具及命令,我們發(fā)現(xiàn)了應(yīng)用的性能瓶頸以后,我們可以通過以下工具或者命令來進(jìn)行性能的調(diào)整

1、CPU性能調(diào)優(yōu)工具:

nice / renic

sysctl

2、Memory性能調(diào)優(yōu)工具:

swapon

ulimit

sysctl

3、I/O性能調(diào)優(yōu)工具:

edquota

quoton

sysctl

boot line:elevator=

4、Network性能調(diào)優(yōu)工具:

ifconfig

iwconfig

sysctl

三、性能調(diào)整

1、CPU性能調(diào)整

當(dāng)一個系統(tǒng)的CPU空閑時間或者等待時間小于5%時,我們就可以認(rèn)為系統(tǒng)的CPU資源耗盡,我們應(yīng)該對CPU進(jìn)行性能調(diào)整。

CPU性能調(diào)整方法:

編輯/proc/sys/kernel/中的文件,修改內(nèi)核參數(shù)。

#cd /proc/sys/kernel/

# ls /proc/sys/kernel/

acct hotplug panic real-root-dev

cad_pid modprobe panic_on_oops sem

cap-bound msgmax pid_max shmall

core_pattern msgmnb powersave-nap shmmax

core_uses_pid msgmni print-fatal-signals shmmni

ctrl-alt-del ngroups_max printk suid_dumpable

domainname osrelease printk_ratelimit sysrq

exec-shield ostype printk_ratelimit_burst tainted

exec-shield-randomize overflowgid pty threads-max

hostname overflowuid random version

一般可能需要編輯的是pid_max和threads-max,如下:

# sysctl kernel.threads-max

kernel.threads-max = 8192

# sysctl kernel.threads-max=10000

kernel.threads-max = 10000

2、Memory性能調(diào)整

當(dāng)一個應(yīng)用系統(tǒng)的內(nèi)存資源出現(xiàn)下面的情況時,我們認(rèn)為需要進(jìn)行Memory性能調(diào)整:

頁面頻繁換進(jìn)換出;

缺少非活動頁。

例如在使用vmstat命令時發(fā)現(xiàn),memory的cache使用率非常低,而swap的si或者so則有比較高的數(shù)據(jù)值時,應(yīng)該警惕內(nèi)存的性能問題。

Memory性能調(diào)整方法:

1)關(guān)閉非核心的服務(wù)進(jìn)程。

相關(guān)的方法請見CPU性能調(diào)整部分。

2)修改/proc/sys/vm/下的系統(tǒng)參數(shù)。

# ls /proc/sys/vm/

block_dump laptop_mode nr_pdflush_threads

dirty_background_ratio legacy_va_layout overcommit_memory

dirty_expire_centisecs lower_zone_protection overcommit_ratio

dirty_ratio max_map_count page-cluster

dirty_writeback_centisecs min_free_kbytes swappiness

hugetlb_shm_group nr_hugepages vfs_cache_pressure

# sysctl vm.min_free_kbytes

vm.min_free_kbytes = 1024

# sysctl -w vm.min_free_kbytes=2508

vm.min_free_kbytes = 2508

# cat /etc/sysctl.conf

vm.min_free_kbytes=2058

3)配置系統(tǒng)的swap交換分區(qū)等于或者2倍于物理內(nèi)存。

# free

total used free shared buffers cached

Mem: 987656 970240 17416 0 63324 742400

-/+ buffers/cache: 164516 823140

Swap: 1998840 150272 1848568

3、I/O性能調(diào)整

系統(tǒng)出現(xiàn)以下情況時,我們認(rèn)為該系統(tǒng)存在I/O性能問題:

系統(tǒng)等待I/O的時間超過50%;

一個設(shè)備的平均隊列長度大于5。

我們可以通過諸如vmstat等命令,查看CPU的wa等待時間,以得到系統(tǒng)是否存在I/O性能問題的準(zhǔn)確信息。

I/O性能調(diào)整方法:

1)修改I/O調(diào)度算法。

Linux已知的I/O調(diào)試算法有4種:

deadline - Deadline I/O scheduler

as - Anticipatory I/O scheduler

cfq - Complete Fair Queuing scheduler

noop - Noop I/O scheduler

可以編輯/etc/yaboot.conf文件修改參數(shù)elevator得到。

# vi /etc/yaboot.conf

image=/vmlinuz-2.6.9-11.EL

label=linux

read-only

initrd=/initrd-2.6.9-11.EL.img

root=/dev/VolGroup00/LogVol00

append=”elevator=cfq rhgb quiet”

2)文件系統(tǒng)調(diào)整。

對于文件系統(tǒng)的調(diào)整,有幾個公認(rèn)的準(zhǔn)則:

將I/O負(fù)載相對平均的分配到所有可用的磁盤上;

選擇合適的文件系統(tǒng),Linux內(nèi)核支持reiserfs、ext2、ext3、jfs、xfs等文件系統(tǒng);

# mkfs -t reiserfs -j /dev/sdc1

文件系統(tǒng)即使在建立后,本身也可以通過命令調(diào)優(yōu);

tune2fs (ext2/ext3)

reiserfstune (reiserfs)

jfs_tune (jfs)

3)文件系統(tǒng)Mount時可加入選項noatime、nodiratime。

# vi /etc/fstab

/dev/sdb1 /backup reiserfs acl, user_xattr, noatime, nodiratime 1 1

4)調(diào)整塊設(shè)備的READAHEAD,調(diào)大RA值。

[root@overflowuid ~]# blockdev –report

RO RA SSZ BSZ StartSec Size Device

rw 256 512 4096 0 71096640 /dev/sdb

rw 256 512 4096 32 71094240 /dev/sdb1

[root@overflowuid ~]# blockdev –setra 2048 /dev/sdb1

[root@overflowuid ~]# blockdev –report

RO RA SSZ BSZ StartSec Size Device

rw 2048 512 4096 0 71096640 /dev/sdb

rw 2048 512 4096 32 71094240 /dev/sdb1

4、Network性能調(diào)整

一個應(yīng)用系統(tǒng)出現(xiàn)如下情況時,我們認(rèn)為該系統(tǒng)存在網(wǎng)絡(luò)性能問題:

網(wǎng)絡(luò)接口的吞吐量小于期望值;

出現(xiàn)大量的丟包現(xiàn)象;

出現(xiàn)大量的沖突現(xiàn)象。

Network性能調(diào)整方法:

1)調(diào)整網(wǎng)卡的參數(shù)。

# ethtool eth0

Settings for eth0:

Supported ports: [ TP ]

Supported link modes: 10baseT/Half 10baseT/Full

100baseT/Half 100baseT/Full

1000baseT/Full

Supports auto-negotiation: Yes

Advertised link modes: 10baseT/Half 10baseT/Full

100baseT/Half 100baseT/Full

1000baseT/Full

Advertised auto-negotiation: Yes

Speed: 100Mb/s

Duplex: Half

Port: Twisted Pair

PHYAD: 0

Transceiver: internal

Auto-negotiation: on

Supports Wake-on: d

Wake-on: d

Current message level: 0×00000007 (7)

Link detected: yes

#ethtool -s eth0 duplex full

#ifconfig eth0 mtu 9000 up

2)增加網(wǎng)絡(luò)緩沖區(qū)和包的隊列。

# cat /proc/sys/net/ipv4/tcp_mem

196608 262144 393216

# cat /proc/sys/net/core/rmem_default

135168

# cat /proc/sys/net/core/rmem_max

131071

# cat /proc/sys/net/core/wmem_default

135168

# cat /proc/sys/net/core/wmem_max

131071

# cat /proc/sys/net/core/optmem_max

20480

# cat /proc/sys/net/core/netdev_max_backlog

300

# sysctl net.core.rmem_max

net.core.rmem_max = 131071

# sysctl -w net.core.rmem_max=135168

net.core.rmem_max = 135168

3)調(diào)整Webserving。

# sysctl net.ipv4.tcp_tw_reuse

net.ipv4.tcp_tw_reuse = 0

# sysctl -w net.ipv4.tcp_tw_reuse=1

net.ipv4.tcp_tw_reuse = 1

# sysctl net.ipv4.tcp_tw_recycle

net.ipv4.tcp_tw_recycle = 0

# sysctl -w net.ipv4.tcp_tw_recycle=1

net.ipv4.tcp_tw_recycle = 1

?著作權(quán)歸作者所有,轉(zhuǎn)載或內(nèi)容合作請聯(lián)系作者
【社區(qū)內(nèi)容提示】社區(qū)部分內(nèi)容疑似由AI輔助生成,瀏覽時請結(jié)合常識與多方信息審慎甄別。
平臺聲明:文章內(nèi)容(如有圖片或視頻亦包括在內(nèi))由作者上傳并發(fā)布,文章內(nèi)容僅代表作者本人觀點(diǎn),簡書系信息發(fā)布平臺,僅提供信息存儲服務(wù)。

相關(guān)閱讀更多精彩內(nèi)容

友情鏈接更多精彩內(nèi)容