在进行操作系统和数据库系统管理时,经常会遇到在日志文件中查找某个字符,或者按照时间截取某个时间段的日志进行分析。
今天早上就遇到一个MySQL数据库上的问题,mysql数据库在0-3点的时候,数据库会话连接,tps,cpu和iowait等都比平时大了许多。
为了定位这个时间段内,到底发生了那些慢查询,消耗了资源,就需要在slow.log慢查询日志进行查询,截取和分析。
在处理过程中,对几种常用的日志截取方法进行了汇总和测试:
截取日志段的的方法汇总与测试
方式一: 确定时间段的行号,使用head和tail命令截取 搜索时间: Time: 151212 00:00:00 先到gg,到文件最前面,然后搜索 /Time: 151212 ,得到: 1979016 # Time: 151212 0:00:15
文件总行数为: # wc -l slow-query-169-1212.log 1999422 slow-query-169-1212.log 1999422 limit 0,20;
然后在到文件最后面,G, 搜索4点之后开始的文件 /Time: 151212 4 ,得到: 1987392 # Time: 151212 4:00:05
确定需要查询的时间段行号后,使用head和tail命令进行截取: >>> 1987392 - 1979016; 8376
需要截取的日志,最后行号为 1979016,想用head 命令,然后在用tail命令截取最后的 8376 行即可,命令为: head -n 1979016 slow-query-169-1212.log | tail -n 8376 > slow-query-169-1212_00-03.log
方式二: 确定时间段的行号,使用sed命令截取 截取 151212 0-3点之间的慢查询日志: sed -n '1979016,1987392p' slow-query-169-1212.log > slow-query-169-1212_00-03.log
>>> 1987392 - 1979016; 8376 该部分文件,应该有 8376 行数据;确认正常;
方式三:确定时间段行号后,使用awk命令截取 截取 151212 0-3点之间的慢查询日志: awk -F"\n" '{if(NR>=1979016&&NR slow-query-169-1212_00-03.log
方式四:不需先确定行号,直接用sed取出日志段 slow log都是以 # Time: 151212 0:00:15 开头,直接用sed 取出其中的日志: sed -n '/^# Time: 151212 0/,/^# Time: 151212 4/p' slow-query-169-1212.log > part.log --这样的效果,就和刚才上面的效果相同,取出了0 -3 点之间的数据
如果是想取出 151211 这一天的数据,则命令为: sed -n '/^# Time: 151211/,/^# Time: 151212/p' slow-query-169-1212.log > part.log --取出了151211 这一天的日志
注意,使用sed 时,两行之间的选择项一定要对应,不然结果就不是想要的结果了: sed -n '/^# Time: 151212/,/^# Time: 151212 4/p' slow-query-169-1212.log > part.log --前后两个时间点不同,搜索的是全部 # Time: 151212开头的
使用pt工具对截取的日志进行分析 分析这段时间的日志的命令如下: /usr/local/pt/bin/pt-query-digest /data/bbs/slow-query-169-1212_00-03.log > /data/bbs/slow-query-169-1212_00-03-report.log
这是默认的分析和排序方法,可以根据需求,选择其他pt报告分析方法
注1 vim中两种查询方式: 命令模式下,按‘/’,然后输入要查找的字符,Enter。?和/的区别是,一个向前(下)找,一个向后(上)。 另外,‘*’可以查找当前光标下的word(完全符合),‘g*’则部分符合,以#代替*表示向后(上)找
注2 几种文件处理方法的简单举例: sed是按行处理的,不会将整个文件加载到内存中,可以放心使用 要切出从2012-02-09到2012-09-10的所有数据行,(假设你的日志文件以yyyy-MM-dd的日期格式开头)只需要: sed -n '/^2012-02-09/,/^2012-09-10/p' whole.log > part.log
无论怎么样你都必须使用某一个程序把这个文件读出来,并且用一定的规则来加以过滤。 在Linux中,使用cat和grep对文件进行操作已经可以说是最经济合理的了。 占用一定的系统资源是肯定的,具体的话跟你使用的cat,grep以及linux内核都有一定关系,所以可能会略有不同。 一般不要在系统里出现那么大的日志文件,最好在一开始就做好日志的大小限制以及合理的日志转储和备份。
显示文件的第2到第6行 sed -n '2,6p' file
需要加-n参数. head -n 6 file|tail -n 4
awk 也能达到要求 awk -F"\n" '{if(NR>=2&&NR

ACID屬性包括原子性、一致性、隔離性和持久性,是數據庫設計的基石。 1.原子性確保事務要么完全成功,要么完全失敗。 2.一致性保證數據庫在事務前後保持一致狀態。 3.隔離性確保事務之間互不干擾。 4.持久性確保事務提交後數據永久保存。

MySQL既是數據庫管理系統(DBMS),也與編程語言緊密相關。 1)作為DBMS,MySQL用於存儲、組織和檢索數據,優化索引可提高查詢性能。 2)通過SQL與編程語言結合,嵌入在如Python中,使用ORM工具如SQLAlchemy可簡化操作。 3)性能優化包括索引、查詢、緩存、分庫分錶和事務管理。

MySQL使用SQL命令管理數據。 1.基本命令包括SELECT、INSERT、UPDATE和DELETE。 2.高級用法涉及JOIN、子查詢和聚合函數。 3.常見錯誤有語法、邏輯和性能問題。 4.優化技巧包括使用索引、避免SELECT*和使用LIMIT。

MySQL是一種高效的關係型數據庫管理系統,適用於存儲和管理數據。其優勢包括高性能查詢、靈活的事務處理和豐富的數據類型。實際應用中,MySQL常用於電商平台、社交網絡和內容管理系統,但需注意性能優化、數據安全和擴展性。

SQL和MySQL的關係是標準語言與具體實現的關係。 1.SQL是用於管理和操作關係數據庫的標準語言,允許進行數據的增、刪、改、查。 2.MySQL是一個具體的數據庫管理系統,使用SQL作為其操作語言,並提供高效的數據存儲和管理。

InnoDB使用redologs和undologs確保數據一致性和可靠性。 1.redologs記錄數據頁修改,確保崩潰恢復和事務持久性。 2.undologs記錄數據原始值,支持事務回滾和MVCC。

EXPLAIN命令的關鍵指標包括type、key、rows和Extra。 1)type反映查詢的訪問類型,值越高效率越高,如const優於ALL。 2)key顯示使用的索引,NULL表示無索引。 3)rows預估掃描行數,影響查詢性能。 4)Extra提供額外信息,如Usingfilesort提示需要優化。

Usingtemporary在MySQL查詢中表示需要創建臨時表,常見於使用DISTINCT、GROUPBY或非索引列的ORDERBY。可以通過優化索引和重寫查詢避免其出現,提升查詢性能。具體來說,Usingtemporary出現在EXPLAIN輸出中時,意味著MySQL需要創建臨時表來處理查詢。這通常發生在以下情況:1)使用DISTINCT或GROUPBY時進行去重或分組;2)ORDERBY包含非索引列時進行排序;3)使用複雜的子查詢或聯接操作。優化方法包括:1)為ORDERBY和GROUPB


熱AI工具

Undresser.AI Undress
人工智慧驅動的應用程序,用於創建逼真的裸體照片

AI Clothes Remover
用於從照片中去除衣服的線上人工智慧工具。

Undress AI Tool
免費脫衣圖片

Clothoff.io
AI脫衣器

AI Hentai Generator
免費產生 AI 無盡。

熱門文章

熱工具

WebStorm Mac版
好用的JavaScript開發工具

EditPlus 中文破解版
體積小,語法高亮,不支援程式碼提示功能

Dreamweaver Mac版
視覺化網頁開發工具

禪工作室 13.0.1
強大的PHP整合開發環境

SAP NetWeaver Server Adapter for Eclipse
將Eclipse與SAP NetWeaver應用伺服器整合。