지금까지 생각할 수 있는 방법:
Awk는 로그 + 조건부 합산을 분석하고 데이터베이스를 업데이트합니다.
그러나 로그 크기가 크면 효율성에 영향을 미칩니다.
더 간단한 방법이 있나요?
大家讲道理2017-05-16 17:31:35
우리 계획에 대해 얘기해보자면 유량은 1.9kw
1. 프론트 데스크에서는 <img src="/tj.html"/>
을 통해 전송 로그를 기록합니다.2. ningx
는 tj.html
의 접속 로그를 별도로 기록합니다ningx
单独记录 tj.html
的访问日志
3. syslog
定时 1分钟分割一次
4. cronjob
定时1
分钟 处理分析分割好的日志
现在我们采用的是1分钟更新一次mysql
数据库,正在打算将当天的数据存储方式放到redis上,而将历史记录放到mongodb
syslog
는 1분에 한 번씩 나누어질 예정입니다🎜
🎜4. cronjob
은 분할 로그를 처리하고 분석하는 데 1
분을 예약합니다🎜
🎜이제 우리는 mysql
데이터베이스를 사용하여 1분마다 업데이트됩니다. 오늘의 데이터는 redis에 저장하고 기록 기록은 mongodb
🎜에 저장할 계획입니다.黄舟2017-05-16 17:31:35
로그를 정기적으로 자르면 매번 처리되는 파일은 그리 크지 않습니다.
그런 다음 통계를 수행하는 작은 프로그램을 작성하는데, 이것이 더 효율적입니다.
보다 유연한 쿼리 요구 사항이 있는 경우 로그 정보를 데이터베이스에 기록하고, 시간과 필요한 필드를 기반으로 인덱스를 설정하고, SQL로 직접 쿼리할 수도 있습니다.