これまでに思いつく方法:
awk はログを分析し、条件を合計し、データベースを更新します。
ただし、ログのサイズが大きい場合、効率が影響を受けます。
もっと簡単な方法はありますか?
PHP中文网2017-05-16 17:31:35
http_accounting モジュールをお試しください。nginx 公式 Web サイトのサードパーティ モジュール リストから入手できます~
大家讲道理2017-05-16 17:31:35
私たちの計画について話しましょう、流量は1.9kwです
1. フロントデスクは<img src="/tj.html"/>を通じて送信ログを記録します
2. ningx
单独记录 tj.html
のアクセスログ
3. syslog
1分間隔でスケジュールを設定します
4. cronjob
定时1
分割されたログの処理と分析に数分かかります
現在は 1 分ごとに更新を使用していますmysql
数据库,正在打算将当天的数据存储方式放到redis上,而将历史记录放到mongodb
アップ
黄舟2017-05-16 17:31:35
ログが定期的にカットされている限り、毎回処理されるファイルはそれほど大きくなりません。
次に、より効率的な統計を行うための小さなプログラムを作成します。
より柔軟なクエリ要件がある場合は、ログ情報をデータベースに記録し、時間と必要なフィールドに基づいてインデックスを確立し、SQL で直接クエリを実行することもできます。