Post
#1
|
|
|
Grupa: Zarejestrowani Postów: 910 Pomógł: 44 Dołączył: 20.02.2008 Skąd: Łódź Ostrzeżenie: (20%)
|
Witam. Chciałbym stworzyć analizator logów systemowych, który wyświetli mi kilka interesujących informacji takich jak np. ile było zakończonych błędem prób logowań przez ssh lub ftp i tym podobne. Pytanie brzmi jak przetwarzać plik z logami, który waży np. 10MB? Myślałem nad filtrowaniem logów wykorzystując komendę grep i zliczanie linii. I tak dla każdej reguły. Czyli np. aby pokazać poprawne i błędne logowania do ssh to byłyby wykonywane dwa polecenia
Kod cat plik.log | grep ssh | grep Failed -c cat plik.log | grep ssh | grep Accepted -c Co o takim rozwiązaniu myślicie? Czy jest jakaś lepsza metoda na filtrowanie tak dużych plików za pomocą PHP lub z wykorzystaniem samego linuxa? |
|
|
|
![]() |
Post
#2
|
|
|
Grupa: Zarejestrowani Postów: 702 Pomógł: 65 Dołączył: 16.03.2009 Ostrzeżenie: (0%)
|
lepiej przekieruj logi za pomocą rsysloga do bazy mysql
|
|
|
|
![]() ![]() |
|
Aktualny czas: 23.12.2025 - 04:44 |