testuję sobie różne rodzaje kompresji, poczynając od ob_gzhandler, idąc przez usuwanie różnych białych znaków i na łączeniu obu sposobów kończąc. Chcę móc porównać jakoś wyniki tych optymalizacji i wybrać najlepszą metodę (jakaś średnia pomiędzy obciążeniem serwera a wielkością danych). Odczytywanie za każdym razem nagłówków jest trochę męczące, stąd moje pytanie.
Czy istnieje jakiś analizator, który pokaże rozmiary kodu HTML, CSS, obrazków i czas ładowania poszczególnych rzeczy po wpisaniu adresu strony? Zaznaczę, że nie interesuje mnie program, który policzy znaki w wynikowym HTML, bo chcę porównać wielkość dokumentów skompresowanych.
Z góry dzięki
