Pomoc - Szukaj - Użytkownicy - Kalendarz
Pełna wersja: Zapisywanie stron w php
Forum PHP.pl > Forum > PHP
biksu
Witam,
piszę ostatnio aplikację z wykorzystaniem frameworka Symfony i zatrzymałem się na funkcjonalności, która ma służyć do zapisywania stron (podobne działanie do opcji "zapisz jako" w Firefoxie).
Chciałem rekurencyjnie ściągać wszystkie obrazki i style, z linków znajdujących się w contencie, jednak jest to niewydajne i powoduje dużo błędów, ze względu na różną budowę stron.
Próbowałem wykorzystać "wget" jednak nie zapisuje mi wszystkiego tak jak powinien, tzn. nie zapisuje obrazków zdefiniowanych w css'ie. Kolejnym narzędziem jakie chciałem wykorzystać to "httrack",
jednak przy ustawieniu poziomu głębokości 1 zapisuje mi tylko samego html, obrazki i cssy przekierowuje na hosting, przy poziomie głębokości 2 zapisuje mi znowu całą stronę, ze wszystkimi podstronami, a potrzebuje tylko tą konkretną podstonę.
Chciałbym zapisać tylko konkretną stronę wraz z niezbędnymi rzeczami (takimi jak cssy, obrazki, flashe), ma ona identycznie wyglądać jak po zapisaniu stronu przez przeglądarkę.
Prosiłbym był o najmniejsze rady, jak ma się do tego zabrać lub z jakich narzędzi skorzystać.

Dziękuję za pomoc.
biksu
piotr.pasich
Hej,

wget ma opcje rekursywne:
  1. Pobieranie rekurencyjne:
  2. -r, --recursive praca rekurencyjna.
  3. -l, --level=NUMER maksymalny poziom zagłębienia przy rekurencji
  4. (inf lub 0 oznacza brak ograniczeń).
  5. --delete-after usuwa lokalnie pliki po ich pobraniu.
  6. -k, --convert-links konwertuje odnośniki w ściąganych plikach HTML
  7. i CSS, aby wskazywały na pliki lokalne.
  8. -K, --backup-converted przed konwersją pliku X zapisuje jego kopię jako
  9. X.orig.
  10. -m, --mirror skrót dla -N -r -l inf --no-remove-listing.
  11. -p, --page-requisites pobiera wszystkie pliki graficzne itp. potrzebne
  12. by poprawnie wyświetlić stronę HTML.
  13. --strict-comments włącza surową (SGML) interpretację komentarzy HTML.


Można z nimi pokombinować
biksu
Niestety kombinuje z nim i httrackiem, już drugi dzień i nie osiągnąłem potrzebnego efektu.
Ta komenda: wget -E -H -k -p -N -nH -erobots=off -P katalog_do_zapisu/ http://url.com
sciąga prawie wszystko dobrze, jest pojedyńcza strona, jakieś obrazki, css, flashe, ale niestety nie ściąga
z odnośników w css'ach, przez co wyświetla, niektóre strony bez niektórych szczegółów.
Może istnieje jakiś gotowy skrypt w php lub javascripcie do tego typu zadań?
To jest wersja lo-fi głównej zawartości. Aby zobaczyć pełną wersję z większą zawartością, obrazkami i formatowaniem proszę kliknij tutaj.
Invision Power Board © 2001-2025 Invision Power Services, Inc.