Witaj Gościu! ( Zaloguj | Rejestruj )

Forum PHP.pl

 
Reply to this topicStart new topic
> Zapisywanie stron w php
biksu
post
Post #1





Grupa: Zarejestrowani
Postów: 2
Pomógł: 0
Dołączył: 7.08.2013

Ostrzeżenie: (0%)
-----


Witam,
piszę ostatnio aplikację z wykorzystaniem frameworka Symfony i zatrzymałem się na funkcjonalności, która ma służyć do zapisywania stron (podobne działanie do opcji "zapisz jako" w Firefoxie).
Chciałem rekurencyjnie ściągać wszystkie obrazki i style, z linków znajdujących się w contencie, jednak jest to niewydajne i powoduje dużo błędów, ze względu na różną budowę stron.
Próbowałem wykorzystać "wget" jednak nie zapisuje mi wszystkiego tak jak powinien, tzn. nie zapisuje obrazków zdefiniowanych w css'ie. Kolejnym narzędziem jakie chciałem wykorzystać to "httrack",
jednak przy ustawieniu poziomu głębokości 1 zapisuje mi tylko samego html, obrazki i cssy przekierowuje na hosting, przy poziomie głębokości 2 zapisuje mi znowu całą stronę, ze wszystkimi podstronami, a potrzebuje tylko tą konkretną podstonę.
Chciałbym zapisać tylko konkretną stronę wraz z niezbędnymi rzeczami (takimi jak cssy, obrazki, flashe), ma ona identycznie wyglądać jak po zapisaniu stronu przez przeglądarkę.
Prosiłbym był o najmniejsze rady, jak ma się do tego zabrać lub z jakich narzędzi skorzystać.

Dziękuję za pomoc.
biksu
Go to the top of the page
+Quote Post
piotr.pasich
post
Post #2





Grupa: Zarejestrowani
Postów: 27
Pomógł: 4
Dołączył: 27.01.2012
Skąd: Gliwice

Ostrzeżenie: (0%)
-----


Hej,

wget ma opcje rekursywne:
  1. Pobieranie rekurencyjne:
  2. -r, --recursive praca rekurencyjna.
  3. -l, --level=NUMER maksymalny poziom zagłębienia przy rekurencji
  4. (inf lub 0 oznacza brak ograniczeń).
  5. --delete-after usuwa lokalnie pliki po ich pobraniu.
  6. -k, --convert-links konwertuje odnośniki w ściąganych plikach HTML
  7. i CSS, aby wskazywały na pliki lokalne.
  8. -K, --backup-converted przed konwersją pliku X zapisuje jego kopię jako
  9. X.orig.
  10. -m, --mirror skrót dla -N -r -l inf --no-remove-listing.
  11. -p, --page-requisites pobiera wszystkie pliki graficzne itp. potrzebne
  12. by poprawnie wyświetlić stronę HTML.
  13. --strict-comments włącza surową (SGML) interpretację komentarzy HTML.


Można z nimi pokombinować
Go to the top of the page
+Quote Post
biksu
post
Post #3





Grupa: Zarejestrowani
Postów: 2
Pomógł: 0
Dołączył: 7.08.2013

Ostrzeżenie: (0%)
-----


Niestety kombinuje z nim i httrackiem, już drugi dzień i nie osiągnąłem potrzebnego efektu.
Ta komenda: wget -E -H -k -p -N -nH -erobots=off -P katalog_do_zapisu/ http://url.com
sciąga prawie wszystko dobrze, jest pojedyńcza strona, jakieś obrazki, css, flashe, ale niestety nie ściąga
z odnośników w css'ach, przez co wyświetla, niektóre strony bez niektórych szczegółów.
Może istnieje jakiś gotowy skrypt w php lub javascripcie do tego typu zadań?
Go to the top of the page
+Quote Post

Reply to this topicStart new topic
2 Użytkowników czyta ten temat (2 Gości i 0 Anonimowych użytkowników)
0 Zarejestrowanych:

 



RSS Aktualny czas: 25.12.2025 - 00:30