Post
#1
|
|
|
Grupa: Zarejestrowani Postów: 271 Pomógł: 0 Dołączył: 21.05.2008 Ostrzeżenie: (0%)
|
Witam, mam pytanko, czy da się napisać skrypt do automatycznego pobierania danych ze strony. Ściślej mówiąc chodzi o pobranie plików pdf. Narzędzia typu WebCopy albo Httrack niestety sobie z tym nie radzą, nie da się za ich pomocą ściągnąć tych plików. Strona ogólnie po wpisaniu jej nazwy w przeglądarce od razu wywala błąd "403 Forbidden". Ale po wpisaniu określonego adresu np: "https://dokumenty.twojemeble.pl/instrukcje/125981.pdf", można pobrać ten pdf. Niestety tych plików jest większa ilość, więc praca ręczna jest za mozolna. dokładnie chodzi o ściągnięcie pdf z folderu: "https://dokumenty.twojemeble.pl/instrukcje".
myślałem o czymś w rodzaju pętli:
tylko co w środku ? |
|
|
|
![]() ![]() |
|
Aktualny czas: 30.04.2026 - 07:03 |