Witaj Gościu! ( Zaloguj | Rejestruj )

Forum PHP.pl

> Pobieranie treści ze strony www, Problem algorytmiczny z pobieraniem treści ze stron www
Xanteros
post
Post #1





Grupa: Zarejestrowani
Postów: 2
Pomógł: 0
Dołączył: 8.04.2012

Ostrzeżenie: (0%)
-----


Witam, Mam mały problem z napisaniem aplikacji. Potrzebuję zrobić program, który będzie pobierał odpowiednią treść ze strony www i ją modyfikował. Mianowicie np weźmy to forum. Chciałbym aby program wszedł w dział php, pobrał tylko dzisiejsze posty i np pobrał z tych postów tylko nazwy użytkowników i zapisał je w MySQL. Strony na których będzie działać moja aplikacja nie mają kanałów rss i nie mam dostępu do nich (w sensie do ich bazy danych czy do cms). Problem polega na tym, że nie wiem jak to ugryźć. Myślałem o pobieraniu konkretnego div'a, ale na każdej stronie klasa lub id danego div może być inna, poza tym chodzi też o pobieranie najnowszych danych a nie staruch (czyli takich z dzisiejszego dnia, jutro z jutrzejszego itd). Jak to rozwiązać?
Go to the top of the page
+Quote Post
 
Start new topic
Odpowiedzi
alegorn
post
Post #2





Grupa: Zarejestrowani
Postów: 341
Pomógł: 40
Dołączył: 23.06.2009

Ostrzeżenie: (0%)
-----


hm. pobieranie danych:

* file_get_contents
* curl
* i jeszcze pare innych, ja raz nawet i >wget< uzywalem

do wydzielania/znajdowania tresci

* explode
* preg_match
* phpQuery

rozpoznawanie ostatnich tresci
* daty postow/art.
* porownywanie tresci wg tego co masz w bazie

a poza tym to o co pytasz to troche kradziez danych (IMG:style_emoticons/default/wink.gif)
ale jesli cie do nie razi - to poczytaj sobie o robotach, crawlerach, pajaczkach itp.

j.
Go to the top of the page
+Quote Post

Posty w temacie


Reply to this topicStart new topic
2 Użytkowników czyta ten temat (2 Gości i 0 Anonimowych użytkowników)
0 Zarejestrowanych:

 



RSS Aktualny czas: 6.10.2025 - 03:46