![]() |
![]() |
![]() ![]()
Post
#1
|
|
![]() Grupa: Zarejestrowani Postów: 271 Pomógł: 4 Dołączył: 5.01.2005 Ostrzeżenie: (0%) ![]() ![]() |
Witam, nie zastanawiam się czy sie da, bo zapewne sie da, ale jak.
Potrzebuje zasymulować pytanie do googla, a linki, które dostanę chciałbym zapisać sobie czy to do pliku czy to do bazy.. Pytanie tylko jak? CURL ![]() w zapytaniu, o które mi chodzi otrzymuje ok 400tys wyników :/ Może ktos robił cos takiego? -------------------- created by chomiczek
|
|
|
![]() |
![]()
Post
#2
|
|
![]() Grupa: Zarejestrowani Postów: 100 Pomógł: 0 Dołączył: 25.01.2003 Skąd: mazury, wawa Ostrzeżenie: (0%) ![]() ![]() |
tak, uzyj curl. Zobacz jakie opcje sa do stronicowania i w petli pobieraj zapytanie oraz oczywiscie zmieniaj offset. Pozniej preg_match_all i wyciagasz linki
![]() -------------------- --
Carpe Diem |
|
|
![]()
Post
#3
|
|
![]() Grupa: Zarejestrowani Postów: 271 Pomógł: 4 Dołączył: 5.01.2005 Ostrzeżenie: (0%) ![]() ![]() |
qrcze cos mi nie działa preg_match_all
i nie wiem czemu? faza taka istnieje w wynikach i powinno być min. 10par.. a w tej chwili jak użyje
to mi zwróci 2 natomiast takie wywołania:
nie zwraca mi nic. Wnioskuje, że bład jest w [preg_match_all tylko gdzie? Aha zmienna $data przechowuje zawartość strony wpisaną poleceniem:
więc nie powinno byc problemu.. nie powinno ale jednak jest. Ten post edytował chomiczek 3.03.2006, 13:01:09 -------------------- created by chomiczek
|
|
|
![]()
Post
#4
|
|
![]() Grupa: Zarejestrowani Postów: 100 Pomógł: 0 Dołączył: 25.01.2003 Skąd: mazury, wawa Ostrzeżenie: (0%) ![]() ![]() |
pobaw sie:
i w stringu do funkcji preg_match_all pokombinuj z nawiasami, u mnie dziala np takie cos:
-------------------- --
Carpe Diem |
|
|
![]()
Post
#5
|
|
![]() Grupa: Zarejestrowani Postów: 271 Pomógł: 4 Dołączył: 5.01.2005 Ostrzeżenie: (0%) ![]() ![]() |
Hmm.. piszesz, że u Ciebie działa takie coś:
u mnie nie działa :/ i niechodzi tutaj o zmienne :/ qrcze nie mam pomysłu. -------------------- created by chomiczek
|
|
|
![]()
Post
#6
|
|
![]() Grupa: Zarejestrowani Postów: 100 Pomógł: 0 Dołączył: 25.01.2003 Skąd: mazury, wawa Ostrzeżenie: (0%) ![]() ![]() |
hmm, u mnie dziala ale do wyciagania z innego serwisu. Musisz ten string poprawic sam
![]() -------------------- --
Carpe Diem |
|
|
![]()
Post
#7
|
|
![]() Grupa: Przyjaciele php.pl Postów: 5 724 Pomógł: 259 Dołączył: 13.04.2004 Skąd: N/A Ostrzeżenie: (0%) ![]() ![]() |
-------------------- Nie lubię jednorożców.
|
|
|
![]()
Post
#8
|
|
![]() Grupa: Zarejestrowani Postów: 271 Pomógł: 4 Dołączył: 5.01.2005 Ostrzeżenie: (0%) ![]() ![]() |
ale co banują
![]()
to chyba nie będzie problemu, bo co google ma zbanować. Niezmienia to faktu, że ciągle mam puste tablice (niewiedziec czemu) -------------------- created by chomiczek
|
|
|
![]()
Post
#9
|
|
![]() Grupa: Zarejestrowani Postów: 476 Pomógł: 1 Dołączył: 5.11.2005 Skąd: Bieruń city Ostrzeżenie: (0%) ![]() ![]() |
http://forum.php.pl/index.php?showtopic=40270 - 3 post - masz tam jak wyniki z google przedstawic jako xml
-------------------- |
|
|
![]()
Post
#10
|
|
![]() Grupa: Zarejestrowani Postów: 271 Pomógł: 4 Dołączył: 5.01.2005 Ostrzeżenie: (0%) ![]() ![]() |
poradziłem sobie, ale mam problem teraz z CURL_PROXY szukam w necie i nie wiem jak ustawić, zeby mi sie dobrze łączył.. póki co zwraca mi wyniki, ale po którym przeładowaniu strony blokują mi serwer :/
-------------------- created by chomiczek
|
|
|
![]()
Post
#11
|
|
Grupa: Zarejestrowani Postów: 2 Pomógł: 0 Dołączył: 11.05.2006 Ostrzeżenie: (0%) ![]() ![]() |
Cytat(dr_bonzo @ 2006-03-03 16:15:49) Za takie cos google podobno banuje. nie wiecie przypadkiem czy inne wyszukiwarki ( w tym polskie) tez banuja za takie wydzieranie danych? ![]() |
|
|
![]()
Post
#12
|
|
![]() Grupa: Zarejestrowani Postów: 24 Pomógł: 1 Dołączył: 25.03.2006 Ostrzeżenie: (0%) ![]() ![]() |
A nie lepiej/szybciej/wygodniej/zgodnie z intencją właścicieli Google będzie wykorzystać Web services? http://www.google.com/apis/
-------------------- Blog
|
|
|
![]()
Post
#13
|
|
![]() Grupa: Zarejestrowani Postów: 14 Pomógł: 0 Dołączył: 22.04.2006 Skąd: Tarnów Ostrzeżenie: (0%) ![]() ![]() |
Cytat(chomiczek @ 2006-03-08 13:07:20) ale po którym przeładowaniu strony blokują mi serwer :/ Nikt niewie "po ilu" googlarka zablokuje, generalnie zasada jest taka ze zablokuje jak sie "wqrzy" ze interface dla userów jest wykorzystywany przez skrypt/robota. Jesli w skrypcie zasymulujesz naturalną aktywność ludzką to mysle ze mozesz spokojnie dziennie kilkadziesiąt fraz przeszukiwać, a jesli potzreba Ci wiecej to lepiej sie wspomoc jakimiś serwerkami z innymi IP Co do SEO to tu jest kopalnia wiedzy forum.optymalizacja.com/ |
|
|
![]()
Post
#14
|
|
![]() Grupa: Zarejestrowani Postów: 271 Pomógł: 4 Dołączył: 5.01.2005 Ostrzeżenie: (0%) ![]() ![]() |
Temat rozwiązałem już dawno, ale widzę, że ktoś odświeża temat.. Ogólnie zastosowałem CURLa i serwer proxy.. spokojnie dochodzę do ok. 100zapytań na dobę..
Mam jednak pytanie w kwestii googla.. da się wyciągnąc pozycję > 1000?? -------------------- created by chomiczek
|
|
|
![]() ![]() |
![]() |
Aktualny czas: 21.08.2025 - 06:17 |