![]() |
![]() |
![]()
Post
#1
|
|
![]() Grupa: Zarejestrowani Postów: 46 Pomógł: 0 Dołączył: 23.10.2008 Ostrzeżenie: (20%) ![]() ![]() |
Witam,
Czy ktoś zna jakiś sposób na poprawne zaindeksowanie przez Google setek tysięcy stron a raczej do zmuszenia do ich indeksacji? Obecnie na np w Cenoniada Google indeksuje tylko 12 tyś z blisko 300 tyś. Google sitemap odpada gdyż to jedna wielka ściema, Googlebot i tak indeksuje co chce. Jakimś sposobem musi indeksować serwisy, które mają po kilka milionów zindeksowanych podstron... Czy ktoś używał w tym celu robots.txt ? Pozdrawiam |
|
|
![]() |
![]()
Post
#2
|
|
![]() Grupa: Zarejestrowani Postów: 690 Pomógł: 81 Dołączył: 6.04.2005 Skąd: Szczecin Ostrzeżenie: (0%) ![]() ![]() |
dobre linkowanie wewnętrzne jest kluczem do indexacji dużych serwisów
![]() -------------------- |
|
|
![]()
Post
#3
|
|
![]() Grupa: Moderatorzy Postów: 4 069 Pomógł: 497 Dołączył: 11.05.2007 Skąd: Warszawa ![]() |
Przenoszę.
|
|
|
![]() ![]() |
![]() |
Aktualny czas: 22.08.2025 - 10:45 |