![]() |
![]() |
![]()
Post
#1
|
|
Grupa: Zarejestrowani Postów: 97 Pomógł: 0 Dołączył: 18.12.2008 Ostrzeżenie: (0%) ![]() ![]() |
Witam!
Mam problem z pozycjonowaniem strony w google. A zatem byłem na pierwszej stronie, a spadłem na 5. Co może być przyczyną, adres strony to moszczenica.info . Po wpisaniu w gogle Moszczenica byłem na 1 stronie a teraz jestem na 5. Jak mam wypozycjonować tą stronę? |
|
|
![]() |
![]()
Post
#2
|
|
Grupa: Zarejestrowani Postów: 1 590 Pomógł: 185 Dołączył: 19.04.2006 Skąd: Gdańsk Ostrzeżenie: (0%) ![]() ![]() |
Chodzi o to, że kod zoptymalizowany mniej waży - pamiętaj, że google-bot ma limity:
- odwiedzeń Twojej strony - czasu, jaki na niej spędza - ilości danych, jakie siorbie Optymalizując kod strony zyskamy głównie szybszą i głębszą indeksację - jeśli serwis jest słabo podlinkowy to google może w ogóle nie łyknąć niektórych stron, zdjęć itp. Oczywiście optymalizacja ma tym większe znaczenie, im więcej podstron, słabsza fraza i mniej linków. |
|
|
![]()
Post
#3
|
|
Grupa: Zarejestrowani Postów: 898 Pomógł: 48 Dołączył: 2.11.2005 Skąd: Poznań Ostrzeżenie: (0%) ![]() ![]() |
Chodzi o to, że kod zoptymalizowany mniej waży - pamiętaj, że google-bot ma limity: - odwiedzeń Twojej strony - czasu, jaki na niej spędza - ilości danych, jakie siorbie Nigdy o takowych limitach nie słyszałem. Różne strony są odwiedzane z różną częstotliwością. Im popularniejsza, częściej aktualizowana strona tym bot częściej ją odwiedza. Kod strony (poza kilkoma wyjątkami ) nie ma większego znaczenia dla indeksacji. Te wyjątki to optymalizacja treści wewnątrz niektórych znaczników typu hx, strong, title itp. Choć nie jest to może obiektywne źródło to temat ten był już kilkukrotnie poruszany na blogu google i w rozmowach z ich pracownikami (np. googlarzem) na forum pomocy google czy w wywiadach. Ogólnie nie spotkałem się ze stwierdzeniem by optymalizacja kodu (od strony np. jego poprawności, unikania tabel do prezentacji itp.) wpływała pozytywnie na indeksację. 95% stron w sieci jest napisanych źle i google po prostu nie może sobie pozwolić na ich gorsze indeksowanie. Ogólnie optymalizacja kodu strony i jej dużym wpływ na google to dla mnie urban legend - nie ma żadnych konkretnych dowodów potwierdzających jakikolwiek związek a przeglądnięcie serpów raczej również wskazuje, że nie jest to istotny czynnik bo wiele fraz jest obleganych przez kiepsko napisane strony. Mówiąc o wpływie optymalizację strony na wyniki wyszukiwania trzeba mieć głównie takie rzeczy na uwadze jak: - odpowiednie nasycenie słowami kluczowymi - umieszczenie słów kluczowych w najważniejszych tagach czyli wspomniane hx czy strong - optymalizacja title i metatagów (w przypadku google metatagi są raczej mało istotne, ale nie zaszkodzi) - linkowanie wewnętrzne z odpowiednio dobranymi słowami kluczowymi - przyjazne url (ma znaczenie głównie kiedy w adresie jest wiele parametrów bo google tego nie lubi) - stosowanie atrybutów typu alt i title To według mnie są rzeczy, które można zrobić "od środka" aby poprawić swoje wyniki. Potem już głównie linkowanie i eksperymenty z podwyższeniem ctr. Ten post edytował athabus 6.02.2009, 12:20:24 |
|
|
![]()
Post
#4
|
|
Grupa: Zarejestrowani Postów: 1 590 Pomógł: 185 Dołączył: 19.04.2006 Skąd: Gdańsk Ostrzeżenie: (0%) ![]() ![]() |
Nigdy o takowych limitach nie słyszałem [....] Kod strony (poza kilkoma wyjątkami ) nie ma większego znaczenia dla indeksacji [...] Ogólnie nie spotkałem się ze stwierdzeniem by optymalizacja kodu (od strony np. jego poprawności, unikania tabel do prezentacji itp.) wpływała pozytywnie na indeksację. 95% stron w sieci jest napisanych źle i google po prostu nie może sobie pozwolić na ich gorsze indeksowanie. - limity są, bo zasoby google-bota nie są nieograniczone - możesz nawet przejrzeć ilość pobranych danych i czas, jaki spędził bot na stronie - chodzi o to, żeby maksymalnie wykorzystać te bajty i ten czas - bot nie wsiorbie przecież całego kontentu - za każdym razem tylko kęs i to od nas zależy, jak duży i jak często.Co do optymalizacji - nie chodziło mi o unikanie tabel etc, raczej zupy z tagów pełnej JS, width, height, <center>, dużo kodu, mało treści - a gorzej napisana strona będzie gorzej traktowana, podobnie jak ta słabiej wypozycjonowana, gugiel będzie mniej czasu na niej spędzał, rzadziej ją odwiedzał i siorbał mniej kontentu. Mój pogląd na temat jest taki, że strony zoptymalizowane łatwiej się pozycjonuje, aczkolwiek nie ma tu reguły, bo pozycjonowanie nie jest nauką ścisłą, można wypozycjonować nawet stronę bez treści, jak się uprzesz - gdyby optymalizacja strony nie miała znaczenia, to pozycjonerzy nie budowaliby zaplecza np. na wordpressach. Zoptymalizowany serwis i z większą ilością treści łatwiej się pozycjonuje i to jest fakt, zawsze namawiam do optymalizacji, jeśli nie wiąże się to z dużym nakładem pracy, niekiedy wręcz nie można się bez tego obejść (np. sklepu nie będziesz pozycjonował na każdy produkt, kluczem do sukcesu jest optymalizacja). Edit: zresztą spójrzcie na tą stronę, jest tak fatalnie napisana, że google indeksuje tylko 9 podstron treści (konkurencja kilkaset) - i google nie może sobie pozwolić na gorsze indeksowanie takich stron? Gugiel wręcz wierzga, prycha i dymi, jak wchodzi na taką stronę, cud, że ją w ogóle indeksuje, człowiek może dodawać linki masowo, a prędzej sand boxa złapie, niż poprawi wynik. Ten post edytował Pilsener 9.02.2009, 01:23:07 |
|
|
![]() ![]() |
![]() |
Aktualny czas: 13.10.2025 - 12:31 |