![]() |
![]() |
![]()
Post
#1
|
|
Grupa: Zarejestrowani Postów: 116 Pomógł: 2 Dołączył: 19.02.2008 Ostrzeżenie: (50%) ![]() ![]() |
www.worstsite.pl
Ranking stron pod względem ilości błędów w kodzie HTML. Wprowadzony adres jest automatycznie walidowany przez W3C. Dla stron z błędami odczytywane są ,także automatycznie, title i description i w tej postaci publikowane w kolejności błędów. Proszę o ocenę. |
|
|
![]() |
![]()
Post
#2
|
|
Grupa: Moderatorzy Postów: 4 362 Pomógł: 714 Dołączył: 12.02.2009 Skąd: Jak się położę tak leżę :D ![]() |
@kujawska: kilka rzeczy:
1. O xhtml nie można mówić jako standardzie. Chyba tylko w walidatorze gdy mu tak zdefiniujesz. Standardem jest i html 4.01 jeśli tak odczyta walidator z doctype'a, jak i xhtml 1.0 czy 1.1 czy html5. 2. Co ma robot do oglądalności? Robota interesują strony do jakich może się dostać. Nie ma on wglądu do statystyk. Chyba tylko google gdyby miał możliwość integracji robota z analytics (IMG:style_emoticons/default/smile.gif) O przełożeniu się pracy robota na klikalność można jedynie pisać w kontekście: "Robot zaindeksował masę podstron. Te według własnego algorytmu wysoko oceniła i pokazuje wyżej, więc częściej userzy na nie trafiają." A co z serwisami, które mają miliony fałszywych podstron? Robot je wszystkie odwiedzi, ale wyszukiwarka oceni jako najgorszy śmieć i nie puści wysoko. To się przełoży na klikalność? Nie. Bo chyba Ci chodzi o parametry typu CTR? 3. Dla Twojej wiedzy... Chmury tagów w SEO miały wpływ 2 lata temu, potem zaczęły słabnąć. Po wprowadzeniu pandy w Google niemal straciły całą moc i są traktowano prawie jak śmieci. 4. Jedyny sensowny wpływ semantyki na SEO jest pośredni. Semantyczna strona szybciej się ładuje/generuje (robot ją analizuje w poszukiwaniu określonych elementów, więc semantyczną może "przelecieć" łatwiej), przez co robot w tym samym czasie może odwiedzić więcej podstron. @shili: nie mam w sumie zastrzeżeń do tego co napisałeś... Zarówno w tym o podejściu robotów do strony i treści na niej jak i dostępności dla aplikacji "czytających" strony osobom niedowidzącym czy pomagających niepełnosprawnym ("przetabuj" się po elementach strony czasami kujawska to zrozumiesz). Jeśli @kujawska uważasz, że Twoje zdanie na temat wpływu standardów na roboty jest obowiązującym to pierwsza lepsza osoba lepiej orientująca się w SEO po prostu wiedzą na temat robotów Cię zagnie, bo to ich podstawa pracy wiedzieć pod jakim kątem algorytmy wyszukiwarek działają i co należy robotowi podsunąć do obskoczenia a co należy przed nim zasłonić, by niepotrzebnie nie indeksował milionów, skoro chodzi tak naprawdę o pewien ograniczony zbiór. Żeby nie być gołosłownym podam Ci co aktualnie choćby google robi... Indeksuje sobie strony i napotyka w jednym serwisie dwie podobne ale o różnych adresach. Obie dostają punkty karne a jeśli masz aktywne Webmaster Tools dostajesz tam info o double content. Sytuacja jest ciekawsza gdy znajduje podobne treści na różnych stronach/domenach. Wtedy analizuje i WYBIERA, na podstawie pewnych swoich parametrów, która jest oryginałem, a która kopią. Kopia dostaje po tyłku. A co jeśli to nasza strona jest oryginalna, ale zostaje uznana za kopię, bo kopiujący lepiej się na SEO zna i wie jak podpowiedzieć wyszukiwarce, że to jednak on jest pierwotną wersją? Peszek (IMG:style_emoticons/default/smile.gif) To tylko dwa proste przykłady, że jednak SEO to nie jest do końca magia i wróżenie z fusów. Kto wie jakie zmiany w algorytmach zachodzą, będzie górą, gdyż tak zmanipuluje danymi na stronach, że algorytmy dają się oszukać. Niedługo zresztą będzie "sądny dzień" dla wielu stron. Kto wie co wyprawia google na początku stycznia ten się tylko uśmiechnie teraz gdy to wspominam. EDIT: Zapomniałem dodać, że obecnie i tak z poziomu Webmaster Tools można określić jak często robot ma odwiedzać naszą stronę, tak więc ten parametr też już stracił na znaczeniu. Strona może być kiepska, ale walniemy, że robot ma ją odwiedzać kilka razy częściej niż normalnie i mamy luzik. No chyba, że nam transfer zaczyna zżerać (IMG:style_emoticons/default/wink.gif) |
|
|
![]() ![]() |
![]() |
Aktualny czas: 18.10.2025 - 10:16 |