![]() |
![]() |
![]()
Post
#1
|
|
Grupa: Zarejestrowani Postów: 110 Pomógł: 0 Dołączył: 5.05.2008 Ostrzeżenie: (0%) ![]() ![]() |
witam,
ostatnio sobie posprawdzalem z pomoca http://validator.w3.org/ strony, ktore pisalem daaaaawno temu (jak IE byl "jedyna sluszna przegladarka" bo w innych browserach 90% stron zle sie wyswietlalo). No i validator wywala dziesiatki bledow, niektore blahe, niektore wieksze, stare czasy, jak patrze w kod to nie maskaryczne byly moje poczatki hehe. Ale do czego zmierzam, strony swietnie dzialaja do dzis, w miare trzymaja pozycje w wyszkuwarkach. Czy jest sens za wszelka cene robic strone ktora sie waliduje w 100%? Skoro wszystko dziala, a czasu na poprawki brak, to czemu sie meczyc? Tak z ciekawosc sprawdzilem kilka znanych stron: google.pl - wysypuje 53 bledy - http://validator.w3.org/check?uri=http%3A%...ine&group=0 Rekordzista to onet pl - Failed validation, 305 Errors!!! - http://validator.w3.org/check?uri=http%3A%...ine&group=0 za to wp.pl zaskoczenie - brak bledow - http://validator.w3.org/check?uri=http%3A%...ine&group=0 |
|
|
![]() |
![]()
Post
#2
|
|
Grupa: Zarejestrowani Postów: 1 470 Pomógł: 75 Dołączył: 21.09.2005 Skąd: że znowu Ostrzeżenie: (0%) ![]() ![]() |
Cytat(koderrr) tak btw czesto sie widzi teksty typu "dzieki stronie na divach strona bedzie lepiej widziana w wyszukiwarkach itd itp" nie rozumiem tylko dlaczego za mało wiesz skoro nie rozumiesz. mniejsza objętość strony, używanie znaczników adekwatnych do treści znacząco wpływa na poprawę pozycji choćby dlatego że strona nie jest śmietnikiem tylko uporządkowaną semantyczną strukturą danych. |
|
|
![]() ![]() |
![]() |
Aktualny czas: 6.10.2025 - 21:07 |