ich hatte heute Langeweile und so hab ich mal ein bisschen mit dem Validator von w3.org „herumgespielt“, das heißt ich habe mal einige große und bekannte Seiten des Netzes überprüft.
Dabei ist mir erschreckenderweise aufgefallen, dass diese Seiten zum Teil einen sowas von amateurhaften Code habe, da stimmt bei der ein oder anderen Seite gar nichts mehr. Hier mal ein paar Beispiele:
[ul]
[li]Amazon.de (815 Errors)[/li][li]Ebay.de (279 Errors)[/li][li]YouTube.com (182 Errors)[/li][li]MySpace.com (127 Errors)[/li][li]Yahoo.de (59 Errors)[/li][li]Google.de (43 Errors)[/li][li]Microsoft.com (29 Errors)[/ul]So, ich hoffe ich konnte ein paar gute Beispiele geben.[/li]Da ich persönlich sehr großen Wert auf einen „sauberen“ Code lege, bin ich einfach nur sehr erschrocken von diesem Ergebnis. Was ist denn daran so schwer, seinen Code sauber zu halten bzw. sauber zu machen, wenn einem der Validator schon so genau jeden Fehler einzeln zeigt?
Würde mal gern eure Meinung darüber wissen
MfG Icy
Edit: Komischerweise zeigt der Validator bei Amazon.de immer unterschiedliche Anzahlen von Errors an (?)
Um ehrlich zu sein hätte ich das nicht erwartet, bei amazon zeigts mir eben soger 821 Fehler an.
Dann sollten wir „kleine“ Webdesigner den Großen ein Vorbild sein und immer auf einen schönen sauberen Code achten, was ich persönlich für sehr wichtig erachte, wenn man etwas wie html und co. korrekt erlernen möchte.
Die Webmaster dieser genannten Seiten (ebay, amazon etc.) werden wohl sehr mit anderen Sachen beschäftigt sein, dass sie nicht immer auf die Validität der Seiten achten können - oder was meinen die anderen dazu?
Bei Amazon zeigt er immer eine unterschiedliche Anzahl von Fehlern an, wegen den Randomprodukten etc.
Man kann es zum Teil verstehen, weil die Admins der entsprechenden Seiten nicht immer auf dem neusten Stand sind. Sieht man speziell schon daran, dass der Doctype meist veraltet ist, oder gar nicht erst existiert
Und teils denke ich, liegt es einfach daran, dass sich die Leute denken „Hauptsache es funktioniert“. Ich mein, wer würde gerne Amazon komplett von Fehlern befreien, wenn allein schon 800 Fehler nur auf der Hauptseite sind? Ich nicht!
Teilweise verstehe ich das auch, wenn ein Admin seinen Code nicht andauernd sauber halten kann. Aber ab und zu sollte man ihn dann doch mal wieder reinigen, denn dann können Errors ab 100+ gar nicht erst auftreten.
Und teils denke ich, liegt es einfach daran, dass sich die Leute denken „Hauptsache es funktioniert“. Ich mein, wer würde gerne Amazon komplett von Fehlern befreien, wenn allein schon 800 Fehler nur auf der Hauptseite sind? Ich nicht!
Och also wenn die Knete stimmt, würd ich das schon machen Oft ist es ja so, dass ein eimnziger Fehler Ausschlag für mehrere Errors sind.
Nun ja, man muss natürlich auch einmal betrachten, welche Sorte Fehler das sind: Bei amazon.de z.B. besteht der Großteil der Fehler aus dem berühmten Gebrauch des Zeichens & in Links, fehlenden alt-Attributen bei img, nicht-SGML-Zeichen und solchen Fehlern, die aus dem fehlenden Doctype folgen, was zu Unfug wie
document type does not allow element „BODY“ here
führt oder dafür sorgt, dass jeder (XHTML-konform) geschlossene meta- oder img-Tag seinen eigenen Fehler verursacht.
Ich nehme an, dass das konsequente Ersetzen von & durch & und das Verwenden einer passenden Doctype-Deklaration die Fehlerzahl mindestens um drei Viertel reduzieren würde.
Hier einmal die Fehler nach Typ sortiert: [Invalid] Markup Validation of http://amazon.de/ - W3C Markup Validator
Da kommt es eher auf korrekte Anzeige und die Vermarktung bzw. den Kostenpunkt als auf Fehler an… oder glaubst du der Chef sagt zum Webdesigner „Du musst alles fehlerfrei machen ich sehe mal schnell im QT“ oder der normale Kunde? Ne… die sehen nur das Äußere…
Naja es ist immer das Gleiche: „Der User merkts nich also isses schon okay“, zumindest der invalide Code von den Browsern auch wie gewollt interpretiert wird.
Trotzdem ärgerts mich, ich meine so große Internetfirmen mit ihren ausgebildeten Programmierern/Scriptern sollten doch keine Probleme haben, sich da mal eben dranzusetzen und die Fehler auszubessern oder?
In einem anderen großen Forum waren btw einige der Meinung, dass es wirklich egal seie, weil der Enduser ja nichts merkt. Sowas find ich aber einfach nur schade.
Es gibt nur eine Lösung. Die Browser-Hersteller müssten gezwungen werden, sollche Seiten einfach nicht anzuzeigen.
Dazu müssten die aber ersteinmal lernen, wie es richtig dargestellt wird (z.B. Box-Bug im IE).
Ich glaube kaum, dass Profitgesellschaften es für nötig erachten ihren Code sauber zu halten. Kostet nur Geld von dem die meisten dann eh nichts merken, weil der Browser es ja richtig darstellt.