Skip to Content

FAQ

In dieser Rubrik geben wir Ihnen Antworten auf Fragen rund um das Thema Webdesign.

Es werden Begriffe und Vorgänge erklärt.

Klicken Sie einfach auf ein Thema Ihrer Wahl und die Antwort öffnet sich in einem Javascript.
Zum Schließen klicken Sie bitte den Begriff noch ein Mal.

Auch wenn Sie sich dessen vielleicht nicht bewusst sind, Sie spielen auf dem heutigen Markt eine bedeutende Rolle. Wir leben in einer Zeit, in der das Angebot die Nachfrage oftmals deutlich übersteigt. Sie, als Käufer, sind aus verkaufstechnischer Sicht in einer deutlich günstigeren Position als die Verkäufer respektive Handelsunternehmen. Eine Vielzahl an Wettbewerbern buhlt um Ihre Gunst und Sie haben die Wahl, ob Sie die jeweiligen Angebote überhaupt annehmen.
Diese Situation auf den Absatzmärkten stellt die Anbieter vor das Problem, wie sie sich einen Vorsprung gegenüber der Konkurrenz verschaffen können. Dies ist möglich, wenn sämtliche Unternehmensaktivitäten auf die Wünsche und Bedürfnisse der Kunden ausgerichtet werden und die Unternehmensziele klar definiert sind. Der Markt und die Kunden stehen im Fokus aller Beteiligten im Unternehmen. Und genau diese Ausrichtung der Unternehmensentscheidungen auf den Markt ist Inhalt und Aufgabe des Marketings.
Stellen Sie sich vor, wie viele Aspekte Ihre Kaufentscheidung – bewusst und unbewusst - beeinflussen, bevor Sie sich für den Kauf eines bestimmten Produktes tatsächlich entscheiden. Genauso komplex und vielfältig sind die Instrumente, mit denen die Unternehmen ihre Aktivitäten steuern, um Sie als Kunden zum Kauf zu animieren. Mit besonderen Garantieleistungen oder herausragenden Funktionalitäten der angebotenen Produkte versuchen sich Unternehmen von Mitbewerbern abzuheben.

Natürlich lässt sich eine Differenzierung auch über den Preis realisieren: Rabattierungen und Sonderangebote sind nur einige preispolitische Mittel, um die Käufer zum eigenen Produkt zu locken. Und was beeinflusst Sie als Konsument am Offensichtlichsten? Die Werbung und alle ihr zur Verfügung stehenden Kommunikationsmittel. Letztendlich spielt auch die Distribution eine bedeutende Rolle: Bietet ein Händler vielleicht das Produkt mit einer Frei-Haus-Lieferung an? Oder ist die Anzahl der Zweigstellen eines Unternehmens einfach nicht ausreichend?
Sie sehen also, dass neben der Produkt- und Preispolitik auch die Kommunikation- und Distributionspolitik wichtige Instrumente des Marketings sind, um die formulierten Unternehmensziele zu verwirklichen.
Hinter dem Begriff Marketing verbirgt sich ein in sich geschlossener Gesamtplan, welcher in der heutigen Zeit den Kernbereich der eigentlichen Unternehmensführung darstellen sollte. Dieser Gesamtplan, das Marketing-Konzept, besteht im Prinzip aus fünf Phasen: Situationsanalyse, Festlegung der Marketingziele, Festlegen entsprechender Strategien und operativer Marketingmaßnahmen und der ergebnisorientierten Kontrolle.
Marketing ist also die Gesamtheit aller Unternehmensaktivitäten, um Sie als Kunden oder Käufer für ein bestimmtes Produkt erfolgreich gewinnen zu können.

Wie kann es zu Duplicate-Content kommen? Alle seriös arbeitenden Webmaster schreiben ihre Texte entweder selbst oder oder beschäftigen einen Autor, der dies gegen Bezahlung erledigt. Nun gibt es aber auch Webmaster, die den Aufwand des Selberschreibens oder die Kosten scheuen. Schnell ist per Copy and Paste ein Text von einer andern Webseite gestohlen und in die eigene Webseite eingebaut. Nur professionelle Contentdiebe schicken Spider durch das Internet, mit denen sie im großen Rahmen Texteinhalte von anderen Webseiten stehlen. Diese Texte tauchen dann mit Links versehen, als Spam, in verschiedenen Gästebüchern und Internetforen auf.

Aber auch die Unwissenheit von Webmastern kann zu Dublicate Content führen.
Das Speichern des gleichen Inhalts unter verschiedenen Dateiennamen kann eine Ursache sein. Doch auch zu ambitionierte SEOs können Dublikate Content verursachen. Man kann immer wieder beobachten, dass sich auf Subdomains exakte Spiegelbilder der Hauptomain befinden.
Wieder andere versuchen den Suchmaschinen riesige Textmengen vorzuspiegeln und veröffentlichen den gleichen Text gleich mehrfach auf einer Domain. Auch die interne Verlinkung einer Webseite kann zu doppeltem Content führen. Wenn die Startseite Ihrer Webseite einmal unter www.Beispiel.com und unter www.Beispiel.com/index.html zu erreichen ist, kann Google dies als doppelten Content werten.

Der gleichen Fall tritt ein, wenn man Ihren Internetauftritt einmal mit dem Vorsatz www. und einmal ohne den selben erreichen kann. Welche Schäden können entstehen? Wenn eine Webseite ein besseres Ranking aufweist als die eigene Seite, so kann es passieren, dass diese plötzlich in den Suchmaschinenergebnissen über ihnen gelistet wird. Irgendwann könnte Google auf die Idee kommen, dass es diese Seite ist, die die Rechte an dem fraglichen Text besitzt. Die Folge könnte sein, dass die bestohlene Webseite eine massive Abstrafung erleidet oder unter Umständen ganz aus dem Suchmaschinenindex entfernt wird. Da viele Webmaster mit ihren Webseiten auch Umsätze generieren, kommt es durch so eine Maßnahme zu empfindlichen Umsatzeinbußen. Die Folgen können verheerend sein.

Was kann man tun?
Grundsätzlich sollten Sie die Programmierung Ihrer Webseite auf den oben genannten Fehler überprüfen und gegebenenfalls sofort Gegenmaßnahmen einleiten. Dann ist es wichtig, gestohlene Inhalte im Internet überhaupt erst zu entdecken. Gute Dienste leistet hier die Webseite Copyscape. In ein Formularfeld wird einfach die eigene URL eingegeben und nach wenigen Augenblicken werden alle Webseiten im Internet gelistet, die Texte dieser Domain verwenden. Ein weiterer wichtiger Schritt ist das Aussperren der oben genannten Spider. Dies ist einmal über die .htaccess-Datei möglich, doch dies erfordert sehr hohen zeitlichen Aufwand.

Eine andere Möglichkeit ist, die fraglichen Spider mit einem php-Script auszusperren. Ein solches Script kann man unter anderem auf www.bot-trap.de kostenlos beziehen. Wie kann man sich wehren? Der erste Weg ist immer, den entsprechen Webmaster anzusprechen und ihn aufzufordern, die fraglichen Inhalte sofort zu entfernen. Sollte er dieser Aufforderung nicht nachkommen, so steht Ihnen der Rechtsweg offen, um Ihre Ansprüche durchzusetzen.

Unter Software versteht man Computerprogramme, die nur auf Hardwarekomponenten zum Einsatz gebracht werden können. Software wird wörtlich übersetzt auch als Datenverarbeitungsprogramm bezeichnet. Ob Texte oder Bilder, ob man Spiele spielt, oder ins Internet geht -überall müssen Daten verarbeitet werden, sonst kann ein Programm nicht funktionieren.

Software ist auf den meisten Rechnern als Betriebssystem schon vorhanden. Darüberhinaus kann der Computer durch weitere Software ergänzt und erweitert werden. Egal, was man auf dem Computer machen möchte, für alles gibt es die entsprechende Software, die man installieren kann.

Software kann in verschiedene Arten unterteilt werden. Dabei kommen die „normalen“ Computernutzer in der Regel mit folgenden Bereichen in Berührung:
Die Systemsoftware, die wie bereits beschrieben, als Betriebssystem auf dem Computer installiert sein muss, um überhaupt damit arbeiten zu können. Außerdem fallen hier noch die Gerätetreiber darunter, die einen Einsatz von Hardware erst möglich machen.
Die Anwendungssoftware, mit der man bestimmte Anwendungen wie Textverarbeitung erst nutzen kann. Word und Excel sind zum Beispiel solche Programme.
Die Standardsoftware, die man überall käuflich erwerben kann.
Die Freeware, die sich kostenlos aus dem Internet herunter laden lässt.

Egal, um welche Software es sich handelt, ob Text- und Bildverarbeitungsprogramme, Spiele, Browser, E-Mail-Clients usw., all diese Software kann eines der oben genannten Kriterien erfüllen. Gerade bei frei zugänglicher Software aus dem Internet ist Vorsicht geboten, denn wenn jemand mit böser Absicht handelt, kann diese Software mit Viren verseucht sein. Deswegen sollte man immer nur Programme downloaden, denen man vertraut. Da Software unterschiedlich groß sein kann, verbraucht sie auch unterschiedlich viel Speicherplatz. Zu viel Software kann den Rechner deswegen deutlich langsamer machen.

Auch das von uns überwiegend verwendete CMS Drupal, ist tatsächlich eine Software, die auf einem Server läuft.
So funktioniert auch die Seite, die Sie gerade betrachten.

Ist von Hardware die Rede, dann weiß jeder, was damit gemeint ist. Unter Hardware versteht man den Computer, den Monitor, den Drucker, die Tastatur, die Maus etc. Doch das ist noch lange nicht alles. Denn vieles wird beim Thema Hardware vergessen zu erwähnen.

Vielleicht zuerst zur Begriffserklärung. Hardware wird auch als Datenverarbeitungsgerät bezeichnet. Ganz frei übersetzt ist Hardware das, was man anfassen kann, was also materiell ist. Hardware kann nur in Verbindung mit Software und Firmware funktionieren.

Unterteilt wird die Hardware in drei Überbegriffe: Peripheriegeräte, Speicherwerke und Netzteil. Diese drei Bereiche werden auch Komponenten genannt. Nur in der Gesamtheit dieser drei Komponenten, kann ein Computer funktionieren.

Zu den Peripheriegeräten gehören die bereits oben aufgezählten Hardware-Komponenten. Dazu kommen allerdings auch noch diverse Karten wie Sound- und Grafikkarte, Netzwerkkarte, ISDN-Karte und auch USB-Sticks.

Die Speicherwerke unterteilt man in den Arbeitsspeicher, auch RAM genannt, und die Laufwerke. Hierzu zählen CD-Rom und DVD Laufwerke, Flashspeicher und natürlich auch die Festplatte.

Das Netzteil besteht aus den Bestandteilen für den Rechner selbst. Hier laufen alle Befehle zusammen, außerdem befinden sich hier das Register und der Speicher des Computers. Besonders hervorzuheben in diesem Bereich ist das Mainboard, das auch als Motherboard bezeichnet wird. In ihm befinden sich unter anderem Speicherbausteine und Prozessoren.

Will man Hardware an einem Rechner verwenden, muss diese zuerst installiert werden. Entweder geschieht dies mit Hilfe von CD-Roms, die den Produkten beigefügt sind, oder der Computer erkennt selbständig die neu angeschlossenen Geräte. Installiert werden sie mit sogenannten Treibern. Bei den gebräuchlichen Geräten sind die Treiber oft schon auf dem Computer aufgespielt.

Will man E-Mails empfangen und senden, dann braucht man einen sogenannten E-Mail-Client. Ein solches Programm kann auf unterschiedliche Art und Weise funktionieren. Entweder werden die Mails auf einer Mailbox gespeichert, die mittels einer DFÜ-Verbindung besteht, oder ein Mail-Server lädt die Daten mit einem POP-Übertragungsprotokoll herunter. Als dritte Möglichkeit gibt es auch noch den direkten Zugriff auf den Server, der über ein IMAP-Protokoll funktioniert.

Meist treten solche E-Mail-Clients als separate Programme in Erscheinung, können aber auch in einen Webbrowser integriert sein, wie es bei den Browsern Mozilla und Netscape der Fall war. Externe E-Mail-Clients sind kostenlos aus dem Internet herunterzuladen oder bereits auf dem Betriebssystem integriert. Am meisten werden wohl Outlook (Explorer) und Thunderbird (Firefox) verwendet. Interne werden dagegen kaum mehr genutzt.

Zusätzlich zu den bereits genannten Clients, gibt es auch die sogenannten Freemailer. Dies sind E-Mail-Programme, die von Internetseiten wie zum Beispiel AOL, GMX oder Freenet, kostenlos angeboten werden. Dazu muss man einen Account bei der jeweiligen Seite haben, über den man sich einloggen muss und so seine Mails empfangen oder senden kann. Diese Art der Mailnutzung kann man im Übrigen von jedem Computer auf der ganzen Welt aus betreiben.

Die E-Mail Adresse kann man sich nach Belieben selbst auswählen. Lediglich der Teil nach dem „@“-Zeichen, also der sogenannte Domain Part, ist meist festgelegt, je nachdem, bei welchem Server man seinen Account hat. Also beispielsweise xy@t-online.de oder xy@1und1.de. Hat man dagegen selbst eine Homepage, dann kann der Domain Part auch den Namen der Homepage beinhalten. Bei Freemailern ist dies übrigens nicht möglich. Hier ist der Name nicht veränderbar. Es heißt also immer xy@gmx.de oder xy@aol.de.

Eine Website  kommt ohne Links nicht aus. Sie sind fester Bestandteil und machen das Navigieren im Internet erst möglich. Denn durch Links kann man mit einem Mausklick von einer Seite auf eine andere gelangen. Das kann innerhalb einer Website  eine dazugehörige Webseite sein, aber auch eine Verlinkung zu einer anderen Seite bedeuten, die mit der eigentlichen Seite nichts zu tun hat. Links können dabei als Textlink, also als markierter Text, auftreten, aber auch durch Anklicken von Grafiken und Bildern den User weiterleiten. Angezeigt werden Links beim Surfen durch farbliche Hervorhebungen, Texte können dabei auch unterstrichen sein. Der Mauszeiger ändert sich, je nach den Einstellungen und im unteren Bereich des Browserfensters wird in der Regel das Ziel eingeblendet.

Will man einen Link auf seiner Homepage anzeigen lassen, muss dieser immer mit dem Transportprotokoll „http://“ angegeben werden. In HTML wird er mittels der Befehle <a href> oder <link> eingebunden. Außerdem kann man noch festlegen, ob sich die neue Seite im selben Fenster öffnen soll oder einem neuen Fenster.

Links können unterschiedliche Bezeichnungen haben. Ein Link ist dabei aber immer ein Hyperlink, der in der Regel auf eine Seite oder eine Grafik verweist. Auch kann er direkt zum E-Mail-Programm führen, um eine Nachricht schreiben zu können. Bei den vielen verschiedenen Linkarten sind normalerweise zwei besonders wichtig: die Backlinks, die immer auf die eigene Seite verweisen. So zum Beispiel bei Artikelverzeichnissen, bei denen durch die Einbindung von Textlinks ein Backlink, also ein Link zurück gefordert wird. Als zweite Linkart ist der Deeplink am meisten verbreitet. Er verweist dabei auf eine Unterseite der Website, während die „normalen“ Links die Hauptseite erreichen.

Frames ist das englische Wort für Rahmen und ist im Bereich der Webseitenerstellung eine wichtige Sache geworden. Denn durch Frames kann man verschiedene Inhalte, also unterschiedliche Dokumente, auf ein und derselben Webseite  darstellen. Richtig angebracht und verwendet, kann so eine Seite sehr übersichtlich gestaltet werden. Die Gefahr dabei ist allerdings, dass zu viel Inhalt hineingepackt wird, und die Seite damit unübersichtlich wird.
 
Prinzipiell kann eine Webseite unzählig viele Frames beinalten, sowohl nebeneinander als auch untereinander. Der besseren Übersicht wegen, sollte aber auf zu viele Frames innerhalb einer Seite verzichtet werden. Alles, was über drei Frames hinausgeht, kann den Leser schon überfordern. Natürlich kommt es auch auf die Menge der Inhalte an. So können Frames ganze Texte enthalten, die innerhalb dieses Frames auch noch scrollbar sind. Es können aber auch nur Bilder oder Grafiken verwendet werden. Was in einen Frame gepackt wird, das bleibt dem Webmaster selbst überlassen.
 
Nachteilig an Frames ist die Adressierung einer Seite. Jede Webseite hat innerhalb der Website eine eigene Adresse. Wird nun beispielsweise eine Seite mit vier Frames gestaltet, kann nur die Adresse der Hauptseite erfasst werden, die vier Unterseiten, die als Frame in die Seite eingebunden sind, werden als eigenständige Adresse nicht erfasst.
 
Bei der Einbindung in HTML muss jedes Frame eine eigene Bezeichnung und ein eigenes Ziel aufweisen, damit klar ist, welche Positionen die einzelnen Frames haben. Die Gesamtheit der Frames wird als Frameset bezeichnet.
 
Der Trend geht allerdings weg von den Frames. So ist es möglich, mit einer eigenen Stylesheet-Sprache, die Vorteile der Frames zu nutzen, ohne die Seite in Frames unterteilen zu müssen. CSS, Cascading Style Sheet, ist so eine Sprache, die immer mehr Befürworter findet.

Jeder Betreiber einer Webseite  sollte eine Anbieterkennung, also ein Impressum, haben. Sollte deswegen, weil es bei Websites, die rein privater Natur sind, nicht zwingend erforderlich ist. Allerdings ist es anzuraten, da im Zweifelsfall Streitigkeiten teuer werden könnten. Ein Zweifelsfall könnte schon dann entstehen, wenn man eine Verlinkung zu einem Affiliate-Partner in die Seite mit einbaut. Also: am besten immer ein Impressum  angeben, dann kann nichts passieren.

Alle anderen Betreiber, deren Seite über den privaten Zweck hinausgeht, sind allerdings verpflichtet, ein Impressum anzubieten.  Dies soll sicherstellen, dass jeder Besucher die Möglichkeit hat, zu wissen, wer für den Inhalt der Website verantwortlich ist. Auch sollte das Impressum von jeder Webseite aus immer direkt erreichbar sein.

Das Impressum kann je nach Umfang und Zweck der Seite, auch ausführlicher ausfallen. Immer beinhalten muss es den Namen, die Adresse, die E-Mail-Adresse und gegebenenfalls die Telefonnummer des Anbieters. Bei redaktionellen Seiten auch den verantwortlichen Redakteur und bei Kanzleien oder großen Firmen evtl. auch den Vertretungsberechtigten, die Steuernummer, Sitz und Register.

Geregelt wird die Anbieterkennungspflicht im TMD, dem Telemediengesetz. Darin sind alle Gesetzesvorlagen zu finden. So auch die Pflicht von deutschen Webmastern, die eine Domain mit ausländischer Kennung haben, ihren Sitz im Ausland haben oder überwiegend ausländische Mitbürger, auch in einer anderen Sprache, mit ihrer Website ansprechen, ein Impressum zu führen. Selbst beim E-Mail-Verkehr muss, wenn er extern stattfindet, ein Impressum mit den o.g. Angaben innerhalb der E-Mail angegeben werden. In diesem Fall zählt die E-Mail nämlich als Geschäftsbrief.

Wer auf seiner Seite noch kein Impressum hat, sollte dies schnellstmöglich nachholen, denn dies kann Strafen bis zu 50.000 € nach sich ziehen, inkl. einer Abmahnung mit Unterlassungserklärung.

Wer heute mit seinem eigenen Webauftritt professionell arbeiten möchte, sollte sich neben vielen anderen Aspekten auch um die Barrierefreiheit der eigenen Webseite kümmern. Der Begriff barrierefreie Webseite kommt aus dem Bereich Webdesign und bedeutet, dass jeder Internetnutzer problemlos mit dem eigenen Webauftritt umgehen kann. Neben vielen Basics geht es dabei auch um eine behindertenfreundliche Ausgestaltung der Homepage. Im Folgenden werden die wichtigsten Punkte zur Barrierefreiheit kurz beschrieben, um den geneigten Leser einen Überblick bieten zu können.

Die Basics zur Barrierefreiheit sollte jede Webseite erfüllen

Bei den Basics zur barrierefreien Webseite geht es vor allem darum, dass man als Webdesigner und Webmaster erkennt, dass nicht jeder Internetnutzer über die gleiche technische Ausstattung verfügt. So sollte eine Webseite also nicht nur in einem bestimmten Browser funktionieren, sondern mit verschiedenen Browsern getestet werden, um sicher zu gehen, dass nirgends Anzeigefehler die Nutzung der Webseite unmöglich machen. Darüber hinaus ist es wichtig, keine zu großen Grafiken zu verwenden und für die Gestaltung der Seite CSS Stylesheets zu verwenden, weil ansonsten Nutzer mit einer langsameren Internetverbindung eventuell viel zu lange Ladezeiten haben und somit ebenfalls keinen Nutzen aus dem eigenen Webauftritt ziehen können.

Ein weiterer Aspekt, der zur Barriere für bestimmte Nutzer werden könnte, ist die übermäßige Verwendung von Java Script oder Flash, weil einige Browser dies nur eingeschränkt oder sogar gar nicht anzeigen und man dafür oftmals zusätzliche Plug-Ins herunterladen muss, was man ebenfalls nicht unbedingt als nutzerfreundlich bezeichnen kann.

Auch Menschen mit einer Behinderung und Laien möchten das Internet nutzen

Eine barrierefreie Webseite sollte neben den Basics auch behinderten Menschen und absoluten Laien die Möglichkeit bieten, die eigenen Inhalte zu nutzen. Hier zu sind lediglich leichte Änderungen notwendig, die nun in Stichpunkten aufgezählt werden:

1. Die Schrift eines Internetauftritts sollte vom Nutzer selbst skaliert werden können, damit Menschen mit einer Sehbehinderung die Texte durch Schriftvergrößerungen lesbar machen können.

2. Die Texte auf einer Webseite sollten verständlich und klar formuliert sein.

3. Das Navigationsmenü eines Webauftritts sollte klar strukturiert sein, damit auch nicht so versierte Nutzer auf alle Inhalte zugreifen können.

4. Inhalte und Designs einer Webseite sollten klar voneinander getrennt werden, um die Übersicht zu erhalten und keine unnötige Verwirrung zu stiften.

5. Links sollten klar gekennzeichnet werden, damit auch Laien sie finden können.

Diese Auswahl an Möglichkeiten ist zwar nicht vollständig, zeigt jedoch bereits einen recht großen Katalog an Maßnahmen, um die Barrierefreiheit einer Webseite zu gewährleisten. Wer sich an diese Punkte hält, wird im Regelfall dankbare Besucher erhalten, die gerne wiederkommen.

Das "Corporate Design" ist das offizielle grafische Design des Logos und des Namens eines Unternehmens oder einer Institution, die auf Briefbögen, Umschläge, Formularen, Prospekten, Broschüren, Internet-Websites und allen anderen Bereichen des Unternehmens- oder Organisations-Auftritts verwandt wird. Das kann bis zur Farbe der Tintenpatronen gehen, die in den Druckern verpflichtend zu verwenden sind.

Die Gestaltung der typischen Elemente beim Corporate Design hat stets unter einheitlichen Gesichtspunkten zu erfolgen. Denn das Ziel des Corporate Designs ist es, die sogenannte Werbekonstanten genau zu bestimmen, um bei jedwedem Kunden- oder Teilnehmerkontakt einen für das Unternehmen oder die Organisation spezifischen Wiedererkennungseffekt zu realisieren. Das beinhaltet meistens, dass spezifische Firmenfarben - ergänzend zum Loge des Unternehmens oder der Organisation - mit einen gewissen geometrischen Muster zur Geltung gemacht werden. Um ein Beispiel des Corporate Designs zu geben, kann man auf die

Deutsche Telekom verweisen, die grundsätzlich auf all ihren Unterlagen und Websites einen bestimmten Magenta-Ton in Kombination mit 4 grauen Quadraten verwendet. Dieses Corporate Design führt zu einen ausgesprochen prägenden Bild bei Kunden und Wettbewerben. Macht braucht lediglich einen Hauch des Farbtons irgendwo zu sehen, um an das Unternehmen und seinen marktprägenden Einfluss erinnert zu werden. Das Grundmotiv findet sich deshalb insbesondere auf den Kommunikationsmitteln, die in häufiger Weise Kontakt mit Kunden und Lieferanten herstellten.

Bestandteil beim Corporate Design kann auch eine konsequent verwendete Hausschrift als Schriftmarke sein. Diese Schrift ist meist eine Abwandlung einer gängigen Schrift und wird durchgängig dann in allen Print- und Internet-Publikationen verwendet. So wird auf subtile Weise die Botschaft über die Schrift mit dem Unternehmen oder der Organisation verbunden.

Entscheidend für den Erfolg beim Corporate Design ist, dass die Gestaltungmuster zielführend auf die Unternehmens-Philosophie bezogen und daran ausgerichtet werden. So hat beispielsweise die Deutsche Bahn vor Jahren geringfügige Änderungen an der Rundheit ihres Logos vorgenommen, weil an Ansicht führender Kommunikationsexperten die alte Rundheit für zu viel Behäbigkeit ausgedrückt hat. Aus dem gleichen Grund wurden auch die beiden Buchstaben DB verschlankt. Ein modernes zukunftsorientiertes Unternehmen verträgt keine behäbigen Rundungen oder fette Schrifttypen.

An diesem Beispiel wird auch deutlich, dass das Corporate Design bis in die unternehmerischen Handlungsvollzüge hinein wirkt. Denn passend zu dem Logo wurden die Anforderungen bestimmt, um die organisatorische Wirklichkeit weg von alten Handlungsmustern zu führen. Eine Aufgabe, an der das Unternehmen heute noch, hart zu arbeiten hat.

Ein Browser ist ein integraler Bestandteil für jeden Internetnutzer, weil man nur mit einem solchen Programm einzelne Seiten im Netz betrachten kann. Durch einen Browser wird also die grafische Umsetzung der technischen Informationen übernommen, die vom Internet zur Verfügung gestellt werden. Mit der Zeit hat sich der Markt für solche Browser recht abwechselungsreich entwickelt, denn es gibt mittlerweile einige verschiedene Internet Browser, die von der Grundfunktionalität fast alle gleich sind. Trotzdem gibt es natürlich auch Unterschiede, auf die man als Webdesigner unbedingt eingehen sollte.

Die Webbrowser können unsauberen HTML-Code unterschiedlich darstellen

Die verschiedenen Browser, die mittlerweile für den Zugang zum Internet angeboten werden, unterscheiden sich oftmals nur im Bedienkomfort, bieten aber ansonsten alle wichtigen Funktionen. Lediglich einige neuere technische Entwicklungen können manche ältere Browser nicht darstellen, was aber im Regelfall auch kein Problem ist, da man eine gute Internetseite trotzdem noch in vollem Funktionsumfang nutzen kann. Als Webdesigner ist es hingegen vor allem wichtig, bei der Erstellung einer Webseite sauberen und voll validen HTML-Code zu verwenden, weil ansonsten in einigen Standard-Browsern Darstellungsprobleme entstehen. Kommt ein Nutzer auf eine Homepage, die nicht richtig dargestellt werden kann, so wird er sie im Regelfall einfach wieder verlassen, was nicht im Sinne eines Webmasters liegen kann.

Ein Webdesigner sollte seine Webseite unbedingt vor dem Release testen

Es ist also sehr wichtig, eine Webseite, die man erstellt hat, vor dem Release noch einmal in verschiedenen Browsern anzuschauen und eventuelle Darstellungsfehler zu beheben. Nur so kann man erreichen, dass man immer zufriedene Besucher auf der Webseite hat und auch die Webmaster zufriedene Kunden bleiben.

Unter Suchmaschinenoptimierung (SEO) versteht man alle Maßnahmen, die das Ziel haben, eine Webseite für relevante Suchbegriffe in den Suchergebnissen der einzelnen Suchmaschinen höher zu positionieren. Der Maßnahmenkatalog ist dabei recht groß und man kann an sehr vielen Stellschrauben drehen, die alle einen mehr oder weniger großen Einfluss auf das Ranking haben. Eine gute Suchmaschinenplatzierung ist deshalb so wichtig, weil man auf diese Weise relativ einfach Besucher für seine Webseite generiert und somit auch mehr Umsatz erzielt. Nachfolgend werden kurz die zwei großen Bereiche der Suchmaschinenoptimierung, Onsite- und Offsite-Optimierung vorgestellt.

Die Onsite-Optimierung ist relativ einfach zu beeinflussen

Bei der Onsite-Optimierung geht es vor allem darum, die Inhalte einer Webseite so aufzubereiten und zu präsentieren, dass sie für Suchmaschinen gut gelesen werden können und als besonders relevant eingestuft werden.

Dies erreicht man zum Beispiel mit einem Einbau von relevanten Suchwörtern in die jeweiligen Texte und in das Title-Tag eines Internetdokuments. Andere wichtige Maßnahmen der Suchmaschinenoptimierung bestehen in der Nutzung von Überschriften, von Bildern mit einem passenden „Alt-Tag“ und einer guten Description, die später in der Suchmaschine als Text ausgegeben wird. Natürlich sind die oben genannten Maßnahmen nur ein kleiner Teil der kompletten Möglichkeiten, jedoch kann man schon eine ganze Menge erreichen, wenn man sich an diese Vorgaben hält.

Offsite-Optimierung – Linkaufbau und eine gute Präsentation

Eine Webseite wird bei vielen Suchmaschinen dann als besonders relevant eingestuft, wenn viele externe Links auf sie verweisen. Der Aufbau solcher Links ist damit ein zentrales Element der Suchmaschinenoptimierung. Darüber hinaus kommt es aber auch drauf an, andere Werbemaßnahmen auszuschöpfen, damit die eigene Webseite bekannter und damit auch beliebter bei den Suchmaschinen wird. Wer die Offsite-Optimierung als ganzheitliches Konzept versteht, wird hierbei sicherlich bemerkenswerte erfolge erzielen können, auch wenn die Geduld eine der größten Tugenden eines Suchmaschinenoptimierers ist.

Als Keywords werden Wörter aus dem Text einer Webseite  bezeichnet, die für Benutzer von Suchmaschinen von besonderer Bedeutung sind. Diese Keywords  werden recherchiert, bevor man einen Text zu einem bestimmten Thema erstellt. Ist dies geschehen, werden die Keywords in einer bestimmten Anzahl und Verteilung im Text verteilt, so dass es dem Leser nicht unbedingt auffällt und der Text immer noch organisch wirkt. Im Folgenden werden kurz die wichtigsten Aspekte in Bezug auf Keywords dargelegt.  

Die Keyworddichte ist ein entscheidender Ranking-Faktor bei Suchmaschinen

Suchmaschinen bewerten Webseiten zu einem bestimmten Suchwort auch aufgrund der Häufigkeit des Vorkommens dieses Suchwortes in den Inhalten der Webseite. Wird also eine bestimmte Keyworddichte, optimalerweise 3-5%, erreicht, hat man einen wichtigen Ranking-Faktor bedient und die Chance, bei den Suchmaschinen zu diesem Suchwort höher gelistet zu sein. Wer beispielsweise eine Webseite zum Thema „Fische“ erstellen möchte, sollte das Keyword „Fische“ auch einige Male im Startseitentext einbauen, um später irgendwann unter dem Begriff „Fische“ gefunden zu werden.

Auch im Title-Tag sollten die Keywords nicht fehlen

Neben dem Text einer Seite ist es auch wichtig, das Title-Tag einer Unterseite mit den wichtigsten Keywords zu bestücken. Dies ist mindestens genauso wichtig wie die Nennung im Text selbst. Auf diese Weise signalisiert man einer Suchmaschine, um welches Thema es auf der gezeigten Seite gehen soll, was allgemein als ein wichtiges Ranking-Kriterium bei Suchmaschinen angesehen wird und deshalb unbedingt beachtet werden sollte. Zusätzlich kann auch die Description die wichtigsten Keywords enthalten, da diese ebenfalls von der Suchmaschine ausgelesen wird.

Keine Übertreibungen mit den Keywords

Was in Maßen ein gutes Mittel zur Suchmaschinenoptimierung ist, kann im Überfluss tödlich für das Ranking einer Suchmaschine sein. Es ist sehr wichtig, dass man bei der Nutzung von Keywords eine bestimmte Keyworddichte nicht überschreitet, da dies als Spam eingestuft wird und mit Abstrafungen einhergeht. Diese Höchstgrenze ist nicht genau bekannt, wird jedoch oft im Bereich von über 8% angesetzt.

Das Schlagwort CMS (Content-Management-System oder auch System zur Inhaltsverwaltung) bezeichnet eine Anwendung, die meist im World Wide Web eingesetzt wird, um Text- und Multimediainhalte übereinstimmend zu erstellen und diese anschließend zu bearbeiten ohne dabei auf HTML- oder Programmiergrundlagen zurückgreifen zu müssen. Wird das CMS hauptsächlich im Web angewendet findet man häufiger auch den Begriff WCMS (Web-Content-Management-System), um klar den Unterschied zu anderen Systemen, die etwa in Verlagen oder Redaktionen gebraucht werden, aufzuzeigen.

Mit CMS ist es möglich medienneutrale Daten anzulegen, die erst bei Abruf der Datenbank durch den Server generiert werden. So ist es möglich den Inhalt in verschiedenen Dokumententypen, wie etwa als HTML- oder aber als PDF-Datei zu erhalten. Zudem ermöglicht ein CMS eine Verwaltung der einzelnen Rechte, die jeder Autor bei der Dateneinpflege benötigt.

Anforderungen an ein effektives CMS sind vor allem die Aufteilung der Zuständigkeitsbereiche.

Des weiteren sollte es möglich sein verschiedene Templates erstellen zu können, externe Quellen zu integrieren und das CMS modular zu erweitern. Um erstellte Daten zu archivieren empfiehlt sich ein Content-Life-Cycle-Management.

Allgemein werden CMS-Anwendungen unterschieden in serverseitig und clientseitig gesteuertes CMS. Das serverseitige CMS, wie etwa TYPO3, Joomla oder Wordpress, steht oft in Verbindung mit einer Datenbank und benötigt eine Programmiersprache. Es ist möglich von jedem Rechner, der Zugriff auf das Internet hat, die Daten nur über einen Browser zu bearbeiten. Die jeweiligen Rechte unterschiedlicher Autoren können gezielt verwaltet werden. Die Größe der Webseite ist dabei nicht entscheidend, lediglich die Rechenleistung des Servers, welche bei hoher Frequentierung eventuell problematisch sein kann.

Beim clientseitigen CMS werden die Daten mittels installiertem Programm erstellt und anschließend auf einen Server geladen, eine Programmiersprache wird nicht vorausgesetzt. Oft werden dabei verschiedene Funktionen zur Erstellung von Templates angeboten.

Neben diesen Faktoren werden CMS-Anwendungen noch aufgrund der Datenauslieferung ihrer Seiten an den User unterschieden. Bei volldynamischen Seiten etwa werden diese immer aktuell geladen und mittels Skripten neu generiert. Während die Inhalte statischer Seiten fest in Datenbanken abgelegt werden. Die Vorteile dieser beiden wird von einem hybriden System aufgegriffen, bei diesem werden nur dynamische Inhalte, wie News oder Shopinfos, ständig neu generiert, anderer Input liegt statisch vor.

Der Begriff W3C (World Wide Web Consortium) beschreibt ein Konsortium bestehend aus internationalen Mitgliedsorganisationen, sowie einer fest angestellten Arbeitsgruppe, die gemeinsam mit der Öffentlichkeit sich zum Ziel gesetzt haben allgemeingültige Web-Standards auszuarbeiten. Diese neuen Standards sollen mittels definierter Leitfäden und Protokollen ein kontrolliertes und dauerhaftes Wachstum des World Wide Webs garantieren.

Ins Leben gerufen wurde das W3C im Jahre 1994 von Tim Berners-Lee. Seit der Gründung ist Berners-Lee, der im Jahre 1989 im Zuge seiner Arbeit am CERN-Forschungszentrum das World Wide Web erfunden hat, Direktor des Konsortiums.

Neben über 80 Recommendations, die das W3C seit dessen Gründung allein in den ersten 10 Jahren herausgebracht hat, arbeitet das W3C auch an dem Ausbau und der Weiterleitung neuer Standards, sowie der Entwicklung neuer Software.

Erreicht werden soll dadurch eine möglichst hohe Ausschöpfung des Webpotentials. Dafür ist es wichtig verschiedene Technologien zueinander kompatibel zu machen, damit mit nahezu jeder Soft- und Hardware unter den gleichen Voraussetzungen das Web genutzt werden kann. Um eine Fragmentierung, das heißt eine Zerteilung einer Einheit in viele Einzelteile, zu umgehen gibt das W3C seine Standards für Webprotokolle und -sprachen öffentlich aus.

Im Laufe der Jahre haben sich immer mehr Organisationen dem W3C angeschlossen, um gemeinsam ein neutrales Forum zu schaffen und neue Standards auf den Weg zu bringen. Viele internationale Ehrungen wurden dem Team um Berners-Lee im Laufe der Jahre für seine unermüdliche Arbeit rund um das Thema World Wide Web mittlerweile schon zuteil. Experten und Mitarbeiter haben dabei stets im Sinn sicherzustellen, das auch in Zukunft die Möglichkeiten des Webs ausgeschöpft werden können und weiterhin wachsen, außerdem sollen einheitliche Technologien geschaffen werden und die Vielfalt, nicht nur der Menschen, sondern auch die der Technik erfolgreich unter einen Hut gebracht werden. Durch das weltweite Handeln des W3C mit mittlerweile über 40 regionalen, internationalen und globalen Organisationen hilft das Konsortium die Entwicklung des World Wide Webs erfolgreich zu betreuen.

Unter anderem sprach das W3C Empfehlungen aus für Hypertext Markup Language (HTML), Extensible Hypertext Markup Language (XHTML), Extensible Markup Language (XML), Cascading Style Sheets (CSS) oder Really Simple Syndication (RSS).

Ein Dienstleistungsunternehmen, das professionelle Websites entwickelt, wird als Internetagentur bezeichnet. Die Website-Entwicklung kann auch den Aufbau und die Wartung von Online-Shops, Newsletter-Systemen, User-Foren, Blogs, Content-Management-Systemen und anderen digitalen Medien umfassen. Da sich viele Internetagenturen aus dem Print-Bereich heraus entwickelt haben, bieten sie oft auch die Herstellung von Print-Produkten wie Flyern, Plakaten oder Zeitschriften an. Je nach personellen und fachlichen Kapazitäten des Unternehmens können umfassende Marketing-Kampagnen entwickelt werden.

Die Größe einer Internetagentur bestimmt deren Angebotsspektrum. Von freiberuflichen Einzelkämpfern bis zu Unternehmen mit 50 und mehr Mitarbeitern sind digitale Mediendesigner auf dem Markt aktiv. Während kleinere Agenturen sich auf die Dienstleistung für bestimmte Unternehmen oder für Privatpersonen konzentrieren oder über

eine Preisführerschaft ihre Marktnischen finden, werben größere Dienstleister mit ihrem Namen, der in Einzelfällen sogar ein internationales Renommee aufweisen kann, um lukrative Aufträge von Großkunden. In beiden Fällen gibt die Referenz auf erfolgreich abgeschlossene Aufträge einen entscheidenden Hinweis auf die fachlichen Möglichkeiten der Anbieter.

Internetagenturen verfügen über eine eigene Website, auf der das Unternehmen vorgestellt und die angebotenen Dienstleistungen beschrieben werden. Die Qualität des Web-Auftritts und die Arbeitsreferenzen, meist über einen Link aufrufbar, sind ein wichtiger Werbeträger. Nach einer Auftragsvergabe können die Einzelheiten des Auftrags vor Ort im Büro des Dienstleisters besprochen werden. Auch die Vorstellung des abgeschlossenen Projekts für den Kunden vor der Veröffentlichung im Internet wird in den Räumen der Agentur vorgenommen.

Da die Realisierung eines umfassenden Web-Auftritts für ein Unternehmen ein sehr komplexer Auftrag ist, arbeiten in einer größeren Internetagentur zahlreiche Spezialisten. Während Marketing-Fachleute den Kontakt zum Kunden herstellen und deren Anforderungsprofil in Erfahrung bringen, legen Inhalts- und Informationsdesigner fest, welche Inhalte auf den Seiten der Website aufgenommen werden und entwickeln die Struktur der Site, die Sitemap. Graphikdesigner produzieren die Illustrationen, die zur Veranschaulichung von Informationen in die Site eingebunden werden. Die Umsetzung der Konzepte vom Papier auf den Bildschirm wird vom Screendesigner vorgenommen. Für die Realisierung von umfangreichen Content-Management-Systemen sind die Dienste von Programmieren erforderlich, Medienspezialisten realisieren die Produktion und Einbindung von Audio- und Video-Dateien. Ein Projektmanager schließlich koordiniert alle anfallenden Arbeitsschritte. In der Praxis der meisten Agenturen arbeiten allerdings Allrounder, die sich in mehreren Fachbereichen bewährt haben.

Metatags oder Meta-Elemente sind HTML- oder XHTML-Elemente einer Webseite, die verwendet werden, um Metadaten bzw. Zusatzinfos über diese Webseite zu übermitteln. Diese Elemente müssen als Tags im Head-Abschnitt eines HTML- oder XHTML-Dokuments notiert werden. Mit Ausnahme des Title-Tags, der als Titel im Browser erscheint, sind die Angaben im Head-Bereich als Metatags zunächst für den Surfer unsichtbar. Meta-Elemente können verwendet werden, um relevante Seiten-Infos, eine Seiten-Beschreibung, Schlüsselwörter oder Keywords und weitere Metadaten an den Browser oder das Suchmaschinen-Abfrageprogramm (Spider oder Robot) zu übermitteln. Insbesondere der letzte Aspekt muss beachtet werden, wenn eine Webseite gut im Rang einer Suchmaschine auftauchen soll.

Beispiele für die Verwendung der Metatags oder Meta-Elemente:
Festlegung des Dokumententyps und des Zeichensatzes:
Festlegung des Seitentitels:
Keywords-Festlegung:
Beschreibung der Webseite:

Die Metaangaben und die weiteren Angaben im Head-Bereich sind höchst relevant für die Suchmaschinen-Optimierung (SEO), wo verschiedene Methoden angewandt werden, um einem höheres Ranking in Suchmaschinen-Ergebnislisten zu erreichen. Allerdings überprüfen die Suchmaschinen, ob denn die Angaben auch Sinn machen. Um eine optimale Platzierung zu erreichen, sollten alle Metaangaben zu Keywords,

Beschreibung und auch der Title für jede Webseite einer Website individuell und einzigartig sein. Die Keywords sollten auch in bestimmter Häufigkeit im Body-Bereich der Webseite vorkommen. Es macht (im Gegensatz zu früher) heute keinen Sinn mehr, mit bestimmten Reizwörtern die Metatags zu füllen und dann diese auf der Seite nicht zu verwenden. Denn dieses Spamming führt zur Abstrafung im Rang oder sogar zum Ausschluss aus den Ergebnislisten der Suchmaschinen.

Meta-Elemente haben deutlich weniger Auswirkungen auf die Suchmaschinen-Ergebnis-Seiten als früher, sind aber nach wie vor wichtig, um die Optimierung zu komplettieren. Insbesondere der Title-Tag sollte aussagekräftig und Keyword-reich bestückt sein.

Eine Website wird im Internet vom Server durch einen Zifferncode identifiziert und damit von den Milliarden anderer Websites unterschieden. Erfolgt von einem Browser auf einem beliebigen Computer ein Zugriff über einen Web-Server auf eine bestimmte Website, greift der Server auf den Zifferncode dieser Site zu, der praktisch deren Internet-Adresse darstellt. Die Internet-Adresse wird im Web durch das Internet Protocol (IP) definiert. Das Internet Protocol besteht aus vier Ziffernblöcken, die durch einen Punkt voneinander getrennt werden und jeweils einen Wert von 0 bis 255 einnehmen können, z.B.: 182.147.098.110. Diese Ziffernkombination ist die IP-Adresse einer bestimmten Website.

Um diese für Menschen schwer einprägsamen Ziffernkombinationen im praktischen Gebrauch zu vermeiden, wurden Domain und Subdomain eingeführt. Domain und Subdomain sind Namen, die für eine Ziffernkombination stehen und die Website anschaulich beschreiben.

Die Umwandlung einer Ziffernkombination in einen Domain-Namen wird vom Domain Name Server (DNS) vorgenommen. Der Domain-Name, der vom Betreiber einer Website gewählt wird, muss bei der Vergabestelle für Domain-Namen registriert werden. In Deutschland übernimmt diese Aufgabe die Denic. Wer eine neue Website einrichten möchte, lässt meist seinen Provider die Registrierung bei der Denic vornehmen.

Domain und Subdomain sind obligatorische Bestandteile einer vollständigen Internet-Adresse, also der URL (Uniform Resource Location). In der URL http://www.textbroker.de stellt beispielsweise der Ausdruck "http://" das Übertragungsprotokoll dar, das vom Internet zur Weiterleitung aller Daten verwendet wird. Der restliche Bestandteil der Adresse, "www.Crea-Content.com", ist die Domain der Website. Diese drei durch einen Punkt getrennten Bestandteile der Domain haben eigene Bezeichnungen. So wird der Ausdruck auf der rechten Seite, ".de", als Top-Level-Domain bezeichnet, die das Internet in verschiedene Bereiche aufteilt. Der vom Website-Betreiber frei wählbare Name, in diesem Beispiel "textbroker", ist die Second Level Domain. Die drei W's auf der linken Seite der Adresse stehen für die Third Level Domain, die meist einfach als Subdomain bezeichnet wird. Die Subdomain beschreibt den jeweiligen Dienst, auf den im Internet zugegriffen wird. Wird das Web genutzt, lautet sie "www". Beim Einsatz eines FTP-Servers heißt die Subdomain "ftp". Bei der Verwendung eines Mail-Dienstes, wenn z.B. eine E-Mail-Adresse genutzt wird, ist der Bereich links vom @-Zeichen die Subdomain. Viele Internet-Adressen kommen auch ohne eine Subdomain aus.

Programmierung ist der Prozess, in dem eine fertige Software-Lösung für ein bestimmtes Problem entwickelt wird. Dieser Prozess kann in vier Abschnitte unterteilt werden: Zu Beginn steht die Problemanalyse. Der Programmierer analysiert den Ist- Zustand bereits vorhandener Software beziehungsweise das zu lösende Problem und erstellt eine Liste der Anforderungen an das Programm. Danach folgen der Programmentwurf und die Implementierung des Programms. Die Implementierung beinhaltet die Erstellung eines Quellcodes und die Übersetzung des Codes in eine ausführbare Form.

Die Erstellung des Quellcodes erfolgt in einer Programmiersprache, die dem Programmierer alle nötigen Werkzeuge zur Verfügung stellt: Variablen dienen der Speicherung von Informationen, Operatoren können Variablen auf unterschiedliche Arten verknüpfen und Kontrollstrukturen ermöglichen eine Überprüfung. Funktionen (auch Prozeduren genannt) erlauben die Aufteilung des Quellcodes in einzelne Teilmodule, was besonders bei großen Software-Projekten unerlässlich ist, um den Überblick zu bewahren und bei der Programmierung fehlerfreien Code zu erstellen. Beispiele für solche so genannten prozeduralen Programmiersprachen sind „C“, „Turbo Pascal“ und „Basic“. Weitere Strukturierungsmöglichkeiten bietet die objektorientierte Programmierung in Form von Klassen und Objekten. Beispiele für objektorientierte Programmiersprachen sind unter anderem „C++“ und „Java“.

Der fertige Quellcode muss nun in eine Sprache übersetzt werden, die der Computer versteht, nämlich die Maschinensprache. Diesen Vorgang nennt man „Kompilierung“. Dabei entsteht ein ausführbares Programm, also eine Software. Diese muss nun getestet werden, um sicherzustellen, dass sie die ursprünglich aufgelisteten Anforderungen auch erfüllt. Erfolgt die Programmierung mittels der Programmiersprache „Java“, so kompiliert die „Java Virtual Machine“ in einer eigenen Umgebung, der Java-Plattform. Das hat den Vorteil, dass Java-Programme auf verschiedenen Betriebssystemen laufen können.

Für viele Programmiersprachen existieren Entwicklungsumgebungen, die die Programmierung erleichtern. Man muss dabei nicht jede Zeile Quellcode von Hand eingeben, sondern kann häufig verwendete Strukturen per Knopfdruck in das eigene Programm einfügen.
Zur Darstellung von Inhalten auf Internetseiten verwendet man ebenfalls spezielle Sprachen wie zum Beispiel HTML (Hypertext Markup Language) oder XHTML (Extensible Hypertext Markup Language). Der Quelltext, den man mit einer solchen Sprache erstellt, wird anschließend vom verwendeten Browser interpretiert und als Text, Bild oder Video dargestellt. Wer sich einen solchen Quelltext etwas genauer anschauen möchte, kann bei den meisten gängigen Browsern die Funktion „Seitenquelltext anzeigen“ nutzen.

Unter einem Webserver versteht man einen zentralen Rechner mit spezieller Websoftware, der verschiedene Dokumente und Nachrichten an mit ihm in Verbindung stehende Computerprogramme, zum Beispiel Webbrowser, weiterleitet bzw. Daten austauscht. Eingesetzt werden diese Server vor allem im Internet im Bereich des WWW-Dienstes, sowie in firmeninternen Netzwerken. Auf diese Weise ist es möglich, bestimmte Dateninhalte weltweit bzw. nur lokal mittels Netzwerk- (TCP/IP) und Übertragungsprotokollen (HTTP) weiterzuleiten und zur Verfügung zu stellen.

Die Geschichte des Webservers geht auf das Jahr 1989 zurück. Tim Berners-Lee hatte damals die durchschlagende Idee, den Datenaustausch mittels HTML durchzuführen und weltweit ein Netzwerk zum Informationsaustausch zu errichten. Dieser Idee folgte die Entwicklung des WWW-Browsers, ebenso wie die des ersten Webservers NeXTStep. Im Jahr 1994 entstand das

W3C (World Wide Web Consortium), ebenfalls unter der Leitung von Tim Berners-Lee, welches ab nun die verschiedenen Technologiemethoden, wie etwa HTTP und HTML, weiterentwickelte, kombinierte und regulierte.

Im Laufe der Zeit taten sich vor allem der Microsoft Internet Information Services und der Apache HTTP Server. Sie wurden so zu den heute bedeutendsten Webserver auf dem derzeitigen Markt. Weitere Server sind zum Beispiel der AIDeX Webserver, der Sun Java System Web Server oder der WN server.

Die mit dem Webserver übertragenen Daten können sowohl dynamisch als auch statisch vorliegen. Während bei statischen Dokumenten lediglich feste HTML-Daten, Bilddaten, sowie Beschreibungen des Designs in Form von CSS-Informationen weitergegeben werden, werden bei dynamischen Dokumenten Informationen aus verschiedenen Bezugsquellen zusammengefügt. Hierzu werden beispielsweise PHP-Dokumente verwendet, die im Augenblick des Abrufs erst noch interpretiert werden müssen, ehe sie an den Webbrowser als HTML übertragen werden können. Mit dieser Kombination verschiedener Technologien ist es möglich ständig Daten ohne Aufwand zu aktualisieren und einen automatisierten Prozess aufzubauen. Eingesetzt wird dies oft bei Onlineshops oder Bilddatenbanken.

Webspace bringt das Internet erst zum Funktionieren, denn neben möglichst schnellen Wegen der Datenübertragung, braucht das Web in erster Linie Speicherplatz für all die Daten, die von Millionen Nutzern weltweit und rund um die Uhr angefordert, abgerufen und bereitgestellt werden. Die Frage, wie viele Daten im Internet mengenmäßig überhaupt zur Verfügung stehen, ist dabei schwierig zu beantworten. Experten schätzen jedoch, dass das gesamte Datenvolumen im Web im Jahr 2011 eine Gesamtmenge von 1800 Exabyte erreicht haben wird, was unvorstellbaren 1,8 Billionen Gigabyte entspricht.

Sich eine solche Datenmenge auch nur annähernd zu verbildlichen, dürfte schwierig sein, aber alle Daten, die via Internet übertragen werden, haben zumindest eines gemeinsam: Sie müssen irgendwo unter festen Adressen hinterlegt sein, damit sie überhaupt gefunden werden können. Und genau hier wird Webspace benötigt, ein Begriff, für den es kein passendes Pendant in der deutschen Sprache gibt, den man aber ein bisschen mühsam mit

„Internet-Speicherplatz“ übersetzen kann. So wie der heimische PC ist auch ein Webserver, also ein Computer, der nichts anderes tut, als die auf ihm gespeicherten Daten im Web zum Abruf bereitzuhalten, auf diesen Speicherplatz angewiesen, der zumeist in der Form von Festplattenspeicher zur Verfügung gestellt wird.

Wer Webspace benötigt, um beispielsweise die Daten für eine eigene Homepage im Web bereitzustellen, wendet sich an einen Internetdienstanbieter – auch ISP genannt (die Abkürzung für „Internet Service Provider“). Diese ISPs halten unterschiedlichste Pakete für jeden Anspruch bereit, je nachdem, wie viel Speicherplatz benötigt wird und welche Sonderfunktionen der Kunde wünscht. Meist wird Webspace zusammen mit einer Domain in einem Vertragspaket gemietet. Hier wird der ISP dann zum Webhoster. Heißt: Neben der Bereitstellung von Speicherplatz für Internetseiten wird auch die technische Administration einer Website über ihn abgewickelt und er schafft die Grundlagen dafür, dass auf die entsprechenden Internetseiten zugegriffen werden kann.

Generell kann jede Art von Daten auf einem Webserver bereitgestellt werden und keineswegs nur diejenigen, die zur Darstellung von Webseiten nötig sind. Wer an die Geschwindigkeit bei der Bereitstellung seiner Daten keine hohen Ansprüche stellt, findet im Web übrigens auch eine Vielzahl kostenloser Webspace Angebote. Die Anbieter verdienen Ihr Geld zumeist mit dem Einblenden von Werbebannern beim Aufruf von Webseiten, was jedoch auf professionellen Internetseiten wenig seriös wirkt und deshalb meist privaten Homepages vorbehalten bleibt.

Der iFrame ist ein klassisches Gestaltungselement innerhalb der Seitenbeschreibungssprache HTML (Hypertext Markup Language), mit der Webseiten gebaut werden. Grundsätzlich werden Webseiten heute aus drei Sprachen zusammengebaut:

Das HTML legt mit seinen Elementen die logische Struktur einer Seite fest, bestimmt also z.B. was eine Überschrift, eine Fußzeile oder eine Abbildung ist und welchen Zusammenhang zu den anderen Elementen der Seite besteht.

Die Stylesheet-Sprache CSS (Cascading Style Sheets) wird vorrangig zur Definition des Aussehens der Seitenelemente eingesetzt, also zur Festlegung der Hintergrundfarbe, der Schriftgröße und der genauen Positionierung der Elemente.

Die interaktiven Funktionen einer Webseite, die vom Besucher der Website ausgelöst werden, übernimmt die Programmiersprache JavaScript. Das Frame-HTML-Element hat die Aufgabe, innerhalb einer Webseite einen Raum zu schaffen

, in dem durch einen Mausklick oder eine andere Aktion des Seitenbesuchers ein neuer Inhalt oder eine neue Webseite angezeigt wird, ohne die restlichen Bestandteile der Seite zu verändern. Ein iFrame kann somit gewissermaßen ein Browser-Fenster innerhalb eines anderen Browser-Fensters darstellen.

Der iFrame befindet sich immer im Body des HTML-Dokuments und kann vom Webdesigner in Größe und Position frei bestimmt werden. Allerdings verliert das iFrame-Element zunehmend an Bedeutung, seitdem die optische Gestaltung von Webseiten überwiegend mit CSS vorgenommen wird. Mit CSS können Container an beliebiger Position auf einer Seite dargestellt werden und alle Inhalte, auch andere Webseiten, aufnehmen. Wird dennoch ein Frame in ein HTML-Dokument eingebaut, kann dieser mit CSS in Hintergrundfarbe, Randstärke, Größe und Position beliebig gestaltet werden.

Dass von der Verwendung des iFrame vom Standardisierungsgremium W3C nicht abgeraten wird, liegt daran, dass sich die Einstellungen der Browser, die auf den zahllosen Computern der Benutzer verwendet werden, stark unterscheiden können. Wird beispielsweise die Verwendung des CSS-Stylesheets ausgeschaltet, kann der Inhalt eines CSS-Containers möglicherweise nicht mehr adäquat angezeigt werden.

Bei Verwendung eines iFrame als HTML-Element besteht dieses Problem nicht. Grundsätzlich muss sich ein Webdesigner, der Content in einem Frame präsentiert, jederzeit klar darüber sein, dass Suchmaschinen beim Durchsuchen einer Website nicht zwangsläufig sowohl den Inhalt des Frames als auch den Inhalt der restlichen Seite in ihren Datenbanken speichern. Vor dem Hintergrund der Suchmaschinenoptimierung (SEO) sollte die Verwendung des iFrame-Elements deshalb mit großer Vorsicht vorgenommen werden.

Im Jahre 1985 wurde ein spezielles Netzwerkprotokoll zur Dateiübertragung via TCP/IP-Netzwerke entwickelt: das File Transfer Protocol (FTP).

FTP ermöglicht das Kopieren von Dateien unterschiedlichster Formate zwischen einem Server und einem Client. Auf dem Client benötigt man dazu in der Regel eine entsprechende FTP-Client-Software. Eine solche Software kann eine Stand-Alone-Lösung sein, wie dies bei Programmen wie WS-FTP oder FileZilla der Fall ist, sie kann aber auch in Browsern direkt integriert vorhanden sein. Dies kann durch ein so genanntes WebFTP geschehen, welches ein angebotener Dienst von diversen Webservern ist, die einen Zugriff auf einen FTP-Server via http ermöglichen. Die Syntax einer ftp-Adresse im Browser beginnt immer mit ftp://.

Der Aufbau einer FTP-Verbindung erfolgt grundsätzlich vom Client aus. Bei den zu übertragenden Dateien kann es sich um Programm-, Text-, Video-, Ton oder Bilddateien handeln, die je nach Berechtigung

sowohl als Download als auch als Upload zur Verfügung stehen. Bei einem Download handelt es sich um die Übertragung von Dateien vom Server zum Client, derweil der Upload jene vom Client zum Server überträgt. Im Verlauf der Entwicklung des Internets ist für beide Varianten in einigen Nutzungsfällen kein eigener FTP-Client nötig.

Das FTP-Protokoll erlaubt zudem die Manipulation von Daten und Dateien auf einem anderen Computer-System – dabei handelt es sich nicht zwangsläufig um einen Server im klassischen Sinne. Unter einer solchen Manipulation werden Dienstleistungen wie:
- die Listen von Dateien oder Dateiverzeichnissen,
- das Umbenennen oder Löschen von Dateien,
- Datei-Transfer von und zum Computer-System oder
- Statusinformationen
verstanden.

Man unterscheidet zwischen zwei Verbindungmodi, dem aktiven und dem passiven FTP. Das aktive FTP sorgt für das Öffnen eines zufälligen Ports durch den Client, der dem Server diesen und die Client-IP-Adresse per PORT-Kommandos mitteilt. Das passive FTP sendet clientseitig ein so genanntes PASV-Kommando, woraufhin der Server einen Port bereit stellt und diesen dann inklusive der IP-Adresse wiederum an den Client sendet. Letzteres wird dann eingesetzt, wenn der Client den Server nicht anderweitig erreichen kann, zum Beispiel bei der Zwischenschaltung eines Routers auf Clientseite, der die Adresse dessen mit NAT umschreibt. Auch eine Firewall kann hier ein Hinderungsgrund sein, weshalb das passive FTP zum Einsatz kommen muss.

Neben den nicht-öffentlichen FTP-Servern, die immer einen Benutzernamen und Passwort fordern, gibt es auch Öffentliche, zu denen zum Beispiel Universitäten und so genannte Mirrors zählen. Diese bieten ein Anonymous FTP an, welches ohne ein Passwort auskommt und keine weiteren Verifizierungsdaten benötigt. Die Anbieter gehen jedoch davon aus, dass man sich mit einer gültigen E-Mail als Passwortersatz verifiziert um Missbrauch zu verhindern.

Das "Common Gateway Interface" ("CGI") ist ein genormtes Protokoll, um einen Datenaustausch zwischen externen Anwendungsprogrammen (den sogenannten "CGI-Scripts") und Informationsservern, in der Regel Webservern, zu ermöglichen.

Die Aufgabe des Informationsservers ist es, auf Anfragen zu reagieren (bei Webservern meistens Anfragen von Webbrowsern) und die Programmausgaben des CGI-Scripts zurück zu senden. Bei jeder Anfrage entscheidet der Server zunächst, was angefragt wird, wobei es zwei hauptsächliche Möglichkeiten gibt:
* Wenn eine Datei im Dateisystem angefragt wird, sendet der Server den Inhalt dieser Datei
* Wenn ein CGI-Script, also ein ausführbares Programm angefragt wird, führt der Server dieses Programm erst aus und sendet dann dessen Ausgaben

Das CGI definiert also ein genormtes Vorgehen zur Erfüllung der zweiten Aufgabe eines Webservers. Es legt unter anderem fest, wie die Informationen aus der Anfrage an das CGI-Script weitergeleitet werden und wie die Ausgaben dieses Programms zurückgesendet werden können.

Der Informationsaustausch erfolgt über die sogenannten Header-Informationen des HTTP-Protokolls. Geläufige Anwendungsbeispiele für das CGI sind etwa Wikis, Gästebücher oder Foren.

Da es sich bei den ausgeführten Programmen sehr häufig um interpretierte oder sogenannte Skript-Sprachen handelt, hat sich bereits frühzeitig der Term "CGI-Script" eingebürgert als Bezeichnung für das ausgeführte Programm. Das Programm einer interpretierten Sprache liegt in einer für Menschen (mit entsprechenden Kenntnissen) lesbaren Textdatei vor und wird von einem zusätzlichen "Interpreter"-Programm Anweisung für Anweisung in einen für die Maschine verständlichen Kode übersetzt, der dann ausgeführt wird. Dieser Vorgang ist das "Übersetzen" oder "Interpretieren". Sehr geläufige interpretierte Sprachen, die heutzutage bei CGI eingesetzt werden, sind Perl oder Python.

Das Verwenden von interpretierten Sprachen hat jedoch einen gravierenden Nachteil, nämlich die Geschwindigkeit bei der Ausführung. Der Server startet für jeden Aufruf einer CGI-Anfrage eine eigene Instanz der Interpreters. Bei stark frequentierten Websites ergibt sich dadurch oft ein ernstes Problem mit der Auslastung des Servers.

Da prinzipiell nichts dagegen spricht, ein bereits vor der Anfrage in Maschinenbefehle übersetztes Programm auszuführen, kommen bei CGI-Anfragen teilweise auch Programmiersprachen wie C oder C++ zum Einsatz. Diese schaffen eine Linderung des Problems: Es muss nicht bei jeder Anfrage auf dem Server eine eigene Instanz des komplexen Interpreters gestartet werden, sondern nur eine zusätzliche Instanz eines vergleichsweise simplen vorübersetzten Programms.

Viele populäre Webserver bieten allerdings eine noch effizientere Methode des Programmaufrufs über interne Schnittstellen. Die Programme laufen dadurch bei einer Anfrage über den Prozess des Webservers ab, was ein wesentlich besseres Leistungsverhalten aufweist. In diesem Fall spricht man bei dem Programm nicht mehr von einem CGI-Script, da der Datenaustausch nicht über das HTTP-Protokoll abläuft, sondern mit dem Webserver integriert ist.

Als Backlinks werden Verweise bezeichnet, die von anderen Webseiten auf die eigene Homepage führen. Sie sind ein wichtiges Mittel der Suchmaschinenoptimierung. Qualität und Quantität der Links spielen dabei unterschiedlich große Rollen. Man spricht in dem Zusammenhang auch von Linkpopularität. Von qualitativ hochwertigen Links spricht man bei Verweisen, die auf Seiten mit sehr gutem PageRank stehen. Diese werden von Suchmaschinen höher bewertet als Verweise auf Seiten mit niedrigem PageRank. Es ist also darauf zu achten, auf welchen Seiten man seine eigenen Backlinks setzt. Ebenso wichtig ist ein langsamer, natürlicher Aufbau von Rückverweisen. Das plötzliche Auftauchen sehr vieler Verweise kann von Suchmaschinen als Betrugsversuch gewertet werden, was sich negativ auf

den PageRank der eigenen Seite auswirkt. Schlimmstenfalls wird sie dann bei Suchanfragen ignoriert und in den Ergebnissen gar nicht mit aufgeführt.

Beachtet man diese wichtigen Punkte kann man mit einem langsam wachsenden Netz von Backlinks die Position der eigenen Webseite in den Ergebnissen von Suchmaschinen stark verbessern. Die Folge dessen sind mehr Besucher, also mehr potentielle Kunden und damit mehr Erfolg.

Als Betreiber einer Webseite kann man den Aufbau von Backlinks nur bedingt steuern. Der schnellste Weg, mit möglichst geringem Aufwand Backlinks zu erzeugen ist das Eintragen der eigenen Seite in Webkatalogen, Linklisten oder Artikelverzeichnissen. Da diese aber zum Teil schlechte PageRanks haben führen sie oft nicht zum gewünschten Ergebnis. Um hier den maximalen Erfolg zu erreichen sollte man diese Einträge von auf Suchmaschinenoptimierung (SEO) spezialisierten Firmen vornehmen lassen. Hochwertigere Links bekommt man beispielsweise durch Links auf den Webseiten von Kunden oder Partnern. Diese haben zudem noch den Vorteil, dass man über diese Webseiten direkt seine Zielgruppe erreicht.

Flash (kurz von "Adobe Flash") steht für eine integrierte Entwicklungsumgebung, die zur Erstellung von multimedialen Inhalten (oft als Flash-Filme bezeichnet), verwendet wird. Die damit erstellbaren Dateien sind vom Typ "SWF", eine Abkürzung von "Shock Wave Flash", welches ins Deutsche übersetzt etwa wie "blinkende Stoßwelle" klingen könnte. Der Internet Surfer kennt diese Dateien in der Form von animierten Bildern, wie z. B. Werbebanner. Genauer gesagt, werden von den Entwicklern mit Flash zuerst Quelldateien (bzw. Autorendateien) vom Typ FLA erstellt. Aus diesen werden erst nach einer Kompiliation auf einem Webserver SWF Dateien (bzw. kompilierte Dateien) erstellt, um vom Surfer eingesetzt zu werden. Um diese Dateien verwenden, d. h. die bewegten Bilder sehen zu können, muss der Nutzer allerdings das dafür notwendige Abspielprogramm haben: Flash Player.

Außer zur Erstellung von Werbebannern kann Flash zur Programmierung von sehr nützlichen und hilfreichen,

bewegten Animationen, die z. B. einen technischen Prozess oder die Funktion eines Gerätes veranschaulichen, verwendet werden. Dabei haben die Flashdateien den Videodateien gegenüber den Vorteil, viel kleiner zu sein. Als Nachteil von Flash ist zu erwähnen, dass es ursprünglich zu der Gruppe der so genannten proprietären bzw. "nicht freien" Software gehörte. Im Gegensatz zur freien Software können die Dateiformate dieser Software nur mit den eigenen Programmen erstellt und verarbeitet werden. Und zwar, weil sie den allgemein gültigen Standards nicht entsprechen.

Entwickelt wurde die erste Version von Flash im Jahr 1997 von Macromedia. Fast jährlich wurden neue verbesserten und erweiterten Versionen veröffentlicht, bis Version 7.2 im Jahr 2004. Im Jahr 2005 wurde Macromedia von Adobe übernommen, somit wurden die neuesten Versionen Flash Player 8 (veröffentlicht am 8. August 2005) und Flash Player 9 (veröffentlicht am 27. Juni 2006) bereits als Adobe Flash eingeführt. Im Jahr 2008 machte Adobe einen wichtigen Schritt in Richtung freie Software - es legte die Spezifikation für Adobe Flash offen. Ein positiver Nebeneffekt daraus ist, dass die Flash-Dateien erstmals von den Suchmaschinen durchsucht werden können. Am 15. Okt. 2008 hat Adobe den Flash Player 10 (mit verbesserter Wiedergabe, Hardware-Beschleunigung und vielen neuen Funktionen) veröffentlicht. Die Runtime Version steht für Windows, Linux und Mac OS X zum kostenlosen Download zur Verfügung.

Der Alt - Tag ist ein Befehl der Auszeichnungssprache HTML. Dennoch ist dieser Befehl kein HTML - Tag im eigentlichen Sinne sondern vielmehr der Bestandteil von anderen Tags zum Einfügen von Objekten wie beispielsweise von Bildern und Videos auf der Webseite. Der Alt - Tag hat den Vorteil, dass er unabhängig von der Lademöglichkeit der hinterlegten bzw. verlinkten Datei angezeigt wird. Kann also zum Beispiel ein Bild aus irgendeinem Grund mal nicht geladen werden, wird dem Besucher der Inhalt des Alt - Tags angezeigt. Auf diese Weise weiß der Besucher dann trotz dem Bildausfall was auf eben diesem zu sehen gewesen wäre. Aber auch unabhängig davon wird der Inhalt des Alt - Tags dem Besucher der jeweiligen Webseite angezeigt, wenn dieser beispielsweise mit der Maus über das Bild fährt. So wird in jedem Fall der Informationsgehalt des Bildes bzw. der verlinkten Datei für den Besucher sichergestellt.

Vor allem in der Suchmaschinenoptimierung hat der Alt - Tag daher eine besondere Bedeutung bekommen. Websites, die für Suchmaschinen optimiert sind, enthalten für jedes Bild bzw. jedes eingebundene Objekt einen Alt - Tag. Dieser wird auch von den Suchalgorithmen der Suchmaschinen ausgelesen und so ebenfalls als Information zur Bewertung der jeweiligen Website angesehen werden. Die Informationen auf der Seite, die durch den Algorithmus ausgelesen werden sind die Grundlage für die letztliche Ausgabe der Suchergebnisse. Aus diesem Grund kann der Alt - Tag die Position der Website in den Ergebnissen mit beeinflussen. Voraussetzung hierfür ist natürlich, dass entsprechende Keywords im Alt - Tag verwendet wurden.

Der Domain Name Server, kurz: DNS, ist einer der wichtigsten Bestandteile des Internets. Er übersetzt die sog. IP-Adressen in Namen und umgekehrt. Am einfachsten lässt sich das Prinzip eines Domain Name Servers am Beispiel einer Telefonauskunft erklären.

Ein Teilnehmer, der sog. User, braucht die Telefonnummer eines Adressaten, den er erreichen möchte. Das ist im Falle des Internets in der Regel eine Webseite. Der Teilnehmer kennt allerdings nur den Namen des Adressaten, nicht aber die zugehörige Telefonnummer, genannt: IP-Adresse. Der User ruft also bei der Auskunft an und erkundigt sich nach der dem Namen zugeordneten Telefonnummer.

Und hier kommt der Domain Name Server ins Spiel. Er ersetzt im Internet die Auskunft und ermittelt die zugehörige IP-Adresse zum Domain Namen. So löst der Domain Name Server den Domain Namen "www.beispiel.de" beispielsweise

in die zugehörige IP Adresse "192.0.1.55" auf. Der Domain Name Server ist also ein Verzeichnisdienst, eine Art Telefonbuch für das Internet.

Einer der Gründe warum der Domain Name Server entwickelt wurde ist die Tatsache, dass es für den User einfacher ist sich Domain Namen zu merken, als Duzende IP-Adressen. Auch eine umgekehrte Anwendung des Domain Name Servers ist möglich. So kann über den Domain Name Server auch der zugehörige Name zu einer vorhandenen IP-Adresse ermittelt werden. Jedem werden ja Fälle aus den Medien bekannt sein, in denen der Name illegale Downloader über deren IP-Adresse ermittelt werden konnte.

Auch hier war der Domain Name Server im Spiel. Domain Name Server finden sich nicht nur im Internet, auch kleinere Intranets in Firmen arbeiten oft mit einem internen DNS. Im Internet sind die Domain Name Server auf tausenden von Server weltweit verteilt. Der Domain Name Server wurde, ebenso wie das Internet, ursprünglich in den USA entwickelt. Das ist mit ein Grund, warum Adressen im Internet am Anfang zunächst auf alphanumerische Zeichen, also Ziffern und Buchstaben beschränkt waren. Umlaute, wie ä, ö, ü, und ß, sowie andere Schriftzeichen - chinesische z.B. - waren zunächst nicht möglich. Dank des 2003 etablierten Ansatzes zur Vergrößerung des Zeichenvorrats und der Internationalisierung der Domain Namen ist es den Domain Name Servern heute möglich auch Domain Namen mit Umlauten aufzulösen.

In fast allen Browsern kann der Quelltext einer Webseite aufgerufen werden. Im Firefox beispielsweise ruft der Eintrag "Seitenquelltext anzeigen" im Menü "Ansicht" eine neue Seite auf, in der der Seitenquelltext der aktuellen Webseite dargestellt wird. Beim Quelltext handelt es sich vorrangig um den Code der Seitenstruktursprache HTML oder XHTML. Mit diesem Code werden der logische Aufbau und die Struktur einer Webseite festgelegt.

Generell setzt sich der Quelltext einer Seite aus drei Abschnitten zusammen. Die ersten Zeilen beschreiben den DOCTYPE, den Dokumenttyp, der für die Entwicklung der Seite verwendet wurde. Hier wird festgelegt, auf welche Sprachversion zurückgegriffen wurde und welchen Zeichensatz der Browser zur Darstellung der Seite benutzen soll.

Der zweite Teil des Quelltextes besteht aus dem Kopf der Seite und steht zwischen den HTML-Tags und . In diesem Abschnitt wird der Titel der Seite festgelegt und es können Meta-Tags definiert werden, die mit festgelegten Stichwörtern vor allem Suchmaschinen Auskunft über den Inhalt der Seite geben.

Im Kopf einer Seite werden auch Bezüge zu externen CSS- oder Javascript-Dateien definiert. Die Sprache CSS dient zum Beschreiben des Layouts, also dem Aussehen der Seite. Mit der Programmiersprache Javascript können viele Aktionen zwischen dem Benutzer und der Website bzw. der Website und dem Server gesteuert werden.

Der Body eines HTML-Dokuments macht den größten Quelltextteil aus. Er befindet sich zwischen den Tags <body> und </body> . In diesem Abschnitt werden mit Tags und Attributen alle Bestandteile, die im Browserfenster zu sehen sind, in ihrer Struktur definiert. Haben sich die Programmierer dazu entschieden, CSS- und Javascript-Anweisungen nicht in externen Dateien auszulagern, werden diese stattdessen in den Quelltext geschrieben. Die Javascript-Funktionen stehen normalerweise am Ende des Heads, die CSS-Anweisungen befinden sich entweder zusammenhängend ebenfalls im Head-Bereich oder einzeln im öffnenden Tag des jeweiligen Seitenelementes, dessen Aussehen sie bestimmen sollen.

Nutzer einer Webseite können den Quelltext aufrufen, allerdings nicht verändern. Ein Blick auf den Quelltext zeigt jedoch Webentwicklern schnell, wie eine Seite aufgebaut ist. Gute Layoutlösungen können deshalb mit Copy & Paste schnell übernommen und in die eigene Webseite eingebaut werden. Der HTML-Code ist nicht geschützt, Abbildungen und Text dürfen allerdings nur unter Beachtung des Copyrights kopiert werden.

PHP ist eine Skriptsprache, deren Syntax stark an die der Programmiersprache C angelehnt ist. Eingesetzt wird sie bei der Programmierung von dynamischen Internetseiten und dabei insbesondere von Webanwendungen.

Dynamische Internetseiten zeichnen sich dadurch aus, dass die vom Browser angezeigte HTML-Seite keinen festen, vorgegebenen Inhalt hat, sondern dieser von den Eingaben des Benutzers bzw. vom Inhalt der dahinterstehenden Datenbank abhängig ist. Ein einfaches Beispiel dafür ist z.B. ein Internetforum, das permanent neue Einträge erhält und daher nicht mit statischen HTML-Seiten realisiert werden kann.

Bei jeder Aktion, die den Inhalt der angezeigten Seite verändert, wird vom Webserver eine neue HTML-Seite generiert. Das ist z.B. dann der Fall, wenn Sie als Besucher eines Internetforums selbst einen Eintrag schreiben und diesen abschicken. Nun muss der Webserver eine neue Seite generieren, die den aktualisierten, erweiterten Datenbankinhalt anzeigt. Das Rückgrat einer solchen dynamischen Internetseite bildet somit die

Datenbank. Sie speichert sämtliche Inhalte, die auf einer Webseite angezeigt werden können, bzw. verweist auf den Speicherort dieser Inhalte (z.B. bei Fotos oder Videos). Die HTML-Seite bildet dann nur den Rahmen, der die Inhalte optisch ansprechend aufbereitet.

Wie neue Einträge in die Datenbank aufgenommen werden und wie die bereits vorhandenen Daten auf der Webseite angezeigt werden sollen, ist nun im PHP-Code festgelegt. Mit den PHP-Anweisungen kann der Programmierer mit wenigen Zeilen Code eine Datenbankverbindung aufbauen und festlegen, wie die Daten gespeichert bzw. dargestellt werden sollen.

Der PHP-Code wird ausschließlich serverseitig verarbeitet. Der PHP-Interpreter auf dem Webserver arbeitet die einzelnen PHP-Anweisungen nacheinander ab und erstellt daraus eine HTML-Datei, die anschließend an den Webbrowser geschickt wird. Für den Browser ist der Quellcode nicht sichtbar und würde von ihm auch gar nicht verarbeitet werden können.

PHP ist aber nicht die einzige Möglichkeit, dynamische Internetseiten zu programmieren. Daneben gibt es z.B. noch ASP.NET oder JavaServer Pages. PHP hat den Vorteil, dass es sich um Open-Source-Software handelt und daher kostenfrei genutzt werden kann. Weiterhin ist diese Sprache leicht erlernbar und bietet eine große Programmbibliothek mit vielen Funktionen, die beim Design von dynamischen Webseiten häufig benötigt werden.

Der Begriff Webdesign bezeichnet den Aufbau, die Nutzerführung und insbesondere die Gestaltung von Webseiten. Für diese Art der Webseiten-Gestaltung hat sich der Beruf des Webdesigners entwickelt, dieser sollte die Wünsche und Anregungen des Auftraggebers möglichst erfüllen, wobei stets mit einem Auge auf die technischen Möglichkeiten geschaut werden sollte. Im Internet ist es den Betreibern von Homepages grundsätzlich möglich, die Besucher durch einen optimalen visuellen Auftritt von sich zu überzeugen. Bei gewerblich agierenden Internetpräsenzen, steigen die Absatzzahlen, wenn die Produkte optisch gut dargestellt werden.

Bei der Gestaltung der Webseite, muss der Webdesigner nicht nur vorderrangig optische Elemente berücksichtigen, sondern auch andere Faktoren mit einbeziehen. So ist es von größter Wichtigkeit, dass die Homepage stets benutzerfreundlich aufgebaut ist, denn so können sich die meisten Menschen dort zurecht finden.

Wenn die Homepage professionell aufgebaut ist, wirkt diese auch wesentlich seriöser. Bei der Benutzerfreundlichkeit ist vor allem zu beachten, dass viele gute Techniken auf der Homepage umgesetzt werden können, dies aber zumeist nicht möglich ist. Denn viele Grafikelemente können nur in bestimmten Browsern angezeigt werden, der Großteil der Personen kann auf diese Inhalte dann nicht zugreifen.

Die Webseite sollte vor allem immer gut gegliedert sein, bei dem Vertrieb von beispielsweise mehr als 1.000 Produkten, muss der Benutzer nach einigen Mausklicks direkt an sein Ziel kommen. Ansonsten könnte er lange auf das gesucht Produkt warten. Außerdem werden zumeist viele einfache Komponenten wie Fettschrift oder Bilder genutzt, es müssen nicht immer aufwendige 3D-Grafiken eingebaut werden.
Nach der Beauftragung eines Webdesigners, erhöht sich zumeist die Anzahl der Besucher bzw. die Anzahl der potentiellen Kunden. Die Investition in einen Webdesigner, rentiert sich also nach einem kurzen Zeitraum, denn mit den Kunden steigen auch die Gewinne an.

Der Begriff Homepage bezeichnet einen Webauftritt bzw. eine Webpräsenz, welche im Internet online gestellt wird. Eine Homepage besteht zumeist aus mehreren Seiten oder Dokumenten, welche miteinander verknüpft sind. Normalerweise wird die Homepage auf einen Server geladen und kann rund um die Uhr abgerufen werden.

Eigene Server sind in der Regel äußerst teuer, des Weiteren erfordert es einiges Fachwissen, damit ein Server richtig gewartet werden kann. Daher wird zumeist Speicherplatz in einem Rechenzentrum gemietet und die Homepage dort hochgeladen. Dort wird die Homepage rund um die Uhr im Internet aufrechterhalten, außerdem werden die Server permanent gekühlt und technisch gewartet. In der Regel bieten die Hoster von solchen Speicherplätzen dem Kunden auch die Einsicht in Statistiken ein. Dort kann der Homepagebetreiber einsehen, wie viele Besucher seine Homepage hatte und welchen Traffic diese verbrauchen.

Die erste Homepage, die online ging, wurde im November 1990 veröffentlicht. Bei der Homepage wird in der Regel immer eine einzige HTML-Datei angezeigt, welche an der Seite ein Menü besitzt. Über dieses Menü, können die Benutzer auf andere HTML-Dateien gelangen. Teilweise ist jedoch auch erst eine Intro-Seite vorgeschaltet, die in der Regel allerdings nur eine Werbewirkung besitzt. Der Inhalt einer Homepage kann variieren, zumeist sind Homepages entweder privat oder gewerblich aufgebaut.

Bei privaten Homepages werden des Öfteren Selbstbeschreibungen oder Ähnliches veröffentlicht. Gewerblich agierende Homepages vermitteln dem Kunden Daten und Informationen über den eigenen Betrieb. Auf vielen Homepages oder Börsen, kann der Kunde auch direkt Produkte über das Internet

bestellen. Auf beinahe jeder Homepage sind heutzutage Kontaktmöglichkeiten angegeben, viele Seiten liefern auch lediglich pure Informationen wie Kulturprogramme, Gesetzestexte oder Lexika.

Um eine Homepage herzustellen, wird ein enormes Fachwissen in der Programmiersprache HTML benötigt. Allerdings existieren mittlerweile viele Programme, mit denen eine Homepage auch ohne Fachwissen erbaut werden kann. Hier muss man aber von einer geringeren Qualität ausgehen.

Der Pagerank war ein wichtiges Kriterium im Rahmen der Suchmaschinen-Optimierung (SEO) von Webseiten, der heute für Webmaster nur untergeordnete Bedeutung hat. Die meisten Websites sind kostenlos zugänglich. Dennoch dient eine große Anzahl von Web-Auftritten kommerziellen Zwecken. So wird im Internet im Großen und Ganzen auf zwei Arten Geld verdient: Zum einen durch das Angebot von Dienstleistungen und Waren in einem Online-Shop, zum anderen durch das Einblenden von Werbe-Bannern auf den Seiten eines Portals. Beide Wege sind nur dann erfolgreich, wenn die Sites möglichst viele Besucher anziehen.

Die meisten Nutzer des Internets suchen nach einem Anbieter, indem sie einen relevanten Suchbegriff in eine Suchmaschine eingeben und anschließend den Link für die besten Ergebnisse des Suchvorgangs anklicken. Marktführer bei den Suchmaschinen ist seit einigen Jahren die Firma Google. Um die Relevanz einer Webseite hinsichtlich des eingegebenen Suchbegriffs zu ermitteln, hat Google den Pagerank entwickelt. Dessen Ziel besteht darin, dass nach einer Suchanfrage die Seiten mit der inhaltlich besten Relevanz ganz oben in der Suchergebnis-Liste angezeigt werden.

Der Algorithmus, den Google für seine Suchmaschine einrichtete, geht davon aus, dass die Seiten, auf die eine möglichst hohe Anzahl an Links verweisen, auch besonders relevant sein müssen. Er berücksichtigt jedoch nicht nur die Anzahl der ermittelten Links, sondern auch die Qualität der verlinkenden Seiten. Die Seitenqualität wird in einem Abstufungsschema von null bis zehn beschrieben. Entspricht eine Seite höchsten Qualitätsanforderungen, erhält sie einen Pagerank von zehn. Die exakten Kriterien, nach denen der Pagerank einer Seite ermittelt wird, stehen der Öffentlichkeit nicht vollständig zur Verfügung. Als sicher gilt jedoch, dass eine gute Platzierung vor allem dann erreicht wird, wenn die Seiten eigenständige und umfassende Inhalte aufweisen, wenn sie fortdauernd aktualisiert werden und wenn die Links, die auf die Seite verweisen, aus unterschiedlichen Quellen stammen. Außerdem sollte die Seite schlagkräftige Keywords glaubwürdig integrieren, die auf die angebotene Produkt- oder Dienstleistungspalette verweisen.

Der Pagerank, den einen Webseite erreicht hat, kann sich jeder Besucher über die Google-Toolbar anzeigen lassen. Besucher und Website-Betreiber sollten aber die Tatsache nicht aus den Augen verlieren, dass der Google-Rank nur eines von vielen Maßstäben ist, die über die Qualität einer Seite Auskunft geben, und dass die Beurteilungskriterien einem ständigen Wandel unterworfen sind.

Mit dem Apache-Server-Modul Mod Rewrite hat man als Webmaster die Möglichkeit, einzelne oder alle URLs seines Webauftritts transparent zu anderen URLs umzuleiten, ohne dass dies der Benutzers oder ein Suchmaschinen-Robot mitbekommt. Dies eröffnet eine Vielzahl von Möglichkeiten: Von der einfachen Umleitung alter URLs auf neue Adressen, bis zur Säuberung der Webpräsenz von lästigen oder fehlerhaften URLs bietet Mod Rewrite alles, was der Webmaster braucht, um URLs leserfreundlich oder Suchmaschinen-optimiert zu gestalten. Insbesondere bei Publishing-Systemen wie Wordpress oder Joomla werden so die URLs in eine besser lesbare Form gebracht.

Beispiel: Die Website http://www.train-und-coach.de verwendet Wordpress als Publishing-Software. Hier würde eine Adresse wie http://www.train-und-coach.de/blog/?p=144 zu einer lesbaren Adresse weitergeleitet wie http://www.train-und-coach.de/wordpress-als-cms.html . Dafür musste nur der Webmaster bei seinem Provider

das Apache Modul Mod Rewrite aktivieren und folgende .htaccess-Datei erstellen und auf die Startseite seiner Webpräsenz hochladen:

# BEGIN WordPress

RewriteEngine On
RewriteBase /
RewriteCond %{REQUEST_FILENAME} !-f
RewriteCond %{REQUEST_FILENAME} !-d
# END WordPress
RedirectPermanent /it-trainer/links.html http://www.train-und-coach.de/links
RedirectPermanent /it-trainer/^(.*) http://www.train-und-coach.de
RewriteRule . /index.php [L]

Die Zeilen mit # sind Kommentare, die auf Mod Rewrite keinen Einfluss nehmen. Die Zeilen mit spitzen Klammern rahmen die Befehlsfolge ein. Zunächst wird die Rewrite-Maschine angeschaltet. Dann wird auf das Basisverzeichnis / verzweigt. Dann folgen Befehle, die die datenbankspezifischen Angaben auslesen und in Klartext-Adressen übersetzen.

An diesem Beispiel kann man auch sehen, welche weiteren Möglichkeiten Mod Rewrite bietet. So wird eine einzelne Adresse auf eine andere Adresse umgeleitet. Man sieht aber auch, wie ein komplettes Verzeichnis auf die Startseite umgeleitet wird. Offensichtlich will der Webmaster früher benutze Verzeichnisse oder Adressen automatisch durch Mod Rewrite auf die Startseite oder eine ausgewählte Adresse umleiten. Dies hat den Vorteil, dass Besucher, die früher mal die alten Adressen sich gespeichert haben, auf neue Adressen umgeleitet werden. Auch Suchmaschinen-Resultate mit Verweis auf frühere Ergebnisse werden so elegant auf die Startseite direkt weitergeleitet. Der Besucher sieht dann nicht das lästige und wenig verständliche "Fehler 404"-Formular, wenn er die veralteten Adressen benutzt.

Webportale oder auch Marktplätze bieten eine Fläche im Internet an, auf der sich Interessenten, Käufer und Verkäufer begegnen können, ohne einander auf realem Boden gegenüber zu stehen.

Mit Webportalen bietet sich beiden Seite eine kostengünstige und effiziente Möglichkeit, schnell Waren und Dienstleistungen anzubieten und anzunehmen.

Bei Webportalen werden alle gesuchten Informationen zusammengefasst, so dass Sie als Benutzer jederzeit einen Gesamtüberblick über die Angeboten erhalten. Für Sie als Suchender bietet sich die Transparenz der Unternehmen an, wodurch Sie ohne langes Nachfragen sämtliche Leistungsangebote und Preise eines Unternehmens

auf einen Blick ersehen und somit die Unternehmen durch genaue Recherche beurteilen und vergleichen können, ehe Sie sich für eines davon entscheiden.

Für Sie als Unternehmer bietet ein Webportal die Möglichkeit, vielen Interessenten zeitgleich Ihr Unternehmen, Ihre Dienstleistungen und Waren sowie Ihre Kosten aufzuzeigen, wodurch sich die Kunden schneller und ausführlicher über Ihr Unternehmen informieren können.

Webportale sind Vermittler zwischen Kunde und Anbieter und hatte bis vor einiger Zeit noch in Vermittlungen sowie in Werbeanzeigen ihre Haupteinnahmequelle.
Durch genaue Auflistung und Filterung der im Internet zur Verfügung stehenden Informationen brauchen Sie keine Bedenken haben vor einer Informationsflut, welche ungehindert auf Sie zurollt. Sie entscheiden, welche Daten und Informationen Sie lesen wollen.

Durch Werbung auf der Seite eines Webportals verweisen Sie als Anbieter die Kunden immer wieder auf Ihre Internetseite und damit auf Ihr Angebot.
Dabei gibt es verschiedene Möglichkeiten der Werbung.

Ein Webportal fungiert wie eine riesige Werbefläche gleich wie einer Plakatwand mitten in der Stadt. Der Unterschied besteht jedoch darin, dass auf diesem Wege alle Benutzer aus allen Regionen Ihre Werbung sehen können, was bei einer Plakatwand nicht der Fall ist.
So können Sie durch ein Banner, wodurch Ihr Werbetext animiert mit Bildern oder blinkenden Feldern immer wieder auf sich aufmerksam macht ebenso auf Ihr Unternehmen hinweisen, wie durch ein Pop-Up, wodurch sich Ihre Werbung immer wieder zeigt, wenn der Benutzer ein neues Browser-Fenster öffnet.
Bei der Werbemöglichkeit des Brand-Floodings wird ein gewisser Name, zum Beispiel der Ihres Unternehmens oder einer bestimmten Ware immer wieder in einem Text erwähnt.
Oder Sie machen Werbung durch einen Mailfooter. Dabei taucht Ihre Werbung an jedem Ende einer Mail eines kostenlosen Mailanbieters auf und verweist den Interessenten somit auf Ihre Leistungen.

Durch das World Wide Web bietet sich sowohl den Interessenten als auch den Anbietern eine riesige Bandbreite an Werbefläche und Möglichkeit nach Informationen und Artikel zu suchen, so dass ein intensiver erfolgreicher Austausch davon jederzeit möglich ist.

Eine Internetseite ist der Funktion nach die Präsenz ihres Inhabers im Internet bzw. im World Wide Web. Als Synonyme zu Internetseite werden umgangssprachlich auch die Begriffe Webseite (aus dem Englischen "web page" bzw. "web site") oder Homepage (aus dem Englischen als "Heimseite" zu übersetzen) verwendet. Eine eigene Webseite kann jede Privatperson genauso wie ein Unternehmen oder eine Organisation einrichten.

Der Inhaber einer Webseite kann sich durch sie theoretisch jedem Internetnutzer weltweit präsentieren, denn sie ist von jedem Webbrowser abrufbar. Dafür hat jede Internetseite mindestens eine eigene Internetadresse, die so genannte URL (aus dem Englischen "Uniform Resource Locator" zu Deutsch wörtlich „einheitlicher Quellenanzeiger"). Diese Internetadresse ist weltweit einmalig vorhanden. Sie darf einen vom Eigentümer der Webseite gewählten Namen (den so genannten Domain-Namen)

haben, allerdings muss dieser Name nach bestimmten Regeln gestaltet werden, wobei zugleich eventuelle Einschränkungen zu berücksichtigen sind. Die genauen Vergabebestimmungen für Domain-Namen (Länge, erlaubte und verbotene Zeichen) sind je nach Heimatland des Domaininhabers unterschiedlich.

Die Internetseite wird als Internetpräsenz, Webpräsenz oder Webauftritt bezeichnet und kann als eine Art Visitenkarte betrachtet werden. Geschichtlich gesehen wurde die erste Webseite von Tim Berners-Lee bereits am 13. November 1990 ins Leben gerufen. Am 30. April 1993 wurde von der Europäischen Organisation für Kernforschung CERN (vom Französischen "Conseil Européen pour la Recherche Nucléaire") angekündigt, dass das World Wide Web in absehbarer Zeit für alle frei zugänglich sein wird.

Mittlerweile gibt es Millionen Webseiten, sowohl private als auch gewerbliche. Heute ist es für fast jedes Unternehmen ein Muss, eine perfekte Webpräsenz zu besitzen. Für Privatpersonen ist es ebenfalls kein Problem, eine Homepage zu erstellen bzw. einen virtuellen "Heim" zu errichten, um Freunde einzuladen, mit denen zu kommunizieren, Fotos, Videos, Urlaubserlebnisse und Erfahrungen auszutauschen. Eine moderne Homepage ist ein wahres multimediales Produkt, das jeder auch selbstständig erstellen kann, denn es stehen zahlreiche leistungsstarken Tools, mit deren Hilfe leicht und schnell eine Webseite auf die Beine gestellt werden kann.

Das Internet bietet viele neue moderne Formen zur virtuellen Kommunikation von real lebenden Menschen mit gleichen Interessen oder Problemen. So können Sie nicht nur eine private Homepage, sondern auch ein Weblog, ein Forum, ein Lexikon oder ein themenbezogenes Portal ins Leben rufen.

Fand der Begriff Webmaster ursprünglich Verwendung für den Administrator eines so genannten Webservers, so dient er heute auch als Berufsbezeichnung und findet beispielsweise häufig Anwendung in Stellenmärkten. Die Aufgaben eines Webmasters sind recht vielfältig und umfassen die Planung, Entwicklung, die grafische Gestaltung, Vermarktung, Administration und Wartung von Webseiten im Internet, jedoch auch im Intranet einer oder mehrerer Organisationen.

Webprojekte und deren Durchführung und Planung sowie erfolgreiche Vermarktung liegen im Verantwortungsbereich des Webmasters, welcher zumeist sehr viele Fertigkeiten beherrschen muss wie Webdesign, Programmierung, HTML als immer noch geläufigste Programmiersprache sowie komplexe Programmiersprachen. Die Mitarbeit bei Redaktions- oder Contentmanagementsystemen sowie die Umetzung von dynamischen oder statischen Inhalten sind zudem Anforderungen, welche ein professioneller Webmaster erfüllen muss.

Widersprüchlich ist, dass die Lehrpläne für Ausbildungszweige in Berufen im Informatikbereich mittlerweile zwar auch Grundlagen zu der Webentwicklung beinhalten, jedoch in Deutschland immer noch keine für Webmaster staatliche anerkannte Ausbildung angeboten wird.

In den 1990er Jahren fand das World Wide Web seine Anfänge und seitdem wird für Personen, welche eine Internetpräsenz betreiben oder für diese Verantwortung tragen, die Bezeichnung Webmaster als Berufs- oder Tätigkeitsbezeichnung genutzt. Zunächst wurden Internetseiten lediglich von einer Person entwickelt, was eine Generalisierung des Berufs des Webmasters nach sich zog. Webmaster waren damals sowohl für die Entwicklung und Veröffentlichung als auch für die Vermarktung und Konzeption verantwortlich.

Die rasante Entwicklung des Internets hinsichtlich Kommerzialisierung sowie Webtechnologien stellte immer höhere Anforderungen in allen Bereichen an die Qualifikation eines Webmasters, so dass heutzutage aus verschiedenen Spezialisten zusammen gestellte Teams kommerzielle und komplexe Internetpräsenzen entwickeln.

In vielen Ländern sowie in Russland, Europa und Deutschland ist Webmaster auch heute noch keine gesetzlich geschützte Berufsbezeichnung, so dass der Beruf als Webmaster legal von jedem geführt werden kann. Jedoch bestehen auch in dieser Freizügigkeit Einschränkungen insoweit, als bei einer Person, welche diesen Begriff beruflich anwendet - beispielsweise bei Vertragsabschlüssen oder Bewerbungen - und keine entsprechende Qualifikation nachweisen kann, unter Umständen das Gesetz gegen unlauteren Wettbewerb im Sinne irreführender Werbung zur Anwendung kommen kann, und somit läuft derjenige Gefahr, dass auch der Straftatbestand des Betruges gemäß § 263 StGB erfüllt sein kann, was zum Beispiel bei einem so genannten Anstellungsbetrug vorliegt.

Suchmaschinen-Optimierung (SEO) ist der Prozess der Verbesserung des Umfangs und der Qualität der Besucher mit Hilfe von besserem Ranking über Suchmaschinen-Ergebnisseiten. Zunächst stehen alle Möglichkeiten im Vordergrund, mit denen man durch Maßnahmen auf den Webseiten (On Page Optierung) das Ranking beeinflussen kann. Google und Co. ranken Seiten besser, wenn bestimmte Schlüsselworte oder Keywords an geeignetere Stelle in einer geeigneten Häufigkeit vorkommen.

Voraussetzung der On Page Optimierung ist also die genau zutreffende Bestimmung der richtigen Keywords. Diese müssen einerseits aussagekräftig für die Inhalte der zu optimierenden Page -anderseits auch von Suchmaschinen-Nutzern in Suchmaschinen-Nutzer-Formularen eingegeben werden. Die wirksame On Page Optimierung verlangt, dass Änderungen am HTML-Quellcode einer Webseite vorgenommen werden. Suchmaschinen-Optimierungs-Taktik kann so in die Website- Entwicklung und das Website-Design eingreifen.

Für die On Page Optimierung müssen das Keyword oder die Keyword-Kombinationen in allen relevanten Teilen der Seite platziert werden. Insbesondere der Titel-Bereich

und die Deskription-Bereiche sind zentral in den Focus zu nehmen. Denn diese Bestandteile werden von Suchmaschinen-Auswertungsprogrammen besonders in die Bewertung einbezogen. Aber auch die Body-Bestandteile der Seite sind wichtig. Hier sollten das Keyword oder die Keyword-Kombinationen in Überschriften und formatierten Textteilen häufiger vorkommen, denn Suchmaschinen-Robots gehen davon aus, das diese Teile der Seite besonders wichtig für den Inhalt sind. Auch der Anfang der Seite und das Ende der Seite ist für die Berücksichtigung der On Page Optimierung besonders wichtig.

Insgesamt ist es aber eine zentrale Prämisse der Suchmaschinen-Optimierung, dass diese Keywords nicht zu häufig vorkommen sollen. Das wäre Keyword-Stuffing und würde zur Abstrafung im Ranking führen. Eine Quote von 3 bis 7 Prozent des kompletten Texts der Seite gilt als angemessen. Zu berücksichtigen sind alle Seiteninhalte, also auch versteckte Teile der Seite wie die Alt-Tag s für Bilder und die Meta-Angaben im Head-Bereich der Seite. In jedem einzelnen Bereich sollten die Keywords vorkommen, wenn möglich: im vorderen Teil des Seitenbereichs.

Eine erfolgreiche OnPage Optimierung kann über Tools abgefragt werden. Insbesondere bei weniger umkämpften Keywords ranken dann die optimierten Seiten recht schnell und recht gut. Bei umkämpfter Keywords reicht die On Page Optimierung aber nicht aus. Dann müssen noch Methoden der OffPage Optimierung verwandt werden, um das Ranking der Seite nach vorne zu bringen.

Um im Internet aufzufallen, müssen Sie mit Ihrer Webseite Aufmerksamkeit auf sich ziehen, d.h. Menschen dazu bewegen, Ihre Webseite zu besuchen. Dies erreichen Sie nur, wenn Sie von den Suchmaschinen gefunden werden und dabei eine gute Platzierung in den Suchergebnissen erzielen. Die Suchmaschinen sind schließlich die Brücken zwischen dem Internetnutzer, der etwas ganz Bestimmtes sucht und Ihnen, der das Gesuchte anbietet.

Alle Strategien, bei denen über die Suchmaschinen neue Besucher für Ihre Webseite gewonnen werden sollen, werden unter dem Begriff „Suchmaschinen-Marketing“ zusammengefasst. Darunter fällt zunächst einmal die Suchmaschinen-Optimierung, bei der Ihre Webseite so angepasst wird, dass sie von den Suchalgorithmen der Suchmaschinen ausgewertet werden kann. Dabei werden auch die Texte und Überschriften Ihrer Webseite so überarbeitet, dass sie eine möglichst hohe Dichte an Schlüsselwörtern aufweisen und so dem Suchalgorithmus zeigen, was wichtig ist und was nicht.

Neben dieser On-Page-Suchmaschinenoptimierung werden zudem Strategien der Off-Page-Optimierung angewandt.

Dazu zählen z.B. Eintragungen in Webverzeichnisse oder Verlinkungen anderer Webseiten auf Ihre Webseite. On- und Off-Page-Optimierungen sorgen dafür, dass Ihre Seite von den Suchalgorithmen einen höheren PageRank zugewiesen bekommt. Der PageRank ist ein Wert, der angibt, wie relevant die Suchmaschine Ihre Seite in Bezug auf bestimmte Schlüsselworte einstuft. Je höher dieser Wert ist, desto besser ist die Platzierung Ihrer Webseite in den Suchergebnissen. Und eine bessere Platzierung erhöht die Chance, dass Ihrer Seite auch tatsächlich besucht wird.

Suchmaschinen-Marketing besteht aber nicht nur aus Suchmaschinen-Optimierung. Sie können auch von Suchmaschinen-Werbung Gebrauch machen, um Ihre Webseite bekannter zu machen. Dabei buchen Sie von den Suchmaschinen eine kleine Werbeanzeige, die in den Suchergebnissen zu bestimmten Schlüsselwörtern in einem separaten Werbeblock angezeigt wird und zu Ihrer Seite verlinkt.

Für welche Strategie, Suchmaschinen-Optimierung oder Suchmaschinen-Werbung, Sie sich auch entscheiden, das Wichtigstes ist, dass Sie überhaupt Suchmaschinen-Marketing für Ihre Webseite betreiben. Die Suchmaschinen sind schließlich die Gelben Seiten des Internet. Und wie ein Handwerker, der nicht in den Gelben Seiten steht, wohl kaum Aufträge erhalten wird, so wird Ihre Webseite ohne Suchmaschinen-Marketing nicht viele Besucher bekommen. Gerade dann, wenn Sie mit Ihrer Webseite Produkte oder Dienstleistungen verkaufen wollen, sind Sie auf viele Besucher angewiesen und sollten daher die Wichtigkeit dieser Maßnahmen nicht unterschätzen.

Damit die eigene Internetpräsenz im schier unendlichen digitalen Kosmos auch gefunden wird, macht es Sinn die Seite hinsichtlich bestimmter Schlüsselbegriffe zu optimieren. Hilfreich ist hier eine fundierte Keywordanalyse (SEO), mit der man die relevantesten Schlüsselbegriffe für die eigene Internetpräsenz ermittelt. Ganz allgemein gilt: Masse statt Klasse zahlt sich aus. Da es einfacher ist eine Webseite auf eine handvoll Begriffe zu optimieren, anstatt ohne Augenmaß zu agieren.

Für die Keywordanalyse (SEO) empfehlen sich Keyworddatenbanken, die genau registrieren wie oft ein bestimmter Begriff in einem bestimmten Zeitraum abgerufen wurde. Zu den bekanntesten zählen u.a. ranking-check.de oder seo-ranking-tools.de. Ebenfalls empfiehlt es sich Freunde und Bekannte zu fragen welche Begriffe sie mit einem bestimmten Thema assoziieren. Zudem sollte der Titel der Seite das dargestellte Thema widerspiegeln und mindestens einen der Schlüsselbegriffe enthalten.

Unbedingt zu beachten ist bei der Keywordanalyse (SEO) die Verwendung von Singular- und Pluralschreibweisen. Man sollte sich im Vorfeld bei den o.g. Datenbanken informieren welche Variante häufiger gesucht wird. Zudem sollten alle verwendeten URLs und Bilder die relevanten Keywords enthalten. Also die Bilder nicht bild1.jpg heißen, sondern keyword.jpg. Das gleich gilt für die URLs, die sauber mit Bindestrichen getrennt werden sollten. Also nicht www.webdesignhamburg.de/photoshopanleitungfueranfaenger, sondern www.webdesign-in-hamburg.de/photoshop-fuer-anfaenger.
Für die Verlinkung von Internetseiten gilt das gleiche. So ist ein Link indem das gesuchte Keyword enthalten ist wertvoller als ein Link der nur auf eine wertfreie Formulierung gesetzt wird, wie beispielsweise „weiter Informationen gibt es hier“.

In besonders heiß umkämpften Keywordbereichen, in denen es nahezu unmöglich ist mit einem einzelnen Schlüsselbegriff weit nach vorne zu kommen, empfiehlt sich bei der Keywordanalyse (SEO) eine Kombination aus mehren Begriffen zu finden. Also statt nur „webTV“ als Keyword zu optimieren, gezielt Begriffe wie „webTV kostenlos“ oder „webTV Deutschland“ zu verwenden.

Der Linkaufbau ist ein wichtiger Bestandteil der Search Engine Optimization, also der Optimierung der eigenen Seite um eine möglichst gute Indexierung zu erlangen. Da das World Wide Web täglich wächst und neue Seiten ständig aus dem Boden schiessen, wird es zunehmend schwerer für Suchmaschinen, gute Treffer zu ermöglichen. Als Indiz für eine relevante und wertvolle Seiten, werden immer häufiger die Hyperlinks auf einer Seite zu Rate gezogen. Verlinken seriöse oder besonders viele andere Links auf eine Seite, gilt diese als guter Suchtreffer und wird automatisch höher eingestuft. Die Begründung liegt auf der Hand. Eine Seite, welche empfohlen und öfter per Link zu Rate gezogen wird, hat automatisch auch mehr Informationsgehalt bezüglich des Suchbegriffs. Aus diesem Grunde ist nicht nur die Professionalität einer Seite oder der optimierte Aufbau anhand von Keywords wichtig für eine gute Platzierung im Suchindex, sondern auch die Relevanz auf anderen Seiten. Ein wichtiger Schritt, um hier gute Ergebnisse zu erzielen ist der Linkaufbau.

Wichtig ist zu wissen, das es hierbei nicht um die schiere Ansammlung von Links geht. Moderne Suchmaschinen erkennen Methoden wie das Erschaffen von einer großen Anzahl von leeren Seiten oder Backlinks, die auf die Hauptseite weiterleiten. Wer mit dieser Methode ertappt wird, erhält automatisch eine schlechtere Suchrelevanz. Professioneller Linkaufbau geschieht auf anderen Wegen. Der Eintrag in Netzwerke oder Verzeichnisse, die sich mit der Thematik beschäftigen, ist ein Anfang. Viele Firmen, die sich mit der Optimierung von Seiten für Suchmaschinen beschäftigen, bieten weitere Optionen an. So kann man sich in einen bestehenden Ring von Partnern einfügen lassen, die auf die eigene Seite verweisen. Wichtig ist und bleibt natürlich die Qualität. Wer eine Seite verlinked, muss davon ausgehen das diese auch bedenkenlos weiter empfohlen werden kann. Daher basiert der Linkaufbau auch auf der Qualität des Designs und Angebots. Wer eine gute Seite hat, kann von einer ausreichenden Anzahl von Links ausgehen. Letztendlich basiert der Linkaufbau in vielen Fällen auf Gegenseitigkeit und dem Informationsgehalt. Wer diese beiden Punkte verfolgt, kann effektiven Linkaufbau betreiben oder bietet professionellen Firmen eine gute Basis. So erreicht man auf der einen Seite eine größere Bekanntheit und dank einer Vielzahl von Links, einen besseren Platz in der Suchmaschine.

Es reicht nicht nur eine Online-Präsenz zu haben, sondern es ist genauso bedeutend auch möglichst optimal im Netz gefunden zu werden. Um die Auffindbarkeit im Netz zu verbessern hat sich eine ganze Industrie etabliert. Das Kürzel SEO (Search Engine Optimization) bezeichnet meist Tipps wie man das Ranking einer Seite bei den relevanten Suchmaschinen verbessern kann.

In erster Linie dreht es sich hier um eine möglichst optimale Platzierung bei Google, da mittlerweile über 95 % Prozent der Internetnutzer diese Suchmaschine als Informationsquelle nutzen.
Um das Ranking  einer Webseite zu verbessern, also die Seite in der Rangfolge der angezeigten Suchergebnisse möglichst weit nach vorne zu bringen, gibt es unterschiedliche Möglichkeiten. Niemand kennt den Algorithmus genau, den Google verwendet um die Informationen der digitalen Galaxis zu sortieren. Als sicher gilt allerdings, dass das Ranking  durch die Anzahl der relevanten Keywords, also Schlüsselbegriffe die auf die Relevanz eines Themas hindeuten, maßgeblich mit beeinflusst wird.

Hierbei gilt es allerdings Augenmaß zu bewahren. Das Verhältnis zwischen dem Text insgesamt und der Anzahl der Schlüsselbegriffe muss in einem nachvollziehbaren Verhältnis stehen. So sollten Sie den Begriff, für den Sie ihre Seite optimieren möchten nicht öfter als etwa 3 bis 5 mal pro DIN A4 Seite nennen. Wird ein Begriff zu oft genannt, erkennt google dies als Spam und stuft die Relevanz einer Seite herunter.

Um die optimalen Keywords für die eigene Branche zu ermitteln empfehlen sich Datenbanken wie ranking-check.de. Weiterhin ist es sinnvoll Freunde und Bekannte zu fragen sowie sich die Meta – Tags von Mitbewerbern anzuschauen um aussagekräftige Keywords zu bekommen.
Weiterhin ist es hilfreich für das Ranking  möglichst viele Links von anderen Webseiten zu generieren. Google erkennt diese Links als Empfehlung an. Je höher der Page Rank der Seite ist, die auf ihre Seite verlinkt, desto besser ist es für das Ranking.

Der Bekanntheitsgrad einer Website definiert sich immer mehr über seine Relevanz in Suchmaschinen. Populäre Treffer, die eine hohe Suchrelevanz haben, sammeln automatisch mehr Besucher und damit größeren Erfolg, als unbekannte Seiten die in Suchmaschinen keine Rolle spielen. Diese Thematik ist mittlerweile so ausgeprägt, das es eine eigene Geschäftssparte hervorgebracht hat: Das sogenannte SEO oder Search Engine Optimization. Diese beschäfigt sich damit, Websites für Suchmaschinen zu optimieren und deren Algorithmen schnell zu erkennen. Darauf basierend, können Firmen die SEO anbieten, eine Seite so aufrüsten oder umbauen, das sie über eine hohe Suchrelevanz verfügt. Allerdings ist dies keine einmalige Sache. SEO ist ein steter Prozess und eine Seite muss sich natürlich auch ihren hohen Rang erst verdienen. Man unterscheidet hier zwischen zwei Arten: Dem White hat SEO und dem Black hat SEO.

Das Black hat SEO ist die negative Seite. Sie basiert darauf, in möglichst kurzer Zeit eine Website zu propagieren. Meistens ist das Black hat SEO allein auf Suchmaschinen ausgerichtet und nicht auf die eigentliche Website. Das bedeutet, das man nur versucht per Suchmaschinen Treffer zu sammeln und lediglich minderwertigen Content auf der Seite anbietet. Diese Methode sorgt für sehr kurzfristigen Erfolg und ist bereits nach kurzer Zeit mit einer schlechten Platzierung oder gar Verbannung gestraft. Im Gegensatz dazu steht das White hat SEO. Hier wird der Wert auf eine langfristige Etablierung gelegt. Seriöse Firmen, die SEO anbieten, verfahren im Sinne des White hat SEO. Oberste Regel, welche sich das White hat SEO selber auferlegt, ist die Einhaltung von Regeln und der Fairness gegenüber dem User. Es wird versucht die Webseite zu optimieren und das Maximum herauszuholen. Gleichzeitig wird der Zugang zu Suchmaschinen erleichtert, beispielsweise durch das sinnvolle Platzieren von Keywords oder dem Vermarkten im Netz durch Linkaufbau. White hat SEO setzt sich das Ziel, mit fairen Mitteln die Konkurrenz zu schlagen und so letztendlich dem User den besten Inhalt zu bieten. Die Prämisse ist ganz klar: Der User bekommt das, was er auch in der Suchmaschine sieht. Auf diese Art und Weise bleiben solche Websites auch lange im Internet, helfen dem User und sammeln auf der anderen Seite genug Traffic, um dem Betreiber den Erfolg zu garantieren.

Der Missbrauch und die Täuschung von Suchmaschinen hat in letzter Zeit dramatisch zugenommen. Seitdem das Internet für die meisten Menschen in den führenden Industriestaaten vorhanden ist und auch Laien sich immer öfter vor den Rechner setzen, wittern Geschäftemacher ihre Chance. Suchmaschinen sind ein beliebtes Opfer, um schnelles Geld durch dubiose Angebote, aufdringliche Werbung oder gefährliche Programme, wie Trojaner, zu machen. Jemand der nach einer Information sucht, kann sehr schnell auf solch verdächtigen Seiten landen. Zwar sind sie für den Profi schnell zu erkennen, aber nicht jeder hat die Erfahrung. Auf diese vermeintlich Schwächeren, zielen die Macher von Spamseiten ab. Trustrank ist ein System, um den Benutzer vor unliebsamen Erfahrungen zu beschützen.

Der Trustrank beschreibt die Wertigkeit einer Internetseite. Ein hoher Trustrank, bedeutet das es sich bei der Seite nicht um sinnlosen Spam haltet, sondern vollwertige Informationen bietet. Gleichzeitig ist er auch ein Algorithmus, der zur automatischen Überprüfung weiterer Seite verwendet wird. Das Verfahren wurde von Google gekauft und seit 2004 dort verwendet. Der Trustrank soll als automatisches Werkzeug, Spam von normalen Internetseiten unterscheiden.

Dies geschieht mit Hilfe von vorgegebenen Websites, die ausdrücklich als vertrauenswürdig gelten und manuell ausgesucht wurden. Diese Seiten werden "Authorities" getauft. Von diesen mit der Hand ausgewählten Seiten, wird die komplette, ausgehende Struktur aller Links überprüft und automatisch neu ausgewertet. Dies geschieht dann im Schneeballsystem bis zu einer beliebigen Größe.

Der Gedanke, der diesem System die Grundlage verschafft, ist der das ausgewählte Sites, die als vertrauenswürdig gelten, nicht zu Spamsites verlinken. Allerdings gilt dieses Vorgehen als fragwürdig, da Spamsites sich immer besser tarnen und auch über seriöse Seiten wie Wikipedia schnell Verbreitung finden können. Trotzdem ist Trustrank als zuverlässig zu werten. Experten gehen davon aus, das schon wenige Authorities, im Bereich von hundert bis zweihundert Seiten, den gesamten Spam einer Suchmaschine markieren können.

In Zeiten umkämpfter Märkte und zurückgehender Kaufkraft kann sich ein Unternehmen nur am Markt behaupten, wenn es die modernen Marketing- und PR-Instrumente nutzt.
(PR=Public Relations)

Bei der Entwicklung von Strategien zur Erhöhung des Bekanntheitsgrades und der Wiedererkennbarkeit eines Unternehmens rückt der Begriff Corporate Identity immer mehr in den Mittelpunkt. Wenn Sie Ihr Unternehmen unter diesem Gesichtspunkt führen wollen, müssen Sie auf ein einheitliches äußeres und inneres Erscheinungsbild achten. Eine durchgängig entwickelte Unternehmensidentität soll es dem Kunden erleichtern, die Produkte und Leistungen Ihrer Firma zu erkennen. Ihr Unternehmen soll zur „Persönlichkeit“ werden. Einige Experten sprechen sogar vom „Charakter“ eines Unternehmens.

Corporate Identity beschränkt sich nicht nur auf die optische Erscheinung. Auch die Art der Kommunikation nach Innen und Außen, die Philosophie und -kultur prägen Ihr Unternehmen. Die einzelnen Teile der Corporate Identity sind als Gesamtheit zu betrachten. Oft sind die Übergänge fließend, die wichtigsten Gesichtspunkte sollten aber bekannt sein.

Das Corporate Design ist wohl der bekannteste Begriff im Rahmen der Corporate Identity. Wenn Sie in Ihrem Unternehmen ein Corporate Design einführen wollen, müssen Sie auf ein einheitliches optisches Erscheinungsbild achten. Das Logo muss immer gleich gestaltet sein. Das beginnt mit Schrift und Farbe, aber auch die Proportionen müssen übereinstimmen. Durch die Einhaltung dieser strengen Vorgaben kann der Kunde Ihr Produkt auf den ersten Blick identifizieren, egal ob die Kennzeichnung auf Briefbögen, Werbeschriften, auf Arbeitskleidung oder als Firmenschild auf dem Produkt erfolgt.

Auch der Internetauftritt sollte mit den unternehmenstypischen Farben, Schriften und Logos gestaltet werden. Das geht bis zur identischen Anordnung von Bildern und Texten auf Werbeplakaten des Unternehmens unabhängig vom Thema. Selbst bei der Architektur der Unternehmensgebäude sollten die Grundsätze des Corporate Design berücksichtigt werden. In letzter Zeit gewinnt das akustische Erscheinungsbild immer mehr Bedeutung bei der Corporate Identity. Nicht wenige Melodien, die eigentlich nur zur Produktwerbung komponiert wurden, entwickelten sich zu Hits. Der neueste Trend beschäftigt sich mit der Entwicklung von bestimmten Gerüchen, die mit einem Unternehmen in Verbindung gebraucht werden sollen.

Während das Corporate Design sich mit Form und Gestaltung des Unternehmensauftrittes beschäftigt, setzt sich die Corporate Communication mit den Inhalten auseinander. Wie publiziere ich mein Unternehmen nach innen und nach außen, stimmen die Werbemaßnahmen mit meiner Unternehmensphilosophie überein. Entsprechen die Inhalte dem Image des Unternehmens? Gebe ich in der Öffentlichkeitsarbeit das gewünschte Unternehmensbild weiter?

Selbst wie die Mitarbeiter von Kunden und Geschäftspartnern sowie in der Öffentlichkeit wahrgenommen werden, spielt bei der Corporate Identity eine Rolle. Dieser Corporate Behaviour genannte Aspekt betrachtet aber auch die Mitarbeiterführung im Unternehmen.

Wenn auch diese komplexe Betrachtungsweise eines Unternehmens zunächst ungewohnt erscheint, verspricht sie doch bei konsequenter Anwendung nachhaltige Erfolge bei der Unternehmensentwicklung.

Der Begriff Landingpage, alternativ auch Landing Page oder Landing-Page geschrieben, steht für eine spezielle Seite, die beim Aufrufen eines bestimmten Internet-Angebots beziehungsweise Links standardmäßig zuerst erscheint. Eine solche Seite wird häufig als Ziel-Verlinkung bei Werbeformen wie etwa Bannern, Text-Links oder kontextsensitiver Werbung wie etwa bei "AdWords" von Google  verwendet, und bietet klar strukturierte nähere Informationen zum beworbenen Produkt oder zu einer Dienstleistung.

Ein wesentliches Merkmal ist, dass sonst keine anderen, möglicherweise ablenkenden Inhalte vorhanden sind. Um den gewünschten Erfolg zu erzielen, sollte auch eine einfache Möglichkeit der Kontaktaufnahme vorhanden sein, wie etwa ein Anfrage-Formular oder ein sogenannter Call-Back-Button, über den es möglich ist, bei Fragen oder zwecks einer Bestellung kostenlos zurückgerufen zu werden.

Wenn es sich etwa um ein Gerät, eine Software oder zum Beispiel einen Mobilfunk-Vertrag handelt, so ist auf einer Landingpage auch ein direkter Link auf den jeweiligen Punkt in einem Webshop üblich, um ohne langes Suchen eine Bestellung aufgeben zu können.

Eine Landingpage muss keineswegs gleichzeitig die Homepage (Startseite) eines kompletten Web-Angebots sein – vielmehr konzentriert sie sich auf einen wesentlichen Punkt. Die Seite sollte so gestaltet sein, dass die wesentlichen Informationen wie etwa Preis und Leistungsumfang innerhalb weniger Sekunden erfasst werden können, so dass das Interesse für eine Anfrage, den Besuch weiterführender Seiten oder eines Webshops geweckt wird. Wirkt der Inhalt zu unübersichtlich, was zum Beispiel bei zu kleiner Schrift und schlechter Strukturierung der Fall sein kann, oder insgesamt zu wenig interessant, so wird eine Landingpage erfahrungsgemäß gleich wieder verlassen beziehungsweise geschlossen.

Insgesamt kann mit derartigen Seiten auch bestimmt werden, welcher Prozentsatz der Werbeeinblendungen bei einer Werbekampagne tatsächlich angeklickt werden, oder welche Aufmerksamkeit diese generell erregt hat.

Eine andere Form einer Landingpage ist eine spezielle Seite, die bei Aufbau einer Verbindung zu einem öffentlichen WLAN (drahtloses Netzwerk) zum Beispiel in Hotels, Lokalen oder an manchen öffentlichen Plätzen erscheint, bevor eine andere Webseite aufgerufen werden kann. Hier kann dann über die Nutzungsbedingungen informiert oder lokale Informationen bereitgestellt, oder im Fall von kostenpflichtigen WLAN-Zugängen über die Preise und Zahlungsmöglichkeiten informiert werden.

Als 1995 Netscape die Programmiersprache JavaScript einführte, war es zunächst eine firmenbezogene Angelegenheit, die sich schnell zum Standard entwickelte, nachdem Microsoft sie übernahm und mit seiner eigenen Sprache JScript ergänzte.
Viele Anfänger im Gestalten von Webseiten scheuen sich zunächst davor, sich mit dieser Sprache auseinander zu setzen, weil es ein langwieriger Lernprozess ist, mit den Variablen, Objekten, Funktionen und vielen anderen Elementen korrekt umzugehen. Für diese Webgestalter gibt es dann fertige Scripts in großen Mengen und für die unterschiedlichsten Wünsche im Internet zu finden, die sie nur in ihren HTML-Code einbauen müssen.
Falls Sie ein fertiges Script aus dem Web verwenden und Sie etwas von der Programmiersprache verstehen, können Sie Variablen verändern oder Funktionen ergänzen, um das Script an Ihre Bedürfnisse anzupassen.
Gewöhnlich werden JavaScripts oben im HTML-Dokument eingefügt. Das macht es dem Browser einfacher, den Code direkt einzulesen, um ihn dann ausführen zu können.

Aufgrund von Missbrauch des JavaScripts, gibt es JavaScript Gegner, die die Funktion in ihrem Browser deaktivieren, weil sie von solchen Webseiten, die das betrifft, einfach nicht verärgert werden wollen, wenn z. B. die Kopierfunktion abgestellt ist, sich unerwünschte Popups öffnen oder der Quelltext verschleiert wird, um ihn nicht öffentlich zu machen und vieles mehr. Manche haben halt Spaß daran, ihre Webseiten mit derartigen Anwendungen zu gestalten, obwohl dies als schlechter Stil angesehen wird.
Auf der anderen Seite erfreuen sich JavaScripts großer Beliebtheit, weil sie die HTML-Seite um einiges optimieren können. Da, wo Sie mit HTML nicht weiter kommen, kann JavaScript helfen.
Verschiedene Anwendungen wie zum Beispiel Mausovereffekte, Formulare oder Banner und Laufschriften sind durch JavaScript realisierbar. Überhaupt lassen sich sehr schöne Spielereien mit JavaScripts erstellen, die eine Webseite so richtig aufpeppen können.

Als Doorway Page bezeichnet man eine HTML-Seite, deren Zweck darin besteht, die Positionierung des Internetauftritts (Ranking) bei Suchmaschinen zu optimieren. Ein anderer Begriff für solche Seiten ist Brückenseite. Eine Brückenseite enthält außer Suchwörtern keinen eigenen Web-Inhalt, und dient meistens dazu, automatisch auf die eigentliche Webpräsenz zu verlinken. Dies geschieht in der Regel unter Verwendung von JavaScript. Man kann eine Brückenseite sowohl manuell als auch automatisch erstellen. Hierfür gibt es zahlreiche Dienste und Software im Internet. Brückenseiten werden auch oft als Hallway Page, Einstiegs- oder Gatewayseite bezeichnet.

Eine Doorway Page kann vor allem für Betreiber von Internetauftritten von Vorteil sein, die anstelle von Textsegmenten viele Grafiken oder auch Flashinhalte verwenden. Da Suchmaschinen solche Inhalte ignorieren, kann über die im Text der Brückenseite enthaltenen Schlüsselwörter das Suchergebnis verbessert werden. Außerdem können solche Schlüsselbegriffe auch leicht geändert werden, ohne den eigentlichen Webseiten-Inhalt verändern zu müssen. Durch den Einsatz einer automatischen Verlinkung auf die Haupt-Webseite sieht der Benutzer den Inhalt einer Doorway Page normalerweise nicht.
Problematisch ist die Verwendung von Brückenseiten, weil viele Suchmaschinen sie als Spam erkennen und herausfiltern. Grund dafür ist das Bestreben der Suchmaschinenbetreiber, den Nutzern die Inhalte zu präsentieren, die auch in der Suchmaschine angezeigt werden. Da der Inhalt der verlinkten Webseite nicht mit dem der Doorway Page übereinstimmen muss, sehen viele Suchmaschinen dies als Täuschungsversuch an. Dies kann zu negativen Bewertungen und sogar zum Ausschluss führen.

Waren Brückenseiten vor einigen Jahren ein sehr verbreitetes Mittel, ist der Einsatz mit zunehmender Verbesserung der Suchmaschinen zurückgegangen. Insbesondere die Verwendung von speziellen Filtern und der Beurteilung der Linkpopularität haben die Bedeutung dieser Seiten verringert. Ausnahmen stellen Webseiten dar, die aus technischen Gründen nicht ohne Weiteres ihre Inhalte anpassen können (z.B. bestimmte Shopsysteme). Dort kann der Einsatz einer gut strukturierten Eingangs- oder Brückenseite nach wie vor sinnvoll sein. Doch auch hier gilt, dass eine pure Aneinanderreihung von zahlreichen Schlüsselwörtern und automatische Verlinkungen von vielen Suchmaschinen negativ beurteilt wird. Gerade der Einsatz von automatisierter Weiterleitung sollte vermieden werden. Hält sich der Ersteller einer Webseite an die eng gefassten Richtlinien, spricht auch bei modernen Suchmaschinen nichts gegen die Verwendung einer Doorway Page.

Dass hohes Ranking in den Ergebnislisten der großen Suchmaschinen dank hoher Link-Popularität zu erreichen ist und diese wiederum den zahlreichen Backlinks zu verdanken ist, ist den Webseitenbetreibern hinreichend bekannt. So ist jeder bestrebt, möglichst viele Backlinks (externe Links) zu sammeln. Unbestritten zählt die Linkpopularität zu den wichtigsten Ranking-Kriterien, nach denen die Suchmaschinen die Webseiten beurteilen und ihnen dauerhaft hohe Rankings zusprechen. Da allerdings zwischen externen Links (externen Verlinkung) und internen Links (internen Verlinkung) zu unterscheiden ist, muss auch zwischen der externen Linkpopularität und der internen Linkpopularität unterschieden werden. Obwohl die interne Linkpopularität viel seltener erwähnt wird, ist ihre Rolle für das gute Ranking einer Webseite genauso wichtig. Daher muss sie bei der Suchmaschinenoptimierung ebenfalls einbezogen werden.

Die interne Verlinkung ist ein wichtiger Rankingfaktor, bei dem der Aufbau (bzw. die Struktur) der Webseite durch die Suchmaschinen bewertet wird. Die internen Links sind die Links, die nicht auf externe Seiten, sondern auf Unterseiten und auf die Startseite verweisen. Folglich ist darunter die Navigation einer Webseite zu verstehen, welche zur problemlosen Erreichbarkeit aller Unterseiten verantwortlich ist. So wie von den Surfern, müssen diese auch von den Spidern der Suchmaschinen leicht besucht werden können. Wesentlich ist es zum Beispiel, dass jede Unterseite einen Link zur Homepage (Startseite) enthält. Nicht unbedeutend ist zudem die Qualität der Linktexte, die aussagekräftig sein müssen. Die einwandfreie interne Verlinkung, das heißt die Optimierung der internen Link-Popularity, gehört zur OnPage Optimierung der Webseite.

Zum einen spielen die internen Links eine wichtige Rolle für die Besucher Ihrer Webseite, da sie ihnen die Orientierung und den Überblick innerhalb der Webseite sowie ihre Benutzung vereinfachen und den Weg zu jeder Unterseite verkürzen. Ferner ist die sorgfältig gepflegte interne Verlinkung sehr hilfreich für die Spider der Suchmaschinen, denen sie die erfolgreiche Erfassung jeder Unterseite ermöglichen. Die fehlerfreie perfekt optimierte interne Verlinkung garantiert die vollständige korrekte Indexierung sämtlichen Unterseiten Ihrer Webseite und sichert Ihnen bestmögliches Ranking. Ziel ist es dabei, allen Unterseiten gleich hohes Ranking zu sichern und zugleich die Webseite von den Suchmaschinen als Ganzes erkennen zu lassen. Hilfreiche Werkzeuge sind die Sitemap (die Links zu allen Unterseiten enthält) und die Positionsanzeige bzw. Adressleiste (die dem Besucher anzeigen, wo er gerade ist).

Ein Spider (aus dem Englischen wörtlich als "Spinne" bzw. "Webspinne" ins Deutsche zu übersetzen) ist ein leistungsstarkes Computerprogramm, das so konzipiert ist, dass es das Internet automatisch und selbstständig durchsucht, um die Webseiten nach bestimmten Kriterien zu ermitteln und zu analysieren. Am bekanntesten darunter sind die so genannten Webcrawler, die auch als Robots bzw. Bots bezeichnet werden, da sie ja wahrlich wie zuverlässige Roboter arbeiten. Diese werden an erster Stelle von den Suchmaschinen in regelmäßigen Zeitanständen eingesetzt, um die Webseiten zu besuchen, zu begutachten und zu indexieren. Weniger bekannt ist, dass Spider auch von Webseitenbetrebern benutzt werden, um damit gezielt Informationen zu sammeln, wie zum Beispiel elektronische Adressen (E-Mail-Adressen) oder RSS-Newsfeeds.

Die Funktionsweise des Webcrawlers ist, das World Wide Web ähnlich wie ein Internetsurfer die Webseiten nach Links zu Webadressen (URL) zu durchforsten, die aufgefundenen zu Beginn zu speichern und als nächstes die jeweiligen Webseiten durch Anklicken der auf sie verweisenden Links auch zu besuchen, zu lesen und zu bewerten.

Die fleißigen Spinnen können von Ihnen wie auch von jedem Internetbenutzer verwendet werden. Dafür stehen Ihnen viele Spider als Freeware zum Download zur Verfügung. Als Benutzer können Sie ihnen durch die Eingabe von bestimmten Parametern Ihre eigenen Auswahlkriterien vorgeben. Die auf diese Weise für Sie gefundenen Informationen können darauf lokal auf Ihrem Computer gespeichert werden. Wichtig ist es jedoch, dass Sie dem Spider auch feste Abbruchskriterien angeben, damit das Programm nicht unendlich lang läuft und Ihnen extrem viele Daten liefert.

Es können dabei auch nur gezielt ausgewählte Teile von bestimmten Webseiten gespeichert werden, wie zum Beispiel nur die Texte oder nur die Fotos. Der Vorteil für Sie als Anwender ist die Möglichkeit, die gespeicherten Webseiten offline besuchen, betrachten und bearbeiten zu können. Es wird hierbei von "Spiegeln" von ganzen Webseiten oder Webseitenteilen auf die Festplatte des Rechners gesprochen.

Sehr sinnvoll und legitim kann der Einsatz eines Spiders zum Spiegeln einer Webseite sein, wenn es vor allem darum geht, diese zu archivieren sowie als Nachweis der Urheberrechte zu sichern. Auf der anderen Seite ist aber auch ein Missbrauch möglich, wenn eine fremde Webseite gespiegelt, überarbeitet und als neue eigene herausgegeben wird

Unter einer Sitemap versteht man eine Datei, die im Xml-Format (Extensible Markup Language) erstellt wird. Ihr Zweck ist es, Suchmaschinen die Erfassung einer Website zu erleichtern, indem die Sitemap alle Verlinkungen und Unterseiten auflistet. Der Webmaster kann entweder eine schlichte Auflistung von URLs verwenden, oder aber auch komplexe Informationen über jede einzelne URL unterbringen. Hierzu zählen Angaben über die Aktualität, die Priorität der einzelnen Seiten innerhalb des Webauftritts, sowie Informationen über Änderungen des Seiteninhalts.

Besonders nützlich ist die Erstellung einer Sitemap für Internetauftritte, deren Inhalte schlecht oder gar nicht von Suchmaschinen erfasst werden können. Da Suchmaschinen nur Textinhalte durchsuchen, werden komplexe Seiten, die hauptsächlich aus Grafiken oder Flash-Einbindungen bestehen, mit Hilfe einer Sitemap besser erfasst. Ähnliches gilt für Webseiten, die bestimmte Shopsysteme verwenden. Auch deren Inhalt wird von Suchmaschinen oft ignoriert.

In den letzten Jahren hat sich der sogenannte Sitemaps-Standard bei allen großen Suchmaschinen durchgesetzt. Zunächst durch Google eingeführt, übernahmen andere Firmen wie Yahoo oder MSN ebenfalls das Xml-basierte Protokoll. Durch die Standardisierung muss der Webmaster nicht mehr für jede Suchmaschine eine eigene Sitemap erstellen. Eine Sitemap garantiert weder die Aufnahme in den Index einer Suchmaschine, noch verbessert es das Ranking bei den Suchergebnissen. Sie ergänzt lediglich die bereits vorhandenen Suchmechanismen und hilft den Suchmaschinen, Seiten effektiver zu erfassen.

Das Sitemaps-Protokoll erlaubt es, eine einfache Textdatei mit einer Auflistung von URLs zu verwenden. Die Spezifikationen sind hierbei die gleichen wie für Xml. Die Datei darf eine Größe von 10 MB nicht überschreiten, nicht mehr als 50.000 URLs enthalten, und muss im Zeichensatz UTF-8 kodiert sein. Es ist möglich, Dateien zu verwenden, die im gzip-Format komprimiert wurden. Für extrem große Webseiten, bei denen man mit der Beschränkung nicht auskommt, kann man bis zu 1.000 Sitemaps anlegen, auf die von einer Haupt-Sitemap verwiesen wird.

Drupal erstellt dies Sitemaps automatisch und übermittelt diese auch automatisiert an die Suchmaschinen.

Unter einer Website versteht man eine Internet-Präsenz, das aus inhaltlich miteinander in Bezug stehenden Informationsangeboten besteht. Der Begriff ist nicht zu verwechseln mit dem (im deutschen ähnlich klingenden) Wort Webseite, das lediglich eine einzelne Seite in einem größeren Informationsangebot beschreibt. Im Englischen als Webpage bezeichnet, sind diese meistens in HTML verfasst, und können neben Textinhalten auch Bilder, Videos und andere multimediale Informationen enthalten.

Eine Website besteht normalerweise aus einer Sammlung von mehreren Webpages, die auf einem gemeinsamen Webserver im Internet zugänglich gemacht werden. Manche Präsenzen verteilen sich auf mehrere Server. Websites bieten Inhalte an, die von standardmäßigen Internetbrowsern auf Computern angezeigt werden können. Eine Website verfügt in der Regel über eine eigene URL, mit der man auf die Startseite gelangt. Diese Basis-URL wird auch als Homepage bezeichnet. Obwohl die Seiten innerhalb einer Website normalerweise nach Hierarchien geordnet sind, findet die Navigation über Hyperlinks statt, mit denen der Programmierer der Website den Informationsfluß der Seiten verknüpft.

Websites gibt es mit den unterschiedlichsten Inhalten. Kommerzielle Websites bieten Waren oder Dienstleistungen an, die gegen Entgelt zu beziehen sind. Oft unterhalten Firmen auch zu reinen Werbezwecken Websites.
Private Websites können sich mit beinahe allem beschäftigen, was man sich vorstellen kann. Viele Nutzer präsentieren sich selbst oder ihre Hobbies auf eigenen Websites, schreiben Online-Tagebücher in Form von Blogs, oder lassen die Menschheit auf andere Weise an ihrem Leben teilhaben.

Andere Websites befassen sich mit Lebenshilfe oder geben Hilfe bei allen möglichen Problemen, oft im Zusammenhang mit bestimmten Gebrauchsgütern wie Autos oder Computern. Hierbei werden sehr oft Foren eingerichtet, in denen sich Leute mit gleichen Interessen oder Problemen austauschen. Auch juristische oder gesundheitliche Fragen werden auf solchen Websites behandelt. Viele Websites sind komplett kostenlos, andere sind erst nach Beitritt zu bestimmten Vereinen oder Organisationen (teilweise gegen Entgelt) zu betreten.

Nicht auf jede Website lässt sich von Jedermann zugreifen. Firmen, staatliche Einrichtungen und nicht zuletzt das Militär sichern den Zugriff auf ihre Inhalte mit Passwörtern. Der Versuch, unbefugt in solche Websites einzudringen, kann strafbar sein. Aber auch private Nutzer versehen ihre Websites bisweilen mit Passwortschutz, je nach Bedarf für den ganzen Bereich oder auch nur für Teilbereiche.

Gewerbliche Webseiten werden ins Internet gestellt, um den Verbrauchern Produkte oder Dienstleistungen anzubieten. Auch Internetportale, die kostellose Serviceleistungen (Nachrichten, Informationen, allerhand Wissenswertes) offerieren, sind für die breite Öffentlichkeit bestimmt. Gemeinsam gilt für alle Webseiten, dass sie circa 85% ihrer relevanten Besucher durch die großen Suchmaschinen bekommen. So spielen die Suchmaschinen eine zentrale Rolle für den langfristigen kommerziellen Erfolg eines im Internet präsenten Unternehmens. Da Suchmaschinen den Suchenden Tausende Webseiten auflisten, jedoch nach ihren eigenen Kriterien als die besten bewertet, um sie ganz oben zu positionieren, gilt es, diese Auswahlkriterien zu kennen und die Webseiten danach zu gestalten. Dafür muss bereits bei deren Entwicklung die Suchmaschinenoptimierung durchgeführt werden.

Zuerst wird die Grundoptimierung (OnPage Optimierung) vorgenommen, die Ihre Webseite selbst betrifft: Inhalte, Layout, Navigation, Benutzerfreundlichkeit. Unausweichlich, aber erst nach der einwandfreien Grundoptimierung, ist es sinnvoll, auch die so genannte OffPage Optimierung vorzunehmen. Zumal die perfekte Qualität nicht ausreicht, um eine perfekte Platzierung bei den Suchmaschinen zu bekommen. Da OffPage im Englischen für „außerhalb der Seite“ steht, ist es klar, dass die OffPage Optimierung außerhalb der Seite liegenden Maßnahmen umfasst. Gemeint ist ihr Ansehen und Popularität (Linkpopularität) bei anderen Webseiten. Diese wird von den Suchmaschinen gemessen und in ihrer Bewertung miteinbezogen. Vereinfacht gesagt, wird die Linkpopularität an der Anzahl Backlinks (auf die Seite hinweisende externe Links) gemessen, so dass eine hohe Linkpopularität auch eine hohe Positionierung bedeutet.

Die OffPage Optimierung betreibt aktiv Linkaufbau, mit dem Ziel, die Linkpopularität zu steigern. Dafür kann der Suchmaschinenoptimierer viele Wege gehen. Doch dürfen gerade bei der OffPage Optimierung die Richtlinien der Suchmaschinen nicht unbeachtet bleiben. Es gilt, nicht allein die Anzahl der Backlinks, sondern auch ihre Relevanz zu beachten. Einer der populärsten Wege zum Linkaufbau ist der Linktausch, der für thematisch verwandte Partnerseiten sinnvoll, dagegen bei Seiten aus fremden Branchen ungünstig ist. Beliebt ist auch die Direktverlinkung in Webkatalogen oder Webverzeichnissen. Am erfolgreichsten ist immer der professionell vorgenommene Linkaufbau durch redaktionell geprüften manuellen Eintragungen. Eine zu schnell erzielte zu hohe Linkpopularität kann Ihnen dagegen anstatt bester Platzierung die Löschung aus dem Suchmaschinenindex bringen, z. B. falls unerlaubte Wege dazu geführt haben, wie durch die so genannten Linkfarmen.