+41 71 310 28 00 mail@huetzen.com
Seite auswählen

Marketing-Glossar

Marketing-Glossar

Sie können dieses Glossar mit der internen Suchfunktion Ihres Browsers durchsuchen. Drücken Sie dafür die Tastenkombination [Ctrl] + [F] bzw. [Strg] + [F] und geben Sie dann Ihren Suchbegriff ein. Um zu einem bestimmten Buchstaben zu springen, benutzen Sie die Navigation rechts.

Bitte wählen Sie aus dem Menü oben

  • Abstrafung, Penalty

    Eine Abstrafung im Kontext mit Suchmaschinen ist die Konsequenz im Ranking weiter nach Hinten zu fallen oder schlimmstenfalls ganz aus dem Index der Suchmaschine genommen zu werden. Eine Abstrafung kann anfallen, wenn man die Service Richtlinien einer Suchmaschine verletzt, beispielsweise, wenn BlackHat-SEO angewendet wird. Die Erholung von so einer Abstrafung, im Englischen Recovery genannt, kann je nach Schwere der Richtlinienverletzung über Wochen, Monate bis hin zu Jahren in ganz drastischen Fällen dauern bzw. bei wiederholtem Verstoss sogar gänzlich entfallen. In diesen Fällen ist es meist klüger, eine neue Domain zu erwerben, als zu versuchen die alte zu retten.

  • Administrator, Admin

    Ein Administrator, oder auch kurz Admin genannt, ist ein Verwalter eines Systems, dem alle Rechte zustehen. Bei dem System kann es sich zum Beispiel um einen Computer handeln, bei dem der Admin die Benutzer verwalten und selbst weitere Administratoren definieren kann. Oder bei einem Content Management System (CMS) ist es dem Administrator erlaubt, die Grundinformationen der Website zu ändern.

  • AdWords, Google AdWords

    Google’s Angebot von Suchmaschinenadvertising, kurz SEA, über die sich für ausgewählte Suchbegriffe bezahlte Werbung auf den Ergebnisseiten anzeigen lässt. Google AdWords wird über sogenannte Google AdWords-Kampagnen aufgeschaltet, in denen sich bis ins Detail die ganzen Impressionen, Klicks etc. verfolgen lassen.

  • Algorithmus

    Ein Algorithmus ist eine programmierte Logik, welche einen definierten Handlungsablauf und eine Lösung für ein bestimmtes Problem zum Ziel hat. Algorithmen trifft man bei der Arbeit mit Elektronik überall an, die ganzen Aktionen und Befehle z.B., die ein Computer ausführen kann sind programmierte Handlungsabläufe, die sich situationsbedingt verhalten können.

    Beispiel: Ein Browser ruft die Seite www.google.ch auf, der Server erhält die Aufgabe (das Problem), das Dokument der Startseite bereitzustellen, welches er dank einem programmierten Algorithmus (Erarbeitung einer Lösung) bewerkstelligt. Der Browser kann somit die Startseite von Google anzeigen.

  • Autorität, Authority

    Eine Autorität oder auf Englisch Authority ist eine, für eine Suchmaschine, glaubwürdige Website, der Vertrauen geschenkt wird. Eine Autorität besitzt im Normalfall viele Backlinks von anderen, grossen, vertrauenswürdigen Seiten. Auch existiert so eine Website schon länger, da sich die Anerkennung als Autorität erst verdient werden muss und dies geschieht nicht über Nacht und nur wenn man positiv auffällt und den Benutzern einen Mehrwert bietet. So entstehen viele Social Signals und die Website erlangt Popularität. Je populärer eine Website, umso mehr Aufmerksamkeit erregt sie und die Besucherzahl und die Fangemeinde werden immer grösser, womit ihr Mehrwert für den Besucher wieder steigt. Eines der besten Beispiele für eine Website mit Autoritätsstatus ist Wikipedia. Für die meisten Fachbegriffe rankt Wikipedia sehr gut, obwohl nicht jeder Eintrag das gelbe vom Ei ist.

  • Backlink

    Ein externer Link einer Website, welcher auf eine andere Domain verweist und dieser dadurch zu höherer Link-Popularität und besserem PageRank verhilft. Ein Backlink-Profil von vielen Websites, die eine Autorität darstellen, hat positiven Einfluss auf das Suchmaschinenranking. Eine Website die qualitativ minderwertig ist und auf eine andere Website verweist, kann allerdings auch das Gegenteil bewirken und das Ranking negativ beeinflussen.

  • Backlink-Bombing

    Backlink-Bombing ist eine BlackHat-SEO-Taktik, deren Sinn es ist, Hunderte und Tausende von Backlinks, in kürzester Zeit, für eine Website zu erstellen. Dies kann die Ranking-Faktoren einer Suchmaschine beeinflussen und zwar positiv, wie auch negativ. In Zeiten von Google Panda und Penguin ist es allerdings ratsamer ein organisches Backlink-Profil aufzubauen, welches sich langsam, aber kontinuierlich erweitert. Backlink-Bombing kann allerdings auch als eine Attacke gegen konkurrierende Websites angewendet werden, indem eine grosse Backlink-Anzahl von Spam-Seiten auf die Webseite der Konkurrenz angesetzt wird, wodurch diese vom Suchmaschinenanbieter abgestraft werden.

  • Bing

    Bing ist die im Jahre 2009 erschienene Suchmaschine von Microsoft und somit der Nachfolger von Live Search. In ihrer Entwicklung ging sie Partnerschaften mit Yahoo! und Facebook ein.

  • BlackHat-SEO

    Eine kurzlebige Variante der Suchmaschinenoptimierung, welche den gängigsten Suchmaschinenrichtlinien widerspricht, weswegen es zu Abmahnungen oder sogar Entfernung einer Website aus dem Google Index kommen kann. Ihr Fokus liegt nicht auf Qualität, sondern darauf Fehler im Ranking-Algorithmus auszunutzen um schnellstmöglich zu ranken. Google arbeitet durchgehend an Änderungen und Verbesserungen am Suchalgorithmus, um Webspam zu bekämpfen und inhaltlich relevante Suchergebnisse zu liefern. Typische Methoden beim BlackHat-SEO sind z.B. Backlink-Bombing, Hidden Text und Cloaking.

  • Blog, Weblog

    Ein Blog oder Weblog ist eine Art online geführtes Journal oder Protokoll welches von einem oder mehreren Autoren betrieben wird.

  • Browser, Webbrowser

    Ein Browser oder Webbrowser ist eine Applikation, mit der es möglich ist im World Wide Web Websites aufzurufen, anzeigen zu lassen und mit denen zu interagieren. Mozilla Firefox, Google Chrome, Opera und Internet Explorer sind mitunter die bekanntesten Vertreter der Webbrowser. Ein Browser kommuniziert über das HTTP- bzw. HTTPS-Protokoll mit einem Webserver, um einem Benutzer Zugang zu einer Website zu verschaffen.

  • CMS, Content Management System

    Ein Content Management System, meistens mit CMS abgekürzt, ist ein System zur Verwaltung einer Website. Mit dem CMS können zum Beispiel Seiten erstellt oder gelöscht werden. Ein CMS stellt auch Editoren zur Verfügung, welche die Formatierung des Inhalts erleichtern, sodass keine Programmierkenntnisse nötig sind.

  • Crawler, Robot, Spider

    Ein Crawler, oder häufig auch Spider, Bot oder Robot, ist eine automatisierte Software, welche Webseiten und mittlerweile auch Apps im Internet auf neuen oder veränderten Inhalt prüft. Dieser Crawler surft von Website zu Website und folgt dabei jedem Link, dem er begegnet und crawlt auch dessen Inhalt. Bei diesem Prozess werden jegliche Informationen, z.B. Thema der Website, ein- und ausgehende Links, Bilder und Medien etc. indiziert und in der Datenbank hinterlegt.

  • Datenbank, DB

    Eine Datenbank ist eine Sammlung an Daten, welche miteinander in Verbindung stehen. Ein Beispiel wäre eine Personendatenbank, welche den ganzen Stammbaum einer Familie enthält. Anhand dieser Datensammlung, wäre es sehr einfach zu bestimmen, die verschiedenen, familiären Beziehungen untereinander zu bestimmen und diese auszugeben. Suchmaschinen verwenden Datenbanken um die Informationen der gecrawlten Websites zu speichern.

  • Domain-Nachbarschaft, Domain-Neighbourhood

    Wenn zum Hosten einer Website anstelle eines dedizierten Servers lediglich ein Webspace zur Verfügung steht, erhält man meistens automatisch eine Domain-Nachbarschaft. Ein Server von einem Massenhoster beherbergt oft viele Webspaces, was bedeutet, dass mehrere Websites auf einem Server liegen und sich somit eine IP-Adresse teilen. Dies ist kein Problem, solange sich die Domain-Nachbarn benehmen. Doch falls eine der Nachbar-Websites z.B. für häufigen Spamversand bekannt ist, kann das auch ein schlechtes Licht auf die eigene Seite werfen und somit zu Abstrafungen im Ranking führen.

  • Domain-Popularität

    Unterschiedlich zur Link-Popularität, wird bei der Domain-Popularität nicht einfach nur die Gesamtanzahl aller Backlinks auf eine Domain zusammengezählt, sondern es werden nur Backlinks von unterschiedlichen Domänen berücksichtigt.

    Beispiele:
    - 3 Backlinks von www.google.ch zeigen auf eine Seite. Die Seite hat den Domain-Popularität-Wert 1.
    - 3 Backlinks von www.google.ch, www.google.de und www.google.com zeigen auf eine Seite. Die Seite hat den Domain-Popularität-Wert 3.

  • Domain, Domäne

    Eine Domain oder Domäne ist eine Zuweisung eines Namens, die sogenannte Webadresse, an eine IP-Adresse. Da es vielen Menschen leichter fällt, sich Wörter oder Namen anstatt Nummern zu merken, schaffen diese hier Abhilfe. So ist es für viele einfacher die Domain google.ch aufzurufen als deren IP-Adresse 173.194.40.23 mühsam einzutippen.

  • Duplicate Content, Doppelter Inhalt

    Duplicate Content, oder auf Deutsch duplizierter oder kopierter Inhalt, beschreibt Texte im Internet, welche gleich oder in schwach abgeänderter Form bereits bekannt sind. Diese doppelten Inhalte liefern einem Besucher nicht viel Mehrwert, da ihm der Inhalt bereits bekannt sein mag und können sich deswegen negativ auf das Suchmaschinen-Ranking auswirken.

  • Flash, Adobe Flash

    Adobe Flash ist eine Technologie, um im Web einfach Filme bzw. Spiele aber auch animierte Werbung bereitzustellen, welche Besuchern einer Website ein interaktives und oftmals interessanteres Erlebnis bieten als statische Seiten. Allerdings hat Adobe Flash auch den Nachteil, dass zu viel Interaktivität auch viele Besucher abschreckt und sogar nervt. Und genauso sieht es auch eine Suchmaschine. Dazu kommt, dass eine Suchmaschine keine Flash-Dateien auswerten kann, bzw. ohne weitere textliche Beschreibung den Inhalt nicht erkennt, weswegen ein Flash-Film alleine, auch nicht gut ranken wird.

  • Google

    Google ist eine im Jahre 1998 gegründete Suchmaschine der Firma Google Inc, welche kontextbasiert versucht, die Suchergebnisse nach Relevanz zu sortieren. Google ist weltweiter Marktführer in der Suchindustrie, noch vor den Konkurrenten Bing und Yahoo.

  • GrayHat-SEO

    Eine Art der Suchmaschinenoptimierung, die sich zwar nicht ganz im BlackHat-Bereich bewegt, allerdings auch nicht als WhiteHat eingestuft wird. Diese Techniken befinden sich in einer Grauzone. Sie werden von den Qualitätsrichtlinien der Suchmaschinen zwar nicht explizit verboten, sind allerdings auch nicht sonderlich erwünscht. Ob eine Taktik mehr White- oder BlackHat ist, liegt im Auge des Betrachters und ist abhängig vom Anwendungskontext. Eine bekannte GrayHat-Technik war das Keyword-Stuffing.

  • Guest-Blogging, Guest-Posting

    Als Guest-Blogging wird der Vorgang bezeichnet, auf einem externen Blog einen oder mehrere, sachbezügliche Artikel zu schreiben. Das Ziel des Guest-Bloggings ist es, Backlinks auf die eigene Seite zu generieren. Dies passiert entweder mit im Artikel verwendeten Links, welche z.B. auf ältere Beiträge verweisen, oder mit einem Verweis zum vollständigen Artikel auf der eigenen Seite, nachdem auf dem Gast-Blog eine interessante Einleitung veröffentlicht wurde. Wichtig bei so erzeugten Backlinks ist, dass diese Gast-Blogs dasselbe Thema zugrunde haben, wie die eigene Seite, sodass die Backlinks themenrelevant sind. Ansonsten kann eine Suchmaschine dies als unorganisches Link-Building ansehen und eine Website abstrafen.

  • Host, Webhost

    Ein Host bedeutet übersetzt ein Wirt und genau dieses Wort trifft auch im Falle von Websites zu. Ein Host ist der Anbieter des virtuellen Speicherplatzes im Internet für die Website. Das Wort hosten heisst in diesem Kontext beherbergen oder unterbringen. Also quasi der Ort, wo die online Website untergebracht ist. Der Service, Speicherplatz für eine Website im Internet anzubieten, nennt sich Web-Hosting.

  • HTML-Tag, Tag

    Die hierarchisch aufgebaute Auszeichnungssprache HTML basiert auf sogenannten Tags, welche einen gewissen Gültigkeitsbereich haben. Oft bestehen diese Gültigkeitsbereiche aus einem öffnenden und einem schliessenden Tag.

    Beispiel:
    <strong>SEO ist spannend!</strong>
    Der <strong>-Tag wird verwendet, um den vom Tag umgebenen Text fett darzustellen, um damit eine Wichtigkeit zu betonen. Die Ausgabe von obigem Beispiel ist: SEO ist spannend!

  • HTML, Hypertext Markup Language

    HTML steht für Hypertext Markup Language und ist die grundlegende Beschreibungssprache für Websites. Mit HTML kann z.B. bestimmt werden, ob ein Text in einem Absatz oder einer Tabelle steht, oder ob ein bestimmter Begriff einen Link darstellt. Auch Bilder werden damit in eine Webseite eingegliedert. Zusätzlich können in HTML sogenannte Meta-Tags deklariert werden, welche z.B. den Autor oder den Inhalt einer Website beschreiben.

  • Impressions, Views

    Impression ist ein Begriff aus dem Online-Marketing und definiert den Aufruf oder die Anzeige eines Werbemittels durch einen potenziellen Kunden. Wenn also eine Werbung in den Suchergebnissen angezeigt wird, zählt das als Impression. Die Impressionen werden serverseitig protokolliert, wodurch es möglich ist, die totale Anzahl der Aufrufe einzusehen.

  • Index, Suchmaschinenindex

    Der Index ist das dynamische Nachschlagewerk einer Suchmaschine, der dazu dient, alle gecrawlten Websites schnell und strukturiert abrufen zu können, um einem Benutzer schnellstmöglich themenrelevante Suchergebnisse zu liefern. Der Index wächst und verändert sich ständig, abhängig von den durchsuchten Webseiten.

  • Indexierung

    Indexierung ist der Vorgang der Aufnahme einer Website in den Index einer Suchmaschine, also aller Seiten zugehörig zu einer Internetpräsenz. Zusätzlich werden Informationen über diese Seiten wie z.B. die behandelten Themen, interne und externe Verlinkungen wie auch deren Medien, egal ob Video, Audio oder Bilder aufgenommen. Die Indexierung wird ausgeführt, wenn eine Website erfolgreich gecrawlt wird.

  • Informationstechnologie, IT

    Die Informationstechnik, abgekürzt IT, bildet den Oberbegriff für die Informations- und Datenverarbeitung. Sehr allgemein gesprochen beinhaltet die Informationstechnik alle relevanten Themen zu Hardware, Software und Netzwerk.

  • IP-Adresse, IP

    Computer und Server kommunizieren über IP-Adressen, welche man als Postleitzahl, Strasse und Hausnummer aus dem alltäglichen Leben betrachten kann. Sie identifizieren den Standort einer Person oder Familie. So ähnlich ist die IP-Adresse für Computer, sie dient als Zuweisung einer eindeutigen Kennung in einem Netzwerk, sodass eine Kommunikation stattfinden kann. Eine IP-Adresse besteht aus vier bzw. sechs Zahlenblöcken, die durch einen Punkt getrennt sind. IP steht für Internet Protocol.

    Beispiel:
    IP-Adresse: 173.194.35.56

  • IP-Popularität

    Unterschiedlich zur Link-Popularität, wie auch zur Domain-Popularität werden bei der IP-Popularität nicht alle Backlinks, die auf eine Seite zeigen, gezählt. Weiter werden auch nicht mehrere Backlinks von derselben Domain gezählt. Es werden nur noch Backlinks von unterschiedlichen IP-Adressen, sprich von unterschiedlichen Servern gezählt. Das bedeutet, dass Backlinks von unterschiedlichen Websites auf unterschiedlichen Webspaces und Domains, die aber auf demselben Server gelagert sind ignoriert werden.

    Beispiele:
    - 3 Backlinks von www.google.ch zeigen auf eine Seite. Die Seite hat den Link-Popularität-Wert 1.
    - 3 Backlinks von www.google.ch, www.google.de und www.google.com (alle drei Websites liegen auf demselben Server) zeigen auf eine Seite. Die Seite hat den Link-Popularität-Wert 1.
    - 3 Backlinks von www.google.ch, www.google.de und www.google.com (alle drei Websites liegen auf unterschiedlichen Servern) zeigen auf eine Seite. Die Seite hat den Link-Popularität-Wert 3.

  • JavaScript, JS

    Mit JavaScript lässt sich Dynamik in die statische HTML-Sprache bringen. Mit dieser Skriptsprache können z.B. Objekte wie Bilder bewegt und ein- bzw. ausgeblendet werden. Auch können über JavaScript Datenbankabfragen gemacht werden, um beispielsweise einen dynamischen Text anzuzeigen, der den gewählten Benutzernamen enthält.

    Beispiel: Guten Abend Max Muster.
    Bei diesem Beispiel wird per JavaScript zum einen die Tageszeit beachtet (“Guten Abend”) und zum anderen wird der Benutzer direkt über den Namen genannt.

  • Keyword-Strategie, Keyword-Analyse

    Die Keyword-Strategie ist ein Begriff aus dem Suchmaschinenmarketing und beschreibt die Planung und das weitere Vorgehen der Marketing-Strategie. Oft synonym wird auch der Begriff Keyword-Analyse verwendet, welcher allerdings nur den ersten Schritt der Keyword-Strategie beschreibt. Zu Beginn steht sehr breit gefächertes Brainstorming an, um alle möglichen Begriffe und Wortkombinationen zum Thema der Marketingkampagne zu finden, welche in die Suchmaschinen eingegeben werden. Danach werden die gefundenen Suchbegriffe auf ihre Effizienz geprüft, das heisst es wird durch den Einsatz von spezieller Software festgestellt, wie oft nach welchen Suchbegriffen gesucht wird. Anhand von den Ergebnissen kann die SEM-Kampagne auf die effizientesten Keywords ausgelegt werden und somit den maximalen Erfolg erzielen.

  • Keyword-Stuffing, Keyword-Spamming

    Keyword-Stuffing oder auch Keyword-Spamming war eine GrayHat-SEO-Taktik, welche heutzutage zum grossen Teil ausgedient hat, da der Fokus der Suchmaschinen auf originellem Unique Content basiert. Beim Keyword-Stuffing wurden Texte so angepasst, dass sie das Keyword wofür die Seite ranken sollte, sehr oft enthielten. Dadurch wurde die Suchmaschine zwar angeregt, diese Seite als wichtig bezüglich des Keywords einzustufen, allerdings wurde die Lesbarkeit für Besucher der Website enorm reduziert.

  • Keyword, Schlüsselwort, Suchbegriff

    Ein Keyword bezeichnet einen einzelnen, in eine Suchmaschine eingegebenen Begriff. Anhand von einem oder mehreren Keywords, werden Websites mit hoher Relevanz bezüglich der Suchbegriffe auf sogenannten Ergebnisseiten aufgelistet.

  • Link-Building, Backlink-Aufbau

    Das Link-Building beschreibt eine SEO-Technik, welche dazu dient wichtige Backlinks für die Website aufzubauen, zum Beispiel über Guest-Blogging oder soziale Netzwerke. Im WhiteHat-SEO wird auf ein organisches Backlink-Profil geachtet, sodass eingehende Links nur von themenrelevanten Seiten kommen, die aktiv mit der eigenen Website etwas zu tun haben. Im BlackHat-SEO wurden einige Taktiken genutzt, wie z.B. der Erwerb von Backlinks oder ganzen Backlink-Paketen von Seiten mit hohem PageRank, Backlink-Bombing etc. welche den Google Qualitätsrichtlinien widersprechen und der Website somit schaden können.

  • Link-Popularität

    Ein Wert, welcher die Summe der Backlinks auf eine Webseite angibt. Die Link-Popularität stellt die einfachste Form der Popularitätsmessung für eine Webseite dar. Weitere, spezifischere Verfahren sind die Domain-Popularität und die IP-Popularität, bei denen noch andere Faktoren zählen.

    Beispiele:
    - 3 Backlinks von www.google.ch zeigen auf eine Seite. Die Seite hat den Link-Popularität-Wert 3.
    - 3 Backlinks von www.google.ch, www.google.de und www.google.com zeigen auf eine Seite. Die Seite hat den Link-Popularität-Wert 3.

  • Link, Hyperlink

    Ein Hyperlink, oft einfach nur Link genannt, ist im World Wide Web ein Verweis auf eine Webseite und dient der Navigation. Der Verweis kann intern auf eine eigene Webseite oder extern auf eine fremde Website zeigen. In HTML wird ein Hyperlink über das <a>-Tag definiert.

  • Meta-Tag

    Meta-Tags sind ein Teil von HTML. Sie dienen allerdings nicht der Formatierung von Text oder bestimmen das Aussehen einer Website, sondern sie stellen sogenannte Meta-Informationen zur Verfügung. Über Meta-Tags kann man z.B. den Autor eines Textes, die Sprache einer Website angeben oder auch eine ganze Webseitenbeschreibung hinterlegen, damit eine Suchmaschine versteht, um was für ein Produkt es sich beispielsweise auf der Seite handelt. Diese Meta-Tags sind auf der Website selbst nicht sichtbar.

  • News-Feed, RSS-Feed

    Ein News-Feed ist eine Technologie, um Webseiteninhalte abonnieren zu können, ohne die jeweilige Seite effektiv besuchen zu müssen. Dies bietet sich sehr an, wenn sich der Inhalt einer Webseite regelmässig ändert, so wie das z.B. bei Blogs der Fall ist. Feeds oder News-Feeds werden primär in zwei unterschiedlichen Formaten angeboten, und zwar RSS und Atom. Um Feeds abonnieren zu können, benötigt man lediglich einen sogenannten Feedreader, welcher als externe Applikation oder als Plugin für die gängigsten Browser vorhanden ist.

  • OffPage-Optimierung

    Die OffPage-Optimierung stellt einen wichtigen Teil der Suchmaschinenoptimierung dar und deckt jegliche Optimierung ab, die nicht auf der eigenen Website stattfindet. Diese beinhaltet zum einen das steigern der Link-Popularität, das sogenannte Link-Building. Hier ist das Ziel, Backlinks von anderen, Seiten zu generieren, z.B. über Guestblogging, wobei die Qualität und Themenrelevanz dieser Seiten enormen Einfluss auf das Ranking hat. Auf der anderen Seite ist die eher neuere Entwicklung namens Social Signals ein wichtiger Teil der OffPage-Optimierung.

  • Online-Marketing, Internet-Marketing

    Online-Marketing bezeichnet alle Marketing-Varianten die durch die Verwendung des Internets erfolgen. Das Online-Marketing, auch Internet-Marketing genannt, gliedert sich in mehrere Teilbereiche, z.B. Bannerwerbung, E-Mail-Marketing und -Werbung, Social Media Marketing und Suchmaschinenmarketing, welche meist kostenpflichtig sind. Der grosse Vorteil gegenüber dem klassischen Marketing ist, dass der Erfolg bzw. die Wirkung messbar ist. Hinzu kommt, dass es im Vergleich zur klassischen, lokalen Werbung möglich ist, viel grössere Kreise potenzieller Kunden zu erreichen.

  • OnPage-Optimierung

    Der fundamentalste Schritt der Suchmaschinenoptimierung ist die OnPage-Optimierung. Ihr Ziel ist es, die eigenen Webseiten so zu überarbeiten, dass sie den Qualitätsrichtlinien der Suchmaschinen entsprechen und somit suchmaschinenfreundlich und dennoch ansprechend für den Besucher sind. Dazu zählen z.B. die Strukturierung der Website und ihres Inhalts, Anpassung der Meta-Tags und des Website-Titels, Umfang und -Qualität des Textes und ggf. Strukturierung der Daten anhand von Markups.

  • Organische Suche, Organische Suchergebnisse

    Mit organischer Suche oder organischen Suchergebnissen werden die Resultate einer Suchmaschine zu einem bestimmten Keyword bezeichnet, welche unabhängig von Suchmaschinenadvertising angezeigt werden. Diese Ergebnisse werden von Suchmaschinen gecrawlt und anhand ihrer Relevanz aufgelistet. Die Ranking-Position einer Website kann durch Suchmaschinenoptimierung massiv verbessert werden.

  • PageRank, PR

    Google’s PageRank, benannt nach Google-Firmengründer Larry Page, ist eine spezielle Methode zur Berechnung der Link-Popularität. Grundlage dieser Berechnung ist, dass jede Website einen PageRank zwischen 0-10 besitzt. Wird nun auf eine andere Website verlinkt, so wird dieser ein Teil unseres PageRanks mitgegeben, womit ihr PageRank langsam über die wachsende Anzahl an Backlinks steigt. Je höher der PageRank einer Seite umso besser und je mehr Backlinks von Websites, mit hohem PageRank, auf die eigene Website linken, desto besser wirkt sich das auf das Ranking aus. Dieses Verfahren hat eine grosse Ähnlichkeit mit der Logik vom TrustRank.

  • Panda-Update, Google Panda-Update

    Das Google Panda-Update ist ein Algorithmus, der entwickelt wurde um Websites mit qualitativ minderwertigem Inhalt abzustrafen. Er wurde im Februar 2011 eingeführt. Der Fokus des Algorithmus liegt primär darauf, dass Webseiten Unique Content von hoher Qualität enthalten und Seiten mit Duplicate Content, die den Besuchern keinen Mehrwert liefern, aus den Rankings verschwinden. Google Panda war ein grosser Schritt und sagte dem BlackHat-SEO den Kampf an. Der Algorithmus wird regelmässig erneuert und verbessert.

  • Penguin-Update, Google Penguin-Update

    Das Google Penguin-Update konzentriert sich grundsätzlich auf überoptimierte Websites, der Fokus liegt u.a. auf Themenrelevanz und Qualität von Backlinks. Google Penguin ist ein weiterer Schritt gegen Webspam, verursacht durch zahlreiche BlackHat-SEO-Taktiken. Der Algorithmus wurde im April 2012 eingeführt und wird kontinuierlich weiterentwickelt und verbessert.

  • Plugin, Plug-in

    Ein Plugin oder manchmal auch Addon, stellt eine Erweiterung zu einer Basisapplikation dar und erweitert diese um neue Funktionalität. Es ist ein Zusatzmodul für eine bereits bestehende Software. Sehr beliebt sind Plugins z.B. im Browser, da diese PDF-Generierung, programminterne FTP-Unterstützung oder selbst eine ganze Sammlung an Funktionen zur Fehlersuche für Webapplikationen  mitbringen. Die meisten Plugins haben ein bestimmtes Ziel, z.B. die Generierung einer PDF-Datei aus einer Webseite, und sind somit perfekt stapelbar, je nach Wünschen des Benutzers.

  • Podcast, Podcasting

    Podcasting ist eine spezielle Form des News-Feeds. Während bei klassischen Feeds primär mit Text- und Bildmaterial gearbeitet wird, bietet ein Podcast die Möglichkeit seinen Abonnenten Audio- und Videomaterial zukommen zu lassen.

  • Post, Posting, Beitrag

    Ein Post oder Posting ist ein Beitrag, der von einem Benutzer auf einem Blog oder einem Forum geschrieben wurde. Der Begriff wurde früher für eine Mitteilung im Usenet verwendet, wird heute aber synonym für Beiträge in Foren und Weblogs benutzt.

  • Quality Guidelines, Qualitätsrichtlinien

    Die Qualitätsrichtlinien dienen dem Zweck, dass Webmaster und Autoren sich zum Ziel nehmen eine Website für ihre Besucher und nicht für Suchmaschinen zu erstellen, um gut zu ranken. Webseiten, die nur auf Suchmaschinen optimiert sind, erweisen eine schlechte Benutzerfreundlichkeit. Verstösse gegen diese Qualitätsrichtlinien, wie z.B. im BlackHat-SEO, können zu temporärem oder dauerhaftem Bann aus dem Index der Suchmaschine führen.

  • Ranking

    Die Position, auf der Ergebnisseite einer Suchmaschine zu einem oder mehreren bestimmten Keywords, wird grundsätzlich Suchmaschinenranking oder einfach Ranking genannt.  Wenn man zu einem spezifischen Keyword unter den ersten zehn Ergebnissen aufgelistet wird, redet man von einem Top Ranking. Ein weitere, häufig verwendete Form ist das Wort ranken, so z.B. in “ich ranke für ein bestimmtes Keyword gut”.

  • Ranking-Faktoren

    Ranking-Faktoren sind der grundlegende Baustein für die Suchmaschinenoptimierung. Bevor eine Website überhaupt suchmaschinenfreundlich überarbeitet werden kann, muss erstmal klar sein, worauf optimiert werden kann. Suchmaschinen-Gigant Google nutzt für das Ranking etwa 200 verschiedene Faktoren, wobei Google diese nicht offen darlegt, sondern maximal vage Andeutungen zur Verfügung stellt. Diese Ranking-Faktoren ergeben sich somit primär aus jahrelanger Erfahrung mit der Thematik und können sich auch jederzeit ändern. Deswegen ist eine dauerhafte Garantie auf ein Top Ranking nicht verlässlich. Einige bekannte und bewährte Ranking-Faktoren sind: themenbezogene Website-Titel und Meta-Tags, origineller Unique Content, eine hohe Anzahl an Backlinks von vertrauenswürdigen Quellen, viele Social Signals, regelmässige Content-Updates, Domain-Alter, -Vergangenheit und -Nachbarschaft, eine optimierte Website für Besucher über mobile Geräte wie Mobiltelefone, Ladezeit der Website etc. Diese Auflistung ist bloss ein kleiner Auszug aus allen Faktoren, die beachtet werden sollten.

  • robots.txt

    Die robots.txt-Datei ist eine kleine Text-Datei, welche Anweisungen für wohlgesinnte Crawler enthält. Über sie kann angegeben werden, welche Seiten auf einer Website indexiert und welche ignoriert werden sollen. Wichtig ist, dass diese Datei bloss Empfehlungen enhält, an welche sich ein Crawler nicht halten muss, so z.B. Spam-Bots, welche Seitenlinks in Kommentaren hinterlassen, um ihre eigene Link-Popularität zu steigern. Das bedeutet, die robots.txt-Datei dient nicht als Schutzmechanismus, für kritische Dateien, die der Öffentlichkeit unzugänglich sein sollen.

  • SERP, Suchmaschinenergebnisseiten

    Ein gängiger Begriff für die Ergebnisseiten einer Suchmaschine ist das Akronym SERP. Es steht für Search Engine Results Pages, was auf Deutsch Suchmaschinen-Ergebnisseiten bedeutet. Die Ergebnisseite einer Suchanfrage listet eine bestimmte Anzahl an Websites auf, welche eine hohe Relevanz gegenüber dem Suchterm aufweisen.

  • Server, Dedizierter Server

    Ein physikalischer Server, meist ein sehr leistungsfähiger Computer, der dauerhaft ans Internet angeschlossen und auch damit verbunden ist, wird auch oft dedizierter Server genannt. Er erledigt Aufgaben, die ihm gestellt werden, z.B. wenn auf dem Server ein Webserver läuft, kümmert der sich um alle Anfragen bezüglich einer Website. Auf einem Server sind oft mehrere Webspaces vorhanden, welche dieselbe IP-Adresse haben. Wichtig ist hierbei die Unterscheidung zwischen einem Hardware- und einem Software-Server.

  • Sitemap

    Eine Sitemap bezeichnet eine Seitenübersicht, welche die gesamte Strukturierung der einzelnen Webseiten einer Website hierarchisch darstellt. Diese dient dem Nutzer als Gesamtübersicht, wo direkt ersichtlich ist, welche Webseiten sonst noch von Interesse für ihn sein könnten. Ausserdem kann eine Sitemap auch als Navigation verwendet werden, obwohl dies umständlicher ist, als über ein Seitenmenü zu navigieren.

  • Smartphone

    Smartphones sind eine Art der Mobiltelefone, welche von der Funktionalität und der Konnektivität einem Computer sehr ähnlich sind. Sie besitzen Schnittstellen für schnellen Internetzugang und haben hochauflösende Bildschirme, welche oft direkt mit den Fingern bedient werden (Touchscreen).

  • Social Media, Social Networking, soziale Medien

    Soziale Netzwerke oder oftmals werden auch die englischen Begriffe Social Media bzw. Social Networking verwendet, bezeichnen Technologien, die es Benutzern ermöglichen Unterhaltungen zu führen, Neuigkeiten auszutauschen, Bilder und Videos zu teilen und Websites und Produkte zu empfehlen. Die bekanntesten Vertreter dieser Sparte sind Facebook, Google+ und Twitter. Da diese sogenannten Communities viele aktive Benutzer haben, sind sie eine gute Quelle um neue Produkte und Websites kennenzulernen und diese weiteren Nutzern vorzuschlagen. So entstehen die sogenannten Social Signals.

  • Social Signals

    Social Signals, auch soziale Signale genannt, sind Empfehlungen die ausdrücken, dass ein bestimmter Benutzer z.B. eine Website geniesst und sie deswegen mit anderen teilen will. Wenn diese geteilte Website bei anderen Benutzern auch gut ankommt, können diese sie ebenfalls teilen und empfehlen. Durch diesen Vorgang, lässt sich die Popularität und Beliebtheit einer Website oder eines Produkts ziemlich gut ermitteln. Da sich in einem Social Network viele Benutzerreaktionen häufen, haben Suchmaschinen angefangen, diese Social Signals als Ranking-Faktoren zu berücksichtigen. Wer auf Facebook viele Likes, Shares und Comments, auf Google Plus viele +1 und auf Twitter viele Tweets bekommen hat, oder zusammengefasst gesagt, wer viele positive Social Signals erzielt, erhält einen Bonus auf sein Ranking.

  • Spam, Webspam

    Das Akronym Spam kennt man vor allem aus dem E-Mail-Verkehr, wo es für ungewollte Nachrichten steht. Etwas Ähnliches gibt es im Thema Suchmaschinen auch, nämlich Webspam oder manchmal auch Search Spam genannt. Webspam bezeichnet Websites, welche sich durch BlackHat-SEO-Taktiken in den Suchmaschinenrankings nach oben mogeln, ohne einen wirklichen Mehrwert oder eine Relevanz für den Benutzer zu haben.

  • Suchmaschinenmarketing, SEM

    Suchmaschinenmarketing ist der Oberbegriff für bezahlte und unbezahlte Werbetaktiken für eine Website auf Suchmaschinen. Als Unterkategorie des Online-Marketings beinhaltet das Suchmaschinenmarketing die Teilgebiete Suchmaschinenoptimierung (SEO) und Suchmaschinenwerbung (SEA). Ziel ist es, durch die erhöhte Sichtbarkeit der Website in der Suchmaschine, Traffic sowie Besucherzahlen zu erhöhen, um dadurch grössere Profite zu erreichen. Die Abkürzung SEM steht für den englischen Begriff Search Engine Marketing.

  • Suchmaschinenoptimierung, SEO, SMO

    Die Suchmaschinenoptimierung beschreibt das Vorgehen, welches angewandt wird, um eine Website suchmaschinenfreundlich zu gestalten. Das Wort Suchmaschinenoptimierung, im Englischen Search Engine Optimization, wird oft als SEO bzw. auf Deutsch als SMO abgekürzt. Die Vorteile daraus sind, dass eine Suchmaschine den Inhalt und das Thema einer Website besser versteht und man dadurch für die themenrelevanten Keywords ein besseres Ranking erzielt. Dies wirkt sich positiv auf den Traffic und die Besucheranzahl der Website aus. Dieser Vorgang wird auch als organische Suche bezeichnet, was bedeutet, dass keine kostenpflichtige, keywordspezifische Werbung auf Suchmaschinen aufgeschalten wird. Sehr wichtig bei SEO ist, dass der Fokus der Website auf dem Besucher und nicht auf der Suchmaschine bleibt, denn schlussendlich wird eine Website für Menschen und nicht für Maschinen erstellt. Im Zuge der Optimierung ist auf die unterschiedlichen Ranking-Faktoren zu achten, welche sich ständig ändern können. Da es beim SEO immer mehr Faktoren zu beachten gibt, übersteigt die ordentliche und regelmässige Pflege einer Website immer öfter das Know-How und das Zeit- und Geldbudget von Firmen und Privatpersonen. Tägliches Informieren über neue Änderungen bezüglich SEO sind somit unabdingbar.

  • Suchmaschinenwerbung, Suchmaschinenadvertising, SEA

    Die Suchmaschinenwerbung, auf Englisch Search Engine Advertising kurz SEA, betitelt das Vorgehen bezahlte Werbung für spezielle Keywords auf Suchmaschinen anzeigen zu lassen. Diese Werbeinserate werden auf den Ergebnisseiten über den Ergebnissen der organischen Suche aufgelistet. Bezahlt werden die Werbeeinträge pro Klick (Pay per Click, PPC) die ein Besucher auf diese Werbung tätigt und die Kosten (Cost per Click, CPC) pro Klick ergeben sich daraus, wieviel Wettbewerb ein Keyword hat.

  • Traffic, Datenverkehr

    Datenverkehr, oft auch englisch Traffic genannt, bezeichnet in einem Computernetzwerk die Anzahl übertragener Daten zwischen Sender und Empfänger. Traffic steht im Bezug auf eine Website für die vom Server heruntergeladenen Daten von den Besuchern. Eine Website besteht aus Text, Bildern und anderen Medien, alles Elemente, welche eine digitale Grösse besitzen. Traffic stellt die Summe von all diesen heruntegeladenen Elementen von allen Besuchern z.B. pro Monat dar. Je mehr Besucher eine Website hat.

  • TrustRank, TR

    Der TrustRank, in Analogie zum PageRank, ermittelt halbautomatisch einen Wert, welcher die Qualität einer Website angibt. Er dient zum einen der Ermittlung von Spam-Seiten und zum anderen stellt er einen Ranking-Faktor dar. Die Idee dahinter ist, dass vertrauenswürdige Websites auch vertrauenswürdige Links beinhalten, während Spam-Seiten wohl auf eher nicht so vertrauenswürdige Seiten linken. Grundlage dieses Algorithmus ist die manuelle Auswahl einiger, vertrauenswürdiger Seiten. Ein Teil des TrustRanks wird, wie beim PageRank, über einen Link an die andere Website weitergegeben.

  • Unique Content, Einzigartiger Inhalt

    Einzigartiger Inhalt, meist Unique Content genannt, ist die Bezeichnung für Text- oder mediale Seiteninhalte, welche in dieser Form noch nicht existieren. Einfach gesagt, es ist etwas Neues, was einen Besucher mehr interessieren könnte, als bereits behandelte Themen. Ausserdem hebt man sich durch neue Inhalte und auch neues oder untypisches Design von ähnlichen Websites ab, was sich positiv auf das Suchmaschinen-Ranking auswirken kann.

  • URL-Rewriting, URL-Mapping

    Das URL-Rewriting oder auch URL-Mapping ist eine Funktionalität, welche es ermöglicht benutzerfreundliche URLs zu verwenden. Diese benutzerfreundlichen URLs sind einfacher zu lesen und zu verstehen und es ist weitaus einfacher sich daran zu erinnern. Auch ermöglicht das URL-Rewriting einen konstanten Zugriff auf eine bestimmte Webseite, unabhängig von der Seitenstruktur.

    Beispiel:
    www.beispiel.com/content/posts/artikel-ueber-url-rewriting-51252
    Das URL-Rewriting kann bewirken, dass das Ziel der langen URL über www.beispiel.com/url-rewriting erreichbar ist.

  • URL, URI

    Ein URL (Uniform Resource Locator) ist eine Unterart eines URI (Uniform Resource Identifier), und stellt eine Art Wegweiser in Computernetzwerken dar, welcher das Protokoll und den Ort einer bestimmten Ressource angibt. Oftmals werden die Begriffe URL oder URI synonym verwendet und stehen im allgemeinen Sprachgebrauch einfach für eine Webadresse.

    Beispiel: www.google.ch

  • Web 2.0

    Das Web 2.0 wurde etwa ab den 2000er Jahren populär und beschreibt die Veränderung des damals sehr statischen World Wide Webs, in dem der Benutzer primär Konsument war. Heutzutage ist das WWW sehr interaktiv geworden, wo ein Benutzer selbst zum Inhalt einer Website beitragen kann, wobei hier Wikipedia ein sehr gutes Beispiel ist. Auch sehr bekannt ist in Bezug auf die Interaktivität des Webs ist das heute weit verbreitete Social Media, wo Benutzer miteinander kommunizieren können.

  • Webmaster, Web Admin

    Der Begriff Webmaster wurde ursprünglich für den Administrator eines Webservers verwendet. Heutzutage dient der Begriff als Berufsbezeichnung für die Ansprechperson einer Website. Zu den Aufgaben gehören die Planung und Realisierung und die grafische Gestaltung der Website, sowie die Wartung und Administration.

  • Webseite

    Eine Webseite ist ein einzelnes HTML-Dokument, welches eine Seite in einer Website demonstriert. Jede Webseite kann über einen eindeutigen URL aufgerufen werden. Zusammengehörige Seiten sind normalerweise intern oder extern miteinander verlinkt. Um eine Webseite aufrufen zu können, wird ein Browser benötigt. Der Inhalt den ein Browser anzeigt, entspricht jeweils einer einzelnen Webseite, während eine Website eine Sammlung von Webseiten ist. Das ist wohl das beste Merkmal, um Webseiten und Websites voneinander zu unterscheiden.

    Beispiel:
    www.ihrewebsite.ch/kontakt.html

  • Webserver

    Ein Webserver ist eine Software, welche die Anfragen eines Webbrowsers erfüllt, indem sie ihm die angeforderten Dateien einer bestimmten Webseite zusendet. Das bedeutet, jeder Website im WWW liegt ein Webserver zugrunde, wodurch eine Website überhaupt erst dem Besucher übermittelt wird. Der wohl bekannteste Vertreter dieser Sparte ist das Apache HTTP Projekt.

  • Website

    Eine Website ist ein virtueller Platz im World Wide Web, normalerweise auf einem Server oder Webspace, der eine Sammlung von Webseiten und Medien beherbergt. Diese Webseiten sind üblicherweise untereinander intern verlinkt und über ein Menü oder eine Navigation unabhängig erreichbar. Diese Website kann über eine IP-Adresse oder eine Domain aufgerufen und besucht werden. Um eine Website aufrufen zu können, wird ein Browser benötigt.

    Beispiel:
    www.ihrewebsite.ch/
    Inklusive aller Seiten, Unterseiten, Bilder etc.

  • Webspace

    Ein Webspace ist ein virtueller Platz im Internet, welcher meist dazu verwendet wird, eine Website zu hosten. Dieser Webspace enthält meist viele vorgefertigte Technologien und Services, so z.B. vorinstallierte Datenbanksysteme oder Technologien zur serverseitigen Programmierung. Im Gegensatz zu einem dedizierten Server, der vollumfänglich gemietet wird, mit eigener IP-Adresse, Hardware-Anpassungen etc. stellt ein Webspace lediglich einen Platz auf einem solchen Server dar. Im Normalfall betreibt ein Server mehrere Webspaces, wodurch es automatisch zu einer Domain-Nachbarschaft kommt.

  • Webverzeichnis, Webkatalog

    Ein Webverzeichnis übernimmt heute für die riesige Vielfalt an Websites die Aufgabe die Bibliotheken für Printmedien, wie z.B. Bücher, leisten. Ein Webverzeichnis, oder auch Webkatalog, ordnet die Zugehörigkeit einer Website in Teilbereiche und Themen die ein Besucher dann durchsuchen kann. Typische Beispiele für solche Verzeichnisse sind Online-Branchenverzeichnisse, welche verschiedene Websites definierten Berufsgruppen zuordnen.

  • WhiteHat-SEO

    WhiteHat-SEO ist die nachhaltige und organische Weise, Suchmaschinenoptimierung zu betreiben. Bei WhiteHat-SEO wird der Fokus auf qualitativ hochwertigen Website-Inhalt gelegt, welcher zwar suchmaschinenfreundlich, aber dennoch auf den Besucher zugeschnitten ist. Aufgrund der wachsenden Komplexität der Algorithmen von Suchmaschinen, wird es allerdings immer zeitaufwändiger, eine Website für die Besucher zu kreieren und dennoch alle Quality Guidelines zu befolgen.

  • World Wide Web, Web, WWW

    Das World Wide Web, oder kurz auch Web oder WWW genannt, ist eine über das Internet zugängliche Technologie zum Abruf von unzähligen HTML-Dokumenten, sogenannten Websites. Um diese HTML-Dokumente herunterladen, verarbeiten und anzeigen zu können, wird ein Browser benötigt. Der Browser kommuniziert dann mit dem jeweiligen Webserver, um die Daten der Webseiten zu erhalten. Etwa ab den 2000er Jahren wurde das sogenannte Web 2.0 populär.

  • XML-Sitemap, Sitemap

    In Analogie zu Sitemaps die für den Benutzer einer Website gedacht sind, wurde speziell für Suchmaschinen ein Protokoll für Sitemaps basierend auf XML, sogenannte XML-Sitemaps, erarbeitet. Sinn und Zweck ist es, für grosse Internetpräsenzen mit sehr vielen Webseiten oder auch für schwer erreichbare Seiten, die intern nicht verlinkt sind, eine Gesamtübersicht aller Webseiten zu erstellen. Diese Übersicht, welche alle URLs zu den Webseiten inklusive einige beschreibende Meta-Daten enthält, kann einer Suchmaschine übermittelt werden, so dass diese alle Seiten erreichen, crawlen und indexieren kann.

  • XML, Extensible Markup Language

    Die Extensible Markup Language, kurz XML, ist eine Auszeichnungssprache, welche zur Abbildung hierarchisch strukturierter Daten verwendet wird. XML wird für den plattformunabhängigen Datenaustausch in Netzwerken verwendet. Sehr populär ist dessen Einsatz im Internet. Eine mögliche Anwendung der Sprache ist die Erstellung einer sogenannten XML-Sitemap, die einer Suchmaschine die hierarchische Struktur einer Website in Form von URLs mitteilen kann.

  • Yahoo!

    Yahoo! ist ein Suchmaschinenanbieter mit Firmengründung im Jahre 1994. In 2009 ist Yahoo! mit Microsoft eine Allianz eingegangen, um die beiden Suchtechnologien zu verbinden und daraus eine leistungsfähigere Suchmaschine zu entwickeln.