SEO aus UX Sicht — Teil 2: relevanter Content

Marlena Reinke
Jung von Matt TECH
Published in
4 min readApr 13, 2023

Im Zuge eines Webseiten-Relaunches sollte SEO von Anfang an ein wichtiger Bestandteil sein. Schon im Konzept sollten die wichtigsten Grundsteine gesetzt werden. Im ersten Teil habe ich davon berichtet, wie wir u.a. mithilfe von Tools eine neue Seitenstruktur schaffen können, ohne dabei Rankingverlust riskieren zu müssen. Dies ist der zweite von drei Teilen: SEO aus UX Sicht — Teil 2: relevanter Content.

Keywords richtig nutzen, Spam Texte und Thin Content vermeiden

Nachdem wir die neue Struktur kennen und wissen, welche Inhalte auf welche Seiten kommen, bauen wir die einzelnen Seiten inhaltlich auf. Hierbei ist es wichtig nach Themen und User Intent zu sortieren, nicht nach Keywords. Keywords sind Suchbegriffe, die User:innen in die Suchmaschine eingeben.

Das Ziel unserer Webseite ist es, den Nutzer:innen relevante Inhalte zu liefern. Google versucht zu verstehen, welche Intention die Nutzer:innen mit ihrer Suchanfrage haben, um dann das beste Ergebnis unserer Webseite darzustellen. Desto besser unser Inhalt die Suchintention der Nutzer:innen trifft, desto wahrscheinlicher ist eine Top-Position bei Google.

Keywords sind also die Basis der SEO, allerdings sollten sie Teil von Texten mit Inhalt und Mehrwert sein, nicht Teil von Spam Texten bzw. „Thin Content“. Solche Texte bieten häufig keinen Mehrwert, bestehen aus offensichtlichen Aussagen und machen die Nutzer:innen nicht schlauer. Sie werden häufig nur geschrieben, um relevante Keywords so häufig zu erwähnen wie möglich. Google erkennt diese Art von Texten seit dem Panda Update 2011, was dazu führt, dass Seiten mit solchen Texten an Sichtbarkeit und Rankingposition verlieren.

Um Keywords sinnvoll nutzen zu können, benutzen wir Tools, die uns verwandte Keywords liefern. Beispiele hierfür sind der Google Keyword Planner, HyperSuggest und Semrush. HubSpot zeigt in diesem Beginner Guide, wie genau man mit Keywords arbeitet, nennt weitere (kostenlose) Tools und erklärt, wie man diese benutzt.

Duplicated Content verhindern

Eine weitere Sache, die wir vermeiden sollten ist Duplicated Content. Dies gilt natürlich für den Inhalt innerhalb einer Seite, um nicht von Panda als Spam gekennzeichnet zu werden. Doch vor allem gilt es seitenübergreifend.

Doppelte Inhalte verursachen, dass Suchmaschinen wie Google Schwierigkeiten haben, die richtige Seite zu indexieren. Durch ähnlichen oder identischen Inhalt auf verschiedenen Seiten, werden betroffene Inhalte schlechter gefunden oder sogar herausgefiltert. Um Ranking-Probleme durch Duplicated Content zu vermeiden, braucht jede indexierte Seite ausreichend „Unique Content“. Diese Inhalte wurden ausschließlich für eine Seite erstellt und befinden sich auch nur auf dieser.

Manchmal kommt es auf Webseiten vor, dass doppelte oder sehr ähnliche Inhalte entstehen und diese damit auf mehreren URLs erreichbar sind. Dies ist beispielsweise bei Online Shops schwer zu vermeiden, um u.a. ein Produkt in verschiedenen Farben dazustellen. Google erfasst (crawlt) beide Inhalte, entscheidet sich allerdings nur für die Aufnahme (Indexierung) einer der beiden. Welche URL Google sich aussucht, können wir nicht kontrollieren. Dadurch, dass nur diese eine Seite indexiert wird, geht die Linkkraft auf die anderen URLs verloren, was unser Ranking verschlechtern kann.

Um das zu vermeiden und doppelte Inhalte zu kennzeichnen, gibt es das sogenannte „Canonical Tag“. Dies wird im HTML-Dokument der sich doppelnden Seite von unseren Developern:innen hinterlegt und verweist auf die Standard URL, die „Canonical URL“. Damit legen wir fest, welche Seite Google indexieren soll.

Um doppelte Inhalte zu erkennen, können wir auch hier Tools wie ScreamingFrog nutzen.

Illustration: Marlena Reinke, Animation: Anja Lindner

Konkurrenzvergleich

Um unseren Inhalt relevanter zu machen als die Inhalte der Konkurrenz, können wir uns mit dieser vergleichen. Hierzu arbeiten wir Themen heraus, die bei der Konkurrenz wenig oder gar nicht behandelt werden, aber von den Nutzer:innen gesucht werden und greifen diese auf unserer Seite inhaltlich auf. Anhand der Keyword-Analyse können wir feststellen, wo Inhalte zu Keywords fehlen. Hierzu sollten wir trotzdem das Ziel der Seite und die Bedürfnisse der Zielgruppe berücksichtigen.

Zusätzlich können wir uns abheben, indem unsere Inhalte gut strukturierte Informationen enthalten. Außerdem können Emotionen vermittelt und genutzt werden. Bilder und Videos können den Nutzer:innen helfen, Inhalte besser zu verstehen, komplexe Thematiken auflockern und weiteres Interesse wecken. Dadurch ist die Wahrscheinlichkeit höher, dass sich Nutzer:innen weiter durch unsere Seite klicken. Und auch das erkennt Google und gibt uns dadurch eine womöglich bessere Ranking-Position. Denn auch für Google zählt eine gute User Experience.

Fazit

Dieser Prozess ist nicht einfach umzusetzen, da er Zeit und Erfahrung bedarf. Am besten teilt man sich diese Arbeit mit erfahrenen Texter:innen. Gerade in einer Agentur behandelt man immer wieder neue Themen. Wir können nicht Experte:innen jedes Bereiches sein, sollten also ständig Rückspräche mit unseren Kunde:innen halten, um die Texte auf fachliche Richtigkeit prüfen zu lassen. Zusammen mit Texter:innen können wir die neuen Texte auf die eben aufgeführten Punkte prüfen, um auch hier zumindest eine Basis zu schaffen. Im dritten und damit letzten Teil erkläre ich die Wichtigkeit einer guten User Experience.

Hier geht’s zur englischen Version: https://medium.com/jung-von-matt-tech/seo-from-ux-perspective-part-2-relevant-content-713809ceba37

Jung von Matt/TECH ist eine datengetriebene und technologieorientierte Agentur innerhalb der Jung von Matt-Gruppe. Jung von Matt ist — gemessen an den Auszeichnungen für Kreativität und Effizienz — die erfolgreichste Werbeagenturgruppe im deutschsprachigen Raum. Wir helfen unseren Kunden und Partnern, digitale Pioniere zu werden, indem wir Technologie und Daten nutzen, um digitale Plattformen, Produkte und Dienstleistungen zu entwickeln, die Momentum schaffen.

--

--