Technische Herausforderungen bei der Verwaltung von Suchmaschinenoptimierungskampagnen
Veröffentlicht: 2020-12-22Zuletzt aktualisiert am 31. August 2021
Diejenigen, die schon seit einiger Zeit in der Suchmaschinenoptimierungsbranche tätig sind, wissen, dass keine zwei Suchmaschinenoptimierungskampagnen gleich sind.
Oft stoßen wir auf technische Herausforderungen, die sich negativ auf die Ergebnisse der Suchmaschinenoptimierung auswirken. Oft liegt es außerhalb unserer Kontrolle, sie zu korrigieren.
Technische Herausforderungen gehen weit über die Standardverfahren zur Suchmaschinenoptimierung hinaus und erfordern die Beteiligung der Webentwicklung.
Nachfolgend sind einige der Herausforderungen aufgeführt, denen wir bei der Verwaltung einer Kampagne zur Suchmaschinenoptimierung begegnen.
- Kein Webentwickler
- Nicht suchmaschinenfreundliche Content-Management-Systeme
- Kein Zugriff auf das Content-Management-System des Kunden
- Kein Zugriff auf den Website-Dateiserver des Clients
Was tun, wenn kein Webentwickler für die Suchmaschinenoptimierungskampagne verfügbar ist?
In diesem Fall gibt es nur zwei Antworten. Sie müssen sowohl auf den Website-Dateiserver als auch auf das Content-Management-Administrationssystem zugreifen. Option „B“ ist, dass der Kunde einen Webentwickler einstellen muss. Er oder sie sollte die notwendigen Überarbeitungen durchführen, um die Website in die Spezifikationsanforderungen für die Suchmaschinenoptimierung zu bringen.
Der Prozess ist entscheidend für den SEO-Erfolg und sollte offensichtlich sein, aber unglaublicherweise wird er manchmal übersehen. Die Bereitstellung effektiver Inhalte und Strukturen, die eine Suchmaschinenoptimierungskampagne verbessern, hängt stark davon ab, dass Webdesign und -entwicklung auf dasselbe Ziel ausgerichtet sind.
Was tun, wenn das Content-Management-Verwaltungssystem nicht suchmaschinenfreundlich ist?
Um die Suchmaschinenoptimierung richtig durchzuführen, benötigen Sie Folgendes, sind aber nicht darauf beschränkt:
- Die Möglichkeit, eindeutige Seitentitel für <head>-Bereiche zu generieren, unabhängig von der Generierung aus dem <h1>-Tag des Inhalts
- Die Möglichkeit, Meta-Beschreibungen für <head>-Bereiche zu generieren
- Die Möglichkeit, suchmaschinenfreundliche URLs getrennt vom <h1>-Tag des Inhalts zu generieren
- Die Möglichkeit, Alt- und Titeltext zu den Bildern Ihrer Website hinzuzufügen, getrennt vom <h1>-Tag des Inhalts oder den Seitentiteln des <head>-Bereichs der Seite
Viele Content-Management-Verwaltungssysteme bieten einfach keine grundlegenden Suchmaschinenoptimierungsdienste an, und es wird dringend empfohlen, White-Label-SEO-Dienste zu haben. Angesichts dieser Herausforderungen müssen Sie das Content-Management-Administrationssystem neu programmieren. Mit Zugriff auf das Content-Management-Administrationssystem können Sie recherchieren, wie Sie die notwendigen Änderungen implementieren und abschließen können.
Google stuft Ranking-Ergebnisse für Websites mit 4xx-Antwortcodes herab. Klicken Sie hier, um zu twitternMöglicherweise haben Sie jedoch keinen Zugriff auf das Content-Management-Administrationssystem. Wenn der Kunde einen Webentwickler angestellt hat, können Sie ihn beauftragen. Beraten Sie sie, was Sie tun müssen, um eine Suchmaschinenoptimierung für die Website des Kunden durchzuführen. Wenn der Kunde keinen Webentwickler angestellt hat, muss er einen einstellen. Es wäre am besten, wenn sie mit dem Content-Management-Administrationssystem des Kunden vertraut sind.
Was tun, wenn Sie zu Beginn der Suchmaschinenoptimierungskampagne keinen Zugriff auf das Content-Management-Verwaltungssystem des Kunden haben?
Sie müssen den Kunden einfach nach diesen Informationen fragen.
Einige Kunden werden misstrauisch sein, diesen Zugang zu gewähren. In diesem Fall müssen Sie ein klares und ehrliches Gespräch mit dem Kunden führen. Erinnern Sie sie daran, wie sehr sie Ihnen diese Kampagne zur Suchmaschinenoptimierung anvertraut haben. Sicherlich können sie Ihnen auch den Zugriff auf ihr Content-Management-Verwaltungssystem anvertrauen.
Wenn sie sich weigern, müssen Sie mit ihrem Webentwickler zusammenarbeiten, falls er einen hat. Implementieren Sie alle erforderlichen Änderungen für die Website des Kunden, um die aktuellen Spezifikationen für die Suchmaschinenoptimierung zu erfüllen.
Wenn sie keinen Webentwickler haben, stellen Sie dem Kunden die erforderlichen Überarbeitungen und Anfragen zur Verfügung. Stellen Sie sicher, dass sie korrekt implementiert sind.
Warum ist der Zugriff auf den Website-Dateiserver Ihres Kunden wichtig?
Dies ist von entscheidender Bedeutung – insbesondere, wenn der Mitarbeiter des Kunden keinen Webentwickler hat.
Der Dateiserver der Website verfügt über zwei kritische Elemente, die für die Durchführung einer erfolgreichen Suchmaschinenoptimierungskampagne erforderlich sind. Das sind die .htaccess-Datei der Website und die robots.txt-Datei.
Die .htaccess-Datei
In der .htaccess-Datei steuern wir die 3XX-Weiterleitungen der Website, die entscheidend sind, um die Antwortcodes „4XX-Datei nicht gefunden“ zu verhindern. Diese erzeugen alle Arten von Problemen beim Versuch, die Site eines Kunden in den Suchmaschinen-Ergebnisseiten von Google (und anderen Suchmaschinen) zu platzieren. Google stuft Ranking-Ergebnisse für Websites mit 4xx-Antwortcodes herab. Wenn Ihre Website 4xx-Antwortcodes generiert und Ihre Konkurrenten dies nicht tun, haben sie eine bessere Chance, Ihre Website auf den Ergebnisseiten der Google-Suchmaschine zu übertreffen.
Die robots.txt-Datei
Die robots.txt-Datei ist ebenfalls kritisch. Oft erleben wir neue Kundenseiten, die umgebaut wurden oder neu sind und Probleme mit ihren Ranking-Ergebnissen haben. Oftmals haben wir Bestandskunden, die das Erscheinungsbild und die Navigationsstruktur ihrer Website erneuern möchten. In beiden Fällen können ihre Webentwickler die Direktive „disallow robot crawl“ verwenden, um die Suchmaschinen daran zu hindern, ihre neue oder aktualisierte Website während der Entwicklung zu crawlen und zu indizieren.
Wenn die neuen oder aktualisierten Websites live gehen, wurde in vielen Fällen die Disallow-Anweisung nicht aus der robots.txt-Datei entfernt, wodurch die Suchmaschinen daran gehindert werden, diese Websites zu durchsuchen und zu indizieren.
Bestehende Kundenseiten mit großartigen Ranking-Ergebnissen, Besucherverkehr und Conversions beginnen zu scheitern, weil sie live gegangen sind, ohne die Disallow-Direktive zu entfernen. Neue Kunden mit neuen oder aktualisierten Websites, die mangelhafte Ranking-Ergebnisse, Besucherverkehr und Conversions aufweisen, sehen sich dem gleichen Ergebnis gegenüber.
Die robots.txt-Datei ist eines der ersten Elemente, die ich überprüfe, wenn ich mit einem neuen Kunden arbeite, der mangelhafte Ranking-Ergebnisse, Besucherverkehr und Conversions aufweist. Ich mache dasselbe mit bestehenden Kunden nach einer Aktualisierung, noch bevor sie beginnen, Ranking-Einbußen, Besucher-Traffic-Verluste und Conversion-Verluste zu verzeichnen.
Sie benötigen Zugriff auf den Webdateiserver Ihres Kunden, um diese Änderungen vorzunehmen, oder der Kunde benötigt einen Webentwickler als Mitarbeiter.
Sie müssen diese Überprüfung der robots.txt-Datei Ihres Kunden ganz oben auf Ihrer Liste halten. Aus irgendeinem Grund habe ich während meiner Projekte zur Verwaltung von Suchmaschinenkampagnen zufällige Aktionen der Implementierung des Crawl-Disallow erlebt.
Dies sind nur einige der technischen Herausforderungen, denen Sie während einer Suchmaschinenoptimierungskampagne begegnen können.