Disziplinen der Suchmaschinenoptimierung: Manuelle Überprüfung der Website
Veröffentlicht: 2019-02-01Zuletzt aktualisiert am 25. April 2020
Was ist eine manuelle Website-Überprüfung? Eine manuelle Website-Überprüfung ist eine menschliche Überprüfung einer Website zusätzlich zur Verwendung von automatisierten Website-SEO-Überprüfungstools. Es besteht darin, Seiten einer Website manuell zu besuchen, um Probleme zu erkennen, die mit automatisierten Website-Audit-Tools möglicherweise nicht aufgedeckt werden.
Automatisierte Site-Audit-/Review-Tools sind großartig und notwendig in der sich ständig verändernden Umgebung organischer Online-Suchergebnisse von heute. Es gibt jedoch Probleme, die sie möglicherweise nicht aufdecken. Kürzlich brachte uns ein White-Label-Partner einen neuen White-Label-SEO-Client. Site-Audits wurden durchgeführt. Es wurde eine Keyword-Recherche durchgeführt.
Die Ergebnisse der automatisierten Site-Audits lieferten die üblichen Verdächtigen:
- Fehlende Meta-Beschreibungen
- Doppelte Meta-Beschreibungen
- Meta-Beschreibungen zu kurz oder zu lang
- Seitentitel fehlen
- Doppelte Seitentitel
- Seitentitel zu kurz oder zu lang
- Fehlende h1-Tags
- Passende Seitentitel und h1-Tags
- Mehr als ein h1-Tag auf der Seite
- Fehlende Alt-Attribute
- Seiten mit geringer Wortzahl
Alle zu erwartenden Grundausstattung. Der letzte Punkt beantwortete eine Frage zu den Ergebnissen unserer Keyword-Recherche.
Die Keyword-Recherche ergab, dass dieser Kunde ein Produkt-/Teillieferant in einer bestimmten Branche war. Nichts darüber, was sie wirklich getan haben, nämlich Produkte/Teile für diese Branche zu entwerfen, zu entwickeln und herzustellen und Großhändler, Händler, Installateure, Auftragnehmer und Einzelhändler in dieser Branche zu beliefern; weder die breite Öffentlichkeit noch als Einzelteillieferant.
Site Review Schritt 1 – Seiten mit geringer Wortanzahl
Die Keyword-Ergebnisse in Kombination mit den Seiten mit niedriger Wortzahl führten zu einer manuellen Überprüfung des Inhalts vor Ort, bevor ein strategischer Plan für die weitere Entwicklung erstellt wurde.
Die manuelle Überprüfung ergab, dass nur die Teile-/Produktseiten Inhalte enthielten. Sie enthielten nur Teilebeschreibungen und -spezifikationen, daher stützten sich die Ergebnisse der Keyword-Recherche stark nur auf Produkte/Teile.
Eine weitere Überprüfung durch Klicken auf jeden einzelnen Menüpunkt und jeden Link auf der gesamten Website ergab, dass alle Inhalte des Kunden in .pdfs konvertiert und in einem Content Delivery Network gehostet wurden. Dabei handelte es sich nicht nur um Bilder und Videos, sondern um den gesamten Inhalt ihrer geschriebenen Worte auf der Seite. Der einzige Inhalt, der (übrigens schlecht) im Ranking war, betraf ihre Produkte/Seiten, die die einzigen Seiten auf der Website mit echtem On-Page-Inhalt sind. Das Keyword-Tool konnte nicht zum .pdf-Inhalt des Content Delivery Networks wechseln, um uns die Keyword-Daten zu liefern, die wir benötigten, um die Nachricht des Kunden online zu übermitteln.
Manuelle Überprüfung der Website – Finden Sie mehrere Versionen der Website
Ein weiterer Punkt, der bei der manuellen Überprüfung der Website aufgedeckt wurde, war, dass mehrere Versionen live im Internet liefen. Die Website in einem Browser wurde als nicht sichere HTTP-Version der Website aufgelöst, was an sich schon problematisch ist. Google hat nur die HTTP-Version gecrawlt und indexiert.
Wir haben dieses neue Problem mit mehreren Versionen festgestellt, nachdem wir ein neues Google Analytics und eine neue Google Search Console für die Website erstellt haben. Beim Einrichten des Google Search Console-Kontos stellten wir fest, dass es neben der nicht sicheren HTTP-Version der Website auch eine sichere https-Version gab; eine WWW-Version; und eine Nicht-WWW-Version der Website, die alle in einem Browser aufgelöst würden.
All dies ist problematisch, aber für keines der automatisierten Tools erkennbar. Nur ein menschliches Auge bemerkte dies.
Dies führte zu:
http://www.domainname.com
https://www.domainname.com
http://domainname.com
https://www.domainname.com
Wir haben auch festgestellt, dass bei der Entwicklung der Website im Administrationssystem so eingestellt war, dass nur ein Crawling der nicht sicheren HTTP-Version der Website zugelassen wurde, obwohl es eindeutig eine Option gab, das Crawling nur für die https-Version festzulegen. Diese Option wurde vom Verwaltungssystem als bevorzugte Option markiert, aber jemand hatte absichtlich „nur die HTTP-Version crawlen“ ausgewählt.
Wir haben das Problem mit mehreren Versionen der Website gelöst, indem wir einfach die bevorzugte Option „Nur die sichere https-Version der Website crawlen“ ausgewählt haben. Es wurde eine Umleitung eingerichtet, um die www- und nicht-www-Versionen der Website auf die sichere https://www.domainname.com-Version zu verweisen.
Problem gelöst und weiter zur nächsten manuellen Überprüfungserkennung.
Fehlende Datenschutzrichtlinie, Offsite-Geschäftsbedingungen und andere wichtige Offsite-Inhalte
Bei der manuellen Überprüfung der Website haben wir die restlichen Seiten der Website durchgesehen und dabei auch Probleme mit den Datenschutzrichtlinien der Website, den Allgemeinen Geschäftsbedingungen und anderen wichtigen Inhalten festgestellt. Alle diese Seiten sind notwendig, wenn Sie auf den Suchergebnisseiten irgendwohin gelangen wollen, insbesondere in den SERPs von Google.
Das erste Problem war mit den Allgemeinen Geschäftsbedingungen. Der einzige Link wurde auf einer Seite gefunden, die von einem oberen Menüelement aus verlinkt war, nicht in der Fußzeile oder im oberen Menü, wo ein Besucher die Allgemeinen Geschäftsbedingungen von jeder Seite der Website aus anzeigen konnte. Ein Besucher müsste diesen oberen Menülink zufällig finden, um den Link zur Seite mit den Allgemeinen Geschäftsbedingungen zu finden. Außerdem führte der Link zur Seite mit den Allgemeinen Geschäftsbedingungen (ja, Sie haben es erraten) zu einer .pdf-Datei, die sich im Content Delivery Network und nicht auf der Website des Kunden befand.
Das Problem mit der Datenschutzrichtlinie ist und bleibt, ES WAR KEINE! Welcher Entwickler würde in der heutigen datengeschützten Online-Umgebung eine Website erstellen und die Datenschutzrichtlinie weglassen? Auf dem heutigen Online-Marktplatz, insbesondere nach den Anforderungen der Datenschutz-Grundverordnung (DSGVO), ist es eine anerkannte allgemeine Regel, dass eine Website, die personenbezogene Daten sammelt, eine Datenschutzrichtlinie haben sollte. Haftungsausschluss: Wir sind kein Rechtsberater. Sie sollten sich in dieser Angelegenheit anwaltlich beraten lassen, wenn Sie Bedenken oder Fragen haben. Bei all den kostenlosen Generatoren für Datenschutzrichtlinien, die online verfügbar sind, warum sollte jemand diesen Schritt überhaupt in Frage stellen?
Manuelle Überprüfung der Website: Das Problem mit der Datenschutzrichtlinie ist und bleibt, ES WAR KEINE! Klicken Sie hier, um zu twitternDie Vorgaben von Google zur Verwendung einer Datenschutzerklärung können Sie hier nachlesen: https://developers.google.com/actions/policies/privacy-policy-guide
Was HubSpot zur Notwendigkeit einer Datenschutzerklärung sagt, können Sie hier einsehen: https://blog.hubspot.com/marketing/you-need-a-privacy-policy
Weitere allgemeine Informationen finden Sie bei SearchEngineLand hier: https://searchengineland.com/how-many-google-privacy-policies-are-you-violating-50182
Hier sind einige Links zu einigen kostenlosen Generatoren für Datenschutzrichtlinien, die bei einer Google-Suchanfrage nach „kostenlosen Generatoren für Datenschutzrichtlinien“ gefunden wurden:
https://www.freeprivacypolicy.com/
https://digital.com/blog/best-privacy-policy-generators/
https://privacypolicies.com/
https://termsfeed.com
Haftungsausschluss: Wir unterstützen die oben genannten Websites nicht, da es sich nur um die Ergebnisse handelt, die auf Seite eins der Google-SERPs für den oben genannten Suchbegriff gefunden wurden. Es ist Sache des Websitebesitzers, zu bestimmen, welcher kostenlose Datenschutzrichtlinien-Generator verwendet werden soll.
Außerdem gab es zwei weitere wichtige Seiten, die sich nicht auf der Website befanden, aber mit einer .pdf-Datei eines Content Delivery Networks verlinkt waren, nämlich die Seite mit der eingeschränkten Garantie der Website und die Seite mit den Mapp-Preisrichtlinien (minimierte beworbene Preisrichtlinie). Diese beiden Seiten könnten der Site zusätzlichen Inhalt hinzufügen und den Besuchern der Site wertvolle Informationen liefern. Beide Links für die oben genannten Seiten wurden auch auf derselben einzelnen Seite mit dem Link zu den Allgemeinen Geschäftsbedingungen zum .pdf-Inhalt des Liefernetzwerks gefunden. Kurz gesagt, wenn ein Besucher der Website diese einzelne Seite nicht besucht hätte, würde er diesen sehr wichtigen Inhalt nicht finden. Ganz zu schweigen davon, dass Suchmaschinen-Bots den Inhalt nicht crawlen konnten.