Provocări tehnice de management al campaniilor de optimizare pentru motoarele de căutare
Publicat: 2020-12-22Ultima actualizare pe 31 august 2021
Cei care sunt în industria de optimizare pentru motoarele de căutare de ceva timp știu că nu există două campanii de optimizare pentru motoarele de căutare la fel.
De multe ori, ne confruntăm cu provocări tehnice care au un impact negativ asupra rezultatelor optimizării motoarelor de căutare . Adesea, corectarea lor este în afara controlului nostru.
Provocările tehnice depășesc cu mult procedurile de operare standard de optimizare a motoarelor de căutare și necesită implicarea în dezvoltarea web.
Mai jos sunt câteva dintre provocările pe care le găsim atunci când gestionăm o campanie de optimizare pentru motoarele de căutare.
- Nici un dezvoltator web
- Sisteme de gestionare a conținutului care nu sunt prietenoase cu motoarele de căutare
- Nu există acces la sistemul de management al conținutului clientului
- Nu există acces la serverul de fișiere al site-ului web al clientului
Ce să faci dacă nu există un dezvoltator web disponibil pentru campania de optimizare pentru motoarele de căutare?
În acest caz, există doar două răspunsuri. Va trebui să obțineți acces atât la serverul de fișiere a site-ului web, cât și la sistemul de administrare a conținutului. Opțiunea „B” este că clientul va trebui să angajeze un dezvoltator web. El sau ea ar trebui să efectueze revizuirile necesare pentru a aduce site-ul în cerințele de specificație pentru optimizarea motorului de căutare.
Procesul este esențial pentru succesul SEO și ar trebui să fie evident, dar, incredibil, este trecut cu vederea uneori. Desfășurarea unui conținut și a unei structuri eficiente care îmbunătățesc o campanie de optimizare pentru motoarele de căutare se bazează în mare măsură pe alinierea și alinierea a designului și dezvoltării web cu același scop.
Ce trebuie să faceți dacă sistemul de administrare a managementului conținutului nu este compatibil cu motoarele de căutare?
Pentru a efectua corect optimizarea pentru motoarele de căutare, veți avea nevoie de următoarele, dar fără a se limita la:
- Capacitatea de a genera titluri unice ale paginii cu zona <head> separate de a fi generate de eticheta <h1> a conținutului
- Abilitatea de a genera meta descrieri ale zonei <head>
- Capacitatea de a genera adrese URL prietenoase pentru motoarele de căutare separate de eticheta <h1> a conținutului
- Posibilitatea de a adăuga text alt și titlu la imaginile site-ului dvs. separat de eticheta <h1> a conținutului sau de titlurile paginii din zona <head> a paginii
Multe sisteme de administrare a conținutului pur și simplu nu oferă servicii de bază de optimizare pentru motoarele de căutare și este foarte recomandat să aveți servicii SEO cu etichetă albă. Când vă confruntați cu aceste provocări, va trebui să recodați sistemul de administrare a managementului conținutului. Cu acces la sistemul de administrare de management al conținutului, puteți căuta cum să implementați modificările necesare și să le finalizați.
Google retrogradează rezultatele de clasare pentru site-urile care au coduri de răspuns 4xx. Faceți clic pentru a trimite pe TweetCu toate acestea, este posibil să nu aveți acces la sistemul de administrare de gestionare a conținutului. Dacă clientul are un dezvoltator web în personal, îi puteți instrui. Sfătuiți-i ce trebuie să faceți pentru a efectua optimizarea pentru motoarele de căutare pentru site-ul web al clientului. Dacă clientul nu are un dezvoltator web în personal, va trebui să angajeze unul. Cel mai bine ar fi dacă aceștia sunt competenți cu sistemul de administrare a conținutului clientului.
Ce trebuie să faceți dacă nu aveți acces la sistemul de administrare de management al conținutului al clientului la începutul campaniei de optimizare pentru motoarele de căutare?
Pur și simplu va trebui să ceri clientului aceste informații.
Unii clienți vor fi supărați să ofere acest acces. În acest caz, va trebui să aveți o conversație clară și sinceră cu clientul. Amintește-le cum au avut încredere în tine cu această campanie de optimizare pentru motoarele de căutare. Cu siguranță, pot avea încredere în tine și cu acces la sistemul lor de administrare a conținutului.
Dacă refuză, atunci va trebui să lucrați cu dezvoltatorul lor web, dacă au unul. Implementați orice modificări necesare pentru site-ul clientului pentru a îndeplini specificațiile actuale de optimizare a motoarelor de căutare.
Dacă nu au un dezvoltator web, atunci furnizați revizuirile și solicitările necesare clientului. Asigurați-vă că le aveți implementate corect.
De ce este important să ai acces la serverul de fișiere al site-ului web al clientului tău?
Acest lucru este critic – mai ales dacă nu există un dezvoltator web în personalul clientului.
Serverul de fișiere al site-ului web are două elemente critice necesare pentru a desfășura o campanie de succes de optimizare a motoarelor de căutare. Acestea sunt fișierele site-uri web .htaccess și fișierul robots.txt.
Fișierul .htaccess
Fișierul .htaccess este locul în care controlăm redirecționările 3XX ale site-ului, care sunt esențiale pentru a preveni codurile de răspuns „4XX File not found”. Acestea generează tot felul de probleme în încercarea de a clasa site-ul unui client în paginile cu rezultate ale motorului de căutare Google (și ale altor motoare de căutare). Google retrogradează rezultatele de clasare pentru site-urile care au coduri de răspuns 4xx. Dacă site-ul dvs. generează coduri de răspuns 4xx, iar concurenții dvs. nu sunt, atunci aceștia au o șansă mai mare să depășească site-ul dvs. în paginile cu rezultate ale motorului de căutare Google.
Fișierul robots.txt
Fișierul robots.txt este, de asemenea, critic. De multe ori, întâlnim noi site-uri clienți care au fost reconstruite sau sunt noi și se confruntă cu dificultăți cu rezultatele lor de clasare. De multe ori, avem clienți existenți care doresc să reîmprospăteze aspectul, senzația și structura de navigare a site-ului lor. În ambele cazuri, dezvoltatorii lor web pot folosi directiva disallow robot crawl pentru a bloca motoarele de căutare să acceseze cu crawlere și să indexeze site-ul lor nou sau reîmprospătat în timpul dezvoltării.
În multe cazuri, când site-urile web noi sau reîmprospătate sunt disponibile, directiva disallow nu a fost eliminată din fișierul robots.txt, blocând astfel motoarele de căutare să acceseze cu crawlere și să indexeze aceste site-uri.
Site-urile clienților existente cu rezultate excelente de clasare, trafic de vizitatori și conversii încep să eșueze, deoarece au fost puse în funcțiune fără a elimina directiva de respingere. Clienții noi cu site-uri web noi sau actualizate care se confruntă cu rezultate de clasare, trafic de vizitatori și conversii eșuate se confruntă cu același rezultat.
Fișierul robots.txt este unul dintre primele elemente pe care le verific atunci când lucrez cu un client nou care are rezultate de clasare, trafic de vizitatori și conversii eșec. Fac același lucru cu clienții existenți după o reîmprospătare, chiar înainte ca aceștia să înregistreze scăderi în clasament, scădere a traficului vizitatorilor și pierderi de conversie.
Veți avea nevoie de acces la serverul de fișiere web al clientului dvs. pentru a face aceste modificări sau clientul va trebui să aibă un dezvoltator web în personal.
Trebuie să păstrați această recenzie a fișierului robots.txt al clientului dvs. în fruntea listei dvs. Din anumite motive, am experimentat acte aleatorii de implementare a interzicerii accesului cu crawlere în timpul proiectelor mele de management al campaniilor pentru motoarele de căutare.
Acestea sunt doar câteva dintre provocările tehnice cu care vă puteți confrunta în timpul unei campanii de optimizare pentru motoarele de căutare.