O que é uma página/camuflagem de entrada?

Publicados: 2011-12-16

Às vezes, os webmasters costumam dizer para enviar páginas “ponte” ou “porta” aos mecanismos de pesquisa com o objetivo de melhorar o tráfego em seus sites. As páginas de entrada são criadas para melhorar o desempenho de um site para determinadas palavras-chave. Eles também são conhecidos como páginas de portal, páginas de salto, páginas de gateway, páginas de entrada e também por outros nomes.

É muito fácil identificar as páginas de entrada, pois elas são projetadas apenas para mecanismos de pesquisa. Sim, as páginas de entrada são desenvolvidas apenas para mecanismos de pesquisa, não para seres humanos. Aqui vou explicar como fazer essas páginas e alguns dos problemas que geralmente enfrentamos ao criar páginas de entrada ou tentar ocultar

Nota: Cloaking e Doorway são duas partes da mesma moeda. E essas são técnicas de chapéu preto que são consideradas spam por todos os mecanismos de pesquisa. Usar essas técnicas pode arriscar seu site. Portanto, como parte da empresa genuína de criação de links, recomendo que você não use essas técnicas em sua campanha de marketing.

Estou escrevendo sobre este assunto é apenas porque algumas formas de técnicas são comprovadas como técnicas éticas de chapéu branco hoje em dia.

O que é a página de entrada?

Se um usuário clicar nos resultados da pesquisa algumas vezes, ele será redirecionado para outras páginas com algumas informações irrelevantes. Esse tipo de evento ocorre devido a páginas de entrada. Na maioria dos casos, o usuário pode ser redirecionado por um comando meta-refresh rápido para outra página, bem como outros tipos de redirecionamento também são usados, como Javascript e redirecionamento do lado do servidor, arquivo .htaccess, arquivo de configuração do servidor. As páginas de entrada também são criadas como páginas dinâmicas geradas por linguagens de script como PHP.

Muitas vezes, as páginas de porta são fáceis de identificar e são projetadas principalmente para mecanismos de pesquisa, não para humanos. Às vezes, uma página de entrada é copiada de outra página de alto escalão, mas isso pode fazer com que o mecanismo de pesquisa detecte a página como duplicada e a exclua das listas de mecanismos de pesquisa.

Como todos os mecanismos de pesquisa penalizam o uso do comando de atualização META, o script Java para redirecionamento é o truque mais popular e bem-sucedido para levar os usuários à página de destino desejada.

Mas a versão mais aprimorada das páginas de entrada são as portas de conteúdo rico, essas páginas são projetadas de maneira muito sofisticada para obter alto tráfego sem o uso de redirecionamento. Na verdade, as páginas Content Rich Doorway são uma das técnicas de SEO de chapéu branco mais éticas e hoje em dia todos nós a conhecemos como Marketing de conteúdo. Content Rich Doorways agora são projetados para visitantes, não para mecanismos de pesquisa, onde os visitantes são oferecidos para seguir links padrão.

Agora, a literatura na página inicial incentiva os visitantes a visitar uma página específica. Desenvolver uma página rica em conteúdo diferente está na moda para obter mais taxa de conversão de campanhas de PPC para aumentar o ROI.

Aqui estão as maneiras de entregar uma página de entrada.

1) Entrega de baixa tecnologia

Existem diferentes maneiras de fornecer páginas de entrada. A maneira de baixa tecnologia é criar e renderizar a página direcionada para palavras-chave específicas. Algumas pessoas usam isso de forma muito agressiva e usam essa técnica para cada página e para todos os mecanismos de pesquisa.

Um problema com isso é que essas páginas tendem a ser muito genéricas. É fácil para as pessoas copiá-los, fazer pequenas alterações e fornecer uma página revisada por conta própria, na esperança de imitar o sucesso de qualquer um. Além disso, você pode ter páginas semelhantes entre si e que são consideradas duplicadas e excluídas automaticamente pelas listas de mecanismos de pesquisa e sessão.

Low Tech Delivery tem outros problemas que os usuários nem sempre são redirecionados para a página relevante. Os usuários reclamam que estavam procurando por clubes de pólo e redirecionados para alguns outros sites ou para alguma página de login, o que significa que os usuários não conseguem acessar uma página de destino. Portanto, para aterrissar no webmaster da página de destino adequada, use algo como links “Clique aqui” ou comandos rápidos de atualização de meta.

Bem, os links “Clique aqui” ou quaisquer outras técnicas usadas entre a página de destino ou a página de entrada são chamados de “páginas de noiva” e “páginas de salto”. À medida que essas páginas “pontem” ou “saltem” os visitantes através da lacuna.

Os mecanismos de pesquisa não oferecem mais suporte a páginas com objetivo de redirecionamento para controlar o abuso de páginas de entrada. Portanto, o webmaster geralmente troca uma página real por uma página de entrada quando a posição é alcançada. Essa é a “troca de código”, que às vezes também é feita para impedir que outras pessoas saibam exatamente como a página se classificou bem. Também chamado de “bait-and-switch”. A desvantagem é que um mecanismo de pesquisa pode revisá-lo a qualquer momento e, se o mecanismo de pesquisa indexar com êxito a página real, a posição poderá ser perdida.

Outra observação aqui: basta pegar as meta tags da página (“meta-baiting”), não garante o acesso à página que você fará bem. Na verdade, às vezes, reprocessar a página exatamente de outro site não ganha a mesma página. A posição original é uma razão diferente pela qual isso está acontecendo, que está além deste artigo, mas o ponto principal é entender que você não necessariamente encontra nenhum “segredo” exibindo o código-fonte, você não necessariamente revela nenhum.

2)Entrega do agente

A próxima etapa é fornecer uma página diferente apenas para os mecanismos de pesquisa. Cada mecanismo de pesquisa informa um nome de “agente”, assim como cada navegador informa um nome.

O recurso para fornecer o nome do agente é que você pode enviar o mecanismo de pesquisa em uma página personalizada após redirecionar os usuários para o conteúdo real que deseja que eles vejam. Isso elimina completamente todo o problema da “ponte”. Ele também tem a vantagem adicional de “cloaking” de código.

Bem, não exatamente. As pessoas podem fazer Telnet para seu servidor da web e informar o nome do agente como um mecanismo de pesquisa específico. E então veja exatamente o que você entregou. Além disso, pode ser que alguns mecanismos de pesquisa nem sempre informem exatamente o mesmo nome do agente e, especificamente, para ajudar a manter as pessoas honestas.

O que é Camuflagem?

Cloaking é uma técnica de SEO na qual o conteúdo é criado de forma diferente para os robôs dos mecanismos de pesquisa em comparação com o original que é apresentado aos navegadores do usuário. A camuflagem faz isso liberando um conteúdo diferente com base nos endereços IP ou no cabeçalho HTTP User-Agent do usuário solicitante. Em mais detalhes, suponha que um usuário seja identificado como aranha do mecanismo de pesquisa, pois o script no servidor mostrará uma versão diferente do conteúdo que projetamos para os mecanismos de pesquisa; esse não é o conteúdo real da página da web. Algumas vezes, o conteúdo da página da Web é usado para ser apresentado de maneira que os mecanismos de pesquisa não possam lê-lo. O principal objetivo da camuflagem é enganar o mecanismo de pesquisa para classificação com um conteúdo impróprio. Isso ocorre porque os mecanismos de pesquisa consideram essas técnicas como SPAM ou Black Hat SEO . No entanto, também pode ser uma técnica funcional (que antiquada) para obter informações dos mecanismos de pesquisa sobre assuntos que eles não seriam capazes de encontrar de outra maneira porque estão embutidos em não textuais recipientes como vídeo ou certos componentes como o Adobe Flash Player.
Cloaking é essencialmente uma técnica para obter uma melhor classificação nos motores de busca. O uso de Cloaking no site é, na verdade, uma tentativa de enganar os mecanismos de pesquisa e, portanto, qualquer pessoa que acesse seu site a partir dos mecanismos de pesquisa.

Cloaking também é desaprovado pela maioria dos mecanismos de busca. O Google e outros mecanismos de pesquisa removem qualquer site que viole as regras de suas páginas de resultados totalmente e, às vezes, da lista negra (para que outros mecanismos não o listem). Isso significa que, embora você possa desfrutar da classificação mais alta por um tempo, no final das contas, você será pego e perderá todas as suas classificações.

Finalmente, a camuflagem não funciona. Como os mecanismos de pesquisa estão ficando muito inteligentes e o conteúdo da página está se tornando um fator importante de classificação. Significa que os mecanismos de pesquisa não seguem mais os códigos ou tags em sua página de origem.