Posts etiquetados ‘posicionamient web’

El tener contenido duplicado diluye la oportunidad de posicionamiento de las páginas web, generalmente es muy difícil “liberarse” de él actualmente, y más por la cantidad de sitios web que son creados en la “matrix” digital. Según Internet Live Stats hoy existe un total de 1,189,857,958 de sitios web online (y la cuenta sigue avanzando).

A medida que se van creando los sitios web (más los blogs), se crean contenidos que pueden ser copiados (copy paste) de otros distintos o algunos que crean contenido y no lo saben manejar correctamente. Esto hace que el contenido duplicado sea un problema que hay que solucionar. En este artículo te explicaré qué es el contenido duplicado, qué tipos de contenido duplicado existen, qué herramientas puedes utilizar para detectarlo y las soluciones para arreglarlo.

¿Qué es Contenido Duplicado Interno?

En pocas palabras, el contenido duplicado es el que se produce cuando existe el mismo contenido en diferentes URLs o distintas páginas de un sitio. Esto puede ser peligroso, pero no penaliza (a menos que tengas en tu sitio web una gran cantidad de páginas con contenido duplicado) según Gary Illyes de Google:

Este abuso de páginas repetidas reduciría el crawl budget y diluiría varias señales que apoyarían al posicionamiento de un sitio, ya que ésto dificulta que Google identifique cuáles son las páginas más relevantes para una determinada búsqueda. Lo ideal (así no penalice Panda) es que no tengas contenido duplicado en tu sitio web, o evitarlo lo más posible.

Tipos de Contenido Duplicado

Existen dos tipos generales de contenido duplicado: Interno y Externo. En este artículo te hablaré directamente de cómo solucionar el contenido duplicado interno, el externo lo trataré en un próximo artículo.

Contenido Duplicado Interno

Es el que sucede directamente en tu sitio web, generalmente pasa por lo siguiente:

  1. Mala Gestión de Categorías y Tags: Esto ocurre más que todo en los blogs cuando tienes muchos artículos y creas categorías y tags sin darles un uso adecuado o no pones descripciones únicas por categoría. Esto hará que Google lo lea como un % de contenido duplicado.
  2. Dominios no Canónicos: Este es el factor más común de contenido duplicado, sucede generalmente cuando tu web responde ya sea con www o sin www, o cualquiera de sus variaciones:Esto sucede cuando las páginas en las que piensa Bart, dirigen al mismo contenido pero en diferente URL, tener este tipo de páginas sin ninguna redirección hace que Google no sepa cuál página debe mostrar en los resultados de búsqueda.
  3. Versión HTTP vs. HTTPs: Hoy es cada vez más importante hacer la migración a HTTPs (ya sean portales de ecommerce o de contenido), esto es recomendado por Google pero, existen páginas que no realizar correctamente la migración, por lo que el mismo sitio responde tanto en HTTP como en HTTPs, lo que genera contenido duplicado.
  4. Mala gestión de Parámetros y Filtros: Existen mucho en las páginas web que son e-commerce. Son básicamente los filtros generados de productos (colores, talla, diseños, etc), precios, tamaños, etcétera. El problema sucede por que muchos de estos filtros no cambian el contenido de la página, por ende, si tienes muchos filtros en muchas páginas, generarás muchas URLs con el mismo contenido.
  5. Parámetro de Sesiones de Usuario: Esto sucede generalmente cuando un usuario se da de alta en una tienda online y no se desindexa la ID del mismo en Google, esto puede considerarse contenido duplicado.
  6. Paginación: Este problema sucede cuando tienes una lista de artículos/productos o páginas de etiquetas en más de una página. Aunque las páginas tengan contenido diferente (distintos productos, etc), todas están centradas en el mismo tema. Si no haces la correcta paginación de las mismas, Google puede considerarlas contenido duplicado.

Herramientas para Detectar Contenido Duplicado Interno

Existen varias herramientas que son útiles a la hora de identificar contenido duplicado en tu sitio web:

  1. Google Search ConsoleEsta herramienta te permite detectar los parámetros de URL  y gestionarlos desde esta misma plataforma. Crawl >URL parameters:                                                             
  2. Screaming Frog SEO Spider: Esta herramienta de crawleo permite identificar qué metatags (títulos, metadescripciones, h1) de tu sitio están duplicados, qué URLs se repiten o están duplicadas por parámetros y mucho más. Estas son algunos detalles que puedes ver, céntrate en la sección “duplicate”:
  3. Comandos de Búsqueda Avanzada de Google: Esto refiere a ciertas búsquedas con caracteres especiales que haces directamente en Google. Puedes utilizar comandos como:                                                                                                       Mostrará todas las URLs de tu sitio que están indexadas actualmente en Google, ahí podrás verificar si tienes contenido duplicado o páginas que no quieras que estén indexadas.                                                                                                                         Mostrará todas las páginas y URLs que contengan esa palabra clave, esto te ayudará a verificar manualmente qué URLs podrías tener duplicadas con esa palabra clave.                                                                                                  Acá puedes conocer más comandos de búsqueda avanzada de Google.
  4. SiteLiner: Esta herramienta te permitirá verificar directamente el % contenido duplicado en tu sitio, sólo debes tipear tu URL:

Soluciones para el Contenido Duplicado

Anteriormente mencioné los principales problemas que generan contenidos duplicados, para finalizar te dejo las soluciones posibles para cada una de ellos:

  1. Gestión de Categorías y Tags: Todo depende de cómo uses las categorías y los tags de tu sitio. Te recomiendo que si usas muchas etiquetas y pocas categorías, añade meta-etiquetas no index, follow a las páginas que tengan tus etiquetas, así serán las categorías las que serán indexadas y posicionarán en los resultados de búsqueda. Pero en sí es ideal que antes de iniciar la publicación de tu contenido, tengas claro tus categorías globales y las etiquetas definidas.
  2. Dominios no canónicos: En este caso debes establecer cuál será tu página preferida (con www, sin www, con parámetro index.xml al final, etcétera) e implementar la etiqueta rel=”canonical” en tu dominio preferido. También si tu home responde con o sin www, puedes hacer una redirección 301 desde el sitio duplicado hacia tu sitio preferido final (el que quieres que se muestre a tus usuarios). Finalmente, debes definir en Search Console qué subdominio o dominio quieres que se muestre.
  3. Versión HTTPs vs. HTTP: En este punto si debes ir muy de la mando con tu programador o webmaster, ya que debes comprobar que la migración de HTTP a HTTPs sea correcta y que las URLs redireccionen a la versión HTTPs que quieres. Aquí te dejo un artículo oficial de Google sobre el tema de migración a HTTPs.
  4. Mala Gestión de Parámetros y Filtros: En este caso te recomiendo dos soluciones: 1. Añade una etiqueta rel=canonical hacia la página original (así evitarás cualquier tipo de confusión para Google), 2. Indica a Google en Search Console > Configuración > Parámetros de Url ; qué parámetros debe ignorar en la indexación de tus páginas en los resultados de búsqueda. Aquí también puedes manejar los parámetros de ID generados por las sesiones de usuario.
  5. Paginación: Puedes hacer lo siguiente: 1. Implementar la etiqueta rel=next y rel=prev para indicarle a Google que todas la páginas pertenecen a una misma y establecer un orden de paginación para tus productos o artículos (conoce más sobre cómo implementar paginación aquí). 2. Busca el parámentro de la paginación en Search Console e indica ahí mismo el que no sea indexado.

Recuerda que gestionar el contenido duplicado de tu sitio ayudará a mejorar el performance de posicionamiento del mismo en los resultados de búsqueda. Gracias por leerme y nos veremos en un próximo artículo SEO 🙂

Google tiene varios algoritmos que están hechos para medir y garantizar que una página web sea amigable para el usuario, además de definir el posicionamiento de la misma en las SERPs. Pero hay un nuevo algoritmo, del cuál no se sabía y fue sorpresivo para muchos, lo que no es sorpresa es que Google realiza cambios sin previo aviso. Gary Illyes, confirma que diariamente se realizan aproximadamente 3 actualizaciones diarias.

Y ellos mismos lo confirmaron después: Fred ya está aquí:

Pero ¿Qué es Google Fred?

Fred es la última actualización (8 de marzo de 2017) de los algoritmos de Google. “Fred” es en homenaje a  Fred Flintstone, o Pedro Picapiedra de la serie “Los PicaPiedra”. Si notaste un descenso (o ascenso) de tu tráfico en Google Analytics este último mes, seguro Fred estuvo allí.

¿Qué penaliza Fred?

Fred es una actualización dirigida a los sitios web que abusan de los anuncios y enlaces externos. Generalmente, muchos sitios son creados con el único interés de monetizarlos, por ello abusan de los enlaces externos y tienen muchos anuncios que afectan la navegabilidad del usuario.

Lo que se sabe hasta ahora es que Fred evalúa lo siguiente:

  •  Enlaces entrantes a un sitio y el manejo/abuso de los mismos, es algo así como un Penguin evolucionado (por así decirlo). También evalúa la calidad y relación de los enlaces externos (e internos) con el contenido de las páginas. Si son enlaces externos que no tienen nada que ver con el contenido de la página, Fred penalizará.
  • Páginas con enlaces que abusan excesivamente de la publicidad en ellas.
  • Experiencia de usuario, dada por el abuso de enlaces de publicidad o banners que afectan la navegabilidad.
  • Websites con contenido de poco valor, enfocados sólo a la ganancia de ingresos, dejando atrás al usuario y lo que realmente necesita.
  • Sitios con un perfil de enlaces externos que parecen (o son) spam. Publicados en otros sitios web de mala calidad.

¿Cómo recuperar un sitio que ha sido penalizado por Fred?

Primero, debes revisar las sesiones de tu sitio en Google Analytics, comprueba si no tienes bajas en tu tráfico y revisa qué sucede. Google Fred está centrado en afectar sólo los sitios web que no han manejado técnicas de Linkbuilding Withe Hat, y que no entregan contenido de calidad al usuarioo que no abusan de enlaces de publicidad. Para no verte afectado por Fred, o recuperar tu sitio de ésta penalización, debes tener en cuenta lo siguiente:

  • Ten en cuenta que es mejor calidad que cantidad. No abuses de enlaces externos en páginas web varias que no aportan al usuario real. Evita publicar en foros, directorios y páginas con poco contenido. Es mejor tener pocos enlaces, pero que en ellos tengas mucha calidad.
  • Evita el uso de herramientas automatizadas para conseguir enlaces, por ejemplo comentarios masivos en blogs hechos por bots.
  • Modera la publicidad en tus sitios. El abuso de banners o enlaces de publicidad en tu sitio afecta al usuario y su navegabilidad, incluso puede incrementar tu Bounce Rate, lo cuál es malo.
  • Prioriza el user experience de tu sitio web, facilita que tu usuario pueda navegar por tu sitio de manera natural.
  • Si manejas publicidad, ésta debe ser en relación con el contenido de tu página. Y de nuevo, sin abusar de los banners en ella.

Conclusión

Google Fred llegó para quedarse, y hoy más que nunca debemos enfocarnos en realizar sitios web que cumplan con las expectativas del usuario, enfocadas a que éste tenga muy buena experiencia en tu sitio. Evita utilizar técnicas Black Hat SEO, prioriza los enlaces de calidad y no te enfoques sólo generar ganancia monetaria a través de la publicidad excesiva.

Gracias por leerme, y nos vemos en otro artículo de SEO próximamente 🙂