Directrices técnicas

Sin valoraciones

DIRECTRICES TÉCNICAS

Utiliza un navegador de solo texto como Lynx para examinar tu sitio, ya que la mayoría de las arañas de los motores de búsqueda verán el sitio de forma muy similar a Lynx. Si el uso de funciones avanzadas (como JavaScript, cookies, identificadores de sesión, marcos, DHTML o Flash) impide la visualización de todo el sitio en un navegador de texto, es posible que las arañas de los motores de búsqueda tengan problemas para rastrearlo.
Permite que los robots de búsqueda rastreen tu sitio sin identificadores de sesión ni argumentos que efectúen un seguimiento de su ruta por el sitio. Estas técnicas son de gran utilidad para supervisar el comportamiento de un determinado usuario, pero el patrón de acceso de los robots es completamente distinto. El uso de estas técnicas puede generar una indexación incompleta de tu sitio, ya que es posible que los robots no puedan eliminar las URL que tengan un aspecto distinto pero que en realidad dirijan a la misma página.
Asegúrate de que tu servidor web admita la cabecera HTTP «If-Modified-Since». Esta función permite que tu servidor web avise a Google si el contenido de tu sitio ha cambiado desde la última vez que lo rastreamos. El uso de esta función te permitirá ahorrar ancho de banda y reducir gastos generales.
Utiliza el archivo robots.txt en tu servidor web. Este archivo indica a los rastreadores qué directorios se pueden rastrear. Asegúrate de mantenerlo actualizado para evitar un bloqueo accidental del robot rastreador de Google. Para obtener más información sobre cómo dar indicaciones a los robots que accedan a tu sitio, consulta la página

http://code.google.com/web/controlcrawlindex/docs/faq.html.

Para asegurarte de estar utilizando correctamente el archivo robots.txt, puedes probarlo con la herramienta de análisis de robots.txt disponible en Herramientas para webmasters de Google.
Haz lo posible para asegurarte de que los anuncios no afecten a las posiciones obtenidas a través de los motores de búsqueda. Por ejemplo, los archivos robots.txt no pueden rastrear los anuncios de AdSense de Google y los enlaces de DoubleClick.
Si tu empresa adquiere un sistema de administración de contenido, asegúrate de que ese sistema cree páginas y enlaces que puedan rastrear los motores de búsqueda.
Utiliza robots.txt para evitar el rastreo de páginas de resultados de búsqueda u otras páginas generadas automáticamente que carecen de valor para los usuarios procedentes de motores de búsqueda.

Manual de posicionamiento web

Prueba tu sitio para asegurarte de que aparece correctamente en distintos navegadores.
Controla el rendimiento de tu sitio y optimiza los tiempos de carga. El objetivo de Google es ofrecer a los usuarios los resultados más relevantes y un buen servicio. Los sitios rápidos aumentan la satisfacción del usuario y mejoran la calidad general de la Web (especialmente para los usuarios que disponen de conexiones a Internet lentas); así que esperamos que a medida que los webmasters mejoren sus sitios, mejore también la velocidad general de la Web.
Google recomienda a todos los webmasters que controlen regularmente el rendimiento del sitio mediante Page Speed, YSlow, WebPagetest u otras herramientas. Para obtener más información, herramientas y recursos, consulta el artículo Exploremos la Web de forma más rápida. Además, la
Herramienta de rendimiento del sitio de Herramientas para webmasters de Google muestra la velocidad de tu sitio según la experiencia de usuarios de todo el mundo.
Directrices de calidad
Estas directrices de calidad abarcan las formas más comunes de comportamiento engañoso o manipulador, pero Google también puede adoptar medidas contra otras prácticas fraudulentas que no se mencionan en este documento. No se debe asumir que Google aprueba una determinada técnica
engañosa por el simple hecho de que no esté incluida en esta página. Los webmasters que se esfuerzan por respetar el espíritu de los principios básicos mencionados anteriormente ofrecen a los usuarios un
servicio de mayor calidad y alcanzan una posición mejor que aquellos que buscan la forma de aprovecharse de los vacíos legales.
Si crees que otro sitio usa de forma inadecuada las directrices de calidad de Google, háznoslo saber y
envía un informe de spam. Google prefiere desarrollar soluciones escalables y automatizadas a los
problemas. Por lo tanto, intentamos minimizar la lucha directa contra sitios fraudulentos. Es posible
que no emprendamos acciones manuales para cada uno de los informes que recibimos, pero los informes de spam se priorizan en función del impacto sobre los usuarios y, en algunos casos, esto puede llevar a la retirada del sitio con contenido fraudulento de los resultados de búsqueda de Google. De todos modos, no todas las acciones manuales terminan en una retirada. Incluso en los casos en que emprendamos acciones en un sitio sobre el cual se haya informado, es posible que los efectos de estas acciones no sean obvios.
Principios básicos de las directrices de calidad:
Crea páginas principalmente para los usuarios, no para los motores de búsqueda.
No intentes engañar a los usuarios.
Evita trucos destinados a mejorar la posición obtenida a través de los motores de búsqueda.
Una buena regla general es preguntarse si te sentirías cómodo al tener que explicar a un sitio web de la competencia o a un empleado de Google lo que has hecho. Otra buena forma de comprobar tu buen proceder es preguntarte: «¿Esto es útil para mis usuarios? ¿Haría esto si no existiesen los motores de búsqueda?».
Piensa en lo que hace que tu sitio web sea único, valioso o interesante. Haz que tu sitio web destaque por encima de sitios similares de tu mismo campo.

Vea nuestro Máster de Marketing Digital

1. Arquitectura del Sitio

  • Estructura Jerárquica: Organizar el contenido en una estructura lógica y jerárquica, con categorías y subcategorías bien definidas.
  • Enlaces Internos: Crear una red sólida de enlaces internos para facilitar la navegación y el rastreo del sitio por los motores de búsqueda.

2. Velocidad de Carga

  • Optimización de Recursos: Comprimir imágenes, minimizar archivos CSS y JavaScript, y utilizar técnicas como la carga diferida (lazy loading) para mejorar la velocidad de carga.
  • CDN (Content Delivery Network): Utilizar un CDN para distribuir el contenido y reducir los tiempos de carga, especialmente en sitios globales.

3. Compatibilidad con Dispositivos Móviles

  • Diseño Responsive: Asegurarse de que el sitio se visualice y funcione correctamente en todos los tamaños de pantalla.
  • Mobile-First Indexing: Optimizar para la indexación móvil prioritaria, dado que Google utiliza la versión móvil de un sitio para indexación y ranking.

4. Optimización de URLs

  • URLs Limpias: Crear URLs cortas, descriptivas y que incluyan palabras clave relevantes.
  • Evitar Parámetros Innecesarios: Reducir el uso de parámetros en las URLs que puedan causar problemas de duplicación de contenido o confusión en el rastreo.

5. Sitemaps XML y HTML

  • Sitemap XML: Crear y enviar un archivo sitemap.xml a Google Search Console para ayudar a los motores de búsqueda a entender la estructura y contenido del sitio.
  • Sitemap HTML: Incluir un sitemap HTML en el sitio para mejorar la navegación del usuario y el rastreo por parte de los motores de búsqueda.

6. Archivo Robots.txt

  • Control de Rastreo: Configurar correctamente el archivo robots.txt para permitir o bloquear el acceso a ciertas partes del sitio por los motores de búsqueda.
  • Evitar Bloqueos Involuntarios: Asegurarse de que no se bloqueen inadvertidamente recursos importantes como archivos CSS o JavaScript.

7. Implementación de SSL/TLS

  • Certificado SSL: Implementar HTTPS en todo el sitio para garantizar la seguridad y mejorar el ranking, ya que Google favorece los sitios seguros.
  • Redirección 301: Asegurarse de que todas las versiones HTTP redirigen correctamente a la versión HTTPS.

8. Optimización de Imágenes

  • Compresión de Imágenes: Usar formatos de imagen adecuados (como WebP) y herramientas de compresión para reducir el tamaño sin perder calidad.
  • Etiquetas Alt: Incluir descripciones en las etiquetas alt para mejorar la accesibilidad y el SEO.

9. Datos Estructurados (Schema Markup)

  • Implementación de Schema: Usar datos estructurados para mejorar la forma en que los motores de búsqueda interpretan el contenido del sitio y potencialmente obtener rich snippets.
  • Validación: Usar herramientas como el validador de datos estructurados de Google para asegurarse de que el schema se implemente correctamente.

10. Redirecciones

  • Redirecciones 301 y 302: Usar redirecciones 301 para mover permanentemente páginas, y 302 para redirecciones temporales, sin afectar negativamente al SEO.
  • Redirección de Páginas Eliminadas: Redirigir páginas eliminadas a la página más relevante o a la home, para evitar errores 404 que afecten la experiencia del usuario.

11. Gestión de Errores

  • Páginas 404 Personalizadas: Crear páginas 404 personalizadas para mejorar la experiencia del usuario cuando aterriza en una página inexistente.
  • Monitoreo de Errores: Utilizar herramientas como Google Search Console para identificar y corregir errores de rastreo y otros problemas técnicos.

12. Caché del Navegador

  • Configuración de Caché: Implementar la caché del navegador para almacenar versiones de recursos estáticos, reduciendo el tiempo de carga en visitas repetidas.
  • Expiración de Caché: Configurar adecuadamente la caducidad de la caché para evitar que los usuarios vean contenido desactualizado.

13. Optimización de JavaScript y CSS

  • Minificación: Minificar archivos JavaScript y CSS para reducir su tamaño y mejorar la velocidad de carga.
  • Cargas Asíncronas: Implementar la carga asíncrona de scripts y estilos para evitar bloquear la renderización de la página.

14. Gestión de Contenidos Duplicados

  • Etiquetas Canonical: Usar la etiqueta rel=»canonical» para indicar la versión preferida de una página cuando hay contenido duplicado.
  • Evitar Duplicación Interna: Revisar y ajustar la arquitectura del sitio para evitar la duplicación de contenido.

15. Indexación y Rastreo

  • Verificación de Indexación: Utilizar Google Search Console para verificar qué páginas están indexadas y detectar problemas de rastreo.
  • Optimización del Crawl Budget: Asegurarse de que los bots de los motores de búsqueda rastreen las páginas más importantes del sitio, optimizando el presupuesto de rastreo (crawl budget).

Compártelo en tus redes

Share on facebook
Share on twitter
Share on linkedin
Share on pinterest

Valore este curso

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Utilizamos cookies para asegurar que damos la mejor experiencia al usuario en nuestra web. Si sigues utilizando este sitio asumimos que estás de acuerdo. VER