#EscribirEnInternet

Arquitectura web y SEO

Dentro de la variedad de factores que examinan los buscadores para medir la relevancia de una web hay uno, dentro de la página, que tiene que ver con su organización. Aparte del contenido y el código HTML, el administrador tiene que decidir cómo desea mostrar los elementos que componen el sitio web y utilizar la tecnología adecuada para lograr un buen rendimiento en los resultados de búsqueda.

Search Engine Land, portal especializado en marketing en buscadores, señala que los buscadores se fijan en mayor o menor medida en tres aspectos relacionados con la arquitectura web: la rastreabilidad o facilidad que tiene una web para ser analizada por los robots (site crawability), el tiempo de carga y la estructura de las direcciones web.

El más relevante de ellos es el que atañe a la facilidad de rastreo de la web por parte de los buscadores. En su tarea para registrar cada rincón de la web, los robots o arañas visitan un sitio web de forma periódica en busca de páginas nuevas y actualizadas que quedan registradas en sus servidores para su indexación y posterior publicación.

En este sentido, la estructura y organización de la web son fundamentales para orientar a los robots en su viaje por nuestra web. Sin perder de vista el equilibrio entre las necesidades de los buscadores y las de los usuarios procura que los literales de las categorías tengan en cuenta las palabras clave empleadas por los usuarios en sus búsquedas.

Google, en sus directrices para administradores de sitios web, recomienda una jerarquía clara en la estructura de la web y el uso de enlaces con texto ancla que aporte información sobre la página de destino. Señala que cada página web debe ser enlazada desde al menos un enlace de texto estático para que el buscador pueda leerla sin dificultad y advierte también que enlaces basados en JavaScript o Flash restan visibilidad en los resultados de búsqueda.

Para facilitar el trabajo de rastreo a los robots es aconsejable tener un mapa del sitio web que informe a los buscadores sobre las páginas disponibles para ser indexadas, así como proporcionar metadatos como la última fecha de actualización de la página.

El mapa del sitio debe cumplir con los estándares recogidos en Sitemaps.org para que sea compatible con las exigencias de Google, Yahoo! y Bing. Puedes notificar a los buscadores la localización del mapa del sitio en tu web de forma manual o especificarlo en el archivo robots.txt para que lo encuentren automáticamente.

El tiempo de carga también es un aspecto que debemos cuidar para procurar un acceso fácil a la web tanto a los usuarios como a los robots. Influye en la experiencia de usuario y es un factor, menor eso sí, que tienen en cuenta los buscadores en la composición de la página de resultados.

Según el experto en usabilidad Jakob Nielsen un tiempo de carga superior a diez segundos puede provocar el abandono del usuario de la web. Para mejorar este aspecto puedes utilizar la herramienta Page Speed, que analiza la página y propone soluciones para optimizar su rendimiento que te pueden resultar de utilidad.

Entre otras cosas, para reducir el tiempo de carga presta atención al tamaño y formato de las imágenes, controla el número de complementos (plug-ins, widgets…) y selecciona un buen servidor. Hay más cuestiones técnicas que intervienen desde el momento en el que un usuario solicita una página al servidor de la web hasta que finaliza su carga que deberás analizar y resolver junto con un profesional en el desarrollo de webs.

Por último hay que examinar la estructura de las direcciones web. Aparte de ser relevante desde el punto de vista de la navegabilidad y la llamada a la acción (call to action), el texto del enlace debe incluir palabras clave que describan el contenido de la página. Los buscadores se fijan en esta información cuando ofrecen los resultados de búsqueda a un usuario que ha hecho una búsqueda por los mismos términos.

Mencionar que los robots de los buscadores pueden encontrar problemas con las direciones web dinámicas. Por eso es preferible evitar enlaces con parámetros ininteligibles y apostar en cambio por una estructura que sea fácil de leer por robots y usuarios. Google recomienda el uso del archivo robots.txt para advertir a los buscadores sobre direcciones web problemáticas y revisar la web de forma regular para detectar enlaces rotos.

Valora esta recomendación

1 Star2 Stars3 Stars4 Stars5 Stars

¡Hola!

¿Has buscado tu consulta?

Si no la encuentras, rellena nuestro formulario: