Cómo aprovechar su gestor de contenidos para tener una Web bien posicionada en buscadores (página 2)
CMS y
posicionamiento en buscadores:
¿una simbiosis imposible?
Sin embargo, y a pesar de sus evidentes ventajas, el
enfoque tradicional de este tipo de herramientas
se ha centrado en facilitar al máximo la gestión
de los contenidos simplificando los procesos de
producción, aprobación y
publicación de los mismos, más que en generar
páginas web debidamente
optimizadas para ser competitivas en los buscadores.
Los factores que hacen que un
se analizaron en distintos artículos de esta
sección, así como en la
Guía Básica de Posicionamiento en
Buscadores.
Entre los problemas que,
desde el punto de vista de la optimización para el
posicionamiento en buscadores, aparecen de forma recurrente en
los portales soportados por sistemas gestores
de contenido, destacan los siguientes:
- URLs dinámicas: los buscadores
limitan en ocasiones el número de variables
dinámicas presentes en las URLs que indexan. Las
páginas generadas por muchos gestores de contenidos
incluyen frecuentemente un elevado número de variables
dinámicas en su dirección URL. - Títulos únicos: el
título de una página es uno de los factores
más importantes a la hora de posicionar bien en
buscadores un contenido. Sin embargo, muchos sistemas
gestores de contenidos no permiten a los usuarios asignar un
título único relevante a cada
página. - Falta de soporte para metaetiquetas: muchos
CMS no disponen de campos específicos para que el
usuario pueda especificar el contenidos de las metaetiquetas
Keywords y Description. Aunque no son tan importantes como el
título para lograr una buena posición en los
buscadores, estas etiquetas siguen jugando un papel relevante
a la hora de que el usuario prefiera hacer click sobre
nuestro sitio en una página de resultados de
búsqueda. - Ausencia de palabras clave en las URL: las
URLs dinámicas generadas por muchos sistemas de
gestión de contenido suelen ser poco amigables tanto
para el usuario como para los buscadores, y no incluyen
términos de búsqueda que contribuyen a un mejor
posicionamiento. - Imposibilidad de una optimización
posterior: el proceso de
producción de contenidos que impone el uso de un
sistema
CMS dificulta enormemente la optimización a posteriori
de los contenidos generados y, en el mejor de los casos,
añade una carga de trabajo
extra que podría evitarse si los aspectos SEO se
hubieran tenido en cuenta en la implementación del
gestor.
Resulta, pues, paradójico que precisamente sean
aquellas empresas que
más recursos
invierten en el mantenimiento
y generación de nuevos contenidos para sus portales las
que, al mismo tiempo, menos
se beneficien del volumen que dicho
tráfico podría movilizar debido a una pobre
implementación de sus sistemas de gestión de
contenidos, desde el punto de vista del posicionamiento en
buscadores.
Un fallo que, en muchos casos, no se debe a carencias de
la herramienta en sí, sino a un desconocimiento por parte
de los técnicos que la implementan de la importancia que
tiene que los contenidos generados por ella puedan ser
competitivos en los buscadores.
Hacer del gestor de
contenido la mejor herramienta SEO
Pero, de la misma forma que un gestor de contenidos mal
implementado puede mermar el rendimiento de la inversión en generación de
contenidos de un portal, uno que haya tenido en cuenta los
aspectos básicos de la optimización web para el
posicionamiento en buscadores puede ser el aliado más
eficaz para generar contenidos que conseguirán escalar los
puestos de las búsquedas más competidas. Veamos
cómo.
- Emplear código valido según W3C: los
gestores de contenido parten de plantillas
prediseñadas, que los usuarios no pueden alterar, para
generar las nuevas páginas. Si validamos el
código de estas plantillas en origen, nos aseguramos
de que las páginas generadas a partir de ellas
contendrán también código válido.
El empleo de
código válido asegura que la página se
mostrará correctamente en los distintos navegadores y que los buscadores serán
capaces de rastrearla sin problemas. - Crear un mapa del sitio: casi todos los
gestores de contenidos permiten crear y mantener actualizado
un mapa del sitio. Los buscadores limitan el número de
enlaces que pueden seguir a 100 por página y han de
ser enlaces normales de texto
HTML. Si
ajustamos nuestro gestor de contenido para que genere y
mantenga un mapa jerárquizado del sitio web con estas
premisas, facilitamos a los buscadores que puedan rastrear
todas y cada una de las páginas de nuestro sitio
web. - Generar páginas con URLs amigables:
algunos gestores de contenido generan archivos
estáticos cuyas URL no contienen variables
dinámicas, mientras que otros emplean direcciones URL
con múltiples parámetros dinámicos, como
por ejemplo: http://www.midominio.org/portal/site/Equipo
/menuitem.6dab26af2ec93c76a68e76b1805101ca/?vgnextoid=88c8c55c1edb7010VgnVCM100000081510acRCRD.
Entre éstos últimos, algunos permiten crear URL
alias más amigables (conteniendo palabras clave o
eliminando los parámetros dinámicos) que
después el sistema sustituye internamente por la URL
dinámica que precisa. En igualdad
de condiciones, elijamos un CMS que genere direcciones URL
ricas en palabras clave o con un reducido número de
parámetros dinámicos. Direcciones URL como la
del ejemplo son muy poco usables así como poco
amigables para los buscadores. - Limitar el nivel de subdirectorios: los
buscadores dan mayor importancia a una página cuanto
más cerca está de la página home del
portal. Es por esto que debemos limitar el número de
subdirectorios que muestra la
URL: muchos gestores de contenidos permiten organizar
jerárquicamente el contenido independientemente de la
localización física de los
archivos en el servidor,
presentando URLs mucho más sencillas que la estructura
real del directorio correspondiente. Por ejemplo, la URL
http://www.midominio.com/Viajes/Destinos/Ciudades/MasInfo/Datos
Generales/Congresos/Congresos_negocios.htm hace que este
contenido esté situado seis niveles de profundidad por
debajo de la página home. - Conectar el control de
validación de enlaces del CMS: la mayoría
de gestores controla la publicación de enlaces rotos
que apuntan a contenidos controlados por el propio gestor,
pero pocos validan que un enlace que apunta a una web externa
no es un enlace roto. Si el control existe,
asegurémonos de conectarlo para impedir que un usuario
pueda introducir un enlace hacia una página
web inexistente. - Dejar el control del archivo
robots.txt al webmaster: algunos gestores de contenidos
permiten editar el contenido del archivo robots.txt por parte
del autor de una página. En general, es mejor que
sólo el webmaster controle el contenido de este
archivo para impedir que, por desconocimiento, un usuario
pueda bloquear el rastreo de los robots de una importante
parte de la Web. - Evitar URLs duplicadas: los buscadores son
tremendamente selectivos a la hora de castigar el contenido
duplicado de una Web, de modo que debemos asegurarnos de que
cada página sólo existe bajo una única
URL. En cualquier caso, si queremos que los usuarios puedan
llegar a un mismo contenido desde URLs homólogas, es
mejor programar redireccionamientos permanentes 301, que no
son castigados por los buscadores. - Evitar variables de sesión en la
URL: si nuestro portal realiza transacciones
electrónicas o algún otro proceso que requiera
mantener el estado
del cliente,
es preferible emplear una cookie de sesión que una
variable de sesión que aparece en la URL. La
razón es que si los buscadores detectan esto, se
abstendrán de rastrear la página para evitar
indexar como páginas distintas la misma, pero con
distinta variable de sesión. Por ejemplo:
http://www.midominio.com/index.php?module=Health&action=DefaultIndex&PHPSESSID=98ab41f9acd8c74df4b6e063985bda8d.
En esta URL podemos ver que existe un parámetro de
identificación de la sesión (PHPSESSID) que, si
es detectado por los buscadores, impedirá que la
página sea rastreada, ya que sucesivas visitas del
buscador archivarían como páginas distintas
ésta misma, en la que únicamente
cambiaría el valor del
identificativo de sesión. En cualquier caso, se debe
restringir el empleo de identificadores de sesión
exclusivamente a las áreas del portal en los que sea
absolutamente necesario. - Reducir el código basura: simplificar
el código HTML que emplean las plantillas y optar por
usar Hojas de Estilo en Cascada (CSS) en lugar de tablas para
maquetar el contenido. El empleo de Hojas de Estilo en
Cascada facilita la actualización del diseño de una Web, reduce
considerablemente el peso de los archivos (la
maquetación viaja una sola vez del servidor al
usuario, después está ya disponible en la memoria
temporal o caché del navegador para las siguientes
páginas visitadas) y da mayor preponderancia al
contenido significante de la página respecto al peso
total del código de la misma. - Seleccionar la opción de texto para la
navegación del sitio: evitando siempre que sea
posible el uso de menús Javascript o
Flash, ya que
sus enlaces no pueden ser seguidos por los buscadores. En
muchos casos, podremos lograr con el uso de CSS efectos
parecidos a los de los menús Javascript o Flash. Si el
gestor de contenidos permite crear un rastro de migas de pan
(breadcrumb), activémoslo. Mejora la usabilidad
del sitio, ayuda a situarse al usuario en el conjunto de la
estructura de la web y es un inmejorable atajo para que los
buscadores rastreen todo el contenido. - No olvidar que existen los encabezamientos:
el uso de estilos nos hace olvidar la existencia de etiquetas
HTML de jerarquía (H1, H2, H3, etc.) cuyo aspecto
visual final podemos modificar también con estilos,
pero que ayudan a los buscadores a entender mejor la
estructura lógica de la página y
señalizan qué aspectos son más
importantes. Es por ello importante animar a los editores de
contenido a usar encabezamientos en lugar de simplemente
definir el texto más grande o más
pequeño con font size y, si es posible, limitar a un
único encabezamiento de máximo nivel (H1) por
página. - Exigir la creación de un título
único, y la adición de metaetiquetas
relevantes: programar el CMS de tal forma que la
cumplimentación de título y metaetiquetas sea
un requisito para la publicación del contenido y, si
es posible, activar un control para comprobar la unicidad del
título. - Requerir cumplimentar la etiqueta alt al
añadir una imagen al
contenido. Esta etiqueta permite a los buscadores indexar
mejor las imágenes, colabora en la relevancia de
los términos clave de la página y mejora la
accesibilidad a los contenidos por parte de las personas con
problemas de visión. - Implementar controles para evitar la
publicación de contenido duplicado. - Animar a usar textos descriptivos en
enlaces: en lugar de "Haga click aquí", emplear
"Más información sobre nuestro servicio
de asistencia al cliente 24H".
Lo mejor de ambos
mundos
Es evidente, pues, que si al implementar un gestor de
contenidos para generar y mantener el contenido de un gran portal
se tienen en cuenta los aspectos relacionados con la
optimización web y el posicionamiento en buscadores de
dicho portal podemos animar o, de alguna forma, imponer una
cierta disciplina a
través del propio sistema CMS que implique a los editores
de contenido a crear páginas fácilmente rastreables
e indexables, que puedan competir adecuadamente en los
buscadores.
Las grandes empresas cuentan con la materia prima
favorita de los buscadores: contenido abundante, original,
dinámico y de rápida actualización.
Aprovechemos toda la capacidad de los gestores de contenidos para
extraer el máximo rendimiento de la inversión que
efectúan en su presencia en la Red.
Fernando Maciá
Director de Human Level
Communications, consultora dedicada al desarrollo web,
optimización web, posicionamiento en buscadores y
marketing digital, con sedes en Alicante,
España
y Dallas, Texas, profesor de
Marketing
Digital en Fundesem
Business School y coautor del libro
Posicionamiento
en Buscadores, editado por Anaya Multimedia.
Página anterior | Volver al principio del trabajo | Página siguiente |