Archivos | SEO

RSS feed for this section
formarse como seo en 2014

3 formas de aprender SEO en condiciones, para todos los bolsillos

Este post está dedicado a todos los que deseáis aprender SEO y tenéis dudas sobre cuál es la mejor manera de hacerlo en función del dinero de que disponéis.

Opciones para aprender hay unas cuantas y en mi opinión, todas válidas si se aprovechan adecuadamente y uno se esfuerza:

  • Aprender SEO “casi” gratis: hay cursos ultrabaratos para aprender los fundamentos y a partir de ahí leer recursos gratuitos online, practicar, leer y practicar.
  • Curso + opción 1: una opción mixta entre la lectura y la práctica junto con cursos relativamente baratos, asistir a charlas y conferencias y de nuevo, experimentar mucho.
  • Máster en SEO /+ todo lo anterior: a mi juicio la mejor opción si quieres convertirte en un profesional y dispones del tiempo y los recursos necesarios. Seguir leyendo…
Matt Cutts explicando update Hummingbird

Google marea la perdiz y se queda con tu tráfico

Como siempre que hay un gran gran update en el buscador de Google nos desborda información por las orejas, aunque casi siempre son vueltas a un mismo enfoque.

Quiero compartir aquí un artículo que leí ayer y que está enfocado de forma distinta a nuestro habitual alarmismo de rankings & muerte del SEO siempre que se lía una de estas.

Como está en inglés en el blog de ahrefs.com y me parece interesante os lo traduzco y ya me decís qué os parece. El autor es Tad Chef, un alemán con pinta de mejicano, máquina en SEO y al que podéis leer en Seguir leyendo…

acciones manuales en Webmaster Tools: penalización por enlaces patrocinados

Penalización en Google por venta de enlaces via Webmaster Tools

Si has recibido un mensaje de las Webmaster Tools de Google o Herramientas para Webmasters en el que se te indica que tu web ha sufrido una “acción manual contra el spam”, este post es para ti.

Preocúpate, pero lo justo: es una penalización en toda regla que va a afectar a tu posicionamiento en el buscador pero estimo que no es muy grave ya que la solución es sencilla Seguir leyendo…

segmento avanzado google analytics dominio de referencia

Como saber cuantos objetivos produce un dominio concreto en Google Analytics

El compañero de @forosdelweb “Jucuegas” pregunta en el foro por cómo se puede configurar un objetivo en Analytics para medir solo las conversiones de visitantes que provengan de un dominio concreto.

Como apenas tengo tiempo de actualizar este blog, voy a matar dos pájaros de un tiro dando la respuesta aquí. Así que necesitamos cumplir los requisitos:

  1. el objetivo se active cuando el visitante entre en una determinada url -un objetivo standard-
  2. la visita viene de un determinado dominio

Por tanto la cuestión es poder diferenciar, de entre todos los visitantes que cumplieron un objetivo (por ejemplo llegar hasta la página de confirmación de “formulario enviado” o “confirmación de compra”) aquellos que vinieron a nuestra web desde un enlace en otra web.

No soy ningún gurú de Analytics y quizás haya más soluciones, pero se me ocurren dos formas de hacerlo, cada una con sus ventajas e inconvenientes.

Usando segmentos avanzados: ¡son retroactivos!

La primera opción y la que yo recomendaría es crear un segmento avanzado de tal forma que GA filtre y solo muestre las visitas desde el dominio en cuestión. Posteriormente podrás ir al informe de Conversiones -> Objetivos -> Visión general y comprobar cuantas de las conversiones totales venían de esa web.

Me parece la mejor opción por dos motivos:

  • Los segmentos avanzados son retroactivos: es decir que se aplican sobre todos los datos del perfil, incluso anteriores a la creación del segmento.
  • El resultado es inmediato

Así que para segmentar de esta manera solo hay que abrir el desplegable de Segmentos Avanzados y configurarlo como en la imagen:
segmento avanzado google analytics dominio de referencia

  1. Escoges un nombre para el segmento que sea reconocible por ti
  2. Seleccionas la opción de Incluir (solo el tráfico)
  3. En el campo de Fuente introduces el dominio de referencia (en el ejemplo he usado Hola.com porque hice una pequeña campaña con ese cliente en ese portal)
  4. Ya está configurado, puedes probar el segmento y comprobar si el resultado encaja con lo que esperabas o si hubiera fallos claros lo puedes ver enseguida (como saber que tienes por ej 100 conversiones en el periodo analizado y que las conversiones desde este dominio sean 115… xD)

detalle de conversiones filtradas por dominio - google analytics

Cuando aplicas esta segmentación al informe de Conversiones standard es cuando puedes distinguir cuantas conversiones hubo desde ese referral y además el detalle: como en el caso de esta web, donde hay 11 objetivos distintos y se puede comprobar como el tráfico desde Hola.com generó 4 conversiones, 1 en el formulario de la Home, 1 en el objetivo Nº 2 y dos en el objetivo Nº3.

Importante: he puesto las flechitas verdes para que tengas en cuenta que el porcentaje de conversiones desde el dominio a analizar tiene dos valores: el de arriba, que muestra el porcentaje en relación al total de conversiones del site (0,39%) y el segundo, que es el porcentaje de conversiones solo de las visitas del dominio en cuestión y por eso es más alto lógicamente (0,96%).

Activando filtros de perfil: datos limpios

Vamos al lío con la segunda opción, que sería crear un filtro en un perfil: los filtros realmente “filtran” los datos, es decir que no son como los segmentos de “quita y pon”. Con lo cual has de tener en cuenta que lo suyo es crearse un Perfil nuevo para cada filtro del que quieras tener datos separados.

Es decir en mi caso, el perfil nuevo creado y filtrado con solo el tráfico desde Hola.com solo mostrará esas visitas y ninguna otra. Este método es útil en determinados casos:

  • Cuando tienes mucho tráfico, Analytics tiene un límite -si mal no recuerdo, a partir de 500.000 pageviews- a partir del cual no te muestra todos los datos y te da una muestra del total (osea que no ves toodos los datos, ojito con eso!)
  • Cuando resulta más rápido o cómodo tener datos que consultas a menudo, en un perfil limpito
  • Cuando necesitas otro tipo de información o más al detalle, por necesidades propias
De todas formas si no tienes claro cuando necesitarás un perfil con un determinado filtro, te lo pedirá el cuerpo cuando estés limitado con los segmentos. La puñeta es que los perfiles nuevos no tienen los datos anteriores, con lo cual conviene crear cuanto antes los perfiles que sepas que usarás en un futuro para conservar la mayor cantidad de datos posible.

Al lío, como configurar el filtro en este caso:

filtro google analytics referral domain

El proceso en este caso es muy simple:

  1. Vas al Administrador y en la sección de Perfil
  2. Elige (a esto me refiero con crear nuevo perfil)
  3. Le das un nombre al perfil y te aseguras de tenerlo seleccionado para no estropear algún otro
  4. Dale un nombre al filtro para tener claro qué hace
  5. Selecciona la opción de Filtro personalizado
  6. En elige
  7. Introduce el dominio a segmentar (o varios dominios, separandolos por “|”)

Salvas y ya tienes tu perfil solo con las visitas que provengan de los dominios indicados. Tendrás que esperar un ratillo para que empiece a enseñarte datos, pero de ahora en adelante ya no tienes que andar limpiando o haciendo malabares para ver solo los datos que te interesen.

Espero que os sirva y si alguien tiene alguna otra forma de hacerlo que la comente!

ficha de Google Maps como hacerla velocidad de carga lenta

3 optimizaciones básicas para que tu WP cargue más rápido

A mi también me ha pasado: necesitas un blog funcionando en tiempo record y lo haces a toda mecha. Y cuando te quieres dar cuenta, resulta que tu flamante nueva web tarda la vida entera en cargarse… Lo ideal es que la carga no supere los 2s pero según subí el backup y metí el theme elegido el resultado fue:

Te voy a contar las 3 cosas que me propuse hacer para mejorar la velocidad de carga de este blog, en el poquito tiempo que tenía:

  • Activar la compresión gzip
  • Activar un sistema de caché para WordPress, escogí Hypercache
  • Reducir las peticiones al servidor

Qué es la compresión gzip y como activarla

La compresión gzip consiste en forzar al servidor de tu web a comprimir los ficheros para que ocupen menos cuando alguien navegue por a tu web. Igual que cuando comprimes archivos para enviarlos por email. Para habilitarla lo único que necesitas son ganas, un editor de texto (el notepad vale) y acceso por FTP al servidor de tu web:

  1. Accede via FTP a tu servidor y en la raíz (donde esté el index.html/.php) busca el archivo .htaccess. Si existe descárgalo y abrelo con tu editor de texto.Si no tuvieras el archivo, desde el editor de texto crea un archivo nuevo y después lo salvas como .htaccess (así, con el punto tal cual y sin extensión).
  2. Si hubiera alguna configuración en él, no la borres. Lo normal es que si es un WordPress tuvieras esto:


    # BEGIN WordPress
    RewriteEngine On
    RewriteBase /
    RewriteRule ^index.php$ - [L]
    RewriteCond %{REQUEST_FILENAME} !-f
    RewriteCond %{REQUEST_FILENAME} !-d
    RewriteRule . /index.php [L]
    # END WordPress

    Y tienes que añadir las siguientes líneas para comprimir archivos html, textos, javascript, css y xml:

    AddOutputFilterByType DEFLATE text/plain
    AddOutputFilterByType DEFLATE text/html
    AddOutputFilterByType DEFLATE text/css
    AddOutputFilterByType DEFLATE text/xml
    AddOutputFilterByType DEFLATE application/xml
    AddOutputFilterByType DEFLATE application/xhtml+xml
    AddOutputFilterByType DEFLATE application/rss+xml
    AddOutputFilterByType DEFLATE application/javascript
    AddOutputFilterByType DEFLATE application/x-javascript

    O también podrías comprimir sólo aquellos archivos que creas conveniente, añadiendolos así:

    setoutputfilter-deflate

  3. Sube el archivo al servidor y sobreescribe la anterior versión
Atención, mantén siempre a salvo una copia del .htaccess original por si la pifias con algún espacio o carácter no deseado: el servidor colapsa y no sirve la web. Subes la copia de seguridad y una vez que esté OK, vuelves al principio o a revisarlo al detalle.

Más información [en inglés] sobre cómo funciona la compresión gzip aquí

Y aquí el resultado:

ganamos 3,5s con gzip

Mejorando el rendimiento con un sistema de caché: Hypercache

Empecemos por el principio, la definición de Caché Web de la Wikipedia reza:

Se llama caché web a la caché que almacena documentos web (es decir, páginas, imágenes, etcétera) para reducir el ancho de banda consumido, la carga de los servidores y el retardo en la descarga. Un caché web almacena copias de los documentos que pasan por él, de forma que subsiguientes peticiones pueden ser respondidas por el propio caché, si se cumplen ciertas condiciones.

WordPress es un sistema de gestión de contenidos (CMS) en el que todo dato (post, página, comentario,etc…) se guarda en una base de datos.

Cuando un usuario llega a un artículo por ejemplo, pide esa URl al servidor y éste se encarga de consultar la base de datos para crear la página. Lo que hace un sistema de caché como el plugin Hypercache es hacer todas las consultas antes de que el usuario las pida, para generar archivos fijos: así nos ahorramos el procesamiento del servidor.

No voy a entrar a la configuración del plugin, pero para notar la diferencia podeis incluso dejarlo todo por defecto y ver que vuestra web usa ya el turbo:

Hypercache rapidisisimo!

Reduciendo las peticiones al servidor

En las imágenes anteriores he dejado la información de las puntuaciones, pero pingdom también te da el detalle de qué archivos se van cargando, cuanto tardan en llegar las peticiones, en servirse y verse por el usuario.

antes y después de optimizar la velocidad web

Antes: tiempo de carga 5s, de los cuales 3,6 son solo para empezar a servir archivos.

Después: menos de 1s, y empieza a cargar en décimas de segundo

Al igual que con las consultas a la base de datos, cualquier acción que tenga que hacer el servidor ralentiza la carga de la web. Así que es posible mejorar la velocidad programándola de esa forma y debería ser una práctica standard en todo desarrollo web.

Como no tengo apenas tiempo y esta es una web personal, he omitido este paso: si tienes tiempo, necesidad o recursos te lo aconsejo.

La siguiente lista es una recomendación general de lo que se puede hacer:

  • Los tamaños o comprimir las imágenes es algo ultra-básico, pero son errores que suelen verse a menudo: fotos a alta resolución que luego se ven pequeñas…¡súbelas al tamaño final! ¡Comprímelas con photoshop o el editor que uses!
  • Agrupar todas las imágenes en 1 solo archivo, conocido como sprite: si usamos esta técnica, la apariencia será la misma y ahorramos tantas peticiones como imágenes cargues en tu web (menos una claro).
  • Lo mismo puedes hacer con los archivos CSS, Javascript,etc... Pueden condensarse en un único archivo por cada tipo= menos peticiones. También hay plugins y webs que te hacen todo ese trabajo casi automáticamente, busca por “minify + el tipo de arhivo a “comprimir”.
  • Como punto final: reduce las peticiones “a mano”.

    Esto también debería ser una buena práctica, pero como las plantillas de WP las hacen para que la gente no tenga que saber nada de programar…pues hay campos para que los usuarios puedan añadir información de forma fácil: otra(s) consulta(s) más a la base de datos y trabajo extra que tendrá que hacer el servidor.

    Esto ocurre mucho por ejemplo con los pies de página: el típico texto de “Copyright @ 2013 de Empresa.com blablablabla…” Eso es un desperdicio porque es información estática e igual en todas las páginas de tu sitio web.

    La solución: editar las plantillas de tal forma que el servidor tenga que trabajar lo mínimo. En parte esto se soluciona usando Hypercache, pero cuando el servidor crea los archivos, se nota. En una página con 200 visitas al día te va a dar igual, pero cuando sean 20.000 puede marcar la diferencia entre que el proyecto sea rentable o no…

Espero que te haya sido útil, ánimo y al toro :D

Penguin Update para rezagados

portada de 21 exitos de un pinguino en mi ascensor...modificada a "un pinguino en mi buscador"

Por si hubiera algún despistao en la sala: el Lunes 24 de Abril llegó la actualización Pengüin y con ella, penurias y alegrias en forma de bajadas de rankings masivas y claro, subidas espectaculares en las SERP’s a veces merecidas y otras veces, pues non.

Hago un recap con este post que no llegué a publicar hace unas semanas, pero quizás a alguien le sirva. Esta última semana he podido ver el vídeo del Clinic SEO sobre Penguin, el de Senuke, los de seomoz y a aunque todos son muy útiles e interesantes, hay uno en particular con el que comulgo claramente, pero eso dará para otro post, así que para los rezagados:

En qué consiste el Pingüino ?!!

Como puedes leer en el post oficial de Google, se trata de una actualización que pretende ser el estacazo final al spam en los resultados de búsqueda: esto es, hundir las webs que manifiestamente usan técnicas poco éticas para posicionarse, favoreciéndo así a las que siguen las directrices para webmasters. Evidentemente Grugel no destapa públicamente qué factores concretos se han visto afectados aunque sí indica algunas tácticas que penalizarán:

  • Keyword stuffing (llenar las páginas de palabras clave…¿se verán afectados sitios que usen el típico plugin de “Nos visitaron por estos términos”…)?
  • Cloacking (enseñar un contenido al usuario y mostrar otro al robot del buscador)
  • Redes de enlaces
  • Enlaces en artículos “spineados” (reutilizados 1000 veces con ligeras variaciones cada vez/ artículos sin sentido sólo para “colar” enlaces,etc…)

Usease que de lo que se trata es de combatir el webspam detectando de una manera efectiva prácticas maliciosas. Digo detectando porque a pesar de que las directrices están muy claras, antes del Pingüino todavía podían verse resultados bien posicionados de webs que metían varios H1 y keywords a mansalva, en plan 2002 style.

¿ Qué ha provocado ?

Pues durante las primeras semanas se veían muchos casos de webs rankeando primeras, sin tener contenido, o resultados en inglés buscando en google.es (y viceversa) o simple y llanamente resultados no relevantes (por ej: directorios rankeando en TOP10 por encima de la web enlazada, aún a pesar de tener muchaaa menos autoridad/señales sociales).

web con contenido ficticioUn ejemplo de web que estuvo en TOP 1 para una búsqueda en las que compito desde el martes 24 hasta hace dos semanas (ahora está en 2ª página)

Eso es de lo que todo el mundo habla y lógicamente, al igual que pasa siempre que hay grandes cambios, sólo se suelen oír las quejas de quienes han perdido muchas posiciones, visitas e ingresos. Creo que los updates son buenos pero no están totalmente maduros y está siendo un coladero de resultados malísimos que hacía milenios que no se veían.

Si has perdido tráfico… ¡ NO CORRAS !…Pero tampoco te duermas

En su día lo leí de alguien que no recuerdo y posteriormente lo he experimentado en un sitio propio: si tu tráfico baja repentinamente y no hay una razón obvia (vacaciones o día muy señalado, error grande en hosting/configuración,etc..), quizás y sólo quizás te hayas llevado una penalización (=manual en contra de una peor clasificación), así que NO te apresures en empezar a realizar cambios en tu web para “ver” si lo consigues revertir o mejorar.

Porqué: las actualizaciones de Panda se han venido haciendo cada 3 meses desde mediados de 2011, pero el “despliegue” de cada una ha tardado varias semanas.

Por eso entiendo que se producían más bailes en las posiciones hasta que se estabilizaban y nadie sabe si en el caso del Penguin será de ese modo o no (aunque todo apunta a que sí). Lo que está claro es que después de 2 meses las posiciones siguen variando aunque es verdad que con mucha menos frecuencia que al principio, así que si no has hecho cambios hasta ahora, es el momento.

Además puede ser que el bajón de tráfico se pueda deber a “otras” causas:

  • Una fuente de referencia que te enlazaba envía menos visitas. Quizás quitaron tu enlace, esa URL da ahora un 404 o simplemente a ella llegan menos usuarios con lo cual es lógico.
  • Pérdida directa de enlaces: a veces pasa, pero lo lógico es que sea en un porcentaje muy bajo, sino algo debes estar haciendo mal. Ojo que a veces dejas un comentario en un foro o blog y aparecen muchos enlaces de esa web durante unas semanas, para desvancerse después: normalmente se debe a que tu enlace aparecía como “comentario destacado” o similar en la sidebar, en la portada del sitio… Detalles como éste los hay a patadas y todos suman.
  • Pérdida en la fuerza de los enlaces a tu web: si la URL/dominio que te enlaza pierde enlaces (o fuerza en ellos), ésta a su vez te transmitirá menos jugo, autoridad, relevancia o como lo quieras llamar.
  • Un fallo en el servidor que ha dejado la web K.O. durante unos días…un error en el archivo robots.txt que ha impedido al robot indexar tu web…una redirección mal hecha…Hay mil cositas que podrían hacerte desaparecer de la noche a la mañana (después de pasados días o semanas desde el error ojo, es raro que suceda si se monitoriza apropiadamente)
  • Tu dominio o tu marca provocan rechazo en los usuarios: hay muchos que dicen que las tasas de rebote, páginas/visita y demás métricas influyen en los rankings. No lo creo así, aunque sí soy de los que opinan que un rebote al buscador* y ese tipo de métricas previas sí tienen más que ver que antes. (*osea: busco algo > entro a un resultado > vuelvo al buscador en menos de “x” segundos -> el resultado no ERA lo que yo esperaba como usuario)

Qué será, será…

¿ Me ha pillado el Pingüino ? ¿ El Panda ? ¿ Los más de 50 cambios durante Abril? ¿ Los 39 durante Mayo ? Puede llegar a la categoría de penalización¿?

Si fueron única y exclusivamente panda o pingüino será fácil verlo con caídas justo después de esos días y si fue de otra manera, pueden ser todas o puede ser varias cosas a la vez, así que vas a tener que arremangarte para saberlo.

Lo que he venido haciendo ha sido:

  • Revisar el sitio entero buscando qué puede haber provocado la situación: sacar datos y compararlos con los de tus competidores (actuales y anteriores al update).
  • Extraer datos de las SERP’s hasta que la actualización esté asentada (por ej: distribución de anchor text por backlink/dominio/IP/tipo de sitio/ –)
  • Decidir si te atacó el Pingüino, si fue el Panda, el update Freshness, el antiPubli… Es muy fácil achacar al último cambio toda la culpa, pero quizás recibiste un Pandazo por spinear/duplicar artículos o tienes 3 bloques de adsense above the Fold o lo que creo que es mas común: muchas cosas de este estilo generalizadas en una web y PUM! saltó la liebre!
  • Modificar cualquier cosa que entre dentro de las tácticas anunciadas públicamente: vamos que si tienes una densidad muy alta de keywords, si tus contenidos rozan o son spam, si duplicas contenido copiándolo íntegramente, etc…En esos casos está claro el asunto.
  • La más importante: revisa tu sitio y los datos como si la web no fuera tuya, que es muy fácil ver la paja en el ojo ajeno!

Concluyendo que es gerundio

Si te has pegado un rijostio, replantéate la web. Desde el porqué hasta el cómo. Centra toda tu estrategia en el usuario y en proporcionarle las respuestas que busca y los contenidos que agradecería. Identifica los puntos flacos, lo que se salga de las directrices (para ir sobradamente seguros). Compara el resultado con lo que tienes actualmente y así descubrirás tus fallos. Ya sólo te queda evaluar si es más fácil reparar o lanzar un sitio nuevo, dependiendo de cuánto te hayas pasado de la raya.
Y sonríe, que no te has muerto :D

matt-cutts-saluda-con-pinguino

Actualización -> Respuesta al comentario

He podido echarle un ojo a tu web Ángel y he consultado los datos sobre enlaces desde varias herramientas y llama la atención el gran porcentaje de links con un patrón muy claro: anchor text optimizado (con “juegos de carros”). Usando el OpensiteExplorer de SEOmoz, filtrando sólo los enlaces externos follow + las redirecciones y ordenando los resultados por la Autoridad de la Página (de origen), se ve claramente lo que te comento:

datos de opensiteexplorer seomoz

No tengo tiempo para hacer un estudio pormenorizado, pero desde luego sí te puedo decir que a mi juicio es muy probable que tu web haya bajado posiciones por estar sobre-optimizada, al menos en cuanto a anchor text.

Tienes razón en que seguramente haya webs que te hayan superado y que también merezcan ser rebajadas, incluso hasta estar por detrás de tu sitio…pero eso no cambia el que Google te haya cazado. Leo muchos posts y tweets a diario y había alguien esta semana que comentaba que las penalizaciones por Penguin eran como las multas: “Oiga, que aquel coche iba mucho más deprisa que yo!…- Sí, pero lo hemos parado a usted y superaba el límite permitido”…

Que haya webs que merezcan la “rebaja del tío Paco” y sigan bien quizás sea sólamente una cuestión de tiempo. Por otro lado, es interesante como en tu caso el anchor text coincide con el dominio y cómo Google no lo identifica como marca: a lo mejor es que la proporción de menciones [de tu marca, que es tu dominio] y los enlaces más naturales tipo http://midominio.com o www.midominio.com sean muy bajas en relación a lo que el algoritmo considera dentro de los parámetros naturales como para considerar tu dominio como marca y no resultar dañado.

Si me aceptas el consejo, revisa el sitio entero con posibles contenidos duplicados, errores de indexación, enlaces rotos y soluciona el tema de los enlaces demasiado “perfectos”: es decir, revisar todo según los últimos cambios.

Y después dale tiempo al algo para que tome en cuenta las modificaciones y monitoriza si hay cambios, y si son a mejor o a peor. Toma nota de los resultados, sé creativo, actúa en consecuencia y es probable que tu situación mejore ;)

Mini-Informe SEO (I)

Hace un tiempo me ofrecí a dar consejos de forma desinteresada a webmasters, sobre el seo de sus páginas, en los foros de mi fanpage. Como FB decidió que aquello no tenía mucho sentido (será  que no daba dinero) lo eliminó. Así que qué mejor que usar mi blog para dar respuesta a quien quiera unas sugerencias para mejorar su posicionamiento J

Vamos al lío!

Mini informe SEO para turismomarruecos.net

Lo primero decir que sin acceso a las estadísticas de las visitas a la página, apenas si se puede “rascar” sobre su situación. Cuando digo estadísticas (gratuitas) me refiero tanto a las Google Webmaster Tools (para controlar la indexación y SERP’s) como a las de Google Analytics (datos y stats de tráfico).

Por tanto en lo que puedo opinar es en los rankings que ocupa ahora mismo el sitio para algunas de las búsquedas más importantes en su nicho, el turismo en marruecos. Dado que he tardado tanto entre la petición y poder hacerlo, vamos a tener un pequeño histórico de las posiciones en los buscadores, ya que pude comprobarlos en su día y también ahora.

Cuál es la situación de la web actualmente?

 

Keyword

Posición Google.es     27/11/2011

Posición Google.es     05/02/2012

Posición Bing.es      27/11/2011

Posición Bing.es      05/02/2012

informacion sobre marruecos

95

fez marruecos turismo

36

12

11

13

marruecos turismo

4

4

3

3

marruecos turismo mapa

48

12

17

10

ofertas viajes a marruecos

+

85

oficina turismo marruecos

176

+

20

que ver en fez marruecos

+

92

90

que ver en marruecos

+

79

31

turismo en marruecos

3

3

3

3

turismo marruecos

1

3

3

4

viajes a marruecos

viajes a marruecos baratos

viajes a marruecos desde malaga

viajes a marruecos desde sevilla

viajes a marruecos en 4×4

viajes a marruecos ofertas

viajes a saidia marruecos

+

104

viajes baratos a marruecos

viajes en barco a marruecos

viajes organizados a marruecos

En su día cuando empecé a redactar este mini-report, hice una selección de keywords rápida y muy básica y escogí las que se pueden ver en la tabla. Los “+” representan que el buscador ha indexado el sitio web para esa palabra clave, pero que no está clasificada dentro de las primeras 200-100 posiciones. El “-” significa que ha dejado de estar “indexado” para esa consulta.

Me quedo con que la web tiene una visibilidad muy buena por la palabra clave “turismo marruecos”, muy influenciada claro, por tenerla en el dominio. Muy mejorable es el resto de las palabras analizadas, ninguna está siquiera en 2ª página, asi pues visibilidad nula o muy escasa. También y seguramente mucho más importante que las posiciones en sí, es que la tendencia es positiva y es la confirmación de estar haciendo las cosas bien: pasito a pasito.

Faltaría por ver de todas formas, el tráfico generado por Long Tail, quizás el segmento más importante: por un lado, es la “parte” del tráfico que más volumen tiene y por otro lo normal es que esté mucho menos competido que las keywords del Middle y Head Tail, es decir doble “ganancia”.

Para los que no tengan claro este concepto, recalcar que el tráfico Long Tail es aquél que llega a nuestra página web buscando por una palabra clave que consista en un grupo de 4/5 palabras* individuales o más. Sí, son “keywords” con muy pocas búsquedas mensuales individualmente (en relación a las Mid/Head Tail) pero sumándolas todas normalmente rondan el 70% del total del tráfico relativo a un nicho online. Si encima es más fácil posicionarse [generalmente] por esas búsquedas…blanco y en botella ¡!

*-> en la definición de Head/Mid/Long Tail siempre habrá discrepancias sobre los límites de cada una y después de Google Instant, me parece una buena media.

 

Consejos para mejorar la optimización de la web

seo optimizacion onpage consejos gratis

Por orden de importancia a mi juicio, yo mejoraría principalmente:

–          Títulos de cada página y sección: ahora mismo casi todas siguen un  mismo patrón que es “Nombre Sección/Página – Turismo Marruecos”. Teniendo en cuenta que los buscadores ya te tienen en cuenta para las keys similares a Turismo Marruecos, porqué no darles un poco más de vida a los titulares y así sacarles algo más de partido? (por ejemplo para la sección de Fotos: “Fotos de viajes en Marruecos” o “Fotos de Chaouen,Marrakech, Rabat…(etc…)”). |-> Imagen  1 |

–          Mejorar los tiempos de carga. Ahora mismo, si se accede desde Europa la web tarda en cargar aproximadamente unos 5 segundos. Es muy lenta, lo óptimo siempre sería que el tiempo total de carga fuera menor a 2 segundos. Esto se debe en buena parte a que la web está alojada en un servidor de USA, sin duda beneficioso si tu público es de allí (los tiempos de carga para alguien de USA son de aprox 2,9s, aún así lentos). No es un factor primordial seo, pero sí afecta y mucho a la imagen y confianza que da la página, y a la experiencia de los usuarios en tu sitio (a quién le gusta una web lenta¿??!)

–          Usar el código HTML de una forma juiciosa y  beneficiosa: en la web no se usan los encabezados H1, H2, H3…. Es una forma muy válida de especificarle al robot del buscador qué orden lógico o peso tienen los elementos de la web, a pesar de que visualmente puedan estar en otro “sitio”. (como el ejemplo de los Títulos o similar) |-> Imagen  2 |

–          URL’s “amigables”: Procurar no usar palabras o números en las URL’s que no sean de ayuda y siempre que sean lo más cortas posibles. |-> Imagen  3 |

–          Enfoque en el contenido: Generar contenido sobre las palabras clave que puedan generar tráfico y optimizar el que ya hay para que en cuanto a factores seo, ataquen frontalmente a keywords rentables (por ej: en vez de “Datos generales” podría ser “Datos generales sobre Marruecos”, aplicarlo al título, h1…)

–          Deep Linking: Trabajar los enlaces a distintas secciones, pues aunque el dominio comienza a tener una autoridad media, la mayoría de backlinks apuntan a la home. Por tanto la home tiene mucho peso como página pero el resto de URL’s del sitio apenas si tienen algo (salvo alguna excepción puntual).

–          Socializar: “Moverlo” en la medida de lo posible por las redes sociales, o al menos fomentar que se compartan los contenidos.

–          Intentar que el foro se anime y sea una fuente de UGC, o lo que viene a ser lo mismo: contenido generado por usuarios, que es triplemente valioso (tienen interés sobre el tema del que hablarán/preguntarán – contenido orientado a long tail/natural – es gratis, en cierta medida)

–          El nº 4 señalado en la imagen no es que afecte a la optimización en sí, sino una cuestión de diseño (opinión personal): la imagen no cubre toda la pantalla, y dado que cada día las pantallas son más anchas y los estándares de resolución más grandes, da una sensación un poco pobre que se “corte”. Una solución es que el fondo cubra siempre el 100% y se repita, o el corte se funda con el color de fondo sin que se note.

Y eso es todo lo que puedo comentarte Carlos, ya me gustaría poder dedicarle más tiempo, porque de cada proyecto se aprende mucho. Espero te sea de ayuda y consigas muchos éxitos con tu web.

Si a alguien le interesa voy a intentar hacer un mini-informe a cambio de un enlace o mención, cuando el trabajo me lo permita. Daré preferencia a ONG’s y webs que cumplan labores o fines sociales.

Google: se te ve el plumero

Google eliminada datos relativos a las palabras clave en la analitica web escudandose en la privacidad del usuario

Google oficialmente ya sólo piensa en el dinero: adiós al discurso que hasta ahora venía lanzando de que lo importante es una red libre donde todos tengamos acceso a la información. Para el que no sepa porqué digo esto, puede leer en el blog oficial de Google Analytics. Básicamente nos informa que a partir de ahora, y para mejorar la privacidad de los usuarios que buscan en Google, los datos relativos a la búsqueda no serán revelados a la web de destino.

Mandé!?¿

Es decir, que cuando un usuario busca en google “posicionamiento web profesional” y hace click en un resultado, la web a la que llega, si tiene habilitadas herramientas de analítica web, recibe una información que entre otras cosas hace referencia a la palabra clave buscada. Es pues una parte muy importante de los datos que actualmente se manejan al analizar el comportamiento de los usuarios en una web:es una cuestión de detalle, saber qué tipos de palabras son las que más me hacen vender o cuales otras están atrayendo un público que no es rentable en absoluto (dentro del tráfico de buscadores/SEO).

Por tanto perdemos nivel de detalle en los datos y volvemos a la era de las cavernas, salvo para el tráfico SEM de Adwords (en dicho caso la privacidad de los usuarios “nos la pasamos por el forro” pero como Internet es nuestro, son lentejas). Bendito dinero…

Después de años vendiéndonos que son lo opuesto a Microsoft, resulta que deben ser primos-hermanos: escudándose en la privacidad de los datos de sus usuarios, ahora de golpe y porrazo nos quitan eso datos, independientemente de la herramienta estadística que usemos (Analytics,Omniture,Woopra…o tal vez con el nuevo Analytics Premium, sí que los ofrezcan por unos cientos de miles de €). De momento sólo “caparán” el dato para los usuarios logueados en Gmail o servicios de Google, pero lo mismo pasado mañana también lo aplican en plan universal :|

El SEO se vuelve más oscuro, que viva el SEM

Si dejamos de recibir esos datos, ojo sólo en SEO (tráfico orgánico), éste puede dejar de ser todo lo efectivo, medible y rentable como es ahora. Y esto son 2 y 2 son cuatro: el único beneficio va a ser para la plataforma de Adwords puesto que los usuarios que cliquen en un resultado de PPC en el buscador, al llegar a la web del anunciante, sí que proporcionará el dato de qué palabra clave estaba buscando. Osea que la privacidad del usuario, más que importarles, lo que interesa es que reporte dinero. Así que lo que a priori es un avance para la privacidad de todos nosotros, es en realidad una forma de reventar la medición de rentabilidad de los resultados naturales (SEO) y por tanto de engordar la saca de Adwords, a pesar de que trimestre tras trimestre, bata récords de beneficios.

Decía Duane Forrester (Manager de las Webmaster Tools de Bing, que por cierto cada día funcionan mejor!) en el Whiteboard Friday de SEOmoz el viernes pasado, que Bing estaba igual de sorprendido como todos nosotros. Más chocante e interesante resultaba oirlo decir que se puede seguir sirviendo el dato de la keyword a las webs y además cuidar de la privacidad de los usuarios, tal y como hacen ellos.

No soy quién para juzgar si lo que dice Duane es totalmente cierto, pero desde luego es digno de mención que toda la industria seo se muestre cabreada e indignada con este nuevo movimiento de Grugel.

Más dinero “pa la saca”: si eso está bien!

Escribía Pere Rovira (Web Analytics) el viernes pasado en El País:

Este matiz ha molestado a buena parte de la industria de Internet. Rob Jackson escribía para el Telegraph que “Google ha puesto un precio a nuestra privacidad: el que pagan los anunciantes por cada clic”. Bajo este punto de vista, Google no estaría buscando proteger la privacidad de sus usuarios, si no aumentar los ingresos de su plataforma publicitaria. Ciertamente, si bien antes las empresas tenían acceso a coste cero a la información de las búsquedas que llevaban a los usuarios a su sitio web, ahora para acceder a dicha información deberán pagar.

Supuestamente una vez que nos llegue el cambio (que en google.com ya está operativo) dejaremos de recibir los susodichos datos, salvo que las visitas vengan a través de anuncios en Adwords. Por tanto extraigo que eso no cambiará aunque pasemos por caja con el PPC de Google…pero oye quizás pretendan cobrar por esos datos a la larga.

Sería bastante lógico y aunque a todo el mundo nos moleste pagar por algo que había sido gratuito, seguramente para los profesionales sería un gasto más(salvo que se suban a la parra) al igual que pagamos por otras aplicaciones necesarias para nuestro trabajo. Se pondría de manifiesto que la privacidad les importó poco y que ha sido una maniobra puramente comercial, pero jodo que eso no os corte, si es vox populi! :(

Comprar enlaces = pecado

matt cutts el Mesías de las SERPs

¡¡ La compra-venta de enlaces es pecado mortal !!

Mal que nos pese, Google es dueño y señor de las búsquedas en España y en casi todo el mundo. Es por eso que su enviado en La Tierra, Matt Cutts, sale a la palestra a contarnos las bondades de su visión del mundo y lo malos que son los que compran y venden enlaces. Voy a dar mi opinión de los Mandamientos del TodoPoderoso Buscador, vista la controversia que suele haber al respecto… Seguir leyendo…

Uso de cookies

Este sitio web utiliza cookies para que usted tenga la mejor experiencia de usuario. Si continúa navegando está dando su consentimiento para la aceptación de las mencionadas cookies y la aceptación de nuestra política de cookies, pinche el enlace para mayor información.plugin cookies