T7. CREACIÓN Y DESARROLLO DE PROYECTOS

Table of Contents



t7-mapa.jpg
MAPA CONCEPTUAL T7. Creación y desarrollo de proyectos

MAPA CONCEPTUAL T7. Creación y desarrollo de proyectos


1. Introducción

La creación y desarrollo de proyectos involucra a un numeroso grupo de técnicas, estrategias y procesos que, más allá de los tratados en otras entradas, suponen un conjunto amplio de prácticas profesionales de producción, realización, postproducción y operación de los productos comunicativos multimedia.
Dada la magnitud del tema desde una aproximación teórica, en esta entrada aborda aquellos aspectos del desarrollo de un proyecto que están vinculados con las últimas actividades; a saber: los sistemas de difusión (técnicas SEO...) y los sistemas de análisis web.
Y es que, actualmente la gestión de la información es una actividad profesional de corte transversal que afecta (o en la que intervienen) numerosas disciplinas y profesionales.
La rápida evolución de la Red, la ingente cantidad de información disponible en ella, y la importancia que, en ese contexto, han alcanzado los sistemas de recuperación de información y especialmente los buscadores, hace necesario que incorporemos unos mínimos conocimientos sobre los procedimientos, las técnicas y las estrategias dirigidas a mejorar, en el marco de la publicación de productos de comunicación en la Web, su difusión, posicionamiento en buscadores y recuperabilidad.
Pablo Castells afirmaba en 2005 que, según estimaciones de 2001 realizadas por Bergman, la información que contenía Internet era equivalente a la de entre 14 y 28 millones de libros. Estas eran cifras tan sólo para la llamada "web superficial". Pero también existe una "web profunda" formada por bases de datos a cuyo contenido sólo se puede acceder indirectamente (mediante páginas generadas dinámicamente). Según Castells, esta "web profunda" tenía para entonces unas cien veces más de contenido que la "web superficial" y era alimentada a mayor velocidad. Recordemos que estamos hablando de 2001, una década atrás.

Este marco, denominado por algunos como Website Boosting*, incluye, además de cuestiones ya tratadas en temas anteriores como la Usabilidad u otras que escapan a nuestro ámbito de estudio más inmediato como el del eMarketing, dos grandes esferas en cuyo estudio se centra este tema:
  • SEO (Search Engine Optimización) y sus derivados, cuya finalidad de la optimización para los buscadores de los sitios web, y
  • Analítica Web, que permite testar, constantemente, la eficacia de nuestras estrategias comunicativas y de posicionamiento, e intervenir, iterativamente, en la mejora continua de los proyectos.

(*) El libro Website Boosting, de Mario Fischer, es una referencia del Marketing Web en Alemania. En él, se plantea sacar el máximo provecho de una Web a través de dos aspectos básicos a tener en cuenta: la visibilidad (los demás deben poder encontrarle) y la usabilidad (los demás deben entender su mensaje y/o cuál es su oferta).
Las técnicas de posicionamiento en buscadores parten del conocimiento de la forma como operan los buscadores, intentando organizar los contenidos para que sean mejor localizados. Estas técnicas están considerada como una actividad legítima de marketing.
Sin embargo, las actividades que pretenden engañar a los buscadores ofreciéndole información distinta a la que se muestra a los usuarios o los abusos de las técnicas de posicionamiento se consideran prácticas deshonestas que pueden perjudicar la imagen de los que las usan y ser incluso objeto de penalización por parte de los propios buscadores

2. SEO, posicionamiento y conceptos derivados

2.1. Conceptos esenciales

El acrónimo SEO, del inglés Search Engine Optimization, hace referencia a la disciplina que se encarga del estudio de las estrategias encaminadas a optimizar el posicionamiento Web para los motores de búsqueda. De este modo,
SEO como disciplina es el proceso por el cual una página web obtiene y mantiene posiciones notables en las páginas de resultados naturales de los buscadores, también llamados resultados orgánicos o algorítmicos. (Orense, 2008)
También es habitual utilizar el término para referirse al profesional que se dedica a esa tarea.
Las siglas SEM, del inglés Search Engine Marketing, se refiere al conjunto de estrategias de marketing web destinadas a promover el posicionamiento, la visibilidad y la “encontrabilidad” en los resultados ofrecidos por los sistemas de recuperación de información (singularmente en los buscadores, SERPs) de sitios o contenidos desplegados en Internet, mediante técnicas de eMarketing como los enlaces patrocinados, publicidad contextual, inclusión patrocinada en las listas de resultados…
Dentro de las estrategias SEM, poseen especial relevancia las ESM, o Enterprise Search Marketing, que se encarga, específicamente, de la aplicación, gestión y medición de los sistemas SEM con la finalidad de evaluar un conjunto amplio de variables y unidades de análisis de repercusión directa para las empresas, tales como: unidades de negocio, zonas geográficas, targeting idiomático, etc.

t7-seo-esquema.png
ESQUEMA SEO. Fuente: Manuel Gértrudix
ESQUEMA SEO. Fuente: Manuel Gértrudix
En el siguiente esquema podemos observar una pequeña guía de su funcionamiento:
Guía_SEO.jpg
Guía_SEO.jpg

2.2. En qué se basa SEO

Los buscadores de internet están en continua mejora de sus algoritmos de resultados, por ejemplo, google utiliza más de 200 factores para determinar las posiciones de los resultados de su página de búsquedas. El Seo se basa en modificar pequeños detalles en su web, en todas sus páginas, para que los buscadores posicionen su web en el lugar que merece, en función de unas docenas de factores y, si es posible, ponerlo aún un poco más arriba en la página de resultados.
Aquellos que dicen que se puede posicionar sin generar contenidos útil o de calidad o se equivocan, pero los buscadores modifican sus resultados continuamente y, cada vez más, eliminan o retrasan la posición de aquellas webs que no son relevantes para el usuario. Es necesario que cree contenido relevante para sus visitantes, ya que los algoritmos de los buscadores cada día sn más exactos a la hora de filtrar esta información.

Las primeras versiones de los algoritmos de búsqueda se basaban en la información provista por los administradores de las páginas web, como las palabras clave meta tag, o ficheros indexados en motores como ALIWEB. Meta tag ofrecía una guía para el contenido de cada página. Usar meta datos para indexar una página fue un método no demasiado preciso, ya que las palabras provistas por el administrador de sitio web en los meta tag, podría ser una representación no precisa del contenido real de la página web. Datos imprecisos, incompletos o inconsistentes en meta tags podrían causar y causaron que páginas posicionaran para búsquedas irrelevantes.

Debido a la importancia de factores como la densidad de palabras clave, la cual estaba al total control del administrador de páginas web, los primeros motores de búsqueda sufrieron el abuso y la manipulación de las clasificaciones. Para proveer de mejores resultados para sus usuarios, los motores de búsqueda tenían que adaptarse para asegurar que sus páginas de resultados mostraban las búsquedas más relevantes en vez de páginas no relacionadas, llenas de palabras clave por administrador de páginsa webs sin escrúpulos. Contando con que el éxito y popularidad del motor de búsqueda está condicionado por su capacidad de producir los resultados más relevantes para cualquier búsqueda, permitir que los resultados fueran falsos haría que que los usuarios se fueran a otros motores de búsqueda. Los motores de búsqueda respondieron desarrollando algoritmos de clasificación más complejos, tomando en cuenta factores adicionales para que fueran más difíciles de manipular por los administradores de páginas web.

Google Instant, búsqueda en tiempo real, fue introducido a finales de 2010 en un intento de hacer los resultados de búsqueda más relevantes y recientes. Históricamente, administradores de páginas web han ocupado meses o incluso años en optimizar un sitio web para mejores sus posicionamiento. Con el aumento en popularidad de las redes sociales y los blogs, los principales motores hicieron cambios en sus algoritmos para permitir contenido fresco y posicionar rápidamente en los resultados de búsqueda. En febrero de 2011, Google anunció la actuación "Panda", la cual penaliza a los sitios web que contengan contenido duplicado de otros sitios y fuentes. Las páginas web han copiado desde siempre contenido de otras webs beneficiándose en la clasificación de los motores de búsqueda aplicando esta técnica, sin embargo Google implementó un nuevo sistema en el que penaliza a las páginas web cuyo contenido no es único.

El objetivo principal es aparecer en las posiciones más superiores posibles de los resultados de búsqueda orgánica de los buscadores para una o varias palabras concretas. Supone la tarea de optimizar la estructura de una web y el contenido de la misma, así como la utilización de diversas técnicas de "linkbuilding", "linkbaiting" o contenidos virales, aumentando la notoriedad de la web, debido al aumento de menciones. La optimización de buscadores se realiza en dos sentidos:
  • Interna: Mediante mejores en el contenido. Mejoras técnicas en el código. Accesibilidad. Test A/B, etc.
  • Externa: Se busca mejorar la notoriedad de la web mediante referencias a ella. Esto se logra fundamentalmente a través de links. (Fuente principal de información: wikipedia.org)


pilares-seo.jpg posicionamiento-en-buscadores21.jpg



Posicionamiento interno

Son aquellas mejoras que podemos aplicar sobre nuestra web para conseguir un mejor posicionamiento. Paso a detallar algunas de ellas, las más importantes bajo mi punto de vista:
  • Crear contenidos de calidad. Es común el dicho de: "el contenido es el rey".
  • Crear títulos únicos y descripciones pertinentes del contenido de cada página. Cada página es una tarjeta de presentación para el buscador. Los títulos y descripciones son puntos de partida para la identificación de los términos relevantes a lo largo de la web por los buscadores. Las mejores prácticas recomiendan escribir títulos de entre 60 y 70 caracteres.
  • Mejorar la experiencia del usuario con mejoras de diseño y disminución de las tasas de rebote.
  • Crear un diseño web limpio en publicidad y que entregue el contenido relevante en la mitad superior del sitio web.
  • Utilizar un correcto etiquetado del sitio web.

* En cuanto al Posicionamiento Externo, son aquellas técnicas que usamos para mejorar la notoriedad de nuestra web en los medios online. Por norma general, se busca conseguir menciones online, en forma de link, de la web a optimizar. Algunas mejoras externas que podemos hacer son:
- Conseguir que otras webs de temática relacionada enlacen con tu web. Para ello es interesante realizar una búsqueda para aquellos términos que consideras que deberían llevar tráfico a tu web y estudiar cuáles de ellos tienen un contenido complementario.
- Posicionarse correctamente en redes sociales para poder participar y obtener visitas de nuestros "amigos". Para Google, Twitter y Facebook son las dos redes sociales que más relevancia tienen para el posicionamiento.
- Registrarse y participar en foros, preferentemente en foros temáticos relacionados con la actividad de tu página web. La frecuente participación tienen que ir acompañada de aporte real y valioso como para ser tomado en cuenta como un usuario calificado; el detalle del éxito para conseguir visitas y aumentar el posicionamiento es el enlace hacia su página web presentado en su firma. (Fuente: wikipedia.org)

2.3. La importancia de los buscadores


El mercado de los buscadores: pluralidad vs monopolio. Se trata de un mercado con pluralidad de demandantes y un solo oferente, que opera sobre un producto definido y homogéneo, en condiciones que se relacionan fácilmente todos los sujetos, los cuales poseen entera libertad para que las transacciones se efectúen atendiendo solamente a los gustos y conveniencias de todos ellos.
Cualquier usuario de la Web sabe, intuitivamente, dos cosas: que existen muchos buscadores en el mercado (Bing, AlltheWeb, Altavista, AOL, pg:1|ASK, HotBot, Windows Live Search, Lycos, Yahoo!...), Hortus Memoriae (historia y biografías), Hispavista, Excite, Vieiros, Trovator, JopiNet, Nosaltres (buscador en catalán), Úlos? (buscador asturiano), Kaixo (buscador vasco), Lupa, Califa o Gomera (buscador canario) pero que es uno quien marca la pauta y quien, de facto, gestiona un auténtico monopolio creciente en los procesos de recuperación de información: Google.
t7-buscadores-comscore.png
DISTRIBUCIÓN DE BÚSQUEDAS 2011. Fuente: Comscore


DISTRIBUCIÓN DE BÚSQUEDAS 2011. Fuente: Comscore

Esta situación, cuando menos, invita a la reflexión…, y en algunos casos, motiva la acción. Así, en el año 2006 (cuando aún las cifras no eran tales) un consorcio franco-alemán, puso en marcha una iniciativa, a través del Centro Francés de Investigaciones Científicas, para desarrollar un sistema de indexación multilingüe (para generar un buscador “europeo”) denominado “Quaero” que, sin embargo, no alcanzó el éxito esperado. En ese mismo año, uno de los competidores emergentes de Google, Ask.com, lanzó una campaña bajo el lema “información es poder”, y denominada “revolución de la información” con la que trataba de hacer reflexionar a los usuarios sobre la importancia de diversificar la presencia de buscadores potentes que pudiesen mostrar un acceso libre (y no concentrado) a la información en Red. El éxito de estas, y otras empresas similares, es discutible (analizados los resultados a varios años vista) pero el debate que incitan es, en todo caso, de lo más interesante para los profesionales de la comunicación.Tal como refieren los últimos estudios sobre el mercado de buscadores esto es una evidencia creciente. Así, en los últimos datos publicados por la prestigiosa consultora comScore el mercado estadounidense reflejaba una distribución en el que el 65,6% de la cuota de búsquedas estaba en manos de Google, frente al 16,1% de Yahoo!, y el 13,1% de las soluciones de Microsoft. Pero si cabe, esta tendencia en el mercado español es más acusada aún. Al menos así lo reflejan diferentes evaluaciones (Wences, 2008) que ponen de manifiesto que la posición de dominio de Google es de un monopolio casi absoluto, pues alcanza el 95,7% de las búsquedas, frente al 2,1% de Microsoft, o el 1,7% de Yahoo!.

Ya en el 2009, la prensa se hacía eco de esta situación, como refleja este artículo publicado en el País: "Coto al poder de google"

Para conocer el impacto de Google en el mercado informático actual, es interesante leer estas dos artículos recientes: "Google triplica su presupuesto para el primer centro de información de Asia" y especialmente "Google está comprando una empresa a la semana".

Google, es a su vez, un gran referente para dar conocimiento a los individuos de las noticias: noticias google

Vemos que también el buscador de Google, tiene muchos trucos más que los usuarios van descubriendo. Youtube tiene una lista inmensa, pero este solo uno de ellos:

Se considera a Google como la empresa con el crecimiento más rápido de la historia, llegando a alcanzar un crecimiento del 400.000% en tan sólo cinco años (Batelle, 2006). A pesar de que no fue el primer motor de búsqueda, sí es el más relevante actualmente.

Algunos de los factores que han determinado el rápido éxito de Google son (Goldman, 2010):
  • Mostrar resultados relevantes para los usuarios.
  • Confiar en la “sabiduría de las masas”: El algoritmo de Google clasifica los resultados de la búsqueda que reúne de sus clientes (con su programa PageRank) según la popularidad entre los usuarios de internet.
  • Simplicidad. La página de inicio de Google es un ejemplo de sencillez y limpieza.
  • Enlace del contenido editorial con el contenido comercial, mediante los anuncios vinculados a la búsqueda.
  • Proporciona herramientas de seguimiento como el Google Analytics para determinar la efectividad de los anuncios a los anunciantes.

En sus inicios Google, se sirvió del boca-a-boca para convertirse en un fenómeno mundial. La libertad que Brin y Page daban a sus empleados de usar el 20% del tiempo de un día a la semana para elaborar sus propios proyectos hizo posible la creacion de GoogleNews y fue la primera compañía en lanzar un correo gratuito (Gmail) con 1Gb de almacenamiento. Otras aplicaciones de Google, como el Desktopsearch, que permite indexar y buscar dentro del propio ordenador y Google Earth, que permite viajar por todo el mundo a vista de pájaro, Google Books y el sima operativo Android, muestran cómo la Google está proporcionando cada vez más aplicaciones usadas al día por millones de usuarios en todo el mundo. Pero sin embargo, la principal fuente de ingresos de Google es la publicidad: AdSense que se asocia a otras páginas web y AdWords que vende anuncios por número de clics.

Elementos de la búsqueda por Internet
  • Crawl: Programa que busca páginas similares en internet y las envía a una ubicación central para su indexación. Los crawlers residen en sus propios servidores, envían solicitudes a páginas y conservan las direcciones de los sitios web identificados y otros vínculos para su acceso futuro.
  • Índice: Ordena los nombres, las páginas y los contenidos de los dominios, incluidas palabras clave y vínculos a otras páginas web. Las palabras indexadas se pueden procesar y asociarse a URLs.
  • Procesador de consultas: Software que tras indexar determina la relevancia de las consultas, incluyendo la popularidad y la cantidad de páginas que contienen vínculos a ella.

Cómo hacen los buscadores para encontrarnos
En todo caso, en el marco de este tema, y más allá de las reflexiones que podamos hacer (y a las que invitamos) sobre esta situación, lo cierto es que tenemos que indicar que aunque las técnicas y estrategias hacen referencia de forma genérica a la manera de proceder sistémicamente, es decir, pensando en cualquiera de los buscadores, no es menos cierto que, casi toda la literatura publicada sobre el tema se centra en cómo trabaja Google, y los demás van a remolque.
Hecha esta observación, entremos al asunto.
La primera cuestión parte, necesariamente, de preguntarnos sobre qué y cómo saben los buscadores sobre los sitios web; en otras palabras, cómo operan. Es decir, cómo aprenden y se informan cuando sus robots (Googlebot, YahooSeeker…) rastrean la Web.
Partimos del supuesto de que ya hemos caído en la cuenta de que, en esto de la optimización, “llevarse bien” con los buscadores es fundamental; después de todo, son lo que permitirán que la mayor parte de nuestro público objetivo llegue hasta nosotros. Pues la primera respuesta está en el que el sistema de aprendizaje de los buscadores es a través del potencial sináptico de la Red, a saber, el entramado de enlaces que tejen su sistema nervioso. El enlace es el “Rey”, y el buscador avanza a través de ellos.
Al igual que los internautas, los robots de los buscadores van saltando de página en página, toman nota de todos links que han encontrado, y los vuelven a seguir. Y así siempre. Lógico –pensará usted- ¿Cómo iba a ser si no? (Fischer, 2007, pág. 67)
Y por eso es tan importante cuidar los enlaces, mimarlos. Si los enlaces alimentan los buscadores, y estos nos considerarán (entre otras muchas cosas) por ellos (por los que tengamos y por los que nos apunten) existen razones sobradamente poderosas para que los hipervínculos esté plenamente optimizados pensando en que, en cualquier momento, el rastreador (el motor de búsqueda) pasará a hacernos una visita. Aunque parezca increíble, existen innumerables enlaces en la Red cuyos autores han dado la espalda a cómo funcionan los buscadores, y o bien están mal programados, o su programación es incompatible con ellos, o resuelven con URLs dinámicas cuya digestión resulta pesada para los motores de búsqueda (y todos sabemos lo incómodo que resulta esto…).

La evolución de los algoritmos y la calidad de los contenidos.

La evolución de la web y la complejidad que está alcanzando también obliga a los buscadores a mejorar e implementar nuevos sistemas de búsqueda e indexado. Google, el buscador de referencia, esta dando pasos que suponen un cambio sustancial para las estrategias SEO. Uno de los más importantes es Google Panda, el nombre que se la da a su nuevo algoritmo de búsqueda. Este algoritmo resta importancia a la cantidad y calidad de los enlaces en favor de otros criterios como la calidad y originalidad de los contenidos o el impacto en la redes sociales.

La propia compañía señala que el objetivo es "ayudar a encontrar a la gente sitios de calidad" [1] . La tarea es compleja para un algoritmo, pero esta apuesta es la línea de desarrollo del buscador y la que habrá de tenerse en cuenta. Aunque no desvela los indicadores exactos, si que apunta la importancia que se le da a elementos como la autoridad del sitio, la usabilidad, los errores ortográficos y/o sintácticos, la información original y no copiada, el exceso de anuncios, el diseño y los resultados obtenidos en redes sociales (I Like en Facebook, +1 en Google o menciones en Twitter) Con estos cambios el buscador penaliza a la granjas de contenidos, las páginas que replican o copian contenidos y aquellas que no cumplan los criterios de calidad. Los medios de comunicación en Internet también tendrán que hacer un esfuerzo para optimizar su páginas y no ser penalizadas.

La implementación de Google Panda en sucesivas etapas y mejoras ha causado gran revuelo en el mundo SEO y de los negocios web. En Estados Unidos, donde se puso primero en marcha, afecto a un 12% de las consultas [2] Los negocios web más perjudicados han sido comercios electrónicos con páginas de productos muy pobres, páginas de viajes con contenido replicado, páginas de comparativas de precios con poco contenido y en general aquellas con mala usabilidad. Google estima que en búsquedas en español y otros idiomas el cambio afectará a entre un 6% y un 9% de las consultas.

Google Panda es uno, quizás el más importante, de los cambios del buscador en la dirección de detectar contenidos de calidad. Los antecedentes de estos cambios los encontramos en Google Caffeine, un sistema de indexación de webs lanzado en 2010 que permitía localizar el contenido más actualizado. Cuando lanzamos una consulta en un buscador, en realidad no buscamos en la web en directo, sino que lo hacemos en el indice de la web de la compañía. Con Cafeine, Google aumento considerablemente el número de páginas indexadas. Panda es un paso lógico en conseguir que la búsqueda en su indice fuera más eficaz y útil para el usuario.

Para conseguir buenos resultados en los buscadores, Google recomienda hacerse una serie de preguntas. Algunas de las cuestiones más útiles para los medios informativos son:
  • ¿Confías en la información presentada en este artículo?
  • ¿Este artículo ha sido escrito por un experto, por una persona entusiasta que conoce bien el tema, o es más bien superficial?
  • Contiene este artículo errores de ortografía, estilísticos o de facto?
  • ¿Están los temas impulsados genuinamente por el interés de los lectores del sitio, o el sitio genera contenido en un intento por adivinar con qué se podría lograr una buena clasificación en los motores de búsqueda?
  • ¿Está el artículo bien editado o parece producido de forma descuidada o con prisas?
  • ¿Reconocerías este sitio como fuente autorizada al mencionar su nombre
  • ¿Cuánto control de calidad se realiza sobre el contenido?
  • ¿Describe el artículo las dos caras de cada historia?
  • ¿Esperarías ver este artículo impreso en una revista, una enciclopedia o un libro?
  • ¿Son los artículos cortos, insustanciales o carecen de algún otro modo de detalles específicos útiles?

La lista completa de preguntas la podemos consultar en El Blog para Webmasters de Google, "Más recomendaciones para construir sitios de alta calidad"

En definitiva, con las creciente complejidades y capacidades de los algoritmos de búsqueda y el peso de la recomendaciones de usuarios en los resultados, uno de los mejores consejos para conseguir buenos resultados es hacer contenidos de calidad y cuidados.

Datos esenciales de una página de resultados
Se conoce como SERP’s (Search Engine Results Page) a la página de resultados que ofrece un navegador al realizar una determinada búsqueda, y que incluye tanto los resultados “orgánicos”, como aquellos como los derivados de estrategias SEM:
Los enlaces orgánicos son aquellos que ofrece el buscador de forma “natural”, es decir aplicando los diferentes algoritmos que utiliza para seleccionar, evaluar y posicionar las páginas web.
Los enlaces derivados de estrategias SEM son aquellos otros que se muestran en zonas concretas de la página de resultados (SERP’s) como consecuencia de accione de eMarketing en buscadores tales como enlaces patrocinados, Pay per click, etc.
t7-resultados-buscador.png
RESULTADOS DE UN BUSCADOR
RESULTADOS DE UN BUSCADOR
Exclusión de robots
Pese a lo dicho hasta ahora sobre el interés que tienes los Administradores para que los “rastreadores de la Red” encuentren y registren su web para alcanzar posiciones preferentes en los motores de búsqueda; existen casos en los que se busca justo lo contrario: Impedir el acceso al sitio web (de todo o una parte de sus contenidos) de estos robots de búsqueda.
Para ello se ha creado el estándar de exclusión de robots, también conocido como el Protocolo de la exclusión de robots o protocolo de robots.txt, que funcionará como una petición que especifica que determinados robots no hagan caso a archivos o directorios específicos en su búsqueda.
Algunos administradores de sitios Web utilizan el archivo robots.txt para hacer algunas secciones privadas, invisibles al resto del mundo. Pero lo cierto es que, dado que los archivos están disponibles en forma pública, su contenido podría ser visto de todas maneras por cualquier persona con un navegador Web y conocimientos medianamente avanzados.

En el siguiente link podremos encontrar un generador automático de archivos robot txt.

Posicionamiento natural u orgánico
El objetivo es aparecer en las posiciones más superiores posibles de los resultados de búsqueda orgánica de los buscadores para una o varias palabras concretas.
Supone la tarea de optimizar la estructura de una web y el contenido de la misma, así como la utilización de diversas técnicas de linkbuilding linkbaiting o contenidos virales, aumentando la notoriedad de la web, debido al aumento de menciones.
La optimización de buscadores se realiza en dos sentidos:
  • Interna: Mediante mejoras en el contenido. Mejoras técnicas en el código. Accesibilidad. Test A/B, etc.
  • Externa: Se busca mejorar la notoriedad de la web mediante referencias a ella. Esto se logra a fundamentalmente a través de links.
El posicionamiento orgánico o natural, en España. Se desarrolla fundamentalmente en torno al buscador Google, debido a que supone más del 90%-95% del volumen total de búsquedas. El posicionamiento en distintos buscadores, como Bing o Yahoo, requiere de distintas técnicas, aunque sus algoritmos de búsqueda son similares.
También nos referimos a posicionadores o SEOs para definir las personas que realizan este tipo de trabajo.
Cabe destacar que los buscadores, suelen mostrar resultados orgánicos o naturales en un área, a la par de resultados de pago. El posicionamiento en estas áreas de pago, requiere del pago cierto servicios especiales, como Adwords o Microsoft Ad Center, y se conoce como Marketing en motores de búsqueda o por sus siglas inglesas, SEM ( search engine marketing ).

Últimas novedades en el posicionamiento en buscadores
Tradicionalmente, los sitios web, cuando los motores de búsqueda solamente mostraban resultados de los algoritmos de búsquedas orgánicas, eran más fáciles de optimizar. Las técnicas para posicionarse en los motores de búsqueda eran las ya conocidas y enumeradas anteriormente. Sin embargo, últimamente están apareciendo en los buscadores diversas nuevas tecnologías que han insertado muchas nuevas variables que es necesario tomar en cuenta para la optimización de un sitio web.
Algunas de estas nuevas tecnologías son:

Búsquedas universales
Es uno de los cambios recientes más importantes en los buscadores, donde en las páginas de resultados de búsquedas muestran resultados combinando búsquedas orgánicas con imágenes, videos, blogs, resultados locales, comunicados de prensa, libros o productos. Ya no simplemente se tiene que crear contenido optimizado para las búsquedas orgánicas, sino también es necesario optimizarlo para las búsquedas universales. Esto es especialmente importante para el contenido vertical de un sitio web en un tema específico.

Búsquedas personalizadas
Google en especial ha lanzado varias características que añaden a los buscadores la facilidad de enlazar contenido con las acciones de usuario en el buscador que se encuentran almacenadas en el Google Webhistory, el Google Bookmarks, Google SideWiki y últimamente, presentado en marzo del 2010, las estrellas que aparecen en el buscador y que hacen posible marcar enlaces como favoritos. Cada usuario con el tiempo irá mejorando su perfil de búsqueda personalizada, donde los enlaces y páginas favoritas irán adquiriendo más importancia que los no visitados.

La nueva actualización de la mejora de la efectividad de los motores de búsqueda de Google,que arrancó en mayo de 2012,como avance de la interpretación semántica de las palabras mediante una suerte de inteligencia artificial, supone el principio de lo que podría ser la nueva generación de buscadores.
Google lanzó una nueva función consistente en un gráfico de conocimiento que permite buscar no solo por palabras, si no por lugares, gente u objetos, mediante la interpretación de la búsqueda.
Los buscadores son capaces ya de aprender de las búsquedas realizadas, mejorando así los resultados, pero la ambigüedad lingüística sigue haciendo insuficiente tal aprendizaje.
Así, Google ha lanzado un gráfico de conocimiento en español, alemán, portugués, japonés, ruso e italiano, que ayuda a descubrir nueva información.
Es un modelo inteligente que comprende entidades del mundo real y sus relaciones entre ellos, buscando objetos, gente o lugares de los que Google recaba información, dándonos información en el acto concreta e importante de cada consulta.
Según Google, este es un paso esencial para la próxima generación de buscadores, que aprovecharán ahora la inteligencia colectiva que hay en la web, intentando con este sistema, comprender las relaciones entre cosas, lugares y personas, como lo hace la gente.
Dicho gráfico mejora la búsqueda de tres modos, en primer lugar, frente a un lenguaje ambiguo, Google trata de comprender lo que el usuario quiso decir. En segundo lugar ,al comprender mejor la consulta, puede resumir el contenido mas importante incluyendo datos clave para el tema buscado en particular. Y por último, de este modo, puede ayudarnos a hacer descubrimientos inesperados que puedan sernos útiles.
Como ejemplo práctico, si ponemos la palabra Alaska, el buscador interpretará si queremos informarnos sobre el estado de Alaska en Norteamérica, o sobre la cantante Alaska.
El buscador, además, aprende sobre la marcha en función de la experiencia que va adquiriendo con los usuarios. Actualmente cuenta con 570 millones de elementos (personas, lugares y cosas),contando con la Wikipedia, y 18.000 millones de atributos y conexiones indexadas.

Búsquedas en tiempo real
Esta característica provee la facilidad de enlazar los resultados de una búsqueda con sitios web que proveen contenido en tiempo real, por ejemplo con Twitter, Myspace o Facebook, hasta marzo del 2010. Es probable que la lista que provea los contenidos de tiempo real crezca con el tiempo.

Búsquedas sociales
Fue lanzado como un experimento de Google a finales del 2009 y provee en las páginas de resultados de búsqueda contenido proveniente de las redes sociales que han sido suscritos en el perfil de usuario. Estos contenidos sólo son obtenidos de la red de contactos que un usuario posee en la red social relevantes con las palabras claves usadas en la búsqueda.

Búsquedas locales
Es una característica que provee Google y es una combinación de Google Maps con Google Places, donde provee contenido para búsquedas de origen local y los resultados tienen validez en una región geográfica específica. En Google es posible optimizarlo enviando los datos de un negocio local.

En relación al posicionamiento, adjunto un estudio que, aunque llevado a cabo entre 2003 y 2004, aporta datos interesantes.
Para la realización de este estudio se ha seguido el siguiente procedimiento: en primer lugar, se ha examinado de forma prácticamente exhaustiva la producción teórica sobre el tema. En segundo lugar, se realizó una campaña-test de posicionamiento para dos sitios webs vinculados con la Documentación y se fue siguiendo su evolución a lo largo del
año 2003.
Por último, se realizó un estudio sobre la oferta de mercado en posicionamiento web, a través del análisis de los sitios web de las principales empresas que realizan posicionamiento en España y en Estados Unidos. En diversas fases del estudio, los resultados intermedios se sometieron a discusión en diversos foros, principalmente, en el seno del Seminario
de Documentación que forma parte de las actividades del Grupo de Investigación en Documentación Digital del IULA (Instituto Universitario de Lingüística Aplicada, UPF).

Los resultados que se presentan aquí se refieren a los siguientes elementos:
  • Conceptos. Se presenta un pequeño grupo de conceptos vinculados con el posicionamiento web
  • Criterios de relevancia. Presentación de los criterios principales en los que, al parecer, se basan los motores de búsqueda para establecer el orden de presentación de los resultados
  • Ciclo de vida. El posicionamiento web es un proceso, y como tal presenta un determinado ciclo. Se presentan las fases de este proceso y los resultados de cada una de ellas.
  • Fichas de anotación. Se presentan unos modelos de fichas que permiten la anotación y el seguimiento de una campaña de posicionamiento.


2.4. Palabras clave

Si los enlaces son la sinapsis de la Red, las palabras clave son sus axones, los anclajes que permiten que los impulsos nerviosos (las query que se lanzan desde el cuadro del buscador) fluyan y hagan diana.
No podemos dejar de esbozar una sonrisa si jugamos con la metáfora entre lo que supone introducir hoy una sentencia de búsqueda (trufada de palabras clave) en el cuadro de un buscador, y aquellos antecesores que se dirigían a las Pitias en el Oráculo de Delfos. Unos y otros, tenemos preguntas y buscamos respuestas: ¡yo te pido, tú me concedes!
Y es que, realmente, en un alto porcentaje de los casos, cuando el usuario introduce un conjunto de términos para realizar una búsqueda, hace un cierto acto de Fe; lanza su cuestión y espera soluciones. Pero como sabemos, aquí ni la Pitonisa está sentada en un trípode, ni es Apolo quien concede, y por ello, para lograr la mejor optimización posible, debemos entender cómo buscan quienes buscan, y cómo trabajan los buscadores con las palabras clave para ofrecerles el mejor resultado (no olvidemos que el éxito de estos depende, exactamente de eso: de la calidad de sus resultados y del grado de satisfacción que reportan a quienes deciden busca en ellos; es su negocio, y los buscadores se preocupan plenamente -365x24- por ello)
Las palabras clave son el sistema fundamental de recuperación (de construcción de sentencias de búsqueda) que se utiliza en la Red; es obvio que existen otros (materias, índices…), pero este es el modelo privilegiado.
¿Pero qué son las palabras clave o Keywords? Podemos definirlas como todos aquellos términos, expresiones, frases, vocablos o locuciones que encarnan un concepto concreto, una idea o una representación de aquello que, en un ámbito preciso del saber, deseamos localizar. Son, por tanto, un elemento sincrético de naturaleza orgánica y estructural desde la dimensión de quienes las generan y las asocian a una información (pues codifican y abstraen el sentido general de una información más amplia), como indicial, ya que permiten a quienes recurren a ellas invocar paquetes informativos que, semánticamente, refieren parte o todo del conocimiento que se apela en la búsqueda.
La dificultad de encontrar las palabras clave adecuadas, que no es nada trivial, radica precisamente en conciliar ambos aspectos y, sobretodo, en ponerse en el lugar del usuario (de nuevo pensar en la experiencia de usuario) a la hora de generar las palabras clave de nuestros sitios.
¿Por qué es tan difícil definir palaras clave de búsqueda desde la perspectiva del cliente? Muy sencillo. Los empleados están acostumbrados al trato diario en su empresa con sus productos y sus nombres. Saben exactamente qué producto es bueno para cada cosa –o al menos hacen como si lo supieran-. Pero los clientes, especialmente los nuevos, suelen pensar de una manera completamente distinta. Ellos piensan a partir del problema, no “hacia atrás”, desde su solución. (Fischer, 2007, pág. 73)

Las técnicas SEO de posicionamiento parten del conocimiento de la forma de cómo operan los buscadores.

Éstos tratan de organizar los contenidos para que sean mejor y más rápidamente localizados.
Las técnicas Seo están consideradas una actividad legítima de marketing. Sin embargo, existen páginas que engañan a los buscadores dando información diferente o usando en demasía las técnicas de posicionamiento, perjudicando así la imagen de los que la usan y pudiendo ser penalizadas por parte de buscadores.

¿Qué es lo que se necesita?

- Más contenido: a mayor contenido mayor número de páginas y enlaces, además mayor número de visitas.

- Tecnología web; hacer de la web un sitio llamativo, crear efectos no solo con html, insertar acciones o funciones,

- La página ha de ser sencilla, tendrá texto y enlaces. Tendrá que tener buena estructuración.

- Las palabras claves no podrán ser muy densas.
Deberán estar en torno al 3% al 6%. Al superar esta cantidad los buscadores no lo considerarán optimizado.
No hay que redactar todo el contenido como si solo los buscadores lo leyeran. Además de la densidad de las palabras habrá que cuidar las palabras clave. Se mantendrá un equilibrio entre los visitantes y los buscadores (texto bien escrito y atrayente).
Si se mantiene un contenido de calidad y un nivel de creación de datos aceptable, la escalada en los buscadores se realizará de manera más rápida.

- Página debe estar optimizada

Se usarán herramientas como: Keyword Suggestion Tool (frecuencia de búsqueda de un término), Keyword Selector Tool (número de veces que ha sido un término buscado en el último mes) o Submit Express (herramientas que validan la densidad de las palabras clave); para la elección correcta de las etiquetas meta.

Técnicas Seo

Antes de utilizar todo esto se deberá conocer cómo reaccionan los buscadores ante ellas y decidir si es óptimo su uso.



En relación a las palabras clave, adjunto un trabajo de Pablo E. Román y Juan D. Velásquez, del Departamento de Ingeniería Industrial, de la Universidad de Chile, en Santiago de Chile. En este trabajo se presenta una metodología para identificar palabras claves en un sitio web (web site keywords) que más atraen el interés de sus visitantes.
Este método se basa en el supuesto de que existe una alta correlación entre el tiempo que gasta un usuario visitando una página durante su sesión y el interés que su contenido le despierta. Este método fue probado en datos originados enun sitio web bancario. A la luz de los resultados, se concluye que el método es efectivo para identificar las web site keywords, las cuales pueden ser usadas para futuros contenidos textuales de las páginas del sitio.




http://wi.dii.uchile.cl/publications/conferences/Roman2006.pdf


3. Técnicas SEO

Las Técnicas SEO hacen referencia al conjunto de prácticas que se utilizan para optimizar el posicionamiento en buscadores.
Podemos establecer, a grandes rasgos, dos grandes apartados:
  • Técnicas generales. Reglas básicas de aplicación que debemos considerar en todos los casos.
  • Técnicas específicas de página. Procedimientos aplicables, de forma individual, a cada página de un sitio.

Aspectos a tomar en cuenta:
  • Introducir mala ortografía de las palabras clave que suelen ocurrir al teclear rápido. Por ejemplo: “compar” en vez de “comprar”.
  • Usar nombres de archivo que contengan frases clave. Por ejemplo: si se puede llamar http://www.tuweb.com/comprar-mi-producto.html, no lo llames solamente .../comprar.html
  • No usar guiones bajos en nombres de archivo largos, usar guiones normales (-).
  • Usar palabras clave en el título de la página.
  • Utilizar título y etiquetas meta diferentes para cada página.
  • Usar cabeceras (h1, h2, h3…) para definir importancia en el contenido y colocar en ellas las palabras clave.
  • Utilizar palabras clave en el “anchor text” de los enlaces,rellenar todas las etiquetas alt de las imágenes y title de los enlaces.
  • Servirnos de la mejor tecnología para que la página cargue rápido y el usuario no tenga que esperar.
  • No utilizar frames.
  • Imprescindible un mapa del sitio virtual(para el usuario), otro en XML (para los buscadores), y el archivo robots.txt
  • En cualquier página web sobre posicionamiento SEO se pueden encontrar más técnicas como estas por docenas: Seomoz tiene un ranking de técnicas de posicionamiento elaborado por los más prestigiosos SEO a nivel internacional.

A continuación exponemos un vídeo explicativo sobre cómo mejorar el rendimiento mediante técnicas SEO para lograr una mayor repercusión en la red:


Aspectos Seo

3.1. Generales

Las técnicas generales SEO recogen un conjunto de protocolos de carácter global que nos ilustra sobre la forma de comportarse los buscadores y, por tanto, debemos considerar de manera integral en la mejorar de posicionamiento de cualquier sitio web.
La importancia de optimizar los enlaces
Como ya hemos visto, los buscadores privilegian los enlaces. No en vano, es ese el modo por el que son capaces de recorrer la topografía de la Web. Son sus vías de reconocimiento y los canales a través de los cuáles mapean el tamaño y dimensiones de la Red.
Por ello, no es de extrañar que el valor de una página esté directamente relacionado con el número de enlaces que esta posee. Esto, que es conocido por los interesados y profesionales del posicionamiento, no es, sin embargo, suficiente hoy en día. Los programas de análisis de los buscadores son, cada vez, más sofisticados, por lo que debemos, además de acumular enlaces, tener en consideración otras cuestiones vinculadas respecto a la calidad de estos:
  • Los enlaces que proceden de dominios Top-level (.es, .edu, .org…) tienen más relevancia que los que apuntan desde otros dominios o subdominios.
  • El dominio del que proceden los enlaces, o a los que apunta, es muy relevante. Todos los enlaces no tienen el mismo peso. Por ejemplo, comparando la dirección IP de alguien que da links con la dirección IP de quien recibe ese link. Si al hacerlo se comprueba que ambas direcciones coinciden en el bloque C (la tercera parte, o sea, la penúltima, de las cuatro que forman el número IP), lo más probable es que ambas direcciones vengan del mismo proveedor e, incluso, tal vez del mismo servidor. (Fischer, 2007, pág. 193) En ese caso, el buscador devaluará el valor de esos enlaces.
t7-analisisip.png
ANÁLISIS DE UNA IP
ANÁLISIS DE UNA IP
  • Las redes naturales de enlaces, es decir, aquellas que siguen patrones lógicos de crecimiento, de relación temática, etc. son privilegiadas frente a aquellas otras que parecen artificiales (intercambio o compra de enlaces, granjas de enlaces…)


Medidas vinculadas con los enlaces: número y calidad
Si los enlaces poseen tal importancia, es lógico que se hayan establecido distintas métricas que pongan en valor una página o un sitio web en función de cuántos enlaces apuntan a ella y la calidad que estos poseen (de alguna manera, entre otros muchos factores, la calidad vendrá determinada, a su vez, por el valor que posee cada una de las páginas o sitios desde los que apuntan esos enlaces)
La importancia de un documento crece cuando otros documentos importantes incluyen links a él. Lo decisivo no es el número absoluto de links que lleven a la página. Naturalmente uno se pregunta de inmediato cómo consigue un documento ser “importante”. La respuesta es muy sencilla: consiguiendo que otros muchos documentos incluyan vínculos a su página. (Fischer, 2007, pág. 139)
El algoritmo PageRankTM (PR) es uno de los más importantes. Creado por los dos fundadores de Google, ofrece un aalor numérico, de 1 a 10, que muestra la relevancia comparativa otorgada por Google a un sitio Web dentro de Internet, en función del número de enlaces que recibe un sitio y el valor (calidad) otorgado a los mismos. Se trata de una referencia fundamental a nivel empresarial.

El algoritmo HITS es un complejo algoritmo creado por Jon Kelinberg que mide la importancia de un documento en la Web, tomando como referencia la importancia de los sitios web en los que aparece citado, referido o enlazado. La relevancia se obtiene considerando dos categorías de sitios web relevantes:

  • Hub”: Sitios muy enlazados (como los directorios DMOZ, Google o Yahoo!) y que, a su vez, enlazan a sitios considerados relevantes. Normalmente, además, poseen administradores que evalúan la calidad de los enlaces, lo que supone una garantía añadida para los buscadores.
  • Authority”: Sitios que representan, en versión digital, el concepto de la autoritas latina; es decir, sitios web que representan para muchos (y lo demuestran la cantidad de enlaces que apuntan a ellos) una referencia indiscutible en un tema dado. Aquellos enlaces que apuntan desde estos sitios son especialmente valorados.

Backlinks es una métrica que muestra el número de enlaces que se dirigen a una página web determinada. Por tanto, resulta fundamental conocerla, y mejorarla, porque es un índice básico de la calidad SEO de nuestro sitio y, en consecuencia, del valor de nuestro dominio. Cada buscador utiliza una sentencia distinta para conocer el número de backlinks. Por ejemplo:

  • En Google, se debe poner en la caja de búsqueda: “link:<URL a evaluar>”
  • En Yahoo!, acceder a este enlace e indicar la URL que se desea comprobar.

Es necesario actualizar a menudo nuestra información
Aunque es algo no comprobado (ningún administrador de los buscadores más conocidos ha dicho jamás que esto sea así) lo cierto es que los consultores SEO afirman, por los estudios de carácter longitudinal realizados sobre cómo los buscadores han evolucionado en el tratamiento de pequeñas actualizaciones (precios, ofertas…), que los motores de búsqueda están refinando sus algoritmos de tal modo que pueden privilegiar aquella información que parece, o se considera bajo diferentes parámetros, actualizada.
Después de todo, esto parece lógico. Los buscadores, insistimos una vez más, quieren ofrecer los resultados que satisfagan de la forma más eficaz las preguntas de quienes confían en ellos para encontrar información, servicios…, así que es razonable pensar que aquello que esté actualizado, pueda ponderarse mejor.
Resulta interesante en este sentido el sistema de indexación de la web de Google, llamado Caffeine y lanzado en 2010 que mejora en un 50% los resultados actualizados en búsquedas [3] . Caffeine rastrea las webs de una manera más eficaz que el anterior sistema y detecta mejor contenido reciente a gran escala. Esto permite a los buscadores priorizar los resultados más actuales. Un ejemplo ofrecido en el Blog de Google es la búsqueda de la palabra "Olympics", que mostrará resultados sobre las Olimpiadas 2012 de Londres, en lugar de sobre las anteriores de 2008.

La antigüedad de los dominios es un grado
De esta gráfica forma podremos entender mejor este principio. Y es que, en un mundo tan volátil como el de la Red, la permanencia, la regularidad y la consistencia es un elemento de valor de primer orden.
Todos hemos experimentando alguna vez la frustración de haber descubierto, en una página de resultados, un enlace que parece ir como anillo al dedo a la pregunta que estamos tratando de resolver y, cuando se pulsa, sale una respuesta como la de la imagen adyacente.
Si esto nos sucede muy a menudo, posiblemente desconfiaremos de que el buscador esté haciendo bien su trabajo, así que es evidente que, como desean hacerlo bien, tratarán de evitarlo por todos los medios.
Por otra parte, las malas prácticas SEO, o lo que
es lo mismo, el deseo de engañar a los motores de búsqueda posicionado de forma alterada un dominio en los resultados orgánicos del SERPs, ha hecho que estos tomen medidas para evitarlo, y una de ellas es favorecer aquellos dominios de larga duración: los “Crianza” y “Reservas” de buena añada.
Como confirmación de esto, desde el año 2005, Google comenzó a aplicar lo que se conoce como efecto Sandbox. Se trata de un filtro que trata de evitar que los sitios web de reciente creación puedan obtener un posicionamiento clave de sus palabras clave en las SERPs, independientemente de que posea una buena optimización y/o numerosos backlinks. Se trata de eludir la actuación de los spammers y las prácticas Black Hat SEO.
Como contrapartida, en los últimos años han crecido los parking de dominios, portales dedicados a la compra, subasta y reventa de dominios con un buen SEO y un alto valor en las principales métricas (PageRank, HITS, Traffic Rank de Alexa…) Un auténtico mercadeo al que, como veremos, también se trata de poner coto mediante los sistemas de análisis de Black Hat SEO y, también, desde las entidades encargadas de algunos dominios Top-Level como, por ejemplo los .es.
Conclusiones:
  • Se debe sacar el máximo partido a los dominios consolidados
  • Evitar cambiar de dominio (aunque sean leves cambios de nombre
  • Cuando se realizan campañas específicas, salvo que se requiera realmente, puede ser preferible utilizar un subdominio que crear un dominio nuevo desde cero.


Disponer de un buen servicio de hosting
La web está llena de ofertas mareantes para alojar nuestro sitio Web. Realmente encontramos prestaciones casi ilimitadas a precios muy bajos. Pero, ¿cuántas cosas conocemos que son, a la vez, buenas, bonitas y baratas? Pues ya tienes la respuesta.
Como en todo, debemos prestar atención al servicio de alojamiento que contratamos para nuestro sitio web. Existen numerosas posibilidades (hosting compartido, dedicado, servidores virtuales VPS, housing…) y lo importante es contratar aquella que mejor responde a las necesidades que tengamos.
¿Pero qué importancia posee esto desde la dimensión del SEO? Pues, singularmente, mucha. De entrada, la fiabilidad del servicio (tolerancia a errores, nivel de disponibilidad, gestión de backups, servicio técnico y soporte…), pero, sobre todo, el tiempo de espera y de respuesta para mostrar el sitio; es decir, cuánto tiempo tarda, una vez un usuario ha solicitado una página, en responder y ofrecer la misma.
Nuevamente, como los buscadores tratan de satisfacer al usuario, los menores tiempos de respuesta serán mejor valorados.

Disponer de un buen contenido y/o ofrecer servicios de alto valor añadido
Aunque la metáfora del tránsito de la Web nos lleva por playas en las que se surfea y mares apacibles en los que navegar, lo cierto es que la mayor parte de los internautas son auténticos exploradores que llevan cartas de navegar y finalidades muy precisas.
Esto, desde luego, no va en contra de la natural serendipidad que embarga cualquier exploración en la web, pero sí nos dice que los usuario buscan, directa o indirectamente, información y servicios que puedan satisfacer necesidades concretas.
Por ello, normalmente triunfan aquellos sitios que son capaces de cubrir esa demanda mediante buenos contenidos, materiales de calidad y servicios de alto valor añadido. Es evidente que ello supone tiempo, esfuerzo y recursos, pero vale más poco contenido y de calidad que mucho y de escaso valor. La calidad se recompensa con accesos, los acceso arrastran enlaces, los enlaces aumentan (como ya sabemos) el SEO, y el SEO genera confianza y valor en nuestros sitios.

Ser “socio” de los mejores Clubs
Ya nos hemos referido a la volatilidad de la Web anteriormente. Esta, unida a su carácter abierto hace que las fuentes de autoridad estén mucho más dispersas y sea más difícil evaluar el valor real de la información. Por esta razón, los buscadores confían en determinados directorios que se convierten en fuente de referencia privilegiada. Si es así, caeremos en la cuenta de la importancia de ser “socios” (estar indexados) en dichos directorios.
El mayor directorio internacional es el Open Directory Project (DMOZ), una enorme base de datos clasificada temáticamente y que es gestionada por grupos de voluntarios, especialistas contrastados en cada ámbito, que evalúan críticamente una por una todas las peticiones de los que quieren ser indexados. Esta revisión manual garantiza el nivel de calidad del índice, por lo que es evidente las razones que avalan el prestigio que para los buscadores, y para otros directorios de referencia (Google, Yahoo!...) posee.
Consejo: Hay que tratar de pertenecer a este Club.

SEO en España

En el siguiente vídeo podemos aprender, de la mano de expertos en SEO, toda la actualidad sobre esta técnica, así como consejos útiles de su aplicación a la realidad. Se trata del Evento SEO que se celebra periódicamente, en este caso en Zaragoza, durante el Congreso Web 2012. En el participaron varios especialistas, de los más reconocidos en la materia a nivel español, José Linares, Lakil Essady, Ricardo Tayar, Miguel López y Miguel Pascual.



3.2. Específicas del sitio

Las técnicas generales recogen procedimientos que son aplicables de forma global a un sitio web, o lo que es lo mismo, que debemos tener en cuenta de forma global a la hora de diseñarlo.
En este apartado trataremos las siguientes:
  • Generar palabras
  • adecuadas
  • Optimizar el texto visible
  • Optimizar la densidad de palabras clave
  • Dar semántica a las páginas del sitio
  • Optimizar el nombre de dominio
  • Incluir etiquetas ALT para todos los elementos no textuales
  • Optimizar adecuadamente los documentos
  • Linkbainting
Todos los responsables de sitios web quieren conseguir enlaces y una buena manera de hacerlo es aprovechar la viralidad de la WWW para intentar que otros webmasters hablen de nuestro sitio web e inserten un link hacia una de nuestras páginas. El linkbaiting es la técnica de crear una buena historia y promocionarla adecuadamente para conseguir el mayor número de enlaces en el menor tiempo posible. Según la wikipedia, es un término que traducido literalmente del inglés significa “enlace cebo”, y hace referencia a cualquier contenido o característica de un sitio web que de alguna manera estimula a los visitantes a crear enlaces hacia él desde sus propias webs.

3.2.1. Generar palabras clave adecuadas

Valiéndonos del aforismo de Mark Twain, podemos decir que la diferencia entre una palabra clave adecuada y la que es casi adecuada es la misma que entre un rayo y una luciérnaga. Tal es así, que parte de los estudios SEO que se realizan están dirigidos en este sentido: descubrir, para cada caso, quién es el rayo y quién la luciérnaga. No tenemos una bola de cristal, pero sí ciertas técnicas y muchas herramientas ([[#Herramientas_keywords|ver anexo]]) que nos ayudan en la tarea.

Lo primero que debemos saber es que la forma de buscar por palabra clave ha evolucionado con el paso del tiempo. Recogiendo datos de OneStat, este sería el modelo actual que impera en la Red, y cómo ha evolucionado en relación al año 2001.
t7-evolucion-busquedas.png
EVOLUCIÓN DEL MODELO DE BÚSQUEDAS POR PALABRAS CLAVES.
EVOLUCIÓN DEL MODELO DE BÚSQUEDAS POR PALABRAS CLAVES.
Como se observa, se ha pasado de una búsqueda basada fundamentalmente en una sola palabra, a búsquedas más complejas en las que se incorporan varias palabras, incluso frases completas.
¿Pero cómo lograr buenas palabras clave, esas que los usuarios introducirán para encontrarnos? Algunos consejos:
  • Ponerse en el lado del usuario. Pensar en el problema que pretende resolver, y la forma en la que lo describiría.
  • Focalizar el elemento fundamental que ofrece nuestro sitio.
  • Focalizar el público objetivo, el target, y cómo realiza sus búsquedas este.
  • Potenciar los elementos diferenciales, y compararnos con la competencia, evaluando qué palabras clave utilizan.
  • Considerar que los buscadores diferencian palabras clave que estén en plural o singular, o que figuren escritas juntas o por separado (socio económico o socioeconómico)
  • Tener en consideración las diferencias lingüísticas regionales o dialectales, los argots, los lenguajes técnicos… que puedan estar vinculadas con nuestros públicos objetivos.
  • Seleccionar palabras clave que sean utilizadas, además, en el texto de la información (en la página)
  • Aunque los buscadores tienden a obviar determinadas palabras como los artículos, las preposiciones, los adverbios, etc. según el tema que tratemos, conviene asegurarse sobre cómo se comportan los buscadores en cada caso; se recomienda hacer pruebas para ello.
  • Ordenar las palabras clave por relevancia. Las primeras siempre son las más importantes para los buscadores.
Otro aspecto que debemos considerar es el número de palabras clave que conviene incluir. Aunque no está establecido oficialmente en ningún sitio, lo que sí sabemos es que sobreoptimizar el sitio cargando una lista indefinida, y absolutamente diversa, de términos clave es un error. Nuestras palabras clave deben ser eficaces, y para ello, apuntar a la diana. Por ello, se suele establecer una horquilla de entre 6 y 12 palabras clave como el número óptimo que debemos incluir. Eso sí, generar, como veremos, cierta redundancia de las palabras clave en diferentes elementos de la página será positivo.

Imagen de www.bulhufas.es
Imagen de www.bulhufas.es
Imagen de www.bulhufas.es

El primer paso en este gráfico nos señala el concepto de cola larga (long-tail) dirigido a B2Bs (Business to business), con un gráfico que explica exactamente lo que representa este concepto como base para aquellos que trabajan con SEO. En la ilustración, existe la relación de la competición por una palabra clave por una frecuencia de búsqueda específica. Siempre cuando se hace una búsqueda usando una sola palabra clave, la competencia es muy amplia y muy generalizada, haciendo así que existan mayor cantidad de búsquedas. Sin embargo, conforme el eje X aumenta su valor, disminuye la frecuencia de búsqueda y cada vez se tienen una búsqueda más específica, utilizando varias palabras clave (más de 4 palabras), y debido a una mayor especificación de la búsqueda, la tasa de conversión de clics realizados en esta búsqueda, es mucho mayor que las búsquedas más generales. Con eso, podemos deducir que, en ocasiones, la especificidad de una búsqueda hace que el número de ventas pueda ser mayor al ir dirigido a un público muy específico.

Existen determinadas herramientas que pueden orientarnos en la creación de palabras clave adecuadas para nuestro sitio. Google se asemeja a un poderoso repositorio con numerosas aplicaciones web, y como no es de extrañar, dispone de diferentes herramientas para esta necesidad:
  • Google Insights. Esta aplicación sirve para analizar las tendencias de búsquedas de los usuarios de Google. Es muy útil para chequear la estacionalidad (qué temas están "de moda" en cada época del año), así como tendencias sobre lo que se está buscando en la web. Permite buscar por sitio web, por imágenes, por noticias y por productos.
  • Google Addplanner. Se trata de un localizador de sitios que son o pueden ser competencia directa para nuestra web. Utiliza datos demográficos para identificar audiencias en función del perfil al que se va a dirigir nuestra web y para averiguar quiénes son nuestros competidores directos. Es decir, con esta herramienta podemos averiguar qué sitios web visita nuestro público objetivo.
  • Google Trends. Una vez que con Google Addplanner hemos identificado a nuestros competidores, con Google Trends podemos averiguar a través de qué palabras clave los encuentran sus propios visitantes.

3.2.2. Optimizar el texto visible

Entendemos como texto visible todo aquello que el navegador puede mostrar (se excluyen, por tanto, la información de cabecera de los ficheros html, etc.)
Los buscadores penalizan la inserción de texto en una página que no pueda visualizar el navegador, bien porque se oculta con el mismo color de un fondo (texto rojo sobre fondo rojo, etc.), mediante plantillas de estilo trucadas, capas fijas de color, etc. Como no les gusta lo penalizan, y tarde o temprano descubren el truco. El consejo: ¡no hacerlo!

3.2.3. Optimizar la densidad de palabras clave

Para conocer cuál es el foco temático de una página los buscadores contabilizan las palabras incluidas en la misma. Con ese recuento, sacan estadísticas y definen cuáles son los ejes, o palabras clave, que marcan el contenido de la misma.
La relación que se establece entre las veces que aparece una palabra en una página y el número total de palabras es lo que se conoce como densidad de palabras clave.
A simple vista, podría parecer que cuanto mayor es ese número, mejor. Pero los buscadores están precavidos ante prácticas fraudulentas, y cuando creen que se está realizando stuffing (es decir, plagando un texto de una determinada palabra de manera forzada) penalizan a la página.
El valor idóneo actualmente para una densidad de palabras clave oscila entre el 3 y el 4%.
Es importante comprobar que ese el valor máximo (o entorno a él) de la palabra o palabras foco, y que no hay otras que, accidentalmente, superan dicha cifra, pues de otro modo el buscador tomará a aquellas como más relevantes.

3.2.4. Dar semántica a las páginas del sitio

Según Castells (2005), el objetivo de la semántica web es que las aplicaciones puedan entender y utilizar el contenido de toda la red, facilitando la localización y compartición de información y servicios. Por eso es muy importante marcar adecuadamente los elementos de todas nuestras páginas. Ello facilita la indexación semántica de los distintos elementos de un sitio.
Los títulos deben estar marcados como tales (<H1>, <H2>…), las listas numeradas y sin numerar, las citas… Todas, independientemente del diseño, deben aplicarse para definir la estructura correcta del documento. Los buscadores lo agradecerán, y los resultados de nuestros sitios, también.
No está de más recordar que la semántica está cobrando tanta importancia, que rebasa las recomendaciones para la creación de páginas web y afecta ya a la de documentos. En este sentido, aplicaciones como LyX permiten escribir documentos, trabajos, tesis... basándose ya no en la idea WYSIWYG ("what you see is what you get", o "lo que ves es lo que obtienes") propia de editores documentales como Word (Microsoft), que primam el aspecto que va a tener el documento cuando vaya a ser impreso, sino WYSIWYM ("what you see is what you mean", "lo que ves es lo que quieres decir"). El paradigma WYSIWYM implica estructurar el contenido en función de su significado e importancia. Así, en una dinámica semejante a la de llenar de contenido una web que tiene una estructura determinada, las aplicaciones que utilizan este nuevo concepto de edición documental permiten al autor centrarse en el contenido mismo y no en su apariencia.
Es interesante citar la introducción que contiene el propio programa LyX, que explica su filosofía:
Parte del reto inicial en el uso de LyX está en el cambio de forma de pensar que el usuario debe hacer. En otros tiempos, lo que teníamos para crear documentos eran máquinas de escribir, así que aprendimos algunos trucos para sortear sus limitaciones. Subrayar, que es poco más que sobreescribir con el carácter “_”, se convirtió en una forma de resaltar texto. Para crear un cuadro, establecías a mano el ancho de cada columna y ponías las tabulaciones necesarias. Lo mismo se aplicaba para cartas y otros textos sangrados a la derecha. Además, la ruptura de palabras al final de línea requería ser muy cuidadoso y previsor.En otras palabras, hemos sido entrenados para preocuparnos por los pequeños detalles de “qué carácter va en qué lugar”. Como consecuencia, casi todos los procesadores de texto se basan en esta mentalidad. Todavía usan tabuladores para añadir espacios en blanco. Todavía te tienes que preocupar de en qué parte exacta de la página saldrá cada cosa. Resaltar texto significa cambiar el tipo de letra, similar a cambiar la rueda en una máquina de escribir. Esta es la filosofía subyacente en un procesador de textos del tipo WYSIWYG: “What You See Is What You Get” (“Lo que ves es lo que obtienes”). Desafortunadamente, esto se convierte con frecuencia en “Lo que ves es todo lo que tienes”.Aquí es donde LyX difiere de un procesador de texto corriente. No te tienes que preocupar de que una letra vaya en un sitio determinado. Le dices a LyX lo que estás haciendo y él se preocupa de todo lo demás, siguiendo un conjunto de reglas llamado estilo.
[...]Veamos ahora el problema de la consistencia. Cinco días más tarde, abres tu informe y comienzas la sección 4. Sin embargo, has olvidado que estabas usando letra en negrita de 18 puntos, y usas la de 16, así que acabas escribiendo el encabezado de la sección 4 con un tipo de letra distinto al que usaste para la sección 1. Este problema ni siquiera existe en LyX. El ordenador se encarga de todo el tedioso trabajo de llevar la cuenta de tamaños y fuentes, no tú. Al fin y al cabo, para eso está la computadora.
.
LyX.png
LyX.png


Como vemos, la semántica fortalece su presencia en todos los ámbitos informáticos, pero es sólo el comienzo.

Como complemento a este apartado de la semántica recomendamos este vídeo de la ponencia ofrecida por el consultor SEO Fernando Muñoz en el congreso Web Zaragoza 2011. En su charla el "Señor Muñoz" como se le conoce profesionalmente, habló de que al intentar mejorar el posicionamiento de tu sitio web, no debemos olvidar que el contenido no lo estamos escribiendo para Google, sino para que lo lean personas. Por tanto la aplicación de las técnicas SEO no debe empañar la finalidad última de la web que es la comunicación.



3.2.5. Optimizar el nombre de dominio

El nombre de un dominio (la URL) es el primer elemento de “reputación digital”. Debemos concederle una importancia capital, ya que en él radica buena parte de nuestro éxito.
Cuando es viable, el que contenga la palabra clave foco de nuestro sitio, ayudará enormemente a mejorar la visibilidad del mismo en los buscadores.

La URL, acrónimo de Uniform Resource Locutor, se refiere a la dirección única que identifica a una página Web en Internet, y permite localizar o acceder de forma sencilla a cualquier recurso de la red. Cada elemento de Internet tendrá una URL que lo defina, ya se encuentre en un servidor de la WWW, FTP, gopher o las News.

istockphoto_2753750-internet-url.jpg

3.2.6. Incluir etiquetas ALT a todos los elementos no textuales

Los buscadores son usuarios “ciegos”. Cuando encuentran por ejemplo una imagen son capaces de reconocer que está ahí, pero poco más; salvo que esta tenga un texto alternativo que explique su contenido, no podrán indexar la información que contiene o representa dicha imagen. Esto mismo, vale para cualquier elemento no textual.

3.2.7. Optimizar adecuadamente los documentos

Los buscadores privilegian las páginas que poseen un tamaño adecuado, es decir, que está optimizada en relación al contenido que presenta.
Normalmente, se maneja la cifra de 101 Kb como el límite razonable de tamaño (peso), pero lo cierto es que esto depende de muchos factores, especialmente de la comparación que se haga en relación a la competencia.
En cualquier caso, debemos procurar optimizar al máximo los sitios, jugando siempre en un equilibrio entre optimización y tamaño.

3.2.8. Linkbaiting

Técnica basada en explotar el carácter viral de la web para difundir una información y/o un documento, y lograr, mediante este sistema, ampliar el número de enlaces a una Web de la forma más rápida que sea posible.
Requiere dos pasos fundamentales:
  1. Crear el elemento de interés que aporta valor añadido (un artículo, un vídeo, un podcast… que sirva para resolver un problema identificado de los usuarios; una utilidad; un relato interesante, curioso…; un concurso, un premio…)
  2. Difundirlo. Aprovechar las diferentes vías de promoción viral para que llegue a la mayor cantidad de gente posible (emails del círculo social cercano, líderes de opinión – influencers – de blogs, sistemas de recomendación…)
http://comunicacionmultimedia.wikispaces.com/T7.+Desarrollo+de+proyectos

Un ejemplo de linkbating es el blog Aegisub, donde su autor planteó la pregunta ¿y si los lenguajes de programación fueran religiones? y aportó respuestas curiosas a cada lenguaje listado. En este artículo se puede apreciar las siguientes características del autor y el contenido.
  • Título curioso
  • Polémico
  • Tema controvertido y puede que un tanto “tabú”
  • Muy original
  • Requiere imaginación y conocimiento

El artículo consiguió cientos de comentarios y de enlaces a través de una difusión por redes sociales y agregadores de noticias.

Conclusión: la combinación de creatividad y contenidos originales de calidad puede ayudar a crear iniciativas de linkbaiting con un efecto viral muy positivo para tu organización.


link_baiting.gif
Imagen de Alliance.com
link_baiting-1024x627.jpg
Your SEO pro



3.2.9. Emular el funcionamiento del buscador
A través de los emuladores o simuladores de los motoresde búsqueda podemos comprobar cómo rastrearán éstos (especialmente los más conocidos como GoogleBoot…) las páginas de nuestro sitio web, pues siguen, en lo básico, los mismos procedimientos.

A través del análisis de los resultados que ofrecen podemos comprobar cuán optimizada están las páginas de nuestro sitio para que la indexación de los buscadores sea lo más efectiva posible.

t7-spidesimulator.png
SPIDER SIMULATOR
SPIDER SIMULATOR

3.3. Específicas de página

Las técnicas SEO específicas de página, se refieren a todos aquellos procedimientos que debn seguirse en la elaboración de cada página con el fin de garantizar su mejor posicionamiento en los buscadores.
Normalmente, a la aplicación del conjunto de estas técnicas se denominan como One-Page, y suponen, básicamente, incluir información relevante en las principales etiquetas de la cabecera de un fichero HTML. Señalamos, aquí, solamente las más importantes.

3.3.1. Etiqueta Title

Es especialmente importante presentarle atención. Además de ser la primera, es la que muestra en el navegador (línea de cabecera) el nombre de la página, y, por tanto, la que toman como referencia inicial los buscadores, además de que es el nombre que se registra en bookmarks, etc.
El título debe ser especialmente descriptivo, suficiente y claro, e incorporar, siempre que se justifique, la palabra clave foco de nuestro sitio. Conviene que el título no sea especialmente largo (no más de 65 caracteres), y que las palabras más importantes vayan al principio.

El motivo por el cual se recomienda (lo hace el World Wide Web Consortion W3C) utilizar menos de 64 caracteres en el título es porque los motores de búsqueda varían en cuanto al tamaño del título que indexan. Todavía hay buscadores que sólo indexan 40 o 50 caracteres, por lo que cortan el resto del título, que en algunos casos puede ser contenido importante de cara al posicionamiento web. Por eso, permanecer por debajo de 40 caracteres en el título es la estrategia más adecuada e inteligente.


t7-etiqueta-title.png
t7-etiqueta-title.png


3.3.2. Etiqueta Description

Dentro del grupo meta-tags, la primera etiqueta es Description, en la que se incluye un breve resumen (abstract) del contenido de la página.
Es muy importante que el contenido incluido en la descripción sea especialmente preciso, y responda al contenido de la página. De otro modo, Google obviará esta información y generará su propio resumen.

t7-etiqueta-description.png
t7-etiqueta-description.png


3.3.3. Etiqueta Keywords

Otra etiqueta que pertenece al grupo meta-tags, y que incluye el contenido de las palabras claves seleccionadas, y cuyas recomendaciones ya hemos tratado.

t7-etiqueta-key.png
t7-etiqueta-key.png


3.3.4. Etiqueta Robots

Dentro del grupo meta-tags, la etiqueta Robots ofrece información a los motores de búsqueda sobre qué se quiere que hagan con la página, con la combinación de dos instrucciones: Index (la página a la que apunta) y follow (si el robot debe rastrear los vínculos de esa página o no)

t7-etiqueta-robots.png
t7-etiqueta-robots.png

3.4. Técnicas SEM

Como tratamos al inicio, las Técnicas SEM (Search Engine Marketing) se encargan, a partir de los procedimientos generales SEO, de promover el posicionamiento, la visibilidad y la “encontrabilidad” en los resultados ofrecidos por los sistemas de recuperación de información de sitios o contenidos desplegados en Internet, mediante diferentes técnicas de eMarketing como los enlaces patrocinados, publicidad contextual, inclusión patrocinada en las listas de resultados…
La mayoría están basadas en la variable producto (Product eMarketing) del Marketing-Mix, como sucede en el caso de los enlaces patrocinados. En palabras de Manuel Alonso
El conjunto de técnicas conocido como Marketing de Buscadores consta de las técnicas orientadas a optimizar los resultados directos (SEO) de los buscadores y de las destinadas a sacar el máximo partido de los enlaces patrocinados (SEM) (2009, pág. 2)
¿Qué es el SEM?
El SEM (Search Engine Marketing) es una forma de mercadotecnia en Internet que busca promover los sitios web mediante el aumento de su visibilidad en las páginas de resultados de motores de búsqueda, como Google.
Muchos expertos la definen como una forma rápida, económica y eficaz de hacer publicidad, conseguir clientes potenciales y generar ventas.
SEM se refiere generalmente a todo el proceso de promoción y publicidad online de un sitio web que influyen en los resultados de los buscadores.

Diferencias con SEO
SEO es uno de los componentes del SEM y se concentra en aquellas técnicas utilizadas para mejorar el posicionamiento orgánico en los buscadores, y cuando decimos orgánico nos referimos al posicionamiento natural (no pagos) que un sitio obtiene luego de una búsqueda específica en los motores de búsqueda.

Según el Search Engine Marketing Professional Organization, podemos entender como métodos SEM:
  • La optimización del motor de búsqueda
  • El pago por la colocación en buscadores PPC y la publicidad contextual, todo siempre que haya un pago de por medio.
  • En forma directa: nos referimos a estrategias de publicidad pagada en los resultados de las búsquedas WEB. Esta técnica es muy usada debido a que ofrece resultados inmediatos. Pues, la página de cualquier negocio aparecerá en los buscadores de un día para otro, obteniendo visitas rápidamente.
  • Quienes utilizan el sistema SEM de publicidad, pueden medir con gran exactitud el retorno de su inversión viendo las estadísticas arrojadas día a día. Además, permite llegar a una gran cantidad de público objetivo sin limitación geográfica o de horarios.
En la siguiente imagen se puede visualizar las técnicas de Search Engine Marketing más importantes utilizadas para promocionar y aumentar el tráfico de un sitio web:
Claves para la optimización de una estrategia SEM
En la siguiente infografía se puede apreciar una serie de claves para llegar al grado de optimización de una estrategia SEM haciendo un uso adecuado y correcto de las Lansing pages.
Una de las claves fundamentales del SEM se basa en encontrar palabras clave más adecuadas e idóneas encaminadas a lograr un propósito o fin concreto. La otra clave importante consiste en dirigir a los propios usuarios hacia el sitio correcto, que no siempre es la portada de una web. En la infografía, elaborada por Blue Caribu, se aportan una serie de pautas para optimizar las landing pages o páginas embudo, a donde se llega tras pinchar en cualquier enlace.
Otras claves principales para su optimización o uso

  1. Redactar y optimizar el texto de los anuncios: gran parte del éxito de una campaña publicitaria está en el texto de los anuncios. Una redacción optimizada, además de atraer muchos más usuarios, en algunos casos -como el de AdWords de Google- también supondrá mejor posicionamiento dentro del grupo de los enlaces patrocinados. Este sistema premia a los anuncios que tienen mejor porcentaje de clics con mejores posiciones, y castiga a los que no consiguen llamar la atención del usuario incluso con la eliminación dentro de determinadas búsquedas.
  2. Elegir bien dónde poner los anuncios la elección del sitio web donde anunciarse es clave. Hay muchas opciones:
  • Los buscadores como Google y Yahoo
  • Los portales y sitios Web en los que se puede insertar publicidad contextual, además de las populares redes sociales como Facebook.
Se debe analizar bien la elección ha realizar y para ello, se debe establecer en función de una serie de factores:
  • El target al que nos dirigimos
  • El contenido web o del portal, y contrastarlo con el contenido del que trate cada página web o portal en el que se plantea publicitar.
  • Respecto a la elección de la red social más adecuada para cualquier posicionamiento, resulta muy útil volver a observar el target y analizar sus comportamientos online. En todo caso, Facebook siempre estará entre las más recomendadas, gracias a su enorme popularidad mundial.
3. Aprovechar la época de alta demanda: realizar campañas de SEM para épocas del año en que la demanda de tu negocio es más alta, o bien, para el lanzamiento de algún producto, puede resultar muy interesante.

4. Complementar: ya que también existen desventajas. Al utilizar SEM, la aparición o no del sitio web va a estar condicionada a que siempre tengamos cierto presupuesto necesario para destinar a Google, ya que en cuanto se pudiese dejar de pagar, el sitio web podría quedar nuevamente en el olvido. Por tal motivo, siempre es recomendable acompañar las campañas de SEM con una de SEO, o mejor dicho, reforzarla. Es mejor hacer una combinación de las dos, sobre todo en los periodos iniciales de cualquier campaña de marketing o difusión de un proyecto, sin olvidar, que el SEO aportará resultados más a largo plazo.

3.4.1. Enlaces patrocinados o de pago

Los enlaces patrocinados son uno de los sistemas más habituales dentro de las técnicas SEM. El espacio que poseen es especialmente reducido, por lo que acertar con su composición es fundamental. Se componen de un pequeño texto (denominado creatividad) y un enlace que “arrastra” hasta la web anunciante.
Los buscadores presentan esta publicidad está orientada en función del comportamiento del usuario, o lo que es lo mismo, según los términos clave que introduce en sus búsquedas, la relación entre diferentes búsquedas realizadas sobre un tópico, los refinamientos que se vayan haciendo, etc.
En los enlaces patrocinados el anunciante paga por cada clic que los usuarios realizan por ellos (no por impresiones), y puede decidir qué grado de concordancia quiere entre las búsquedas realizadas por los usuarios y la posible aparición del enlace patrocinado en el área de pago del SERP:
t7-serp.png
t7-serp.png
Actualmente hay diversas empresas que ofrecen este servicio vinculado a los principales buscadores, pero, de facto, son unas pocas las que dominan la mayor parte del mercado:
t7-serp2.png
t7-serp2.png
Todos los servicios ofrecen, además de la integración en buscadores, redes propias de afiliados (portales y sitios web asociados) que facilitan la inserción de publicidad contextual (vinculada a la temática de la página asociada, del comportamiento del usuario, del histórico de búsquedas que haya realizado…)

3.4.2. Publicidad contextual

No quisiéramos finalizar este epígrafe sin comentar, aún brevemente, cómo opera la publicidad contextual, especialmente para poder diferenciarla adecuadamente de los enlaces patrocinados.
Se conoce como publicidad contextual a todos aquellos enlaces patrocinados que incluye un anunciante en un portal o sitio web de carácter temático. En este caso, los enlaces no aparecen según el comportamiento particular del usuario, si no en función de haber accedido a un artículo o a una información que incluye determinadas palabras claves. Se trata, por tanto, de una herramientas publicitaria digital (eAdvertising).


El factor más interesante de la publicidad contextual es que genera una exposición rápida de la etiqueta en un gran número de sitios web, pero sólo paga por los clicks que efectivamente se redirecciona a su sitio web. Es decir, uno no paga por el número de impresiones de la publicidad, sino por el número de clicks realizados en el complemento por los clientes potenciales.

red-contenido-publicidad-contextual1.jpg
red-contenido-publicidad-contextual1.jpg
google_adwords_page_layout.gif
google_adwords_page_layout.gif



Tipos de publicidad en Internet.

Internet presenta en la actualidad dos tipos diferentes de publicidad que practicamente no compiten entre sí; la denominada publicidad gráfica que engloba los conocidos banners, pop-ups, spots animados, etc... y los formatos basados en buscadores y enlaces patrocinados. Ambos tipos de publicidad han crecido en los últimos años; un 25% en el caso de la publicidad gráfica en los últimos doce meses y un 200% en el caso de los enlaces y buscadores patrocinados (publicidad contextual). A pesar de estos datos de fuerte crecimiento por parte de la publicidad en Internet; en la actualidad supone el
2% del gasto total destinado a publicidad, mientras que la televisión continua absorviendo la mayor parte de gasto destinado a este mercado; lo que demuestra lo económico y rentable que supone este medio publicitario respecto a los medios convencionales. El siguiente cuadro muestra la inversión que están teniendo los diferentes medios publicitarios en internet y el crecimiento que han experimrentado en los últimos años
Comparación entre publicidad contextual y publicidad tradicional.
A continuación voy a desarrollar una serie de comparaciones entre las características que presenta la publicidad en Internet y las propias de los medios convencionales.
  • Con la introducción de la publicidad contextual se eliminan las barreras de entrada que existía antes, ya que ahora no es necesario una gran inversión publicitaria para poder anunciarse en un medio.
  • En los medios tradicionales tan solo tenían capacidad de anunciarse las grandes empresas, ahora mediante -Internet también las pequeñas y medianas empresas pueden ejercer su derecho a anunciarse.
  • La publicidad contextual no requiere un gran desembolso inicial, mientras que la publicidad en los medios tradicionales requiere una gran inversión para llevar a cabo la campaña publicitaria, además de poder comprar un espacio en los programas de mayor audiencia.
  • La publicidad contextual solo transmite mensajes de aquellos productos en los que el consumidor está interesado, mientras que la televisión o cualquier otro medio convencional transmite anuncios que puede que no interesen al cliente potencial.
  • En la publicidad através de los medios tradicionales el papel del publicista era esencial para desarrollar el mensaje publicitario, mientras que ahora es el economista el que adquiere esa importancia significativa.
  • La aparición de esta nueva forma publicitaria supone una gran amenaza para las principales empresas publicistas. Por lo que si aceptamos que la publicidad contextual es más efectiva que la tradicional, dada su mayor economicidad y rentabilidad; podremos asegurar que aquellos paises que destinen un mayor presupuesto para este tipo publicitario serán mucho más competitivas sus empresas. En el gráfico siguiente observamos una comparación de la inversión en publicidad en Internet de España y los EEUU.

Ventajas de la publicidad contextual
  • Posibilidad de realizar campañas publicitarias a muy bajo coste.
  • Segmentación del mercado tanto por grupos de interés como por zonas geográficas
  • El anunciante solo paga por el anuncio en el momento que un cliente se interesa por él.
  • No realiza una campaña agresiva que puede llegar a incordiar al consumidor y hacer que el anuncio pase desapercibido y por lo tanto no cause ninguna sensación por parte del receptor del mensaje.
  • Permite al anunciante hacer un seguimiento de los resultados y beneficios que reporta.
Enlaces:


Alguno de los portales más importantes en los que las empresas pueden anunciarse son:Ya.com, Lycos, la red de tiendas de Codigo de Barras Network .EL siguiente enlace ofrece una clara clasificación de empresas que se segmentan dada su categoría profesional:http://www.marketingdirecto.com/empresas/categorias.php.
Por otro lado, las ventajas de la publicidad tradicional, que no son demasiadas en comparación con la publicidad contextual, son que permite contribuir a la introducción de nuevos productos a un mercado meta, también permite contribuir al posicionamiento de la marca, así como crear deseos en los consumidores de forma masiva.
Además, la publicidad tradicional suele contar con un tarifario estandarizado, tiene un alcance masivo y puede ofrecer un contacto cara a cara.




3.5. Black Hat SEO


3.5.1. Concepto


Las Black Hat SEO hacen referencia al conjunto de prácticas, estrategias y métodos que se sirven de técnicas no lícitas o fraudulentas para mejorar el posicionamiento en los buscadores.

Aunque se trata de un fenómeno muy extendido en la Red, lo cierto es que es muy poco recomendable desde un punto de vista profesional. Además de los aspectos puramente éticos que hay detrás, y que es fundamental considerar, la capacidad creciente de los buscadores para rastrear el uso de estas prácticas y penalizarlas severamente mediante el “descarte” de los sitios o una baja representatividad en sus listas de resultados (lo que en se conoce como //estar baneado//), hace que debamos ser muy precavidos a la hora de utilizar, aunque sea por desconocimiento, cualquiera de estas técnicas, pues es relativamente sencillo atravesar la frontera entre un posicionamiento web “legal” y una práctica incorrecta si no se toman las precauciones adecuadas.

¿Cómo saber, entonces, cuándo estamos conculcando las buenas prácticas de posicionamiento y nos estamos adentrando en terrenos pantanosos? Rafael Cedano nos ofrece tres precauciones a considerar al respecto:

  • No romper nunca las reglas establecidas por los buscadores
  • No afectar nunca a la experiencia de usuario de forma negativa debido a la aplicación de algunas de estas técnicas
  • No presentar el contenido alternado por algoritmos para generar contenido automático que trate de engañar a los buscadores.

3.5.2. Técnicas más habituales


El conjunto de técnicas Black Hat SEO va creciendo a medida que se descubren sus efectos y, como señalábamos, los propios administradores de los buscadores tipifican estas prácticas y comienzan a aplicar “sanciones” a los sitios web en las que se localizan.

El siguiente esquema muestra las técnicas más habituales:

t7-blackhatseo.png
TÉCNICAS BLACK HAT SEO MÁS HABITUALES. Fuente: Manuel Gértrudix
TÉCNICAS BLACK HAT SEO MÁS HABITUALES. Fuente: Manuel Gértrudix

  • Sobreoptimización mecánica y tanteo: Consiste en insertar dentro del texto de una página web el mayor número de palabras claves o enlaces. Para ello, se utilizan generadores automáticos que suelen ser, por otra parte, reconocidos tarde o temprano por los analizadores de los buscadores.
  • Granjas de links: Se trata de páginas, alimentadas normalmente por generadores automáticos, que están completamente llenas de enlaces (habitualmente, por encima de cien, los buscadores comienzan a sospechar) con la finalidad de mejorar el Pagerankde Google. Aunque esta técnica ha funcionado relativamente durante un tiempo, los buscadores han aprendido a localizar rápidamente estas granjas de links y a desestimarlas.
  • Saturación de la densidad de palabras clave: Vinculada con la sobreoptimización, esta técnica aumenta la densidad de palabras claves de forma artificial por encima de los valores permitidos (normalmente entre el 3% y el 15%, aunque son cifras complejas de determinar) Esta técnica se conoce, también, como Spamming Keywords o Keyword Stuffing. Consiste en repetir, dentro del texto, las mismas palabras claves una y otra vez, por lo que los textos suelen tener estructuras poco lógicas (lo que es fácilmente reconocible por los buscadores) Para evitarlo, conviene redactar adecuadamente, utilizar sinónimos, etc.
  • Doorway pages: Las páginas traseras o páginas puente son páginas máscara creadas, como páginas iniciales, únicamente pensadas para los buscadores. Suelen ofrecer información pensada para mejorar el posicionamiento, bien para ocultar el contenido real del sitio (páginas de contenido engañoso, spam…) bien porque el sitio está desarrollado con tecnología que ofrece problemas para la indexación de los buscadores (flash, frames…) Son especialmente penalizadas por los buscadores.
  • Cloaking: Se trata de una técnica de encubrimiento basada en disponer dos páginas diferentes en función de quién realice la consulta: un navegador o un buscador. Normalmente, las páginas “preparadas” para los buscadores están sobreoptimizadas.
  • Bait and Switch: Variante del cloaking que consiste en “engañar” al motor de búsqueda creando una página con un contenido determinado, esperar a que el buscador la indexe, y sustituyendo el contenido por otro una vez ha sido indexada.
  • Copy me: Mediante consultas automatizadas a páginas con buenas posiciones en el ranking, se localizan contenidos de alto valor en la web que incluyan palabras clave de alta rentabilidad comercial, y se duplican literalmente, tratando de “secuestrar” parte del tráfico que obtienen dichos sitios. Es una práctica creciente, y especialmente dañina para sitios relevantes, ya que puede generar una gran confusión sobre quién es el verdadero propietario de esos datos.
  • Alta variabilidad del número de enlaces: Se trata de todas aquellas estrategias que tratan de aumentar el número de enlaces mediante compra o intercambio, creando redes artificiales y forzadas. Su naturaleza hace que la tasa de variación de los enlaces sea muy alta, por lo que hace sospechar a los buscadores que están pendientes de cuestiones como el promedio de enlaces que recibe un sitio, el aumento o disminución de links,etc. Con referencia a esta técnica de Black Hat SEO, algunas agencias de comunicación y mercadotecnia hacen uso de estas malas prácticas para mejorar el posicionamiento de las web de sus clientes. Para ello se ponen en contacto con los administradores de blogs que tengan un tráfico considerable, y le ofrecen una determinada cantidad de dinero a cambio de que incluya en una de sus entradas algunos enlaces hacia su cliente. De esta manera no solo están engañando a Google generando un tráfico que realmente es pagado, sino que también el bloguero que acepte el trato estará engañando a sus lectores ofreciendo contenidos que de no ser pagados no habrían sido escritos. Esta práctica fraudulenta, que lleva mucho tiempo practicándose, ha sido denunciada públicamente, entre otros, por el prestigioso bloguero Enrique Dans en su entrada titulada "¿En pleno 2012 y con estas tonterías?". Google establece muy claramente en su normativa que no está permitida la compra/venta de enlaces para alterar artificialmente el PageRank de un sitio. En los casos que detectan, o que los usuarios denuncian a través del formulario establecido para ello, proceden a penalizar al sitio web en el posicionamiento en los resultados del buscador.
  • Cambios incoherentes de tema: Los spammers realizan búsquedas sistemáticas de dominios que hayan quedado “libres” y que tengan un Pagerank superior a 4/5, para adquirirlos, y/o venderlos/subastarlos o colocarlos en parking de dominios en plataformas como Sedo. Una vez se venden, esos dominios cambian normalmente de tema, por lo que comienzan a perder enlaces y ponen en alerta a los buscadores.
  • Hacking: Se trata de un “secuestro” de las posiciones de las páginas, aprovechando algún sistema de redireccionamiento que tenga nuestro sitio web (como por ejemplo, cuando hay algún tipo de contador de clics intermedio) de forma que se modifica ese redireccionamiento en beneficio de la página o sitio “secuestradora”.
  • Enlaces a páginas dudosas: Los enlaces a páginas mañas (Bad pages) o de contenido dudoso son peligrosos, especialmente si se trata de sitios que puedan estar en listas negras de los buscadores.
  • Enlaces rotos: Las páginas poco cuidadas y que incluyen enlaces rotos son penalizadas por los buscadores. No en vano, como hemos visto, los enlaces son el camino natural de reconocimiento de estos. Conviene revisar adecuadamente que todos los enlaces de nuestros sitios funcionan adecuadamente.
  • Spamming Keywords: Este es un método que se utiliza mucho en Internet para tratar de posicionar pero para desgracia de los que utilizan esta técnica los buscadores están trabajando con expertos en el campo de la lingüística aplicada y la inteligencia artificial para determinar cuando un contenido no es semánticamente correcto, un ejemplo caro del uso de esta técnica es el siguiente “Viajar a España tan bueno que debe viajar a España, viajar a España en verano es mejor que viajar a España en invierno”, lo que busca el Keyword Spamming es meter tantas palabras claves como sea posible en el contenido que se tiene en la página, la técnica también la aplican en textos ocultos, meta tags, texto alterno (atl en imagenes), tags de comentarios, nombre de imágenes, etc.

Como ya hemos advertido, se trata de prácticas poco éticas y especialmente sancionadas por los administradores de los buscadores. Afortunadamente, un poco de sentido común y la revisión con alguna de las diversas herramientas para testar que nuestro sitio o página web no está incurriendo en ninguna mala praxis nos ayudará a evitarlo.

La última mejora de Google Panda en la discriminación de páginas que usan Black Hat Seo o web spammer, se dio en abril de 2012 con su nuevo algoritmo en el Google Penguin, que, no obstante, también ha recibido quejas ante el desconcierto de webmasters cuyas páginas de la noche a la mañana han perdido visitas tras haberse tenido en su día que adaptar al Google Panda, y tener ahora que rehacer todo para adaptarse al Google Penguin, mas restrictivo y eficaz se supone que su antecesor.

Al respecto de esta última actualización, cabe añadir en cuanto a los webmaster el desconcierto de muchos de ellos, pues como política de calidad del nuevo algoritmo, google decidió no informar de los nuevos cambios exactamente mediante los que ahora selecciona las búsquedas, para no dar pistas a los web spam dice Google, pero muchos webmaster ven descender sus web en las búsquedas sin saber exactamente por qué, y sin poder reclamar cuando ha sido automático del algoritmo, y no manual, el desechado de la página.

Además, que la efectividad de dicha nueva versión, sigue siendo imperfecta, y de este modo, poniendo algunos ejemplos, salvo que ya haya variado, buscando por ejemplo Samsung galaxi 1 y 2,las dos primeras páginas que aparecen buscando en Google son de Samsung, lógicamente, pero la tercera posición es para la web Taringa, archiconocida página de copia-pega, arrancando en este caso con un video de youtube y comentarios con faltas ortográficas, que también se supone discrimina Google. Y tras Taringa aparece mucho mas abajo, por ejemplo, Xataka, bastante mas rica en contenidos propios que Taringa.

Basta comparar ambas páginas para ver que es más un hecho obvio que una opinión subjetiva, pues lo copia-pega de Taringa son fácilmente verificables ,mientras que Xataca tiene articulistas, mejores o peores, constantemente actualizados y escribiendo, que siempre te mostraran más y mejor información y comparativas, o cuanto menos frecuentemente de cosecha propia, de la mencionada búsqueda del Samsung Galaxi en este caso, que los copy-paste de Taringa, que con frecuencia te remiten sin más a los comunicados oficiales de las empresas, de Samsung en este caso, o a opiniones de terceros.

Otro ejemplo de las a veces incoherencias del nuevo algoritmo, podemos observar, salvo que lo hayan corregido ya, como webs oficiales de ayuntamientos, www.camarinas.net y www.ponteceso.net, que no son webspammer precisamente, y que si, por ejemplo, repiten en exceso palabras clave de su pueblo ,se entiende, será porque hablan de su pueblo, sin más (no son especialmente turísticos, no venden nada, no generan opiniones…),han descendido al fondo del armario en las búsquedas.

Por último, y seguro que los expertos encuentran mas incoherencias en las bondades del nuevo Penguin, como último ejemplo y salvo que lo hayan corregido ya, si buscamos las palabras “alquiler de pisos” en Google, en la primera y segunda página de resultados, observaremos que tres de siete paginas se repiten 7 veces con distintas subpáginas internas. No sería mas lógico incluir en la búsqueda distintas webs y que el usuario decida en cual desea profundizar?, o al menos, mostrar la web, y bajo ésta, pero en la misma web ,las subpáginas consideradas interesantes, como muchas veces ocurre al buscar en webs de foros donde aparecen distintas frases relativas a lo que se busca, bajo la web del foro, sin que aparezca ese foro 7 veces por separado en la misma búsqueda?.

En conclusión, aunque hayan mejorado sustancialmente, aún es mejorable Penguin, la última versión de Google para descartar las Black Hat Seo que sustituye a Panda desde abril del 2012.

3.5.3. White Hat SEO y Grey Hat SEO


Además del Black Hat SEO existen también el White Hat SEO y el Grey Hat SEO:

El White Hat SEO, contrario al Black Hat SEO, usa tácticas y técnicas que no son contrarias a la normativa de Google. Estas técnicas están asociadas con el llamado SEO ético. Las webs que hacen uso del White Hat SEO no suben rápidamente su posicionamiento sino que consiguen resultados a largo plazo. Estas son algunas de las tácticas del White Hat SEO:
  • Guest Blogging: que se hable de una web o blog en otro blog hace que sea más visible en los buscadores.
  • Link Baiting: que ya hemos mencionado y que consiste en crear nuevos y exclusivos contenidos que inciten a los internautas a visitar el sitio web.
  • Quality content: o contenido de calidad. Cuantos más contenidos de calidad tenga un sitio más valorado será y será más visible para los buscadores.
  • Internal Linking: una de las tácticas más fáciles puesto que consiste en aprovechar al máximo el contenido mediante la estructura interna de links de la propia web.
  • Site optimization: resaltar todos los contenidos mediante metatags o títulos más visibles para cualquier buscador.

Las ventajas del White Hat son que no se corren riesgos al aplicar sus técnicas y que, además, todo el esfuerzo que requieren enriquece la experiencia de los programadores, creadores de contenidos y usuarios de la web. Por el contrario la web tardará más en hacerse visible. Los buscadores, sobre todo Google, valoran mucho el crecimiento natural de enlaces a una web y un aumento exagerado de estos provoca, inmediatamente, la penalización del sitio, como ya se ha dicho antes.

También existen unas técnicas llamadas Grey Hat SEO que representan el punto intermedio entre el Black Hat y el White Hat. Algunas de sus técnicas son:
  • Article Spinning: Consiste en ofrecer un contenido como nuevo y exclusivo cuando en realidad es una mezcla de informaciones que ya están publicadas en otras webs. Si las informaciones que se copian tienen copyright, esta técnica puede acarrear graves consecuencias legales (y también la penalización de la web).
  • Comprar antiguos dominios web: que se usan únicamente para conducir al sitio que se quiere posicionar en los buscadores. También puede hacerse comprando dominios que hayan expirado.
  • Google bomb: se trata de explotar el modo en que trabaja el algoritmo de búsqueda de Google incluyendo enlaces a la página objeto del “Google bomb” en el mayor número de páginas distintas posibles, de manera que el texto del enlace sea el criterio de búsqueda deseado.

Si se utilizan técnicas de Grey Hat se corren riesgos menores de los que se corren utilizando técnicas de Black Hat, aunque no hay que olvidar que igualmente es arriesgado, y los resultados de posicionamiento se obtienen en un plazo medio (no tan corto como el del Black Hat pero tampoco tan largo como el del White Hat).

En diciembre de 2008 se creó el blog “seo black hat” (http://www.seoblackhat.info/es/) el cual cuenta también con una versión en francés y otra en inglés y que en España está mantenido por un experto en SEO. Se trata de un foro abierto a la participación de todos los internautas que permite conocer los trucos de Black Hat y Grey Hat de manera sencilla.

A continuación, se adjunta un esquema extraído de Cognitiveseo.com.

blackhat-vs-whitehat-seo.jpg
blackhat-vs-whitehat-seo.jpg


3.6. Últimas técnicas SEO utilizadas por el buscador número uno a nivel mundial: GOOGLE


Cada año, el campo de la optimización del Search Engine está evolucionando. Lo que comenzó en los años 90 como una forma de etiquetas meta de spam se ha convertido en una ciencia sofisticada de sitios web de ranking. Una de las cosas básicas sobre SEO que no ha cambiado en los últimos 8 años, y que probablemente nunca va a cambiar, es que las referencias de otros sitios web (backlinks) son el principal medio a través del cual se le dota a un sitio web de su valor.


Mientras la referencia será siempre la parte más importante de SEO, hay otros factores que influyen fuertemente en un ranking de sitios web, tales como la forma en que la página web se ha configurado. El buen uso de las etiquetas de título, las etiquetas de encabezado, y establecer la estructura de enlaces internos son factores cruciales en un ranking. En esta línea podemos sintetizar algunas de las últimas técnicas de SEO que son utilizadas por Google para determinar el ranking de un sitio web:

Page Speed: La velocidad con que se carga una página es uno de los últimos factores que contribuyen a determinar si un sitio web se debe mostrar con mayor importancia en el SERPs. La motivación principal de esta implementación de algoritmos nuevos es crear una mejor experiencia de usuario ya que éstos no deben ni quieren pasar mucho tiempo esperando a que una página se cargue antes de verla.

Debemos ser conscientes que los sitios que contengan una gran cantidad de información tardará más tiempo en cargar que aquellos otros que apenas contengan información. Por lo tanto, no tiene sentido penalizar a los sitios web con más información en comparación con los que tienen menos.

De otro lado significar que, es de conocimiento común en la industria SEO que una página con más información suele tener más autoridad que una página con menos; por lo tanto, parece que los beneficios obtenidos de la clasificación al proporcionar más información a los usuarios compensaría cualquier pequeña penalización que pudiera derivarse de que la página tarde más en cargar.

Si bien, reducir los tiempos de carga de la página para poder dar una respuesta rápida al usuario, sin duda, supone evolucionar y convertirse en una importante técnica de SEO entre los webmasters.


Exposición a los medios sociales: Un sitio web de los medios de comunicación social que utiliza etiquetas no follow en los enlaces externos indirectamente podría mejorar su ranking, sin embargo, a medida que Internet se expande y más usuarios visitan los sitios web y blogs, la importancia de la exposición en las redes sociales es cada vez mayor. Así, a medida que más webmasters vayan utilizando servicios como Twitter, Facebook o LinkedIn pueden crear una gran afluencia de los recursos naturales de enlaces entrantes de los webmasters con enlaces a su contenido.

Por esta razón, la creación de una presencia en los medios sociales adquiere una mayor eficacia; medios de comunicación social que, en principio, sólo deben ser utilizados para exponer sus contenidos a otros webmasters. Así, las nuevas técnicas de SEO se basan en la creación de cuentas en las principales redes sociales, estableciendo una presencia de confianza en la comunidad, y aprovechando la presencia de vínculos de retroceso de otros webmasters.


Seria interesante añadir, no obstante, que se califica como una White Seo la parte en la que se valora positivamente por los buscadores las opiniones generadas en las redes sociales, fruto este punto de las ultimas actualizaciones del buscador google que priman la repercusión en las plataformas sociales.


En concreto se atiende a los youlikes de Facebook,como factor positivo para que Google posicione mas alta una pagina en su búsqueda, como un una práctica White Seo.

Pero este dato sería quizás discutible en cuanto a que muchos de esos youlikes son fruto no de un libre youlike altruista y sincero de un usuario que desea recomendar una web a los internautas, si no que son recomendaciones “forzadas” a veces.

Por ejemplo, en la famosa aplicación de Dropbox de memoria virtual de dos gigas gratuitos, puedes ampliar esa memoria virtual gratuita de diferentes modos, enviando invitaciones a otros usuarios para usar dicha aplicación, o haciendo un comentario en Twiter para obtener mas memoria o clicando un youlike en tu cuenta de Facebook.

Este metodo que siguen muchas webs, que ofrecen mas servicios a cambio de youlikes para acceder a enlaces u obtener descargas por ejemplo, debería cuanto menos tal vez plantearse si enmarcarse en las Grey Hat Seo, pues google posicionará mejor a Dropbox, por ejemplo, frente a Box, competidora que por cierto ofrece cinco gigas gratis de memoria virtual en lugar de los dos gigas de Dropbox, por valorar los youlike de Factbook o los comentarios positivos en twiter.

Pero según Google esta penalizado que un blogero cobre dinero de webs por poner enlaces (que les haran escalar puestos en las búsquedas de Google) a éstas, y el ejemplo mencionado, de regalar memoria virtual gratis a cambio de youlikes o comentarios en Twister en la web mencionada, no es si no, de algún modo, comprar, (como la web que compra en laces al blogero ),a base de regalos (la citada memoria extra) puestos altos en la búsqueda de google amparándose en su reciente criterio de búsqueda que valora la presencia de las webs en las opiniones de las redes sociales.

Cierto es que quien usa Dropbox y además hace por tener más memoria virtual en dicha aplicación, será porque le guste la aplicación realmente, y puede ser que quien es direccionado por un enlace de un blogero a un enlace por el que éste cobró, lo hace confiando en el blogero al que le gusta leer, sin que necesariamente le guste el enlace al que éste le dirige, y al que no le ha dirigido necesariamente por considerar adecuado el contenido del enlace, si no por el dinero que por ello cobró.

Pero también es cierto que si le pones quizás al usuario la posibilidad de clicar un youlike en Facebook o hacer comentarios en Twister a cambio de nada, como en tantas aplicaciones se hace, pues probablemente no clique el youlike, como en tantas aplicaciones ocurre aunque también le guste la aplicación que sea al usuario de la misma, con la salvedad de que otras aplicaciones no regalan nada a cambio de los youlikes de Factbook o comentarios de twiter, que luego les ayudaran a escalar puestos en las búsquedas de Google.

No deja de ser de algún modo pues, una forma cuanto menos dudosa quizás, para plantearse si no seria esto una forma de pagar (la memoria virtual extra tiene un costo de mantenimiento para Dropbox) los youlike que le ayudaran a Dropbox a escalar puestos en la búsqueda de Google.
Snap_2012.12.04_11h51m50s_002.jpg




Búsqueda legítima de Backlinks: Las revisiones manuales son cada vez más comunes para los sitios web que compiten en lugares muy competitivos. A medida que Google crece constantemente sus empleados tienen que revisar manualmente los sitios web. Lo más probable es que cuando uno comience a recibir gran cantidad de tráfico significativo, llegará una revisión manual.

Los enlaces entrantes desde sitios web externos suponen un factor clave que puede ser utilizado en una revisión; así, si se dispone de una amplia gama de alta banda, con los acoplamientos entrantes que se entienden como ilegítimos (por ejemplo los enlaces spam o enlaces de pago) te arriesgas a que el alto valor de algoritmos de esos vínculos se vean devaluados. Por ello es importante que la construcción de vínculos se efectúe de manera tal que disminuya la posibilidad de ser objeto de una revisión manual.

Algunos SEO creen que las revisiones manuales son cada vez más raras ya que la cantidad de sitios web en Internet está aumentando en mayor proporción que el número de revisores Google.



Otras Técnicas de SEO: Google afirma que usa más de 200 factores para determinar el ranking de sitios web. Así, por ejemplo, la edad de una página en comparación con la novedad de los enlaces que aparecen en ella se tiene en cuenta a la hora de determinar el nivel de autorización utilizado para permitir los enlaces externos de la propia página.


3.7 Cómo no hacer SEO

Se habla mucho de cómo hacer un buen SEO para optimizar el posicionamiento de una página web. Pero nunca viene mal tener claro qué es lo que no hay que hacer. El llamado ‘black-hat SEO’ está constituido por una serie de prácticas que tratan de engañar a los buscadores y a los usuarios. Pero tienen un precio: pueden penalizarse.

Las malas prácticas en SEO pueden costar mucho a una página web. Si Google y otros buscadores como Bing, captan que un site está haciendo trampas, lo castigan. Las penalizaciones suelen ser importantes.

En Social Media Today, la asistente de SEO Eva Grzybek ha publicado un post que recoge algunas de estas malas prácticas, llamadas ‘black-hat SEO’.

1. Keyword stuffing: Esta práctica consiste en repetir incansablemente las palabras clave a lo largo del texto de una página. La saturación de estos términos puede llevar a los buscadores a penalizar la URL. Aunque lo más importante es que esto resulta molesto para los usuarios.

2. El contenido oculto: Para que el contenido de una página no se empobrezca al repetir las palabras o frases clave en el texto, hay quien opta por hacerlas invisibles para los usuarios.

En algunas ocasiones se introduce los términos en el mismo color del fondo de la página, con lo que pasan desapercibidos. Otra técnica consiste en realizar keyword stuffing en URLs accesibles a los buscadores pero no para los usuarios. Ambas prácticas están penalizadas por los motores de búsqueda.

3. Compra de enlaces: Ésta es una práctica muy extendida. Hay compañías que se dedican a ofrecer paquetes de enlaces a tu página web por una determinada cantidad de dinero. Sin embargo, la relevancia de estos links depende entre otras cosas de lo relacionados que estén los sitios que los acogen con la temática del enlace. Los buscadores cada vez tienen más herramientas en su mano para saber diferenciar los links de calidad de los que no lo son.

4. Spam en los metadatos: La información que proveen los metadatos es de gran importancia para los buscadores. Algunas web saturan este campo (que incluye elementos como el título o la descripción) con palabras clave en lugar de ofrecer una explicación clara y sencilla del contenido del site. Esto no afecta a la experiencia del usuario pero sí está mal considerado por los buscadores.

5. Contenido duplicado: A los buscadores les gusta indexar contenido original. Publicar las mismas páginas o artículos puede redundar en un beneficio para la web. Pero esto sólo será al principio porque los motores de búsqueda terminan por penalizar las repeticiones de texto.



3.8 Sanciones, plazos y soluciones por hacer trampas en SEO

Cada vez hay más conciencia de que el SEO es imprescindible para el éxito de una empresa que quiera tener presencia en la red. Esta exigencia ha llevado a muchos a llevar a cabo técnicas prohibidas o técnicas Black Hat.
¿Qué pasa si una web es (justa o injustamente) sancionada por tratar de trucar los resultados? Google responde sobre sus métodos.


El ingeniero de búsquedas de la compañía, Matt Cutts ha subido a YouTube un vídeo en el que explica los dos tipos de sanciones que hay asociadas a cada una de las infracciones que se pueden cometer cuando se busca posicionamiento orgánico. Todo a raíz del descubrimiento de que también las grandes páginas incumplen las normas, como demostró The New York Times recientemente al desenmascarar a la tienda estadounidense JCPenny, que fue castigada con unas 70 posiciones por página.


Cutts explica la diferencia entre las penalizaciones manuales y las que realiza el algoritmo de forma automática, todas relacionadas con la guía de calidad de la compañía, que recoge las buenas y las malas prácticas en posicionamiento, explicadas con bastante detalle. Algo que no le ocurrirá a quien siga nuestros consejos de un experto en SEO.


Penalización manual


Las penalizaciones manuales se dan cuando Google recibe informes y notificaciones de que una página hace spam, tiene pornografía escondida, texto oculto, sitios espejo, etc. Tras un estudio de la situación, el departamento responsable puede tomar la determinación de penalizar una web, que es automáticamente expulsada de los resultados de búsqueda. Esta sanción se produce por un periodo de tiempo determinado, que varía en función de la gravedad de la acción y del historial de la web. Sin embargo, siempre caduca y además puede ser revocada si se demuestra que no se incumplieron los términos.

El ingeniero asegura que todos esas denuncias y quejas dan unos resultados de calidad sobre las técnicas que emplean los tramposos, que después resultan muy útiles para seguir mejorando el algoritmo de búsquedas.


Penalización por algoritmo


Las penalizaciones del algoritmo se producen de forma automática cuando se incumplen otro tipo de normas relacionadas con el código como las palabras clave. En ese caso el resultado es un descenso en la posición de cada una de las páginas en las búsquedas hasta que el error es subsanado. Una vez cambiado el código, con la próxima lectura y reindexación de Google, las páginas volverán a la posición que merzcan.

Al contrario que en la primera situación, cuando una web es penalizada por el algoritmo automáticamente no hay forma de reclamar de forma personal, por lo que la única solución es corregir las partes del código que Google ha considerado Black Hat. Lleva menos tiempo y presupuesto que una campaña de marketing en redes sociales.

A continuación, un interesante vídeo de la converencia de O/I 2010 de Google, titulada "SEO site advice from the experts". En ella varios componentes del equipo de calidad de Google
Search, Matt Cutts, Greg Grothaus y Evan Roseman, analizan y explican casos reales, sobre todo aquellos que son muestra de lo que NO es SEO.











4. Analítica Web


4.1. Concepto


La analítica web aglutina todas aquellas técnicas y prácticas de recogida, tratamiento, codificación, análisis, evaluación y discusión sobre los datos relativos a despliegue de productos y/o servicios de información en la Web, con la finalidad de obtener conocimiento racional sobre cómo operan los sistemas y, fundamentalmente, cuál es el comportamiento de los usuarios en su interacción con estos sistemas, productos, servicios y con otros usuarios.
Según establece la Asociación Española de Analítica Web, la analítica web forma parte de un ámbito de estudio más amplio como es el de la Inteligencia Empresarial o Bussines Intelligence.
Asimismo, está asociada al concepto del Web Mining (WM), y este a su vez al el de Minería de datos (Data Mining) que se encarga de obtener información valiosa que reside, implícitamente, en los datos.
De alguna manera, supone una sofisticación del concepto tradicional de Periodismo de Precisión.

t7-analitica1.png
t7-analitica1.png



La Analítica Web estudia todos los aspectos fundamentales de los visitantes:
  • Cuantifica los visitantes que entran, los que miran, los que tocan
  • Cualifica, ofrece un perfil sociodemográfico de los mismos, gracias entre otras cosas a su comportamiento en la navegación de otras páginas web
  • Mide la efectividad de las páginas del sitio web, analizando si los usuarios completan formularios, hacen clic en tal o cual botón. Conociendo así los puntos calientes del sitio web
  • Seguimiento de las transacciones, pudiendo contabilizar perfectamente la cantidad de dinero que un cliente ha consumido en un sitio web, y conociendo que recorrido ha seguido hasta que ha comprado el producto.
  • Origen de los visitante, además permite saber de dónde han venido, lo cual nos permite incrementar la inversión publicitaria en los canales más rentables.

4.1.1. Herramientas de analítica web en el mercado

Existen numerosas herramientas de analítica web en el mercado, cada una de las cuales ofrece unas ventajas y unos inconvenientes. Entre las principales se encuentran:
Google Analytics
La herramienta de análisis web de google que ha revolucionado el mundo de la analítica web en los últimos años. Siendo un campo donde sólo herramientas caras proporcionaban información detallada y fiable de los usuarios, Google revolucionó el mercado con esta potente herramienta gratis. Una de las prestaciones de este programa permite analizar la rentabilidad de las campañas, determinando la eficacia de los distintos enfoques: anuncios insertados en sitios web, enlaces patrocinados en buscadores, presencia prioritaria en resultados de búsqueda y mensajes de correo electrónico.
GA permite identificar las palabras clave más efectivas en la atracción de clientes, qué creatividad es más eficaz y cuáles son las páginas más y menos rentables del sitio web.
El programa ofrece numerosas prestaciones relacionadas con el análisis de un sitio web; concretamente más de 80 informes. Además del análisis de rentabilidades de campañas ya mencionado, GA ofrece información en tres categorías adicionales:
  • Comportamiento de usuarios
  • Fuentes de tráfico
  • Comercio electrónico
Google Web Optimizer
Esta herramienta permite testar diferentes páginas web que el editor de la página web quiere desarrollar. De una manera sencilla la herramienta alternará las diferentes opciones a testas y ofrecerá resultados casí al instante. Ayuda a identificar el diseño más efectivo de cualquier página de un sitio web anaizando los resultados obtenidos por dos o más alternativas de diseño.
WReport
Aporta información en tiempo real de la audiencia que está teniendo el sitio web y aporta información sociodemográfica de los usuarios.
Site Census
Identifica, entre otros datos, el volumen de tráfico aportado por cada campaña y los buscadores y palabras clave que aportan mayores niveles de visitantes.
Omniture Sitecatalyst
Permite la obtención de datos en tiempo real y la identificación de los puntos clave dentro del sitio web que pueden presentar una mayor tasa de abandono o un mayor beneficio.
Sitestat
Perm

herramientas-analitica-web1.jpg



Principales herramientas de Analítica Web en la actualidad
Existen multitud de herramientas para medir, analizar, calibrar nuestra web. Desde las gratuitas y más populares hasta una variedad inmensa de mecanismos -no siempre muy conocidos y que muchas veces no cuestan tanto como parece-, que están a nuestra disposición de cara a favorecer los métodos necesarios para ayudarnos a conocer, entender y luego optimizar una web o un blog a partir de una cuidadosa investigación del tráfico.
Como muestra de esa amplia gama de posibilidades, las 20 mejores opciones descritas en el artículo con ese mismo título (20 Best Web Analytics Tools To Track Your Traffic) nos presenta opciones para conocer mejor lo que ocurre en el tráfico de cualquier página, desde los parámetros más básicos -como el número de visitas, su procedencia, duración, páginas visitadas, etc.-, a todos los detalles de interacción.
Existen opciones gratuitas como Google Analytics o Yahoo Web Analytics, y de licencia GPL, pero también de pago que ofrecen estadísticas muy personalizadas, y fórmulas mixtas. La mayoría se centran en el site, pero algunas permiten estudiar aspectos como los vídeos (Shinystat). Otras son muy básicas, otras tremendamente sofisticadas. Algunas muestran los puntos calientes de una página, dónde cliquean los navegantes o cómo se mueve el ratón sobre la pantalla. Cada vez hay más herramientas sofisticadas en el mercado que nos ofrecen el seguimiento en tiempo real. En definitiva, las hay para todos los gustos y para cubrir todas las necesidades de nuestra actividad en la red:
  1. Google Analytics
  2. Clicky
  3. Woopra
  4. Piwik
  5. Statcounter
  6. Sitemeter
  7. Mochibot
  8. Grape Web Statistics
  9. Jawstats
  10. W3counter
  11. Shinystat
  12. Awstats
  13. Yahoo Web Analytics
  14. Reinvigorate
  15. Goingup
  16. Mint
  17. Pagealizer
  18. Whos.amung.us
  19. Stuffedtracker
  20. etracker Urchin
  21. Clicktale
  22. Clickmeter
  23. Open Web Analytics
  24. Comscore

Mostrar las relaciones entre datos

Más importante que el dato en sí, lo interesante suele estar en las relaciones entre datos, por ejemplo:
  • comparar con los resultados del mismo periodo en el año anterior.
  • mostrar dos o tres métricas en un mismo gráfico – los gráficos 3D de bolas son perfectos para esto, y permiten visualizar rápidamente tendencias e identificar oportunidades.
  • establecer ratios: las visitas por usuario único siempre nos dicen más que ambos datos por separado; lo mismo sucede con la mayoría de métricas – busca tus ratios, y aprende a interpretarlos.

Por ejemplo, en el siguiente gráfico se muestran el número de lecturas (eje Y), entradas directas (eje X) y tiempo de lectura (diámetro de la bola) para los artículos más leídos de un blog durante el último fin de semana.

contenido editorial
contenido editorial

Cada eje indica una característica fundamental de los artículos (popularidad, posicionamiento e interés, respectivamente), pero todas a la vez en un mismo gráfico son una manera ideal y muy rápida de gestionar el contenido editorial de un sitio web.
Las bolas en rojo son las que a primera vista se desmarcan del patrón habitual: es muy sencillo entender que estos artículos tienen algo especial (para bien y para mal) y por lo tanto conviene investigar un poco más su papel en el sitio web.
Llegar a esta conclusión con tres gráficos distintos para entradas, páginas vistas y tiempo en la página nos hubiera llevado mucho más tiempo, o directamente ni nos hubiéramos dado cuenta (por no hablar de mostrar los datos en una tabla con cuatro columnas).

4.2. Aplicaciones
Como se puede observar en el gráfico adjunto, las aplicaciones que posee la analítica Web son muy diversas, tanto desde la dimensión empresarial como desde la del usuario web.
abtesting-small.gif
Desde nuestra dimensión de estudio, nos centraremos en conocer los procedimientos esenciales de la analítica web como un instrumento al servicio de la mejora continua en pro de una mejor visibilidad de los productos de información que elaboremos, aunque no podemos obviar la importancia que posee, desde determinadas aproximaciones en el campo de la comunicación, cuestiones generales del eMarketing como, por ejemplo, el desarrollo de estrategias de marketing mix o la evaluación de los indicadores de rendimiento económico como el ROI, etc.

4.3. Técnicas básicas

En cualquier caso, es evidente que existe la necesidad de conocer con la mayor precisión posible cómo es nuestra audiencia en un nuevo medio para el que las metodologías tradicionales de medición de audiencia no sirven.
El desarrollo de la analítica web está ligada al desarrollo de sistemas informáticos de tratamiento de los mismos. Desde que la empresa WebTrends desarrollase en el año 1993 el primer aplicativo, son varias las aplicaciones que, cada vez de forma más sofisticada pero funcional, permiten realizar el seguimiento y evaluación de amplísimos conjuntos de datos agrupados en distintos tipos de variables.

4.3.1. Técnicas de recogida de datos

Actualmente existen tres grandes métodos de recogida de información:
t7-tecnicas-analitica.png
t7-tecnicas-analitica.png

4.3.2. Variables de medición habituales

Todas las herramientas actualmente posicionadas en el mercado (Google Analytics, Omniture SiteCatalyst, XiTi, Nedstat, WebTrends, ClickTracks…) realizan mediciones similares. El siguiente listado refleja las más habituales (Rovira, 2009):
  • Páginas vistas. Número y relación de páginas cargadas por un navegador.
  • Usuarios Únicos.Número de usuarios no duplicados(contabilizados una sola vez) que han accedido a su sitio web durante el transcurso del período de tiempo especificado. (Google Analytics)
  • Visitas. Número total de visitas (accesos) a un sitio web.
  • Tiempo de navegación. Tiempo que permanecen los usuarios en el sitio web, en una sección, en una página, utilizando un servicio, visualizando un media, etc.
  • Rutas de navegación en el sitio. Datos sobre los clics realizados (clickstream) por los usuarios en las páginas (zonas) y las rutas de navegación que generan o realizan.
  • Monetización. En sitios con conversión de compra, número, cantidad, etc. de acciones de compra, importe, etc.
  • Fuentes de tráfico. Sitios, buscadores, etc. desde los que llegan nuestros visitantes.
  • Páginas de entrada al sitio. Páginas por las que acceden los usuarios.
  • Páginas de salida del sitio. Páginas por las que abandonan nuestro sitio los usuarios.
  • Eventos del sitio web. Acciones que realizan los usuarios en nuestro sitio web (completar un formulario, suscribirse a un servicio, etc.)
  • Abandono de sistemas de entrada de información o interactivos. Número y momento en que los usuarios dejan de completar un sistema de entrada de datos (formulario, etc.) o de realizar una acción en un sistema de interacción.
  • Redifusión. Contabilización del número de acciones de redifusión (a redes sociales, sistemas de marcado social, de gestión de información, etc.) que realizan los usuarios.
  • Valoración. Contabilización de acciones de valoración de los contenidos (votaciones) o de los servicios ofrecidos.

4.3.3. Técnicas de análisis básicas

Una vez recolectados, a través de estas herramientas, los datos, es el momento de realizar una evaluación de los mismos con la finalidad de discutirlos y obtener conclusiones que permitan mejorar los procesos de posicionamiento.
Existen diferentes técnicas de análisis:
  • Análisis de datos generales. Evaluación comparada de las páginas vistas, el tiempo dedicado a la navegación (global, por apartados, por contenidos, por autor del contenido, por tipo de contenido…) de procedencia e idioma del visitante, de lugar desde el que procede el acceso (directorio, buscador, otra web, etc.)…
  • Evaluación de mapas de clics(clickmap) A través de una representación gráfica codificada por colores, se puede observar cuáles son las zonas principales donde hacen clic los usuarios. Algunas herramientas permiten mostrar, dentro del mapa, capas con análisis univariable o multivariable, como, por ejemplo, el ROI o el índice de conversión de cada clic. Mediante estos sistemas podemos tomar decisiones sobre aquellas zonas de la página de mayor valor, zonas confusas, etc.
  • Testeo con doble página(A/B Testing) Se utiliza cuando se está trabajando en un rediseño del sitio, o se quieren probar distintas soluciones y comprobar, por ejemplo, los ratios de conversión o de abandono en función de la página que utiliza el internauta.
  • Evaluación de rutas de navegación. Análisis de las rutas realizadas por los usuarios dentro de la web; los elementos que enlazan un recorrido… Se trata de un microanálisis de la “dieta” del usuario dentro de nuestro sitio.

4.3.3.1. El A/B Testing

Una de las técnicas más interesantes a la hora de potenciar un proyecto web es la realización de A/B Testing. Se trata de analizar diferentes variaciones de una misma página web para comprobar cuál de estas versiones obtiene mejores resultados. Este tipo de testeos se han vuelto cada vez más esenciales a la hora de conocer las tendencias de los visitantes a una página web ya que suponen una importante fuente de información a la hora de descubrir qué funciona mejor. Además, es una de las técnicas más llamativas debido a que muchas veces la intuición de los diseñadores no coincide con la realidad de los usuarios, por lo que a veces un diseño que parece más sólido en estructura, contenidos y diseño puede funcionar peor que uno con un formato algo menos atractivo a priori, pero que resulta más atrayente para los usuarios ( Guía del A/B Testing en Smashing Magazine ).

En la imagen anterior, extraída de la Guía del A/B Testing de Smashing Magazine, vemos un ejemplo gráfico de cómo funciona esta técnica. Los visitantes acceden a la página y, de manera aleatoria, se les distribuye equilibradamente entre dos versiones diferentes de la misma página, donde se realizan pequeños cambios que pueden afectar a la estructura, el diseño y la distribución del contenido y la llamada a la acción o click to action (CTA). Después de analizar los resultados (para que sean relevantes debemos esperar unos días, o a veces incluso semanas, podemos comprobar como en el ejemplo gráfico, la versión B obtuvo más suscripciones (signups) que la versión A, lo que demostraría que el diseño nombrado como B es el más efectivo a la hora de conseguir suscriptores a nuestra página web.

4.3.4. Herramientas para medir la Reputación en Digital

  • Blog Search de Google: de Google, para búsquedas específicas en blogs.
  • Technorati: directorio de blogs qye permite realizar búsquedas por temática, palabra clave, y segmentar por idioma. Ofrece una clasificación de cada blog en función de su importancia relativa.
  • Bitacoras: muy similar a Technorati, en castellano y desarrollado en España.
  • Wikio: directorio de blogs y medios de comuinicación para encontrar comentarios y artículos sobre nuestra empereza.
  • Twister Search: todo lo que se comenta en tiempo real a través de Twitter.
  • Backtweets: al introducir una URL veremos qué tweets dirigen hacia ella.
  • Chameleon: herramienta de Social Media para monitorizar en tiempo real eventos y conversaciones agrupadas por temática en Twitter.
  • Google Alerts: Alertas personalizaas de noticias publicadas sobre nuesta empresa.
  • Swotti: opiniones y comentarios que hay en la red sobre nosotros.
  • Trendistic: para analizar la evolución de menciones a una palabra en concreto en el tiempo.
  • Social Mention: investiga acerca de comentarios, opiniones, y artículos sobre nuestra empresa. Resultados clasificados por plataforma.
  • BlogPulse: permite ver gráficamente el volumen de menciones de los términos de búsqueda seleccionados y realizar una comparativa para un periodo de hasta 6 meses.Es una herramienta que permite conocer la información publicada en los microbbling, blogs, redes sociales, sitios web, revistas, prensa foros de Internet sobre cualquier marca, producto o empresa. Muestra a sus usuarios la reputación en la red que cobra cada empresa, nombre, o producto a través de un ranking de notoriedad entre todas las etiquetas dadas de alta en la plataforma.

GOOGLE INSIGHT Y GOOGLE TRENDS
Dos herramientas básicas para medir el tipo de tendencias de búsqueda en Internet.
Nos da claves de lo que los usuarios demandan, del tipo de contenido que busca.
  • Google Insight: estadísticas de búsqueda, ofrece datos pro temporalidad (tiempo que se conectan los usuarios) o distribución geográfica. Es un istema más detallado y completo que Google Trends.


Para qué sirve Google Insights

Esta herramienta es muy valiosa para promocionar, publicitar y posicionar su producto o servicio en el mercado, ya que proporciona información sobre el comportamiento de los usuarios y las usuarias, respondiendo a preguntas como: qué están buscando, qué han seguido, cuáles son sus intereses, en qué épocas el mes o año lo buscan con más frecuencia, etc. Antes de la aparición de esta herramienta, este tipo de estudios pasaba por la realización de encuestas y entrevistas por distintos medios, lo que, además de requerir mucho tiempo, tenía un alcance mucho más limitado ya que debía limitarse el estudio a una determinada zona geográfica y un volumen determinado de encuestas.
Pero también es muy útil para quienes quieren optimizar una página según técnicas de SEO, pues este mecanismo nos marca las nuevas tendencias en internet y nos muestra las palabras clave o keywords que los y las internautas buscan en la red.
Así, la información que obtengas a través de esta herramienta te permitirá:
  • Seleccionar tus mensajes publicitarios: ya que podrás saber de antemano qué mensajes y qué palabras debes utilizar para causar el mayor impacto posible.
  • Analizar la influencia de la temporada: Google Insights muestra de manera gráfica la evolución de las búsquedas en el tiempo y en qué períodos del año se realizan determinadas búsquedas con mayor frecuencia. De este modo podrás definir cuál es el mejor momento para lanzar una oferta, crear una campaña promocional, etc.
  • Identificar nuevos mercados potenciales: Google Insights muestra sobre el mapa las zonas en las que determinadas búsquedas se realizan con mayor frecuencia. De este modo podrás saber si tu servicio o producto es muy buscado en un territorio concreto y por tanto, muy demandado en esa zona.

Cómo utilizarlo

Utilizar Google Insights es muy fácil, ya que funciona prácticamente igual que un buscador, con la diferencia de que muchos de sus resultados los devuelve en modo gráfico. Basta con acceder al sitio web de Google Insights http://www.google.com/insights/search/.
Puedes incluir una o varias palabras claves para realizar la búsqueda y seleccionar las herramientas de filtrado para que los resultados sean lo más precisos posibles de acuerdo con tus objetivos (buscar en todo el mundo o en un país o región determinado, en un determinado período de tiempo o en unas categorías determinadas). En caso de incluir varias palabras, el gráfico te mostrará las búsquedas de cada una de ellas representándolas en el gráfico con diferentes colores.
Otras dos funcionalidades de esta herramienta y que son dignas de destacar son:
  • la posibilidad de comparar varias palabras clave para identificar su popularidad y tendencia en el tiempo, en determinadas épocas del año, etc.
  • poder identificar cuáles son las palabras clave que han registrado un descenso o aumento significativo en su uso en los motores de búsqueda.
De esta forma podrás monitorear palabras clave que van perdiendo o ganando fuerza a lo largo del tiempo

Y toda esta información … ¿para qué?

Posiblemente después de haber leído hasta aquí, te estés preguntando … ¿y para qué me sirve a mi conocer qué busca la gente en Google? Pues entre otras cosas, esta información:
  • Te ayudará a definir mejor la temática de la que vas hablar y el vocabulario a utilizar para maximizar su impacto.
  • Podrás optimizar las palabras clave de tu web y las etiquetas de los artículos de tu blog.
  • Escribirás para aquellas personas a quienes te diriges, en su idioma y con su propio vocabulario.
  • Te sugiere otras palabras clave, similares a las que empleas.
Te ayudará a mejorar el SEO en imágenes, mediante la inclusión de palabras clave en la descripción de las mismas

  • Google Trends: nos ayuda a comparar en términos de búsqueda en Internet, es una herramienta de Google Labs que muestra los términos de búsqueda más populares del pasado relativamente reciente. Por ejemplo, buscas regalos y te lleva a navidad, permite al usuario compara el volumen de búsquedas entre dos o más términos. Una característica adicional de Google Trends es la búsqueda encima de la gráfica, mostrando cómo afectan los eventos a la popularidad.


    GOOGLE TRENDS Y POSICIONAMIENTO EN BUSCADORES

    Enlace a la página inicial de Google Trends: http://www.google.com/trends

    'Trends' significa 'tendencias'.
    Esta herramienta puede tener varios usos, entre ellos para analizar cuáles son las búsquedas de los usuarios de todo el mundo en un determinado periodo de tiempo y ver cómo evolucionan los comportamientos sociales. Con Google Trends podemos ver gráficos de estas búsquedas.

    La base de datos de las búsquedas datan del año 2004 hasta hoy. También se puede buscar por país.
    Otro uso importante es la comparación de términos. Las palabras hay que introducirlas separadas por comas. Por ejemplo, podemos averigüar que palabra entre las dos siguientes se utilizó más veces en las búsquedas de los usuarios en el año 2005 en España: Madrid y Barcelona'.
    En la zona inferior de los resultados de cada término, se listan las principales ciudades y regiones desde las cuales se busca el términio introducido. Estos datos se obtienen de la dirección IP.

Optimización del motor de búsqueda y la selección de contenido web

Los editores de páginas web pueden recoger informaciones útiles para optimizar la clasificación y la selección de sus contenidos. La herramienta de Google genera varios tipos de resultados y resúmenes incluyendo:
  • Las asociaciones de palabras clave con mayor frecuencia utilizadas a partir de una pregunta. Los editores tienen una indicación de las palabras clave que preferirán en sus contenidos (títulos) y en la composición de los URL. Estos resultados cambian evidentemente en función de los filtros aplicados.
  • La presentación de las búsquedas en progresión. Esto refleja las búsquedas de las palabras clave cuyo volumen aumentó recientemente. Esta presentación permite cambiar la selección de contenido editorial y anticipar las futuras tendencias en materia de búsqueda web, lo que puede favorecer la buena selección de las páginas web.
  • Los artículos populares relacionados al término buscado en un período determinado. Estos artículos le permiten saber si sus contenidos web satisfacen la "demanda" de los internautas.

Publicidad, marketing y previsión competitiva

El análisis comparativo de varios términos de búsqueda en un período determinado permite evaluar las expectativas de los clientes potenciales u objetivos de marketing, con respecto a un servicio o un producto. Este análisis permite distinguir las asociaciones de las palabras clave más populares de las que interesan menos a los internautas, y evaluar el impacto de un mensaje con relación a otro.

La búsqueda de tendencias también puede ser aplicada a servicios y productos de la competencia, y proporcionar indicaciones de cómo diferenciarse de una marca o empresa, o también identificar una tendencia emergente.

El análisis de los ciclos y las tendencias temporales correspondiente a palabras clave buscadas en un período determinado permite anticipar las futuras tendencias de búsqueda.

La e-reputación y la identidad digital

La búsqueda específica de palabras clave permite seguir la evolución global del "sentimiento" de los internautas con respecto a una marca, un servicio o un producto. También permite vigilar las demandas en aumento.

Estudio de mercado

La herramienta de comparación geográfica permite comparar las tendencias de búsqueda de una o varias palabras clave entre dos países. Un distribuidor que busca nuevas oportunidades en España o en el extranjero podrá evaluar y comparar los países o regiones dónde su producto o servicio tiene más interés.

Comercio electrónico

Las tiendas online pueden utilizar a Google Trends para modificar la presentación de su catálogo de productos en base a la tendencia de búsqueda de las palabras clave en regiones especificas.

Exporta sus búsquedas

Para facilitar el seguimiento de las tendencias de búsqueda, Google permite exportar la herramienta al Google. Los resultados generados también pueden ser descargados en formato CSV y ser integrados en cualquier hoja de cálculo, incluyendo Microsoft Excel.

4.4. MEDICIÓN DE AUDIENCIAS.


El ROI para la marca anunciante en Internet, se mide en función de la estrategia que se quiere conseguir: lanzamiento en digital, reputación en medios digitales, etc. Definir los objetivos y puntos siguientes a determinar: estrategia, táctica, determinación de los objetivos marcados, KPI (Key Performance Indicators), miden el nivel de desempeño de un proceso, enfocándose en el “cómo” e indicando el rendimiento de los procesos, de forma que se pueda alcanzar el objetivo fijado en la estrategia inicial. Monitorización & interpretación de la información & comparación de los resultados de campañas off y on.
Lo ideal no es el dato sino la interpretación de éste. Podemos tener grandes audiencias pero si no están segmentadas al cliente no le aportan nada, cada vez más esta dato se puede ofrecer, (sexo, tiempo que se conecta, desde donde: localidad, tiempo medio por visita de la página, etc.)
Audiencias pequeñas todavía pero bien segmentadas, es la situación ideal.

Hay dos sistemas de medición:
  • Censal: (datos exactos de tráfico en número de personas conectadas, pero no en comportamiento, “behavioral targets” no podemos medir los behavioral details de nuestro público objetivo. Si navegadores únicos. En realidad se miden ordenadores es decir, IP, no sabemos diferenciar si son chicos o chicas. Salvo que rellenen cuestionarios con nombres.
  • Muestral: (datos de comportamiento) Datos de panel, parecido a Sofres en Televisión. Mide seres humanos, su comportamiento y sus gustos. Va por índices de muestreos.

Herramientas de medición: métricas.
  • Analytics (muestral):
    • Ventajas: es gratis, lo usa todo el mundo, ofrece paneles sencillos de usar, los datos son muy fiables y exhaustivos.
    • Desventajas: Google es juez y parte desde el punto de vista que se ha convertido en un soporte más.
  • Nielsen
    • Ventajas: es independiente, ofrece datos rigurosos, es un referente perfecto para agencias y grandes anunciantes.
    • Desventajas: tiene un coste, no nos permite medirnos son el resto de los soportes de forma censal. En formato muestral tenemos sitecensus.
  • Ad Planner (censal)
    • Ventajas: se basa en Google, es gratis, y ofrece datos muestrales.
    • Desventajas: no ofrece datos censales, los propios soportes no permiten que Google comparta sus datos censales.
  • Hay más…
    • IAB, la principal, ofrece informes muy detallados.
    • Comscore, otra que gana cuota en medición online.
    • Weborama
    • Sitecentric

Respecto a la medición de audiencias, a nivel interno en empresas. Hay empresas especializadas, por ejemplo Nielsen que con su herramienta SIteCensus trackea todas las páginas y calcula toda la información; visitas, usuarios único, tiempo de visita, IP (procedencia del país de conexión) tipo de navegador (mozilla, explorer, etc), páginas vistas, etc… Ahora esta información también se puede sacar con Google Analytics.
A nivel externo de empresa hacia fuera: Nielsen ofrece métricas de Market Intelligence, también ahora OJD interactiva y comparten información/procesos.
Las agencias funcionan con varios pannels, por ejemplo Nielse que da información de datos: Cobertura, target, etc.
En digital (redes sociales incluidas), las métricas validas se definen por atributos de afinidad, usuarios únicos, duración de la visita, páginas visitadas, visitas a la página en concreto, etc…
En Mobile marketing se están analizando la forma y manera de ofrecer los resultados, es un tema muy nuevo, la geo-localización, etc. Es algo más complejo y difícil todavía de medir, probablemente serán Nielsen y OJD Interactiva los que lleven a cabo las métricas correspondientes ofreciendo así, como en medios off, el ROI al anunciante

En relación a las audiencias, adjunto un interesante artículo de Carlos Lamas, aparecido en la revista número 82 de "Telos Cuadernos de Comunicación e Innovación", de la Fundación Telefónica y que lleva por título "Los medios interactivos y su publicidad. La medición de audiencias".
http://sociedadinformacion.fundacion.telefonica.com/seccion=1268&idioma=es_ES&id=2010020409130001&activo=6.do

Interesante es también el trabajo publicado por el sociólogo e investigador social de consumo y audiencias, Javier Callejo. Se puede encontrar en el volumen 39 de "Política y Sociedad". Bajo el título de "Globalización y digitalización de las audiencias" ofrece una buena perspectiva sobre el tema a tratar.
El trabajo completo se puede ver en el siguiente enlace:
https://docs.google.com/viewer?a=v&q=cache:RmpV7KkYByMJ:revistas.ucm.es/index.php/POSO/article/download/POSO0202130069A/24049+globalizaci%C3%B3n+y+digitalizaci%C3%B3n+de+los+medios+javier+callejo&hl=es&gl=es&pid=bl&srcid=ADGEEShThtgcJ5JHjO6jwbK1Oq6Ye_QX67wU5HB08jTtPxP1LtdX31Lu5Xr2rNpftF-13Y5aR4LzykAh5X_cOELColEs7a7ljIF38jqO5GmNbTNaI6ap9wDe_qeX_8wKMFckUJcR0tfp&sig=AHIEtbRF_6Q8z8MafcCwv6rYC8FE7Gjjew



4.5. Tendencias en el consumo de vídeo por internet
Tony Marlow, director de Investigación Estratégica de Yahoo! en su conferencia, titulada "El poder de la relevancia", ha analizado como impactan los nuevos formatos publicitarios en los internautas y ha desgranado las principales tendencias en el consumo de vídeo.
Marlow ha presentado los resultados de un estudio de Yahoo! elaborado a partir de una encuesta a más de 4.100 internautas de EE.UU. que pone de manifiesto un gran crecimiento del consumo de vídeo on-line en los últimos dos años.
El responsable del gigante informático ha señalado que uno de los resultados más relevantes que arroja esta investigación es que ha habido un marcado aumento de consumo de vídeo en la franja de 18:00 a 21:00, de más de 30 puntos.
Aumenta el consumo de televisión on-line por la noche, gracias a Hulu y Netflix
Este crecimiento se debe, según ha explicado el responsable de Yahoo!, a servicios como Netflix y Hulu que han hecho que el consumo de contenidos audiovisuales aumente de forma espectacular en esta franja horaria.
El consumo de películas y programas de televisión on-line sigue creciendo. Un 57% de los usuarios vio algún vídeo en internet al día, un 33% más que en 2009. Sin embargo, Marlow ha hecho hincapié en que los vídeos que más se ven siguen siendo los vídeos cortos, que suponen aproximadamente un 75% del total.

La publicidad más eficaz
Marlow ha analizado también los resultados del estudio 'El poder de la relevancia', que ha usado la medición biométrica analizando las reacciones no conscientes de los usuarios ante la publicidad.
A los miembros del grupo de estudio se les dotaba de unos sensores en el pecho y las muñecas que revelaba información sobre el latido del corazón, la piel, el movimiento del cuerpo y del ojo. "Todo esto revela reacciones emocionales que hacen entender mejor el funcionamiento de las estrategias publicitarias", explica el responsable de Yahoo!
El informe concluye que cuando se usan campañas que utilizan el concepto de "relevancia personal", que coinciden con los intereses del individuo, los usuarios se fijan un 25% más en el anuncio y la pupila se dilata un 27%, "un gran indicador de que aumenta la cognición".
En el caso de la publicidad contextual, aquella que va de la mano de los contenidos, se producía una mejora en la velocidad en la que los usuarios se fijaban en los contenidos, que era un 15% mayor.

El estudio pone de manifiesto que la publicidad más eficaz es aquella en la que se unen estos dos conceptos: relevancia personal y contextual. En ese caso el tiempo de fijación en los contenidos aumentaba un 14% y la pupila se dilataba el 40%

En el siguiente enlace podremos encontrar una miniguía SEO, para aprender nociones sobre el posicionamiento web en 7 pasos.


Es apasionante el mundo de las mediciones de las audiencias. Todo un grupo de expertos se ha ido configurando alrededor de este universo: matemáticos, estadistas, teóricos de la comunicación, sociólogos, periodistas. Decir con elementos de fiabilidad qué medio es el más escuchado, visto o leido marca de manera oficial (es la manera más oficial que se tiene) dónde pueden orientarse los mensajes que quieren ser recibidos de manera mayoritaria, sobre todo si son publicitarios y suponen la vía de financiación de las empresas de la comunicación.
En este artículo lleno de interés, Rubén Gallardo, responsable de Audiencias de PRISA Digital expone con tono didáctico dos ideas básicas: el método para medir las audiencias de internet es imperfecto (¿cómo se sabe si detrás de un ordenador hay una persona o tres?) y es urgente para internet que se trabaje en el consenso para encontrar una herramienta de medición única.

"Las herramientas de medición en Internet tienen una ventaja importante y es que se sustentan en la relación entre máquinas y personas. Esto hace que la tecnología sea un aliado clave en la medición de la audiencia, pero a la vez un enemigo importante en su aceptación por el usuario final. En este mundo, no hay nada mejor para confundir a la gente que hablar de conceptos definidos con siglas o de términos tecnológicos y freaks
Y aquí es donde entran las masas y su capacidad para convencer de que algo es lo mejor. En la TV, la medición de audiencia está basada en un estudio que analiza el consumo de TV en apenas 5.000 hogares. Añadamos la dificultad que tiene medir que durante la retransmisión de un programa uno se levante al baño y deje de ver el programa… Sin embargo, nadie duda de la medición de audiencias en la TV… ¿Será porque el mercado definió hace años un estándar para medir el número de espectadores? ¿Será una cuestión de madurez del sector?
Algo parecido pasa con la radio. Tres veces al año se publica un estudio realizado en base a algo más de 40.000 encuestas telefónicas en el que se pregunta por los programas y emisoras escuchadas por los entrevistados. ¿A qué hora llaman y a quién cogen en casa? ¿Qué porcentaje de gente ya no tiene teléfono en su hogar? ¿Se acuerdan de todas las emisoras? Da igual, es el estándar del mercado y casi nadie lo critica…
Pero llegamos a Internet, donde la relación entre un usuario y una máquina permite que la máquina guarde toda la actividad de un usuario en una web y… ¿Qué pasa?
Pues que hay tantos datos útiles, pero a la vez complicados de entender, que lo más fácil es manipularlos al gusto de los intereses de cada empresa, en lugar de explicarlos y usarlos para mejorar y seguir creciendo…
Conclusión: ¡nadie se cree los datos de audiencia de Internet!
Y… ¿Qué se puede medir?
La tecnología es capaz de medir el 100% del consumo realizado por un usuario, ya que los datos se obtienen de máquinas, que a su vez pueden guardar toda su actividad en ficheros de información valiosísimos para el análisis. Es el llamado ‘tráfico censal’, es decir, el consumo de todas y cada una de las páginas que sirven las máquinas de un site al navegador de sus usuarios. Esto se hace insertando un código de programación en cada portal (llamado tag, js, píxel, etc), que almacena en una base de datos toda la información del usuario, la procedencia del mismo y el contenido visitado. En el grupo PRISA la herramienta de medición censal que se utiliza como estándar es Omniture.
Hasta ahora, bien, pero, ¿cuál es el problema?
Que la relación es servidor-navegador del usuario; no, servidor-usuario.
¿Cómo sabe la tecnología que detrás de un navegador hay una persona y no tres?
¿Cómo sabe la tecnología que un mismo usuario está usando tres navegadores distintos para acceder al contenido (Internet Explorer, Firefox y Chrome, por ejemplo)?
¿Cómo sabe la tecnología que un mismo usuario emplea terminales distintos (móvil, tableta, portátil, sobremesa, consola, TV conectada…) para acceder al site?
¡No puede!
Por lo tanto, el problema es que la medición censal, lo que sería el grial de las mediciones en el mundo publicitario, se encuentra con su primer impedimento: no mide personas.
Ok, pues vamos a ver si podemos medir personas…
Entonces, hablamos de herramientas basadas en dos tipos de metodologías:
  1. Panel.
  2. Cuestionarios.

Empecemos por la última y solo hagamos una pregunta.
Si os preguntaran por la calle o por teléfono que sitios de internet visitáis en el último mes ¿Qué responderíais?
¿Y si os preguntaran por el consumo en el móvil y si son aplicaciones nativas Iphone o portales Web móvil o accesos al Web clásico?
Yo no sé vosotros, pero no me creería nada de esa medición si de audiencia se trata.
Vayamos con la que nos habíamos saltado, la primera: El panel.
El panel no es otra cosa que seleccionar a 20 o 30 mil personas en España (por ejemplo) e instalarles un programa (otra vez ayuda de la tecnología) en su ordenador del hogar o el trabajo para recoger toda su actividad en internet (ya no es lo que recuerda que ha visto y me cuenta, sino lo que el programa recoge como realmente visitado).
Hasta ahora bien,
Pero claro, solo tenemos el comportamiento de unos pocos y necesitamos estimar lo que hacen todos los demás en base a ellos. Me duele decir esto después de tantos años dedicados a estudiar Estadística en la universidad, pero estimación y certeza son conceptos muy alejados entre sí. Aun así, recordemos como se hace la medición en TV y Radio, y lo que es más importante ¿Con cuánta gente y con qué metodología la hacen? Internet en ese sentido es un privilegiado por volúmenes muestrales, otra cosa es como estén definidas las muestras y la dispersión de medios en el sector.
En fin, que los problemas del panel no son que sea una estimación, ese hándicap es fácilmente asumible.
El problema es que la muestra seleccionada para el Panel es solo española (en este caso… pero no hablemos de LatAm!) e internet es global. ¿Qué pasa con los accesos desde otros países?
Otro problema es que la muestra seleccionada para el Panel es solo de hogar y trabajo (encima a las empresas no les hace gracia que se instale software espía en los equipos de sus empleados y eso provoca que el panel de trabajo este infra estimado) y se deja fuera accesos muy habituales como el móvil, el cibercafé, la universidad, los locutorios, etc.
Pues que decir tras esta reflexión, que normal que nadie se crea nada. Hay que conocer muy bien cómo funcionan las herramientas de medición en Internet para saber si se habla de usuarios únicos o de cookies y de lo que te dejas por el camino.
Por eso es tan importante para Internet que se trabaje en el consenso para encontrar una herramienta de medición única. Eso ayudara al despegue definitivo de los ingresos publicitarios en el medio. En resumen, se necesita, al menos de momento, una moneda única en la que todos los websites se midan con las mismas reglas y métricas. Otra cosa es lo que pase mas adelante en el sector, donde la vida de monedas únicas se antoja complicada, aunque esto es una visión muy personal de la que podemos hablar otro día.
Pues, de momento en esto está trabajando el mercado. En la moneda única!
Hace ya casi dos años que en EEUU ya funciona un sistema llamado “Hibrido” que trata, a través de la conjunción de la metodología censal y la de panel, de resolver los problemas que cada una de ellas tiene por separado y poder aportar, al fin, un dato único de audiencia fiable y estandarizado para todo el mercado.
Para 2012, parece que en España tendremos el primer sistema consensuado en el mercado y por fin podremos hablar de una fuente oficial de medición en Internet.
Será Comscore, que ha ganado el concurso lanzado por las juntas directivas de IAB y AIMC.
Mientras, seguiremos intentando entender que cuando hablamos de datos Omniture, Google Analytics, Webtrends, Site Census y tantas herramientas censales, hablamos de Cookies o navegadores únicos. Y que cuando hablamos de paneles o encuestas (Comsocore, Nielsen, EGM, etc..), hablamos de Usuarios Únicos pero que su estimación dista mucho de la realidad puesto que nos dejamos fuera el tráfico internacional y el acceso desde dispositivos distintos al hogar y al trabajo. " (Del blog de tendencias digitales del grupo PRISA, http://toyoutome.es/)





Recopilación, selección, revisión y adaptación a partir de las siguientes fuentes:

http://www.usableyaccesible.com/recurso_glosario_SEO_analatica_web.html
http://www.imetrix.biz/es/glosario-de-analitica-web.html
http://www.web-analytics.es/?option=com_content&task=view&id=27&Itemid=52
http://www.googlegood.com/inicio/19-glosario-marketing-online.html
http://www.evocaimagen.com/cuadernos/cuadernos2.pdf



Referencias


Para profundizar.

SEO y SEM

  • SEMPO. Organización profesional de la industria dedicada al SEO y SEM constituida en el año 2003, encargada de promover el marketing de buscadores. Ofrece asistencia a sus miembros, acciones de formación, etc.
  • SEOTalk.es. Excelente Blog de Rafael Cedano con información actualizada sobre la evolución de este sector, técnicas, prácticas, sistemas….
  • Tutorial SEO. Tutorial básico proporcionado por google.dirson,com.
  • Javier Casares. Un blog imprescindible sobre SEO y Web Performance Optimization. Con Manuales de introducción a estos temas.
Herramientas SEM
Herramientas de optimización

  • LinkVendor. Set de herramientas de optimización, imprescindible. Permite realizar diversas operaciones como, por ejemplo, calcular el PageRank en Google, verificar el tráfico de nuestro sitio en Alexa, analizar los metadatos, analizar la densidad de palabras clave…
  • IBP Professional. Conjunto profesional, y de pago, de herramientas de soporte al marketing online. Permite descargarse una versión demo válida para reconocer el potencial del aplicativo.
  • Free Monitor for Google. Herramienta de fácil manejo y gratuita, con instalación, que permite revisar las posiciones de búsqueda de diferentes palabras clave en Google.
Herramientas para analizar la densidad de palabras clave
  • Keyword Density. Herramienta online que nos permite realizar un análisis de la densidad de palabras claves de una web o de una sentencia de palabras claves.
  • Webjectives. Herramienta online gratuita que permite analizar la densidad de palabras clave. Ofrece un informe pormenorizado que muestra la densidad en los principales componentes de la página evaluada.
Herramientas para crear palabras clave adecuadas
  • Herramienta para palabras clave de Google Adwords. Una versátil y útil herramienta que nos introduce a los procedimientos de este sistema de enlaces patrocinados de Google. Ayuda de la herramienta.
  • MetaGer-Web-Assoziator. Se introduce una palabra y muestra una amplia lista de conceptos asociados. No se trata de una lista depurada pero ofrece una buena ayuda para ver qué palabras están relacionadas, dentro de la Web con aquella que estamos buscando como foco.
  • KwMap. Navegador visual que muestra gráficamente las relaciones semánticas inmediatas a partir de una palabra clave dada. Ofrece, además, un listado de las palabras claves utilizadas en el resultado, así como enlaces a sitios que usan dicha palabra clave como referencia. Muy útil.
Herramientas para localizar prácticas Black Hat SEO
  • Copyscape. Herramienta online que permite localizar copias literales de un sitio web, con el fin de comprobar si se ha aplicado la técnica “Copy me”. Permite, además, incluir si lo deseamos un banner que avise a los tentados por el plagio de que nuestra web está vinculada a este sistema. La versión Premium (de pago) permite contrastar la originalidad de nuestros propios contenidos, así como acceder a un monitor (CopySentry) de seguimiento que detecte, automáticamente, si nuestros contenidos han sido plagiados en algún momento.
  • About-Hijacking. Aplicación que nos posibilita comprobar si nuestra web utiliza algún sistema de redireccionamiento que facilite ser “secuestrada” por un dominio hacker.
  • Xebu’s Limk Sleuth. Aplicación de escritorio (gratuita) muy útil para realizar una evaluación exhaustiva de enlaces rotos de un sitio. Similar a las disponibles en las grandes aplicaciones de desarrollo para la Web, pero gratuita. Basta con apuntar a la URL del sitio y realiza un escaneo completo de todos sus directorios; genera, además, un mapa web del sitio.
Herramientas para rastrear la evolución histórica del contenido en la Web
  • WayBackMachine. Herramienta incluida dentro de la página del proyecto Internet Archive destinada a comprobar los contenidos que puede haber tenido un determinado dominio a lo largo del tiempo. Permite comprobar, para dominios especialmente valiosos, las modificaciones en los temas, realizar el seguimiento de la evolución de un dominio en el tiempo, etc.
Analítica Web
  • Google Trends. Aplicación que muestra, de forma gráfica, los términos de búsqueda más utilizados y populares durante un periodo de tiempo, en una localización geográfica determinada, en un idioma… El eje horizontal de la gráfica representa el tiempo (desde algún momento de 2004), y el eje vertical representa la frecuencia con la que se ha buscado el término globalmente.
  • Google Analytics.
  • OneStat.com. Principal proveedor mundial de software de inteligencia analítica Web y estadísticas Web en tiempo real.
  • The Web Analytics Association (WAA). Asociación internacional dedicada al desarrollo y estudio de técnicas basadas en analítica Web, Web minning y Minería de datos.
  • Navegadores.org. Blog dedicado a las novedades sobre los navegadores, incluyendo estadísticas actualizadas sobre su uso (porcentajes, evolución, tendencias…)
  • Glosario de analítica Web. En Ingles.
Directorios

Funcionamiento de los robots de búsqueda
  • Robotstxt.org

  1. ^ Google Blog. El Blog para webmasters: "Lanzamos el cambio algorítimico para ofrecer sitios de más calidad"
  2. ^ Google Blog. El Blog para webmasters: "Lanzamientos en otros idiomas"
  3. ^ Google Blog. Blog para Webmasters. "Our new search index: Caffeine"


POTENCIALIZACIÓN DEL SERVICIO WEB

Tras conocer y analizar diferentes mecánicas para poder investigar sobre la relevancia y trascendencia de un contenido web, veamos a continuación una serie de aspectos a desarrollar para optimizar los resultados de cualquier portal web:
- Antes de desarrollar la propia web es preciso ordenar mentalmente los elementos que queremos que aparezcan en dicho portal multimiedia: Contenidos, banners, imágenes, etc.
- Es fundamental optimizar el espacio del que se va a disponer, minimizando las generalidades que sólo sirvan como “ruido” entre el emisor y el receptor del mensaje principal, es decir entre nosotros mismos y nuestros potenciales clientes.
- Fundamental la heterogeneidad y similitud de contenido, Tan importante es realizar una web rica de contenidos, como que todos y cada uno de los epígrafes que componente el espacio multimedia sean de semejante extensión.
- Fundamental el control y la gestión de la publicidad. Ésta es fundamental, pero un exceso de la misma puede ser perjudicial para la imagen que se dé sobre la propia firma anunciante y propietaria de la web.
- Importante poner un enlace de javascript donde figure “añadir a favoritos” para facilitar a los usuarios que lo deseen la obtención y el acceso a la web
- Fundamental es ponerse en la mente del usuario y pensar lo que quiere ver y cómo prefiere consumir el producto. Realizar una web especifica en contenidos y muy profesionalizada puede ser perjudicial al mismo espacio ya que acota el número de usuarios potenciales.
- Es importante actualizar periódicamente no sólo los contenidos sino también la imagen principal de la web. Si no la modificas con cierta periodicidad, corres el riesgo de poder transmitir una imagen de abandono y dejadez.
- Sea cual sea el contenido y la finalidad de la web, nunca está demás añadir servicios generales que enriquezcan la misma (tiempo, horóscopo, consejos prácticos, etc) sirven para poder añadir valor al propio servicio derivado de otros sectores aunque no sean el originario del portal web
- La popular fórmula de los tres clicks dice que nunca una información de cierta relevancia puede estar a más de tres clicks de la página principal ya que queda demasiado alejada del propio origen de la misma y es usuario se puede sentir incómodo y hasta cierto punto perdido en un terreno para él desconocido
- Fundamental definir claramente cuál es el camino de llegar a la página principal sin problemas ni obstáculos relevantes
- Las fuentes a utilizar debe de ser la que venga por defecto y en su caso, las más conocidas y popularmente arraigadas, ya que permitirán la familiarización de los usuarios.
- Es un error diseñar una página para un navegador en concreto. En un mundo que tiende a la globalización, medidas como esta delimitan y trazan barreras a nuestra propia generalización
- Se empieza a tomar como poco práctico el uso de frames ya que lo único que hacen es ralentizar el normal funcionamiento de la web en detrimento de un uso rápido y ágil
- Es fundamental otorgar la oportunidad a los usuarios de poder contactar con nosotros, bien sea por un correo de email, bien por un teléfono. Es necesaria esa posibilidad ya que así se realiza una acción de acercamiento y da fé de que tras ese portal hay personas y un grupo o equipo a su disposición si ellos lo creen oportuno
- El tamaño de las imágenes es fundamental ya que permitirá una carga más o menos rápida de las páginas, facilitando o en su detrimento, perjudicando la navegación por el sitio web.
- Es preferible el uso de minúsculas, ya que tal y como reza un estudio, las letras mayúsculas ralentizan la lectura en un 30% por lo que el dinamismo del portal se ve seriamente perjudicado
- Una norma de oro es evitar subrayar frases o textos ya que se pueden hacer equivocar y confundir con enlaces
- Y por último señalar que hay que obviar exageraciones y creación de falsas expectativas dentro de los servicios que ofertamos.
Dicha plusvalía innecesaria de la oferta sólo irá en perjuicio directo de nuestro propio servicio.
Valgan todos estos puntos para una mayor optimización de los recursos adquiridos a la hora de desarrollar y gestionar un servicio web.