Blog

Evolución de los buscadores

Evolución de los buscadores 

Vamos a comentar brevemente la evolución de los buscadores.

1990 Un estudiante de la Universidad McGill inventa ARCHIE, considerado el primer motor de búsqueda basado en la web.

1991  Aparecen las nuevas versiones de Archie, VERONICA Y JUGHEAD, que acercan la idea de motor de búsqueda al público en general.

1992  La Organización Europea para la Investigación Nuclear lanza un motor de búsqueda específico para el mundo científico, el VLIB, que es utilizado por las universidades y los laboratorios científicos para compartir documentos y estudios científicos.

1993   Se lanzan dos nuevos buscadores, esta vez para todo tipo de usuarios, WORLD WIDE WEB WANDERER y EXCITE.

Excite  es  creado  por  Mark  Van  Haren,  Ryan McIntyre,  Ben  Lutch,Joe Kraus, Graham Spencer y Martin Reinfried.   El proyecto surgió buscando la mejor  manera  de  buscar  y  recuperar  información  de  la  biblioteca  de  la Universidad de Stanford.

1994  David Filo y Jerry Launch lanzan el Directorio web Yahoo!. En realidad, Yahoo! no  nació como un motor de búsqueda propiamente,  sino como un directorio web. A pesar de ello es el directorio más antiguo, conocido y visitado.

Yahoo! utilizó a Google como motor de búsqueda hasta  2004.

En 1994 también se lanza Lycos, al igual que otros buscadores, como un proyecto de investigación, en este caso en la Universidad de Carnegie Mellon. Lycos fue la primera empresa en Internet en medir su publicidad en CPM, que sigue utilizándose hoy en día. Actualmente, Lycos pertenece a la empresa española Terra

Infoseek y Altavista también aparecen en 1994. Infoseek fue el primer buscador que ofrecía resultados en tiempo real y Altavista es el primero que utilizó palabras simples basadas en el lenguaje natural para realizar búsquedas, lo que se acerca mucho a los buscadores actuales.

1996  Ozú  nace  en  1996  como  uno  de  los  primeros  buscadores españoles. Desde el principio se especializó en el segmento de público español, entre 18 y 35 años.En  2001  el  grupo  Vocento  compra  una  gran  participación  del  buscador  y  éste  se transforma en la plataforma multiservicio del grupo de comunicación. Actualmente congrega a una gran comunidad de usuarios en la red.

El 1 de enero de 1996 también se abre al público el buscador hispano Olé( Ordenamientos de Links Especializados). Este buscador nace en una empresa pública catalana, la “Fundació Catalana per a la Recerca”, con el objetivo de promover en internet las empresas catalanas. En 1998, una encuesta situaba este buscador como el tercer sitio web más valorado por los usuarios.

En 1996 la Generalitat lo vendió a su creador por 200.000 ptas., que a su vez se lo vendió a Telefónica tres años más tarde por 3.000 millones de ptas., 150 veces más.

1997 Google  también  nació  como  un  proyecto  de  investigación universitaria de dos alumnos de la Universidad  de Stanford,   Sergey Brin  y   Larry Page.  En 1999, recibió más de 20 millones de dólares procedentes de fondos de inversión privados, lo cual ayudó a conseguir que se ubicara dentro de los mejores buscadores. A partir de Julio del 2000, pasó a ser el motor de búsqueda principal que usaba Yahoo!.

En marzo del 2000, sorprendió al mercado con su algoritmo PageRank, cuyo éxito fue en gran parte por ser capaz de filtrar enlaces y resultados irrelevantes, lo que convirtió a Google en uno de los buscadores más efectivos desde entonces.

En 1997 también empieza su andadura YANDEX , el buscador ruso más importante . Yandex (en ruso : Яндекс;  YNDX) es actualmente el sitio web  más  visitado  en  Rusia,  con  una  media  de  12  millones  de  usuarios diarios.

1998 Dmoz  (Open Directory Project –OPD-) nace como un directorio web en el que editores voluntarios relacionan enlaces con páginas web de forma ordenada y por categorías.

1999 Terra nace a raíz de la compra por parte de Telefónica del buscador Olé en 1999 y se convirtió en su portal de contenidos. Se estrenó en Bolsa en 1999 alcanzando sus acciones en 2000 un máximo de 157,65 €. En 2005 la cotización de sus acciones era de 2,75 €, siendo el máximo exponente de la «burbuja tecnológica».

En abril de 2000 Terra compró Lycos.

En  1999  nace  en  China  el  buscador  BAIDU,  de  manos  de Robin Li y Eric Xu.   Este buscador es capaz de buscar noticias, imágenes y canciones y su diseño es muy parecido al de Google. Tiene una cuota de mercado mundial del 1,89%

2003  Google revoluciona el mercado lanzando AdWords, la plataforma de publicidad.

2009 Microsoft lanza Bing, conocido anteriormente como Live Search, Windows Live Search y MSN Search.

Ese mismo año Google tiene una cuota de mercado del 70% de las búsquedas, y para poder competir  con  él,  Yaoo!  y Microsoft  firman una alianza,  anunciando que Bing  va a convertirse en el motor de búsqueda de Yahoo!. Este cambio no se implementa hasta principios de 2012. Desde ese momento los resultados de Yahoo! y Bing son exactamente los mismos.

 

 

Situación actual

Actualmente Google es el buscador más utilizado del mundo y líder en la mayoría de los países, tanto desde ordenadores de sobremesa como desde dispositivos móviles.

En gran parte de Europa y Latinoamérica su liderazgo es especialmente significativo con una cuota de búsquedas superior al 90%.

Sin embargo existen algunos países donde Google no es el buscador más utilizado. Por ejemplo,en China y Rusia, donde Baidu y Yandex,respectivamente,lideran el mercado de búsquedas.

Conceptos básicos SEO

Conceptos básicos SEO

URL Una URL es la dirección que nos permite acceder a una página web u otro recurso de internet.

SERPs Son las siglas de Search Engine Results Page. Los SERPs son las diferentes páginas de resultados de un buscador.

Snippet En SEO se denomina snippet a la descripción resumida que aparece de un sitio web dentro de la página de resultados

Rich Snippets LosRich Snippets o fragmentos enriquecidos nos permiten mejorar el aspecto de los resultados en los buscadores.

Landing Page (página de aterrizaje) Es la página de destino donde llegan los usuarios tras hacer clic sobre el resultado de búsqueda.

Indexabilidad Es la mayor o menor capacidad que tiene una web para poder ser leída por los robots de los buscadores.

HTML Es el lenguaje principal que se utiliza para crear las páginas web se combina con otros lenguajes como PHP, Java, ASP o Javascript.

Javascript Es un lenguaje de programación web permite crear funciones específicas que no se pueden realizar mediante HTML.

CSS Es un lenguaje de hojas de estilos  para describir colores, tipo de letra, tamaño, posición…

Metatags o Meta etiquetas Son etiquetas de HTML que se incluyen dentro del código de una página web. Los metatags más importantes son title y description que son utilizadas para crear elsnippet de una página web.

Backlinks Son los enlaces entrantes a una we

Anchor Text El Anchor Text es el texto visible de un enlace.

Linkbuilding Es una estrategia SEO para aumentar los enlaces entrantes (backlinks).

Linkbaiting Se trata de una estrategia SEO basada en la creación de contenido que resulte interesante y se propague de forma viral

Granjas de enlaces Son páginas webs con gran contenido de enlaces hacia otras páginas

Black Hat SEO Son aquellas técnicas no recomendadas y penalizadas por los buscadores

Google Dance Es el periodo de tiempo en que el Google aplica un cambio importante en su algoritmo

Long Tail Nos referimos con Long Tail a la estrategia que prioriza el posicionamiento de palabras clave largas

Conversión Decimos que se produce una conversión web cuando un usuario visita un sitio web y alcanza un objetivo

Google Analytics Es un servicio gratuito de Google que permite realizar un seguimiento completo de los visitantes

Google Webmaster Tools Herramientas para webmasters de Google es un servicio gratuito de Google que permite al propietario de un sitio web obtener datos y diagnósticos

¿Qué es SEO? Definiciones y conceptos básicos

¿Qué es SEO?

Definición de SEO

¿Qué es SEO?
SEO es la abreviatura de “Search Engine Optimization” (Optimización en Motores de Búsqueda) y consiste en mejorar la visibilidad de un sitio web para que este aparezca mejor posicionado en los resultados orgánicos de los buscadores. El SEO también es conocido como posicionamiento en buscadores, posicionamiento natural o posicionamiento web.
El objetivo es aparecer en las posiciones más altas posibles de los resultados de búsquedas orgánicas para una o varias palabras concretas que han sido previamente seleccionadas y son relevantes a nuestra web. Con ello se conseguirá aumentar el tráfico de visitas.
El término SEO también es utilizado para referirse a las personas que desempeñan el
trabajo de posicionamiento. Tradicionalmente las personas que se dedican al SEO suelen tener un perfil técnico (programadores, diseñadores web, etc.) pero con las nuevas tendencias del SEO cada vez es más importante los conocimientos sobre marketing  y comunicación.
El SEO es una disciplina del marketing online junto a otras como el SEM (Marketing en buscadores), SMM (Social media Marketing), Email Marketing, Analítica Web, etc.
Es muy importante entender que el SEO es un trabajo a medio o largo plazo, los resultados a veces tardan meses en conseguirse. El número de palabras clave a posicionar es limitado y depende mucho del número de páginas de las que esté compuesta la web. Por ello, la selección inicial de las palabras clave es muy importarte.
En cualquier caso, es imposible garantizar la posición que obtendrá una palabra clave en
un periodo de tiempo determinado, ya que en el posicionamiento SEO existen muchas variables que no pueden ser controladas, como los cambios en los algoritmos de indexación de los buscadores.
Las diferentes tareas o acciones del posicionamiento SEO se pueden dividir en dos grandes bloques:
SEO On-page: las que se realizan internamente en la web.
SEO Off-page: las que se realizan fuera del sitio.

Google Hummingbird (Colibrí)


El nuevo algoritmo de Google, “Colibrí” (Hummingbird en inglés), empezó a rodar en la última semana de Agosto de 2013 pero no ha sido presentado hasta un mes después, el 26 de septiembre de 2013, coincidiendo con el 15 aniversario de Google. El nombre, “colibrí”, responde a las principales cualidades de este algoritmo, rapidez y precisión.

¿Por qué es tan importante?
 Colibrí no supone una actualización, sino un algoritmo totalmente diferente que utiliza partes antiguas y nuevas. Esto no ocurría desde el último algoritmo de Google Caffeine, en 2009.
Ha afectado al 90% de las búsquedas, aunque el impacto visible no ha sido demasiado significativo.
 Añade nuevas funcionalidades y modifica los criterios de ordenación de resultados.

Google detecta una nueva tendencia en las búsquedas. Los usuarios comienzan a ver a Google como alguien en quien confiar, lo que les lleva a naturalizar las búsquedas, cambiando las palabras clave por preguntas que podrían estar dentro de una oncversación real.
Esta nueva forma de interactuar con Google se acentúa con la utilización de dispositivos móviles – incluyendo las nuevas Google Glasses- para realizar consultas y por la posibilidad de hacerlas a través de voz. Los usuarios huyen de las búsquedas largas y complejas y esperan cada vez más respuestas concisas y cercanas a lo que quieren encontrar. Lo natural es hacer una pregunta y que alguien te responda de la manera más eficaz posible, por encima de la utilización de términos clave.

Colibrí nace para solucionar esta situación, centrando sus esfuerzos en :

 Mejorar la búsqueda semántica, aquélla que ofrece resultados por encima de las coincidencias léxicas, centrándose en el significado real, en la intención de búsqueda.
 Mejorar la búsqueda conversacional, aquélla que cambia keywords por preguntas y listado de resultados por respuestas.
 Mejorar el gráfico de conocimiento, con el que se pueden realizar comparaciones de productos.

Google, a su manera, aspira a ser lo más humano posible,intentando comprender lo que quiere el usuario, buscando el significado y el concepto, por encima de las coincidencias de palabras. El objetivo de Google Colibrí es responder, conversar y anticipar.

Google Colibrí es un algoritmo más rápido y preciso a la hora de modificar los resultados de la búsqueda, que realiza a través de los factores:

 Relevancia en redes sociales.
 Interacción que se produce entre el usuario y la página.
 Calidad del contenido.
 Enlaces.

Las implicaciones de este algoritmo son:
 Habrá que centrarse en más en el contenido de la página y un conjunto de palabras clave relacionadas en vez de unas pocas keywords principales.
 El papel del móvil y de las redes sociales crece

Google EMD


Google EMD fue una actualización del algoritmo
lanzada en septiembre de 2012. El objetivo era reducir la
aparición de resultados de poca calidad frente a las búsquedas
con coincidencia exacta del dominio.
Hasta ese momento, disponer de un dominio que coincidiera exactamente con un palabra clave muy utilizada, posibilitaba tener una posición privilegiada sin hacer mucho  más desde los primeros días.

Ejemplos de dominios EMD serían:
 Abogadosmadrid.com.
 Vuelosbaratos.es.
 Cerrajerosbarcelona.com.
La actualización de Google penaliza:
 Aquellos sitios web que siendo de baja calidad aprovechan la coincidencia de su dominio con la palabra clave para conseguir una buena posición.

Eso no significa que no se pueda tener un dominio de este tipo. De hecho, es una técnica SEO muy  recomendable. Sólo los sitios web que se aprovechan “descaradamente” de este hecho para mejorar el posicionamiento son los que han sido y serán penalizados.

Google Penguin


Google Penguin fue lanzado en abril de 2012.
El objetivo de Google Penguin fue mejorar la calidad delos resultados ofrecidos por Google, centrándose en eliminar el spam y los enlaces de baja calidad. El spam se puede definir como contenido basura, mensajes no solicitados, o sin un remitente claro.
Se centra, por lo tanto, en factores off-page, es decir, en elementos externos a los portales web.
Google Penguin beneficia las buenas prácticas y la búsqueda de la “excelencia”, y trata de penalizar los portales que buscan un posicionamiento fácil mediante técnicas de sobreoptimización o la compra de enlaces. La sobreoptimización se puede ver como un conjunto de acciones orientadas a manipular un sitio web para que se posicione mejor, sin tener en cuenta al usuario. Es decir, cuando pasamos al abuso.

Por ejemplo:
 Un sitio web que recibe cientos o miles de recomendaciones en muy poco tiempo.
 Contenidos duplicados para mejorar la densidad de las palabras clave (uso repetitivo
de las mismas).
 Texto oculto, por ejemplo, programándolo con el mismo color que el fondo.
 KeywordStuffing.
Ejemplo: Hoteles en Madrid ………hoteles en Madrid ……. Hoteles en Madrid …..

Google Penguin valora, entre otros:
La limpieza en el perfil de links: Es tan importante que te enlacen otras páginas como que no te enlacen las que no son de tu temática o que no hayan sido penalizadas por Google.
Perfil en Google+: Google Penguin valora la creación de un perfil dentro de la red
social, así como tener actividad en el mismo.
La difusión del contenido en las redes sociales, por ejemplo a través de los botones
“Compartir” o los “Me gusta”.
La calidad cuando hacemos GuestBlogging (GuestBloggingconsiste en publicar contenido en el blog de otro a cambio de un enlace hacia el nuestro).
 La capacidad del sitio web para ser visualizado correctamente en cualquier equipo, incluyendo móviles y tablets.
La usabilidad del portal web.
La calidad y originalidad de los contenidos, en el sentido de ser contenidos nuevos, no copiados, y que aporten valor.
Por el contrario penaliza a:
Las páginas cuyos enlaces repiten constantemente el mismo texto.
 Las páginas que reciben enlaces de webs de baja calidad, como directorios, redes de enlaces o granjas de enlaces.
 Las páginas que reciben enlaces de sitios con los que no se comparten intereses.
 Las páginas que reciben enlaces de páginas en otros idiomas sin que haya una
vinculación clara.
En cuanto a las actualizaciones, Google Penguin ha lanzado cinco. La primera, el 24 de abril de 2012, tuvo una incidencia del 3,1% en las búsquedas, seguida de Penguin 2.0 (22 de mayo de 2013) que alteró el 2,3% de las búsquedas. El resto de actualizaciones. Penguin 2 (25 de mayo de 2012),Penguin 3 (5 de octubre de 2012) y Penguin 5 (4 de octubre de 2013), han tenido poca un nivel de incidencia mucho menor.

Google Panda


La actualización Google Panda fue lanzada a principios de 2011. El objetivo de este cambio era eliminar de las primeras posiciones del buscador los sitios con contenido de baja calidad, páginas web sobre-optimizadas con palabras clave, contenido reproducido y exceso de publicidad que buscaban posicionarse en los primeros resultados para atraer público a su sitio web sin ofrecer ningún valor añadido al usuario.
En el momento de su lanzamiento, supuso una revolución porque afectó al 12% de las
búsquedas.
Google Panda afectó principalmente a:
Sitios web con contenido duplicado.
Sitios que copiaban contenido de otras webs.
Sitios que participaban en granjas de enlaces.

Las granjas de enlaces son portales  web con cientos o miles de enlaces sin clasificar y creados con la intención clara de manipular los resultados orgánicos de las páginas enlazadas.
Google Panda valora positivamente el contenido original, actualizado y que ofrezca un valor añadido al usuario. Por lo tanto, penaliza (o al menos no beneficia) a las páginas  que copian contenidos de terceros o que obstaculizan la navegación del usuario para generar un mayor número de páginas vistas.
Desde entonces y hasta ahora, Google ha lanzado un total 26 actualizaciones en relación
con este objetivo.
Las actualizaciones de mayor impacto fueron la primera (24 de febrero de 2011), que se lanzó en EEUU y afectó al 11,8 % de las consultas y la sexta (12 de agosto de 2011),  lanzada a nivel mundial y que afectó al 9 % de las búsquedas.
El resto de las actualizaciones, (la última fue el 18 de julio de 2013) han tenido un nivel de incidencia por debajo del 3%.