fbpx

Posicionamiento en Buscadores

All Blogs

¿Qué es Google Penguin?

 que es google penguin

¿Qué es Google Penguin? en 2012 Google lanza un algoritmo que busca luchar contra el spam en los resultados de búsqueda y las técnicas fraudulentas de linkbuilding usadas para posicionar páginas web penalizándolas. Esto lo hace con el objetivo de enriquecer los resultados y la calidad de los contenidos que aparecen en las primeras posiciones de Google premiando estas páginas por la calidad sobre la cantidad de enlaces.

Con la implementación de este algoritmo el cual busca combatir el spam tanto dentro como fuera del sitio, aspecto importante que después de todo este tiempo que lleva en la web no muchos le prestan atención y por la cual a muchos webmasters les ha afectado en su estrategia basada en la construcción de enlaces, ya que todos estos fueron penalizados perdiendo miles de visitas.

Google Penguin tiene muy en cuenta el exceso de enlaces que son utilizados en la redacción de un mismo texto y el cual le está apuntando a una misma palabra clave, el aumento repentino, anormal de enlaces entrantes. Los enlaces deben proceder de sitios de calidad y deben ser relevantes.

Técnicas White Hat SEO

 tecnicas white hat seo

Con las técnicas White Hat SEO se busca posicionar el sitio web de forma correcta. Para saber si se están utilizando esta técnica bien, vamos a enumerar un conjunto de técnicas elementales que se deben saber para hacer un correcto White Black SEO:

Contenido de Calidad: es la parte primordial de las técnicas White Hat SEO, para contribuir con algo bueno y útil a los lectores. De esta manera se engancha al lector haciendo que vuelva a consultar la página web.

Títulos importantes: Los títulos deben ser descriptivos, directos y siempre deben incluir la palabra clave principal por la cual se quiere ser encontrado en los motores de búsqueda.

Keywords con sentido: Las keywords es importante usarlas dentro del contenido del texto, sin embargo estas deben tener relación directa con lo que se está escribiendo, aportando valor al texto.

Enlazar otras pàginas: No por esto se van a perder seguidores, al contrario los artículos de la página conseguirá tener mayor profundidad en su contenido.

Técnicas Black Hat SEO más comunes

tecnicas black hat seo mas comunes

Cuando se habla de técnicas Black Hat SEO más comunes, se hace referencia en gran manera a la calidad de contenido que el sitio web aporta al usuario de forma que este sea parte fundamental de esta y que no se está haciendo.
Técnicas Black Hat SEO más comunes:

Links y textos ocultos: consiste en añadir texto en exceso con palabras clave por el que se quiere ser encontrados con el mismo color del fondo de la web, las cuales no son visibles para el usuario pero si para los motores de búsqueda.

Keywords Stuffing: exagerar con el uso de las palabras clave, llenando todos los elementos de la página web (title, body, H1, H2, anchor text, URL, metatags etc.) con las palabras por las que se quiere ser posicionando pero sin generar contenido de valor.

Spinear artículos: utilizando contenido de la red modificándolos masivamente, realizando variaciones del mismo para postearlo en un sitio web.

Cloacking: Mostrar un tipo de contenido para los buscadores, y a los usuarios otros distinto.

Page hijacking: Hacer la copia de una página que ya existe en la web, queriendo que el buscador crea que es la original y no al contrario, alcanzando un buen posicionamiento en el ranking.

Qué es White Hat y Black Hat

 que es white hat y black hat

Cuando se habla de qué es White Hat y Black Hat, se están refiriendo a las buenas y malas prácticas del SEO en el posicionamiento de las páginas web. El nombre de estas técnicas es título muy descriptivo para ver la batalla constante entre el bien y el mal en el mundo del SEO, es decir lo que es honesto y lo que no.

White Hat SEO vs. Black Hat SEO
El SEO en el mundo digital tiene dos caras, una buena y una mala, la cara buena es el White Hat SEO, las buenas practicas que son obtenidas a un mediano o largo plazo, teniendo en cuenta que no todas las técnicas de este funcionan igual, esto depende del nicho del mercado, de nuestra posición en el mismo, etc. Estas prácticas lo que buscan y brindan son mejorar la experiencia del usuario y de esa forma tener una buena imagen dentro de los buscadores.

La cara oscura del SEO se conoce como Black Hat SEO, y se conocen como las “oscuras” que se hacen para posicionar un sitio a corto plazo pero que no aportan a los usuarios una buena experiencia. Estas generalmente son atrapadas por los robots de los buscadores desplomándose de forma visible en agujero de las búsquedas.

¿Qué hacer para no tener problemas con Google Panda?

que hacer para no tener problemas con google panda

¿Qué hacer para no tener problemas con Google Panda? Lo primero que se debe evitar es duplicar el contenido de otros sitios, y tampoco duplicar el contenido dentro del mismo sitio web, y si se va a duplicar no se debe indexar todo. Para Google es de vital importancia tener una que el sitio tenga una buena experiencia de usuario, un sitio invadido de anuncios, lento, con muchos scripts, etc estará calificado como malo.

Otros aspectos a tener en cuenta son:

Evita la publicidad invasiva: con google todo es condicional, sin embargo se recomienda disminuir el volumen de publicidad en el sitio web, en especial las ventanillas flotantes o parecidas a estos.

Contenido de calidad: crear contenido para personas no para robots, y no lo mismo de siempre, contenido que la gente quiera leer y que se sepa que va a ser interesante para los lectores y la comunidad del sitio.

Mejorar el contenido de baja calidad: revisar el contenido de forma regular, si existen artículos antiguos o páginas sin contenido de calidad, se debe renovar o hacer limpieza del mismo.

Publicaciones sin exceso de enlaces: redactar artículos que tengan enlaces a temas relacionados está bien, pero hay que hacerlo de una forma coherente, sin embargo esto debe hacerse sin excederse en esto.

¿Cómo funciona Google panda?

como funciona google panda

¿Cómo funciona Google panda? Este algoritmo busca eliminar los contenidos que son considerados como spam para de esa manera solucionar problemas de posicionamiento de sitios web aumentando la capacidad de control en toda la red.

Gracias a este algoritmo ahora las páginas deben crear contenido original y único, que sea de calidad para los usuarios, logrando captar la atención de este haciendo que la información sea compartida. Si esto se realiza, cuando Google Panda pasa a revisar el contenido de la página web, atravesando de analytics etc. Excluirá la página de ser mala y no se será penalizado.

El objetivo principal del funcionamiento de Google Panda es brindar al usuario contenido de calidad, original y relevante. De pronto ha tenido la oportunidad de darse cuenta que muchas veces cuando hay una noticia de última hora hay varios periódicos en los primeros resultados y al rato hay otros y más tarde otros. Esto se le llama “bailando con Google” o “baile de las SERPS”, esto a lo que hace referencia es que no se tiene un lugar fijo en los resultados de google a causa de no tener un contenido netamente original o de calidad, haciendo que el algoritmo Google Panda ponga a bailar a todos aquellos que tienen contenido parecido, intentando con base a otros algoritmos determinar cuál se merece tener mejor posicionamiento.

¿Qué es el algoritmo Google Panda?

que es el algoritmo google panda

¿Qué es el algoritmo google Panda? Google desde el 2011 comenzó a utilizar un nuevo sistema de posicionamiento llamado “Google Panda”. Con este tipo de algoritmos Google busca ofrecer a sus usuarios mejores resultados en sus búsquedas.

Luego de que Google panda fuera implementado, otras técnicas de posicionamiento como el uso de metatags e información del sitio quedaron en desuso. Gracias a Google Panda, ahora el posicionamiento de un sitio web se basa más en la originalidad y calidad de la redacción de los artículos, lo que le da más fuerza a la conocida frase de escribir por internet “El contenido es el rey”.

Google realizo este cambio, ya que en los últimos 4 años, la cantidad de url´s aumento de manera significativa, de los cuales la mayoría son de nuevos sitios web. Esto genera de alguna manera un problema en el posicionamiento de los sitios web ya que muchos de estos sitios ocasionan spam, ofrecen publicidad engañosa y copian el contenido de otros sitios para captar usuarios, es por esto que Google Panda es usado, para controlar esto y castigar a quienes hacen un back hat SEO.

Palabras clave long tail

palabras clave long tail

Palabras clave long tail, conocidas mejor en español como “palabras clave de cola larga”, las que en realidad deberían llamarse “frases clave”, son frases claves de varias palabras, estas por lo general suelen ser mucho más concretas que las palabras que se unas como generalistas o secundarias, y razón por la cual son muy costosas cuando se quiere realizar un pauta y tienden a tener una menor competencia.

El uso de las palabras clave long tail además ayuda a atraer una menor cantidad de tráfico, sin embargo gracias a que son fáciles de posicionar, pueden ser muy útiles utilizarlas al empezar tu negocio.

Las palabras clave long tail o cola larga son muy importantes y útiles, ya que permiten darle un toque mucho más específico al keyword research, y, asimismo permite contar con diferentes grados de dificultad y alcance en las palabras clave que se intentan posicionar.

¿Qué es SEO y por qué es importante?

 que es seo y por que es importante

Los que trabajan en marketing digital o aquellos que quieren ver su página web de primeras en las páginas de google alguna vez habrán escuchado del SEO, entonces surge la pregunta ¿Qué es SEO y por qué es importante?

Acorde a lo que dice wikipedia, el SEO es el posicionamiento en buscadores u optimización de motores de búsqueda como proceso de mejoramiento de visibilidad de un sitio web en los resultados de manera orgánica en los diferentes buscadores.

Se puede decir que el SEO en los últimos años es una de las disciplinas que más ha cambiado, ya que si nos fijamos en las de actualizaciones que han tenido Penguin y Panda, y cómo han tenido una vuelta de 180 grados a lo que se entendía por SEO hasta hace poco.

Pero, ¿Por qué es importante?

Se puede decir que el SEO es necesario porque hace más útil el sitio para los usuarios y para los motores de búsqueda por igual, teniendo en cuenta que el SEO es la mejor forma de que los usuarios encuentren la página web, además trabajando en que esta sea relevante.

Diferencias entre UX y UI

diferencias entre ux y ui

Últimamente hemos visto dos acrónimos que empezaron a hacer fuerza en internet, sobre todo en las empresas que tienen que ver con desarrollos tecnológicos, estos son UI que es un acrónimo que parte del anglicismo User interface, y UX significa User Experience.

Entonces ¿cuáles son las diferencias entre UX UI? UI hace referencia a la creación de la interfaz, ya sea gráfica o que es desarrollada con los diferentes tipos de códigos como css, jQuery, jQuery UI, EXT JS, YUI, etc. En cambio UX significa -experiencia del usuario- lo cual piensa es en ponerse en los zapatos del usuario, verificando como es la usabilidad en cuanto al diseño web.

El principal trabajo de un diseñador UX, está en el área de la estrategia de contenido, este realiza un análisis de la competencia, del comportamiento del consumidor, de la estrategia del producto, y del desarrollo de contenido como tal. Entre tanto, el trabajo de un UI está en la presentación visual, la interactividad del producto. Este es el experto en diseño front-end, en entornos gráficos y en construcción de marca, en otras palabras es el responsable del “look and feel” o apariencia del producto digital.

Como se puede ver, para el desarrollo de este tipo de productos no solo intervienen varias personas, también se desarrolla en diferentes fases. No resulta suficiente que diversos trabajos funcionen de manera conjunta, también este debe resultar homogéneo y atractivo.

Palabras clave LSI

palabras clave lsi

Las palabras clave LSI (Indexación Semántica Latente) que se traduce en sinónimos o términos relacionados con palabras clave, en términos de búsqueda web, es donde los buscadores hacen una búsqueda de forma semántica, buscando sinónimos o términos relacionados.

Estar al día con los diferentes términos que ayudan al posicionamiento web no es cosa fácil, sin embargo sigue siendo la mejor captación de tráfico propia del inbound. Estas palabras no solo hablan de palabras que los buscadores escrudiñan, también hacen referencia a la temática del blog o entrada. A través de ellas, Google, desde hace ya bastante tiempo, es capaz de notar la diferencia de lo qué trata un contenido, basado en su contexto y a las palabras clave que rodean a la palabra clave principal.

Si se incluye una gran cantidad de keywords LSI, lo que se logrará conseguir es forzar al buscador que considere el texto, o al menos una gran parte. La manera más lógica y ahora elemental de obtener dichas palabras clave relacionadas a la palabra clave principal, es a través de Keyword Planner de Google Adwords, aunque esto implicará que se tenga que filtrar bastante.

Como empezar a posicionar un sitio web en Google

como empezar a posicionar un sitio web en googlePara saber cómo empezar a posicionar un sitio web en Google desde el principio, es importante tener en cuenta ciertas estrategias, ya que es algo que ha despertado en las empresas el interés por la necesidad de estar en primer lugar en los buscadores como Google.

1- Elaborar una estrategia de contenidos y keywords

Empecemos por la más importante: la creación y difusión de contenidos. Luego de haber creado el sitio web, se deben describir los temas y palabras clave que se van a utilizar, ya que esto permitirá publicar información que esté siempre relacionada con tu plan de posicionamiento.

2- Colaboración con otras webs, blogs y comunidades

Tener contenido propio es bueno, sin embargo, tener enlaces de sitios relevantes de forma periódica, puede ayudar a que a futuro estos sitios hagan lo mismo, de esa manera se podrán hacer alianzas estratégicas consiguiendo popularidad, haciendo crecer nuestra comunidad.

3- Escribir para personas sin olvidar los buscadores

Suelen aconsejar algunas veces que hay que escribir para personas sin tener en cuenta el SEO, la verdad es que esto no siempre funciona, ya que esto lo que hace es reducir las palabras claves. Lo ideal es combinar ambas cosas, escribir con naturalidad e introducir términos clave sin que el usuario lo perciba.

4- Optimizar la web

Además del contenido, existen otras técnicas que se deben realizar dentro del propio sitio web para posicionarlo como lo son:

Dominio: se debe seleccionar un dominio que contenga alguna de las palabras clave.

Servidor: El servidor o lugar donde está alojada la web no debe contener webs de contenido dudoso o que sea caracterizado por tener sitios ilegales y demás. A la hora de elegir un hosting, asegúrese de que este le garantice la limpieza del servidor para garantizar también el posicionamiento de tu web.

Diseño responsive: el sitio web debe estar adecuado para los visitantes que lleguen desde móviles y tablets. Google premia los sitios que dan al usuario un servicio adecuado a su dispositivo.

Factores de rendimiento de una página web

factores-de-rendimiento-de-una-pagina-web

El rendimiento de una página web es un aspecto muy importante, pero a veces se pasa por alto su necesidad, sin un buen rendimiento no todos los visitantes tendrán una conexión rápida y fiable. Muchos de los visitantes estarán con una conexión que dependerá de las velocidades de conexión variables, y aunque actualmente en el mundo cada vez más el diseño de páginas web está centrado en el celular, se debe tener en cuenta los visitantes que pueden estar en zonas o países donde las velocidades de conexión son simplemente lentas.

Tomar en serio el rendimiento de un sitio web es un paso importante para asegurar el éxito. Veamos algunas de las herramientas que se pueden utilizar para evaluar el rendimiento de una página web, así como algunos de los culpables que pueden estar afectando negativamente el rendimiento.

Herramientas de evaluación

Saber cómo su sitio web  está trabajando actualmente es el primer paso para mejorar el rendimiento. Aquí están algunas herramientas útiles que se pueden utilizar para su evaluación:

  • Pingdom Tools Website Speed Test, prueba de velocidad para Herramientas web, este sitio evaluará el tamaño de la descarga y la velocidad de un sitio y mostrara todos los recursos (imágenes, CSS, Javascript, etc) para que la página web los optimice adecuadamente. http://tools.pingdom.com/fpt/ 
  • What Does My Site Cost? Esta página web estima una cantidad de dinero por la descarga de datos en su página web y muestra lo que el costo sería en varios países de todo el mundo. Si su sitio tiene un público internacional, esto puede ser especialmente útil. https://whatdoesmysitecost.com
  • Webpage Test – esta página web es útil ya que proporciona una gran cantidad de información y consejos sobre cómo se puede mejorar el rendimiento de un sitio.

Una vez que haya evaluado una página, se puede ver las áreas de esa pagina que podrían mejorar desde el punto de vista del tamaño, rendimiento / descarga.

Imágenes

El peso medio de un sitio web se ha elevado a casi 2 MB y la mayor parte de ese tamaño es debido a las imágenes. Simplemente abordar el tamaño de las imágenes en un sitio web es una manera en que usted puede reducir significativamente el tamaño de descarga de las páginas de ese sitio.
Para garantizar que las imágenes sean bien pequeñas, tamaño de archivo, debe saber cómo las posibles imágenes de mapa de bits (JPGs, GIF, PNG y) deben ser optimizadas para llevarse a la Web. El objetivo es reducir el tamaño del archivo tanto como sea posible sin dejar de ofrecer un buen aspecto en la imagen. Nuevos formatos de imagen, como SVG y WebP, también se pueden explorar como formas de reducir el peso global de las imágenes de una página.

Fuentes

Con fuentes web, los diseñadores tienen acceso a la amplia gama de tipos de letra que se puede utilizar de forma fiable en los sitios web que diseñan y desarrollan. Esto es impresionante desde el punto de vista de variedad de diseño, pero puede ser un paso en la dirección equivocada para el tiempo de carga de la página web. Cada vez que se utiliza una fuente nueva en una pagina web, ese tipo de letra debe ser recuperada desde el servidor y se carga en la página (a diferencia de las fuentes del sistema que se cargan directamente desde el ordenador de una persona). Cargando múltiples fuentes para una página y que sin duda puede afectar la velocidad de descarga.

Animaciones

En los efectos de animación,son visualmente agradables pero recuerde que cada una de esas imágenes de gran tamaño que deben cargarse en el sitio junto con el Javascript necesario para ejecutar los efectos de animación pueden poner lento siu sitio web.

Desde el punto de vista del rendimiento de descarga, es preferible una sola imagen con un texto a un banner animado. Además, la investigación llevada a cabo sobre el uso de estos carruseles animados demuestra que son menos eficaces de todos modos, por lo que mediante la eliminación de ese efecto, a menudo se puede mejorar la velocidad de descarga sin ningún impacto negativo en el sitio en su conjunto.

Hosting

Los elementos de sus páginas web no son el único factor que afecta el rendimiento. Su proveedor de Hosting también juega un papel importante en esta ecuación. Mediante el uso de las herramientas de evaluación indicados al principio de este artículo, se puede descubrir algunas sugerencias que se aplican a la configuración del Hosting de páginas web. Comparta esos resultados con ese proveedor para ver lo que pueden hacer con el fin de mejorar el rendimiento de su página desde el nivel de servidor.

En resumen

El diseño de sitios web debe orientarse hacia el desempéño optimo en dispositivos móviles.

Rf:webdesign.about.com

Inscribirse en los Distintos Buscadores para su sitio web

10Antes de comenzar a dar de alta su sitio web en los distintos buscadores, le aconsejamos que escriba un pequeño documento (en Word Pad o Word, por ejemplo) con los siguientes datos:

  • Su nombre y apellidos
  • Su dirección e-mail
  • El Titulo o Nombre de su sitio web
  • Dos descripciones de su sitio web, una mas breve (100 caracteres) y otra un poquito mas larga (250 caracteres), pero ambas comprensibles, objetivas y concisas. Evite los esloganes publicitarios tipo "¡el mejor sitio web de Internet!" o "somos los primeros!", etc...
  • Su URL, es decir, la direccion de su sitio web (por ejemplo: http://www.sudominio.com)
  • Diez palabras clave que tengan relacion con su sitio web y que faciliten la busqueda del mismo. Escribalas dos veces, una vez separándolas con comas y otra separándolas con un simple espacio. Por ejemplo, las palabras clave del diario "El País" en España serían: El País, diario, periódico, noticias, actualidad, prensa, información, titulares, España, ..... y la segunda lista sería así: El País diario periódico noticias actualidad prensa información titulares España...

De este modo, no hace falta que mecanografíe cada vez todos los datos, sino que puede copiarlos del pequeño documento e incluirlos (pegarlos) directamente en las respectivas casillas de los formularios que los distintos buscadores ofrecen para sugerir un sitio web.

-- Compruebe si su sitio web dispone de Meta-Tags (etiquetas en el encabezado del código de la pagina) y si los Meta-Tags contienen los mismos datos que el documento que ha escrito anteriormente. Sin Meta-Tags, difícilmente pueden reconocer su sitio web los buscadores basados en Software (motores de búsqueda, robots o spiders).

Mas información sobre Meta-Tags se puede encontrar en Internet, colocando la palabra "meta-tags" en un buen buscador en español.

-- Revise periodicamente (cada seis semanas aproximadamente) si su sitio web todavia aparece listado en el buscador correspondiente y verifique que el enlace funcione correctamente. Si no es así, sugiéralo de nuevo y actualice su inscripcion, buscando mejorar la descripcion y el contenido, para obtener mejor colocación.

-- Por último, aunque no por ello menos importante, piense que la mayoría de los buscadores son buscadores generalistas, es decir, que intentan cubrir todos los ámbitos temáticos. Existen también numerosos buscadores especializados y portales verticales (vortales) que se ocupan en profundidad de un único tema.

Es conveniente buscar y encontrar aquellos vortales y buscadores especializados que contengan la misma temática que su sitio web. Le aconsejamos que dé de alta su URL también en estos servicios de búsqueda temáticos, pues quizás le reporten menos usuarios que los que provienen de los buscadores generalistas, pero seguramente los visitantes se interesen mucho mas por el contenido de su sitio web.

Cuando vaya a inscribir su sitio web, tenga presente el público objetivo al cual quiere llegar, la región, el idioma, el tema y la popularidad de los buscadores o directorios disponibles. Recuerde que la inscripción es un medio de llegar a los lectores y no es un fin en si misma.

Verifique bien antes de inscribir que los buscadores y directorios en los cuales se va a registrar coincidan con el idioma y mercado objetivo de su sitio. Tenga presente que lograr una posición destacada en los buscadores es cada día más difícil y que actualmente se deben 'comprar' los keywords en los buscadores y 'pagar' por aparecer en algunos directorios.

Para mejorar el posicionamiento, es conveniente incluir en sus páginas web enlaces relevantes y pertinentes al tema. esto se llama "Linking" en inglés, ayuda a generar tráfico y da mejor posicionamiento por efecto de la "popularidad" del sitio.

Tipos de Sitios Web

6pHay 2 Tipos de Contenidos estático y Dinámico.

Un sitio web estático es uno que tiene contenido que no se espera que cambie frecuentemente y se mantiene manualmente por alguna persona o personas que usan algún tipo de programa editor. Hay dos amplias categorías de programas editores usados para este propósito que son:

  • Editores de texto como Notepad, donde el HTML se manipulata directamente en el programa editor o
  • Editores WYSIWYG como por ejemplo Microsoft FrontPage y Macromedia Dreamweaver, donde el sitio se edita usando una interfaz GUI y el HTML subyacente se genera automáticamente con el programa editor.

Un sitio web dinámico es uno que puede tener cambios frecuentes en la información. Cuando el servidor web recibe una petición para una determinada página de un sitio web, la página se genera automáticamente por el software como respuesta directa a la petición de la página; Por lo tanto abriendo muchas posibilidades incluyendo por ejemplo:El sitio puede mostrar el estado actual de un diálogo entre usuarios, monitorizar una situación cambiante, o proporcionar información personalizada de alguna manera a los requisitos del usuario individual.

Hay un amplio abanico de sistemas de software, como Active Server Pages (ASP), Java Server Pages (JSP) y el lenguaje de programación PHP que están disponibles para generar sistemas de sitios web dinámicos. Los sitios dinámicos a menudo incluyen contenido que se recupera de una o más bases de datos o usando tecnologías basadas en XML como por ejemplo en el RSS.

El contenido estático puede también ser generado de manera dinámica periódicamente o si occurren ciertas condiciones para la regeneración para evitar la pérdida de rendimiento de iniciar el motor dinámico para cada usuario o para cada conexión.

Hay plugins disponibles para navegadores, que se usan para mostrar contenido activo como Flash, Shockwave o applets escritos en Java. El HTML dinámico también proporciona para los usuarios interactividad y el elemento de actualización en tiempo real entre páginas web (i.e, las páginas no tienen que cargarse o recargarse para efectuar cualquier cambio), principalmente usando el DOM y JavaScript, el soporte de los cuales está integrado en la mayoría de navegadores web modernos.

Contenido de un Sitio

9Mientras más usable hagamos nuestro sitio web, más sencillo será posicionarnos bajo determinada palabra clave. La arquitectura de la información está tomando cada vez más importancia tanto del lado del usuario como del lado de los buscadores.

Existen muchas formas de usar más usabilidad en nuestros diseños, pero a veces solo basta con ponernos un poco en la piel de nuestro posible navegante. Si pensamos en él nuestra tarea será más sencilla.

 

No hay duda de que uno de los temas que está dando mucho que hablar es el tema de la Arquitectura de la información en sitios web.

Los beneficios realmente son muy apreciables en lo que respecta a la funcionalidad o navegación web. Pero no solamente es el usuario navegante es el que se beneficia de sitios usables, los webmaster o generadores de recursos ven su tarea de actualización o incorporación de nuevos módulos como algo mucho más “liviano”, esto es así por el hecho de que la estructura usable posee una sencillez y lógica tal que permite expandir y hacer crecer en todos los sentidos a un sitio web.

Pero estamos hablando de que disponer de sitios usables nos ayuda notablemente en el posicionamiento. Aquí van algunas recomendaciones para aprovechar la forma en que interpreta google a los sitios que poseen buena usabilidad:

Sitios Web con código de programación Sencillo:

Google valora mucho un código simple y claro. Mientras menos código tenga una página mejor considerada por google será. Esto se ve de manera muy clara en los sitios que utilizan capas o etiquetas “div” en vez de tablas y código CSS para dar estilo a los textos y forma a cada tabla generada. La reducción del tamaño del código y la mejora considerable en la estructura de programación, junto con la reducción considerable en el consumo del ancho de banda del navegante hacen a nuestros sitios mucho más veloces y mejores vistos (por simplicidad de código) por google.

Inclusión de elementos Dinámicos:

Ya sea que utilizemos PHP, XHTML, ASP u otro lenguaje de programación, siempre será mejor que utilizar html puro. Esto es así por el hecho de que google valora mucho las tecnologías utilizadas en la creación de un sitio web. Además el uso de lenguajes dinámicos facilita la inclusión de nuevas secciones y permite jugar con variables o enlaces que de otra manera serían imposible lograr. El uso de includes () permite aplicar a todas las páginas de un sitio web un mismo bloque con enlaces, logrando optimizar considerablemente la usabilidad y por ende lograr una mejor conexión entre una página y otra, esto ayuda enormemente al posicioanamiento y detección de nuevas páginas.

Creación de un Mapa Web:

Muchos subestiman el uso de un claro mapa de sitio para ayudar a encontrar páginas que se encuentran perdidas o poseen un enlace generado desde una base de datos. Una gran ayuda para el posicionamiento web es la inclusión de un buen mapa de sitio con enlaces directos del tipo: http://www.tupagina.dom/pagina-a-vincular.php
Además de esto, el poseer un mapa de sitio ayuda al usuario y hace mucho más navegable un sitio web.

Mucho más textos, menos imágenes:

Uno de los principales errores que se comenten a la hora de diseñar un sitio “vistoso” es el abuso de los recursos gráfico para comunicar desde un sitio web.

Google otorga más relevancia a los enlaces “Textuales” y no tanto a los enlaces provenientes de imágenes. Esto es así por el hecho de que google valora mucho el texto que posee un enlace (Anchor Text) así, por ejemplo si queremos enlazar una seccion en nuestro sitio lo podremos hacer: “Venta de Computadoras” con un determindo enlace a una página interna de tipo: “tu_sitio.com/venta_de_computadoras.php”.

En cambio si utilizamos imágenes para enlazar nuestras páginas estaremos no aprovechando el recurso de “Anchor text” para dar relevancia a un enlace.

¿Significa esto que no son importante las imágenes que poseen un enlace? De ninguna manera, el uso de la Etiqueta “ALT” en cada imagen que posee un enlace es de gran ayuda para el posicionamiento.

Resumen:

Mientras más usable hagamos nuestro sitio web, más sencillo será posicionarnos bajo determinada palabra clave. La arquitectura de la información está tomando cada vez más importancia tanto del lado del usuario como del lado de los buscadores.

Existen muchas formas de usar más usabilidad en nuestros diseños, pero a veces solo basta con ponernos un poco en la piel de nuestro posible navegante. Si pensamos en él nuestra tarea será más sencilla.

Buscadores de paginas web Comunes

1p

Google

Alrededor de 2001, el buscador Google adquirió prominencia. Su éxito estaba basado en parte en el concepto de popularidad basado en PageRank, bajo la premisa de que las páginas más deseadas eran más enlazadas por otras páginas que el resto. Esta idea permitió a Google disponer las páginas de una determinada búsqueda en función de su importancia, basada en este algoritmo, esto es, las páginas más enlazadas por otras páginas se mostraban en primer lugar. La interfaz minimalista de Google se hizo muy popular entre los usuarios y desde entonces ha tenido un gran número de imitadores.

Google y muchos otros buscadores no sólo usaban PageRank, sino más de 150 criterios para determinar la relevancia de una web.

Yahoo Search

En 2004, Yahoo! lanzó su propio buscador basado en una combinación de tecnologías de sus adquisiciones y proporcionando un servicio en el que ya prevalecía la búsqueda en Webs sobre el directorio.

Microsoft

El más reciente de los grandes buscadores es Live (antes MSN Search), de Microsoft, que previamente dependía de otros para listar sus búsquedas. En 2004 debutó una versión beta con sus propios resultados, impulsada por su propio robot (llamado msnbot). Al principio de 2005 comenzó la versión definitiva. El mercado está ahora dominado por Google, Yahoo y Microsoft. El resto de grandes buscadores tienden a ser portales que muestran los resultados de otros buscadores y ofrecen, además, otro tipo de contenidos que tienen mayor o menor importancia en la página como hace el propio Yahoo!

Noxtrum

Noxtrum es el primer motor de búsqueda global diseñado por una empresa española, Telefónica Publicidad e Información, S. A. (TPI), lanzado al mercado en versión Beta el 1 de diciembre de 2005. Su objetivo es ser el líder en las búsquedas en internet del mundo hispanohablante, y para ello está especializado en las búsquedas locales, actualmente sólo operativas en España. Noxtrum parte de la implementación de FAST para construir su propio motor de búsqueda, con lo que realmente no cuenta con tecnología de búsqueda propia, sino que adapta al español la tecnología usada en su día por navegadores como AllTheWeb hoy propiedad de Yahoo.

Nutch

Nutch es un buscador basado en tecnología de código abierto.

Clases de Buscadores

121. Los motores de búsqueda o arañas: La mayoría de los grandes buscadores internacionales que todos usamos y conocemos son de este tipo. Requieren muchos recursos para su funcionamiento. No están al alcance de cualquiera.

Recorren las páginas recopilando información sobre los contenidos de las páginas. Cuando buscamos una información en los motores, ellos consultan su base de datos, y nos la presentan clasificados por su relevancia. De las webs, los buscadores pueden almacenar desde la página de entrada, a todas las páginas de la web.

Si buscamos una palabra, por ejemplo “ordenadores”. En los resultados que nos ofrecerá el motor de búsqueda, aparecerán páginas que contengan esta palabra en alguna parte de su texto.


Si consideran que una web es importante para el usuario, tienden a registrarlas todas. Si no la consideran importante, solo almacenan una o más páginas.

Cada cierto tiempo, los motores revisan las webs, para actualizar los contenidos de su base de datos, por lo que es frecuente, que los resultados de la búsqueda no estén actualizados.

Los spiders, tienen una colección de programas simples y potentes con diferentes cometidos. Se suelen dividir en tres partes. Los programas que exploran la red -spiders-. Los que construyen la base de datos. Y los que utiliza el usuario, el programa que explora la base de datos.

Si les pagamos nos dan un bonus que nos permitirá aparecer en las primeras páginas de resultados. Esta forma de publicidad, ahora mismo, es indicada de alguna forma. Los spiders se han visto obligados a este tipo de publicidad para poder seguir ofreciendo a los usuarios el servicio de forma gratuita.

Ejemplos de Spiders: Google, Altavista, Hotbot, Lycos

2. Los Directorios:
Una barata tecnología, que es ampliamente utilizada por la cantidad de programas scripts en el mercado. No se requieren muchos recursos de informática. En cambio, se requiere más soporte humano y mantenimiento.

Los algoritmos son mucho más sencillos, presentando la información sobre las webs registradas como una colección de directorios. No recorren las webs ni almacenan sus contenidos. Solo registran algunos de los datos de nuestra página. Como el título y la descripción de la web que se introduzcan a la hora de registrar las webs.

Los resultados de la búsqueda, estarán determinados por la información que se haya suministrado al directorio cuando se registra la web. En cambio, a diferencia de los motores, son revisadas por operadores humanos, y clasificadas según categorías, de forma que es más fácil encontrar webs del tema de nuestro interés.

Más que buscar información sobre contenidos de la página, los resultados serán presentados haciendo referencia a los contenidos y temática de la web.

Su tecnología, es muy barata y sencilla. Imagínese que es una base de datos como la que usted utiliza, sobre la que se realizan búsquedas.

Ejemplos de directorios: Antiguos directorios, Yahoo, Terra (Antiguo Olé). Ahora, ambos utilizan tecnología spider, y Yahoo, conserva su directorio. Buscar Portal, es un directorio, y la mayoría de motores hispanos son directorios.

3. Los sistemas mixtos Buscador - Directorio: Además de tener características de buscadores, presentan las webs registradas en catálogos sobre contenidos. Informática, cultura, sociedad. Que a su vez se dividen en subsecciones.

4. Metabuscadores: En realidad, no son buscadores. Lo que hacen, es realizar búsquedas en auténticos buscadores, analizan los resultados de la página, y presentan sus propios resultados.
Presentan la ventaja de seleccionar para el usuario los mejores sitios que presentan los buscadores consultados. A cambio los buscadores consultados por el metabuscador reciben publicidad, ya que el nombre de cada buscador aparece al lado de cada resultados de búsqueda.

5. Multibuscadores: Permite lanzar varias búsquedas en motores seleccionados respetando el formato original de los buscadores.

6. FFA Enlaces gratuitos para todos: FFA, página de enlaces gratuitos para todos. Cualquiera puede inscribir su página durante un tiempo limitado en estos pequeños directorios. Los enlaces, no son permanentes.

7. Buscadores de Portal: Bajo este título, englobamos los buscadores específicos de sitio. Aquellos que buscan información solo en su portal o sitio web. Podríamos considerarlos como un directorio.

8. Buscadores verticales: Buscadores especializados en un sector concreto, lo que les permite analizar la información con mayor profundidad, disponer de resultados más actualizados y ofrecer al usuario herramientas de búsqueda avanzadas.