Posicionamiento en buscadores (SEO)
El posicionamiento en buscadores, optimización en motores de búsqueda u optimización web; mejor conocido como SEO por sus siglas en inglés (Search Egine Optimitation); se define como el proceso de realizar cambios en la configuración estructural; el contenido y la información de un sitio web, buscando mejorar en visibilidad en los buscadores ; a esto se le llama búsqueda orgánica un sitio web en los resultados orgánicos de los diferentes buscadores; el consultor SEO, es la persona que busca mediante diferentes estrategias hacer la optimización de página web.
Antecedentes
En la década de los 90. los motores de búsqueda comenzaban a catalogar los sitios web, como ejemplo tenemos a Yahoo que ofrecía a los sitios web su inclusión que solicitasen su inclusión y que te tuviesen su indexación de manera particular, esta indexación era manual. Estos sitios que tenían esa ventaja solían ser los que aparecían en los primeros lugares en la búsqueda de estos motores. Lo que trajo consigo la primera competencia entre los dueños de páginas web por aparecer en las primeras páginas de búsqueda.
Los administradores de páginas web enviaban la dirección de la página a los motores de búsqueda; estos a su vez enviaban una araña con el fin de inspeccionar la web; atraían los vínculos hacia otra página web y devolvían la información para ser indexada
Este proceso se lleva a cabo con una Araña web motor de búsqueda se realiza de la siguiente manera:
Descarga una página y la almacena en los servidores del motor de búsqueda
Otro programa, llamado indexador, extrae información del sitio web, palabras que contiene y su localización.
La relevancia de palabras específicas
Vínculos que la página, estos se almacenan para ser analizados después.
Inicios SEO
Los propietarios de páginas web vieron la importancia de tener sus sitios bien posicionados dentro de los buscadores esto abrió paso a los primero analistas SEO
En el año 1997 comenzó a usarse el término “Optimización de motores de búsqueda”. Los primeros algoritmos eran en base a la información que suministraban los administradores de las páginas web como por ejemplo las palabras clave esto hacia muy impreciso el posicionamiento debido a la omisión o exageración de las mismas, esto datos eran imprecisos e incompletos. Esto había que muchas páginas se posicionaban con búsquedas irrelevantes. Algunos buscadores cobraban por aparecer en los primeros lugares o daban relevancia a los sitios más importantes. Los motores de búsqueda se adaptaron para poder conseguir que las búsquedas se clasificaran por relevancia y por manipulación de los dueños de los sitios. Esto hizo que el éxito de un motor de búsqueda se midiera por la capacidad de mostrar información relevante. Estos tuvieron que evolucionar desarrollando algoritmos cada vez más complejos.
Larry Page y Sergey Brin, (Universidad de Stanford)
Crearon un motor de búsqueda basado en un algoritmo que clasificaba las páginas web por relevancia, su nombre Backrub, el número que le asignaba a cada página fue llamado PageRank, este algoritmo estima la posibilidad más alta de ser visitada por un usuario aleatorio, siguiendo algunos vínculos, esto da como resultado el conocimiento que algunos vínculos son mucho más efectivos que otros. Luego en 1998 fundaron la empresa Google un poderoso buscador, el cual gano muchos usuarios rápidamente debido a su sencillo diseño, con un logo y cuadro de búsqueda que se mantiene hasta nuestros días. Google implemento una serie de revisiones como el Pagerank, las palabras clave, la arquitectura del sitio y la rapidez en cargar, con el fin de evitar las fallas de sus antecesores.
Google Toolbar
Para el año 2000 Google coloco el Google toolbar, que mostraba en tres otras cosas el Pagerank que iba desde el 1 al 10 que solo era alcanzado por ciertas páginas, este método se publicó y actualizo hasta el año 2016 done Goggle no mostros mas esta métrica, aunque internamente sigue funcionando.
Esta métrica al principio funciono muy bien, aunque algunos administradores de sitios web, crearon sistemas para tratar de influir en el mismo. Una de las estrategias mas usadas era la de comprar y vender vínculos a menudo a gran escala, a este sistema se le llamo granjas de vínculos que creaban vínculos basura (técnicas de linkbuilding).
Ya para el año 2004 los buscadores incorporaron un gran número de algoritmos para minimizar los efectos de estos vínculos basura. Hasta nuestros días los principales buscadores son publican sus algoritmos. Existen expertos en posicionamiento que emiten opiniones de cómo funciona estos algoritmos, los buenos asesores recomiendan no tratar de engañar a los buscadores, y hacer todo en formal completamente valida.
Google comienza a personalizar sus resultados de búsqueda según el historial de búsqueda den el año 2005. En este momento alguno expertos expresaron que el posicionamiento estaba muerto.
Google en 2007, implementa el atributo “No Folow” que trataría de mitigar los efectos de los servicios de posicionamiento aumentaran el tráfico artificialmente. Algunos posicionadores respondieron a esto utilizando do soluciones alternativas.
Historial de búsquedas
En 2009 se creó el historial de búsquedas de todos los usuarios por parte de Google.
2010 se lanza el Google instante para acelerar la búsqueda y obtener resultado frescos y relevantes.
2011 comienza a funcionar el Panda, un sistema que penaliza los sitios web que provea contenido duplicado de otras páginas, web. Esta práctica era muy utilizada en internet para ganar tráfico.
2012 Google utiliza una actualización para castigar a las páginas web que usan maneras manipuladoras para obtener tráfico. Esta actualización fue hecha a la aplicación Penguin
2013 actualización llamada Colibrí para mejorar el procesamiento del lenguaje Google y la semántica de las páginas web. Prácticamente lee y entiende lo que dice el contenido de cada página.
Con todas estas mejoras Google prácticamente hace imposible la manipulación del tráfico web.
Los Expertos serios y responsables en posicionamiento recomienda “jugar limpio” y utilizar las reglas de Marketing para lograr un posicionamiento web duradero.
Posicionamiento orgánico
El posicionamiento orgánico se entiende como el proceso de optimización de la arquitectura y el contenido de un sitio web y la así como la utilización de diversas técnicas para aumentar la popularidad de una web en particular. Lo que se persigue es subir en la posición de los buscadores. Cabe destacar que la competencia es muy grande ya que este tipo de técnica esta ganado cada día más popularidad
Algunas de las técnicas que más se utilizan son el Linkbuilding y el linkbating.
Hoy en día es muy común el uso de áreas de pago de los buscadores, el más distinguido y popular es el adwords de Google el cual se mediante la escogencia de palabras clave que tienen un valor según su popularidad y relevancia para el contenido de la web contratante. Debajo de eso resultados de pago apresen los resultados orgánicos de la búsqueda. La batalla es entonces por aparecer entre los diez mejores resultados
Técnicas SEO para el posicionamiento web
Estas técnicas suelen ser de dos tipos:
Técnicas internas:
Tienen que ver con la programación y arquitectura del sitio web, que tienen que ir en concordancia con las reglas de los buscadores.
La Primera regla de oro es que la página web sea fácilmente rastreable por los buscadores, en este caso influye lo que se llama el crawl budget que son las consideraciones que hace Google para determinar si una página es óptima. a continuación, estas consideraciones:
Autoridad de la página:
Se mide del 1 al 100, y es excelente estar entre el puesto 40 al 60, existe varias consideraciones para determinar este indicador
Calidad y frecuencia de actualización de los contenidos
En el mundo del SEO existe la frase: El contenido es el rey, mientras más y mejores contendidos actualizados, mejor estará calificada la web por los buscadores.
Accesibilidad
El diseño web debe ser de fácil acceso, su estructura de estar hecha con este fin.
Estructura
Creación de títulos únicos y descripciones que contengan lo que vas a ver en el contenido.
Actualizar el diseño de la página
para disminuir el porcentaje de rebote.
Optimizar la URL
Colocando palabras pertinentes facilitar la búsqueda.
Utilizar un certificado SSL y enlaces HTTPS en toda la página.
El etiquetado del sitio web debe ser el correcto.
En las palabras clave
que se pretende posicionar se debe utilizar diseño de letra negrita o cursiva.
Diseño web sin publicidad invasiva
y que entregue los contenidos más relevantes en la primera mitad de la página.
Utilización de etiquetas “Meta”
con las palabras clave, previamente elegidas que son junto al contenido el factor más relevante para que los buscadores localicen e indexen el contenido de la página.
Debes utilizar cabeceras h1, n2, h3
Que destaquen títulos importantes.
El número de repeticiones de las palabras cave en el contenido
Debe estar entre el 1% y el 4%, se deben utilizar sinónimos y se debe colocar en forma natural en el texto
Velocidad de carga:
Disminuir al máximo los contenidos, flash, Java script y frames que hacen muy lento car4gar la pagina
Fluidez de la navegación.
Crear un mapa de navegación fácil y sencillo para el usuario.
Ausencia de errores
: Investigar la página constantemente para descubrir errores y eliminarlos.
Técnicas externas:
Específicamente se utilizan para, mejorar los resultados en los buscadores utilizando herramientas con conseguir menciones, conseguir link que lleven a la página en cuestión, algunas tácticas conocidas son:
- Enlazar la web desde páginas con temática similar y alta reputación.
- Utilización de las redes sociales para colocar enlace a la pagina web.
- Escribir artículos en otras páginas web. Con enlaces hacia nuestra pagina
Contenido relacionado
Me atrapó demasiado la temática de la nota y lo voy a referenciar en mis redes sociales.
Fue de bastante utilidad y quería agradecerles.
Ya me lo salvé en mis favoritos para disponerlo a tiro.
Hola gracias éxito con tu Blog webstrategy.com.ar