El SEO (search engine optimization) podría definirse como toda actividad o conjunto de actividades realizadas para crear negocio mediante los resultados orgánicos o naturales de los motores de búsqueda de internet. Hasta hace unos pocos años los buscadores posicionaban los sitios web básicamente priorizando la relevancia de las palabras clave (optimización onsite) y la cantidad de páginas que apuntaban hacia las páginas (backlinks). La simplicidad del modelo hizo que el número de sitios web pletóricos de palabras clave con contenidos intrascendentes y enjambres de sitios creados exclusivamente para proyectar enlaces y engordar el "PageRank" de sus dominios creciera de forma exponencial.
El SEO se apoderó de internet porque generaba con relativo poco esfuerzo una monetización immediata e importantes beneficios asociados al tráfico web. El SEO ha envenenado la web. Google fue detrás de las acciones de los "expertos en SEO" que desarrollaban webs algorítmicas para engañar al buscador.
Google no solo puso a Matt Cutts para asustar a los editores web, sino que cambió una y otra vez sus políticas de calidad, de penalizaciones y actualizó su algoritmo: Google Dance y Florida (2003); Brandy y Austin (2004); Allegra, Nofollow, Local Maps, Bourbon y Jagger (2005); Google Suggest (2008); Venice, Caffeine, etiqueta Rel Canonical (2009); May Day, Google Instant y Social Signal (2010); Attibution, Panda, Botón +1, Freshness y Paginación (2011); Penguin, Venice, penalización DMCA de sitios que violen copyright y devolvió a los periodistas el control editorial que estaban perdiendo con los blogueros (2012); Phantom, Domain Crowding, Penguin 2.0, PayDay Loan, Panda Dance, Hummingbird y Penguin 2.1 (contra el spam en sitios web) en 2013. Fue una evolución compleja orientada a lograr que las primeras posiciones del SERP (listado de páginas que ofrece Google), sean ocupadas con naturalidad por los sitios más relevantes para las palabras o cadenas de palabras clave buscadas mediante teclado, pantalla táctil, voz o gestos.
El SEO no ha muerto, agoniza. Camina como un zombi hacia un proceso de desrobotización o humanización, según desde la perspectiva que lo quieras ver. Las claves para la adaptación al cambio parecen ser seis:
M Marketing de contenidos: los contenidos de calidad provocan acciones y añaden valor para los usuarios o lectores. Esto es poderoso porque los contenidos de calidad circulan y se mantienen en el tiempo, generan reputación y fortalecen la marca. Atraen y retienen al cliente o usuario potencial. Es importante que los contenidos sean desarrollados por expertos en selección y organización de la información (curators) y que toda la organización esté involucrada. Por cierto, ya deberíamos dejar de pensar sólo en los contenidos de las páginas web. No sería raro que en un futuro no muy lejano, los buscadores jerarquicen objetos reales o cosas que se auto-describan, por ejemplo cosas referenciadas o etiquetadas con Google Glass.
U Usuarios: El nivel y calidad de la experiencia de usuario es un elemento diferenciador del nuevo marketing web. Los sitios deben ser capaces de mantener una conversación enriquecedora (de ida y vuelta) y comprometida con su audiencia. Que la información y la conversación se ramifique hacia otros canales, particularmente, en los medios sociales. Lo que antes era publicidad ahora es información útil alineada con los intereses de los usuarios y, en el caso de los sitios de comercio electrónico, puesta en el círculo de compra (lo ideal sería que cada sitio sea una landing page preparada para la conversión).
E Enlaces: Es razonable que todo lo que apunte -con naturalidad y honestidad- hacia nuestros contendidos siga siendo una unidad de valoración del interés e importancia de los mismos. Si bien no parece que los enlaces tengan la misma importancia que hace unos años, el LinkBaiting -conseguir que otros sitios nos enlace mediante contenidos de interés, infografías, concursos, comparativas, videos, etc- seguirá siendo una buena práctica para mejorar el tráfico y el posicionamiento en los buscadores. Las "señales sociales" (que nuestros enlaces sean compartidos, retuiteados, mencionados, marcados con Me Gusta en Facebook, calificados con +1, etc.) ayudan mucho a que los buscadores aprecien mejor el sitio web.
R Relevancia: El tradicional concepto de "Relevancia" de un contenido se basaba en la optimización de palabras clave. Los buscadores pensaban que cuanta mayor densidad de palabras clave tenía un sitio, más relevante sería para una búsqueda que contenga las mismas. Por esa razón los SEO corrieron a llenar los sitios con palabras clave "relevantes", asignarlas a Meta Tags, Alt Tags, Títulos, a los anchor text de los enlaces como si no hubiera un mañana. Los elementos <title> y los atributos "alt" de un sitio deben ser simplemente descriptivos y precisos.
El concepto de Relevancia no debe ser entendido como un mero aspecto técnico de codificación HTML o un simple truco para atraer a un buscador y manipular el posicionamiento. Todo lo contrario, la Relevancia es la sustancia de cada página del sitio. Es la focalización de los contenidos, de cada enlace que se escribe y de cada palabra o frase que se resalta con negrita o tamaño de letra.
T Tecnología: Hay dos tecnologías que habría que comprender muy bien para entender el futuro inmediato de los motores de búsqueda: búsquedas semánticas y las redes neuronales. Los motores de búsqueda semánticos se centran en "cosas" no en "cadenas de palabras", es decir, dejan de lado el sistema estático de comparar las palabras que se están buscando con páginas web que las contengan, por un sistema mas dinámico, basado en el reconocimiento y comprensión de las cosas o ideas que se quieren encontrar en un contexto determinado. La contextualización semántica permite realizar una búsqueda muy segmentada y la optimización SEO es prácticamente innecesaria. Google, desde hace un tiempo, está experimentando con búsqueda semántica con Knowledge Graph su buscador específico y en resultados muy concretos (por ejemplo, búsquedas sobre una determinada ciudad, cartelera local de cines o resultado de partidos de fútbol del domingo). Con esta tecnología en marcha lo importante para los sitios web de comercio electrónico será mantener contenidos muy segmentados y actualizados. Los sitios web diseñados como soporte de publicidad (blogs, periódicos y magazines) se verán beneficiados por unos mejores precios de los anuncios y mejores ratios de clics, precisamente, por la mejora de las posibilidades de segmentación y calidad de los anunciantes.
Respecto a las redes neuronales, se trata de redes de ordenadores cuyo comportamiento funciona como neuronas del cerebro humano y aprenden de la experiencia. Pueden predecir cosas, podrían resolver problemas y corregir resultados. Las más avanzadas están capacitadas para describir información automáticamente sin intervención humana de ningún tipo. Google utiliza redes neuronales para prevenir spam en Gmail o en Google+ para relacionar a gente potencialmente compatible. Se prevé que en el futuro será otra de las tecnologías que permitirá segmentar con presición a los usuarios para acercarlos a las marcas, a partir de sus experiencias, situación geográfica, patrones de conducta, opiñones, propias o de personas con características similares.
O Olvida: Si en los últimos 15 años has aprendido a optimizar sitios web mediante técnicas SEO no pierdas mas el tiempo: olvidalo todo. Desaprende. Olvídate de los buscadores y del posicionamiento algorítmico. Olvida la táctica y formula tu estrategia. Aprende a crear valor para los demás mediante contenidos únicos, útiles, elaborados, bien estructurados, con voz humana, pegadizos, virales y sobre todo, perfectamente segmentados para tu audiencia.
Enlaces relacionados:
How Many Computers to Identify a Cat? 16,000
From Strings to Things: A Quick Primer on Semantic Search
5 Ways Semantic Search Will Disrupt Business
Video sobre Google Knowledg Graph (motor de búsqueda semántica):