Cita:
Iniciado por RBZ Me gustaría pensar que la Inteligencia Artificial le está funcionando pero por lo que yo veo aún deja mucho que desear. Creo que Google ha puesto más ganas en combatir el trabajo de los SEOs y en gran parte lo ha conseguido por eso están desapareciendo muchos sitios. En realidad en los resultados siguen teniendo mucho peso los enlaces, lo que hace ahora es descartar una gran cantidad de enlaces que antiguamente si valoraba, de esta forma consigue que posicionar creando enlaces ya no esté al alcance de cualquiera. ¿Quién se puede permitir tener sitios paralelos? Sólo los grandes proyectos. En los años noventa había trucos para "todos los bolsillos".
Por hacer un paralelismo un poco superficial, no sé si recordarás las tablas aquellas que publicaban sobre el número de enlaces que hacía falta conseguir para tener una cifra de PR, ahora mismo el cambio que yo observo es que no tendrían valor los PR0 y prácticamente tampoco los PR1 (si aún se actualizara), tampoco valoraría los enlaces de comentarios y alguno más, pero el resto seguiría más o menos igual.
Los datos estructurados el uso que veo es más para aprovecharse. Si buscas el marcador de algún deporte, la hora de un evento y en muchos otros ejemplos, Google muestra en su página de resultados los datos sacados de otras webs.
Es cierto la IA aún es incipiente. Y como dices los enlaces aún tiene peso para los SERPs. Además, G retiro el PR del toolbar para hacer más difícil la tarea de los optimizadores de buscar sitios donde colocar enlaces y para evitar la venta de enlaces solo por PR. Ya en el 2013 creo fue que G decidió no dar más acceso a los search queries haciendo más difícil el SEO para los que creaban paginas para cada keyword porque llego un momento a finales de la década pasada que las investigaciones decían que el 80% de los webs eran de spam o contenido repetido creado con software como The Best Spinner. Con PHP podías usar $_SERVER['QUERY_STRING'] para crear páginas con el keyword exacto con el que buscaba el visitante en GYM y hacerle creer al visitante que llego a una página de su interés porque veía exactamente la misma frase que uso en el buscador en el contenido de la página.
Recuerdo que leí en el foro de Search Engine Cloaker allá por el 2005 que esa persona (la que creo el post) estaba dispuesta a seguir usando software como SEC porque siempre y cuando los search engines sean bots (que al final es software o script) se podrá engañar a los bots para poder ingresar a los SERPs. Cloaking se volvió difícil porque es una técnica on page SEO que crea contenido dinámico, pero luego salieron otros softwares como Book Marking Deamon, Twitter adder, Scrape Box que te permite engañar al bot buscando enlaces que es la parte off page del SEO. Los directorios como Yahoo Directory o dmoz.org son editados y vigilados por personas y es más difícil engañar a un par de ojos, pero con más de mil millones de webs online es casi tarea imposible inspeccionar y clasificar la mayoría, ni hablar de todos los webs.
Ya pasaron 20 años desde que
Deep Blue le gano a Kasparov un partido de ajedrez y Kasparov dijo en ese entonces que Deep Blue era una computadora brillante porque hizo una juagada que Kasparov no logro imaginarse y al final IBM reconoció que esa jugada fue causada por un bug/glitch en Deep Blue. Con IA todos esos softwares para engañar a los bots se volverían irrelevantes o de repente RankBrain y cualquier futuro IA considerara los algoritmos creados por esos softwares un bug que lo aprenderá/asimilara y así ya estaremos hablando de un bot verdaderamente inteligente. Ahora, que tan inteligente es actualmente y cuanto evolucionará solo lo sabremos con el tiempo, pero yo creo que en 10 años el SEO como lo conocemos hoy solo será historia de Internet. Y ojo RankBrain no es el primer IA para calificar o hacer búsquedas para responder preguntas, IBM ya tenía a
Watson al menos desde el 2011.
Para los interesados, este artículo del 2013 declara que IA por más avanzado que este tiene la inteligencia de niños de pre grado:
How Smart Is Advanced Artificial Intelligence? Try Preschool Level
Este artículo del 2016 declara que al menos un robot ya amenazó con matar a la raza humana:
New Sophisticated Humanoid Robot Declares “I Will Destroy Humans”