04/09/2009, 18:21
|
|
Cita: Google empieza a penalizar sitios disminuyéndoles el valor del Page Rank
Publicado el 24 de October, 2007
En un acto agresivo, Google ha penalizado a decenas de sitios populares disminuyéndoles el valor del Page Rank que les había concedido, algunos que tenían PR 7 tienen ahora PR 4.
Hace mucho tiempo, Matt Cutts, responsable del Algoritmo de Google llamado PageRank (PR), indicó que penalizarían a sitios que vendieran enlaces de texto aprovechándose del valor que se les había asignado puesto que ésto afecta los resultados del Buscador, y efectivamente hace unas horas las penalizaciones han iniciado pero surgen dudas si solamente ha sido por la venta de Enlaces.
Por un lado tenemos casos como el de The Stanford Daily que efectivamente se valía de servicios como los de Text Link Ads para generar ingresos por lo que su PageRank fue disminuido a 7 de un glorioso 9 con el que contaban, sin embargo en Techcrunch se habla que varias redes de Blogs grandes que también han sido afectadas en el valor del PR pero debido a la cantidad de enlaces que se generan entre todos sus sitios (cross linking) convirtiéndolos en granjas de links para aumentar el posicionamiento de toda la red.
Algo como lo que realiza Weblogs Inc., por ejemplo, si visitamos Engadget que bajó de PR 7 a PR 4, podemos ver que en el pié de página enlaza a 60 artículos de otros sitios de la red, lo cual se repite en todas las páginas interiores de cada uno de sus 90 Blogs, por lo que ya se imaginarán la cantidad de enlaces que cruzan al mes.
Algunos de los afectados
Entre algunos de los populares sitios que se han visto afectados desde ésta mañana están:
* Copyblogger (bajó de PR 6 a 4)
* Engadget (de 7 a 5)
* Problogger (de 6 a 4)
* Washington Post (de 7 a 5)
* Washington Times (de 6 a 4)
* Search Engine Journal (de 7 a 4)
* Blog Herald (de 6 a 4)
* Weblog Tools Collection (de 6 a 4)
* Forbes.com (de 7 a 5)
El hecho de que tu sitio disminuya el valor de PR significa, entre otras cosas, pérdidas económicas para muchos de éstos sitios, pues mientras más alto el valor, mejor posicionado aparecerás entre los resultados de Google lo que significa más tráfico que muchas veces se convierte en clicks sobre los anuncios de Adsense o similares, y significaría un valor creciente en tus páginas vistas lo cuál sirve como herramienta al querer vender publicidad directa en tu sitio.
¿ Acaso será cierto eso que en realidad Google sí es el nuevo Microsoft :evil: ?
Sitios (en inglés) que también lo comentan:
* Search Engine Journal
* TechnoSailor
* TechVat
http://www.maestrosdelweb.com/actual...del-page-rank/ Cita: Nuevo método de Google para detectar contenido duplicado.
Google, Posicionamiento, Seo, Técnicas SEO 0 Comentarios »
A Google no le gusta el contenido duplicado, eso lo sabemos todos. La razón de esto es que por ejemplo los 10 primeros resultados con palabras relevantes deben ofrecer al usuario diferentes páginas web.
Una nueva patente de Google acerca del contenido duplicado describe el nuevo método que Google intenta utilizar para ofrecer a los usuarios en las páginas de resultados las páginas mas relevantes y actualizadas.
El contenido puede ser duplicado por varias razones
Hay muchas razones por las que el contenido de un página es duplicado o algunos documentos son similares:
1. El contenido de la página esta disponible en formatos diferentes: página web, versión para imprimir, PDF, página para móviles, etc.
2. El contenido de una página es sindicado, por ejemplo las noticias o comentarios.
3. Los “Content management system” (CMS) muestran el mismo contenido en distintos lugares, por ejemplo una página puede ser listada en la categoría “tamaño” y en la categoría “color”.
4. El dueño de la web ofrece mirrors para asegurarse que su página web no queda inaccesible cuando mucha gente intenta entrar al mismo tiempo.
5. Cualquiera roba contenido de una página web para reproducirlo en otras páginas.
Para evitar mostrar el mismo contenido mas de una vez en los resultados de la búsqueda, los buscadores intentan detectar las páginas duplicadas.
¿Qué hay en la patente?
La patente describe como Google intenta detectar el contenido duplicado e incluso el contenido similar en diferentes páginas web. Parece que Google intenta combinar distintos métodos existentes para detectar el nuevo contenido duplicado para identificar mas sitios duplicados en Internet.
Esta nueva patente muestra como se esta tomando Google en serio el tema de detectar el contenido duplicado y los problemas que este provoca en los resultados. La patente es solo el ultimo paso de Google por el intento de detectar el contenido duplicado. Por ejemplo, podemos encontrar otras patentes aquí (PDF) y aquí que son anteriores.
¿Qué hace Google cuando detecta contenido duplicado?
Es difícil decir que hará Google cuando encuentre páginas duplicadas. Muchas veces el contenido duplicado se utiliza para un uso legitimo.
Si Google solo elimina las páginas duplicadas de los resultados de búsqueda para unas ciertas palabras puede estar bien. Si Google penaliza las páginas duplicadas eliminándolas completamente del buscador, Google corre el riesgo de no ser relevante para especificas búsquedas además de la posibilidad de penalizar páginas por error.
Es probable que Google escoja la página con la mejor reputación y los mejores enlaces de entrada, si encuentra más de una página con el mismo contenido.
¿Qué significa esto para tu web?
Si quieres obtener unas buenas posiciones, sera mas fácil si utilizas contenido único. Intenta utilizar el máximo contenido original para tus páginas.
Si tu página tiene el mismo contenido que otra página, asegura que la tuya tenga mas enlaces de entrada que la página de la competencia. http://www.seobuscadores.com/etiqueta/tecnicas-seo Cita: Google -30 [Filtros de Google]
Google, Posicionamiento, Seo, Técnicas SEO Añadir comentarios
Buscador Google
Con este filtro Google, penaliza por usar técnicas de spam como páginas Goorway o Cloaking (mostrar webs diferentes al usuario y a los buscadores), redireccionamientos mediante javascript o Meta-Redirecciones , spam en libros de visitas o blogs. Si esto es así, la pena implica descender unos 30 puestos y puede ser apelada mediante este formulario. http://www.seobuscadores.com/google/...tros-de-google
pd: en el artículo original era bastante evidente que cuando mencionaban páginas dinámicas, se referían a páginas flash (aunque el autor lo obvió), lo cual creo que fue mal interpretado y condujo a una conclusión errónea, a uno de los usuarios, diciendo que las páginas flash (dinámicas) indexaban mejor que las estáticas, lo digo para que ningún usuario novel se vaya a confundir todavía más con respecto a los metakeys, que era el tema original de este debate
Última edición por Daniel Ulczyk; 04/09/2009 a las 18:56
Razón: se combinan 2 mensajes consecutivos del mismo usuario; favor editar en lugar de generar nuevas publicaciones
|