Hay una manera fácil de manejar Ajax sin perder la estructura para spiders y robots:
Los robots siempre toman en cuenta las etiquetas
<a/>, o sea que una liga
<a href="terminos-y-condiciones">Ts y Cs</a> te "refrescaría la página a una página que hay que tener preparada (por si te encuentran en algún buscador) con los términos y condiciones.
Así mismo, quieres que los términos y condiciones aparezcan al usuario vía ajax sin refrescar la página (cuando se está registrando tal vez).
Puedes guardar 2 paginas: Terminos-y-condiciones.html tiene encabezados, etc... es un html normal
La otra página (ejemplo "terminos-y-condiciones-ajax.html") contiene unicamente lo que has de insertar (el contenido, sin encabezados ni nada) en cierto div en tu html, via ajax
Con la librería JQuery (de javascript) podemos hacer lo siguiente:
Cita: <body>
<h2>esto es una prueba</h2>
<a id="mi_link" href="terminos-y-condiciones.html">este es el link</a>
<div id="mi_div_para_ajax"></div> <!-- en ese div se inyecta el contenido -->
</body>
<script type="text/javascript" src="el-jquery.js"></script> <!-- bajalo de jquery.com -->
<script type="text/javascript">
// esto es para que cuando ya haya cargado el html, entonces se ejecute el script
$(document).ready(function(){
/* el .click es un evento para cuando den clic... el #mi_link es el id del link (puede ser cualquier selector */
$("#mi_link").click(function(){
// puede ser de varios tipos el llamado, en este caso es html
$.get("terminos-y-condiciones-ajax.html", {parametros:"enformatojson"}, function(resultado){
$("#mi_div_para_ajax").html(resultado);
}, "html");
/* el return false es muy importante para prevenir el comportamiento por default del link */
return false;
});
});
</script>
De esa manera, los spiders y robots, ven los links como parte de la estructura del sitio, y si la gente busca en google, puede encontrar esa seccion del sitio, pues ya está también en el servidor, una página estática con ese contenido.
Saludos!
-luis