Hola,
en el robots.txt ponel una refencia al sitemap:
Sitemap:
http://www.tudominio.com/tusitemap.xml
y después actualiza el sitemap cada vez que agregues contenido nuevo a tu web, en el sitemap tienes que enviar las páginas nuevas, sólo las nuevas para que los buscadores las encuentren. Hay mucha gente que envía un sitemap enorme con todo el contenido de la web, eso está bien la primera vez, pero después es un error.
Si por ejemplo trabajas con php o con asp y guardas el contenido en un base de datos
puedes hacer un script que lo genere de forma automática:
response.contenttype="text/xml"
response.expires=0
response.write("<?xml version=""1.0"" encoding=""iso-8859-15"" ?>" & saltodelinea )
response.write( " <urlset xmlns='http://www.sitemaps.org/schemas/sitemap/0.9'>" & saltodelinea )
--lees de la bbdd el contenido nuevo
while ...leas urlsnuevas
response.write( "<url>" & saltodelinea )
response.write("<loc>" & "http://www.tudominio.com/ & "contenidonuevo.html" & "</loc>" & saltodelinea )
response.write( "<lastmod>" & fechayhora</lastmod>" & saltodelinea )
response.write("<priority>0.prioridad</priority>" & saltodelinea )
response.write( "</url>" & saltodelinea )
end
response.write( " </urlset>" & saltodelinea )
...
En php seria algo asi
header("Content-type: text/xml");
echo "<?xml version='1.0' encoding='ISO-8859-1'?>";
...
Un saludo