Tema: Crawler
Ver Mensaje Individual
  #34 (permalink)  
Antiguo 07/03/2011, 10:45
Ricrever
 
Fecha de Ingreso: febrero-2011
Ubicación: Tarragona, España
Mensajes: 51
Antigüedad: 13 años, 9 meses
Puntos: 0
Respuesta: Crawler

mi codigo despues de los ayudas dadas:


Código Python:
Ver original
  1. import MySQLdb
  2. import csv
  3.  
  4. #establer connexion
  5. db= MySQLdb.connect(host="localhost", user="root", passwd="", db="crawler")
  6. cursor = db.cursor()
  7. #leiendo archivo
  8. camino = 'C:\Documents and Settings\Administrador\Escritorio\crawler_versions'
  9. fichero = '\prova1.csv'
  10. objectivo = camino + fichero
  11. reader = csv.reader(open (objectivo, 'rb'),delimiter=';')
  12.  
  13. raw_input()
  14.  
  15. for index,row in enumerate(reader):
  16.     stmt = "INSERT INTO k_url (id, url) VALUES ('"
  17.     stmt = stmt + str(index + 1)
  18.     stmt = stmt + "', '"
  19.     stmt = stmt + row[0]
  20.     stmt = stmt + ")"
  21.     cursor.execute(stmt)
  22.     print "ia esta"
  23.  
  24. cursor.close ()
  25. db.commit ()
  26. raw_input()

Llega a leer el archivo, despues cuando intento insertar en la base de datos me da el error, no se cual es porque todavia no he debugado el codigo
tengo la base de datos creada, llamada k_url, con dos campos id que es un integer i url que es un vchar...
otra cosa el archivo.csv es separado por filas:
url1
url2
url3
.....