Java - Recoger datos de una url

   
Vista:

Recoger datos de una url

Publicado por necora11 (1 intervención) el 17/06/2012 21:38:44
Hola,
tengo que recoger unos datos de una url. Estoy probando con un código de ejemplos que he ido encontrando:

URL url;
try {
url = new URL("http://http://www.eltiempo.es/valencia.html");
BufferedReader in = new BufferedReader(new InputStreamReader(url.openStream()));
BufferedWriter out = new BufferedWriter(new FileWriter("C:\\temperaturas.txt"));
char[] cbuf=new char[255];
while ((in.read(cbuf)) != -1) {
out.write(cbuf);
}
in.close();
out.close();


} catch (MalformedURLException e) {
e.printStackTrace();
} catch (IOException e) {
e.printStackTrace();
}

Así consigo leer la web y gurdarla en un txt (posiblemente ni lo necesite). Quiero recorrer lo que leo y sacar la temperatura max. y min. de cada dia que muestra esta pagina.
1. - No entiendo muy bien este trozo de código:
char[] cbuf=new char[255];
while ((in.read(cbuf)) != -1)
{....}
2.- Me gustaía guardar lo que lee el BufferedReader en memoria y no guardar nada en disco.
3.- Tampoco se como recorrer lo que recojo de la web (el html completo) para extraer de ahí los datos que quiero de los tags HTML.

La verdad no tengo mucha idea como se puede ver. Agradecería algunas pistas de como proceder.
Gracias ...
Valora esta pregunta
Me gusta: Está pregunta es útil y esta claraNo me gusta: Está pregunta no esta clara o no es útil
0
Responder