Periodismo de datos: Aprende web scraping y cómo trabaja con los datos El Confidencial
Lugar: Medialab-Prado, Madrid, España. Auditorio (2ª planta/2nd Floor)
Volvemos a la carga con las actividades del grupo de trabajo de periodismo de datos tras el éxito del taller de producción (I y II) realizado en otoño. En estas primeras sesiones de 2014, coordinadas por la Escuela de Datos de la OKFN-es, nos centraremos en conocer experiencias de trabajo con datos y también en seguir aprendiendo nuevas herramientas. En esta decimocuarta sesión nos centraremos en la elaboración de las historias y la extracción de datos.
Primero, Daniele Grasso y Jesús Escudero, periodistas de El Confidencial, nos contarán su experiencia desde la redacción del periódico en el trabajo con los datos. [streaming en directo]
Después, el desarrollador Miguel Fiandor nos mostrará cómo extraer datos de páginas web o utilizar los ya extraídos a través de ScraperWiki.
Gráfico del artículo El sector eléctrico español da trabajo a 24 excargos públicos, publicado en El Confidencial.
Programa
17:00h – 17:50h: Cómo hacer periodismo de datos en el día a día, por Daniele Grasso y Jesús Escudero, periodistas de El Confidencial. [streaming en directo]
El periodismo de datos no se limita solo a las grandes investigaciones de varios meses. Puede ser una manera de aportar valor añadido y contexto a informaciones de actualidad. Recurrir a los datos es muy útil a la hora de complementar noticias urgentes, informaciones clásicas, grandes eventos señalados y de profundizar en la publicación de estadísticas oficiales. Para ello, Daniele Grasso y Jesús Escudero contarán el proceso de elaboración del periodista de datos y casos prácticos de su experiencia en El Confidencial y en otros medios.
17:50h -18:00h: Pausa
18:00h – 20:00h: Rascando datos de la Web con ScraperWiki, taller de web scraping, por Miguel Fiandor, desarrollador del proyecto Transparencia de Cuentas Públicas. [Sin streaming]
Será un taller muy práctico, útil y accesible de scraping o captura de datos con ScraperWiki y Python. Mostraremos, a partir de ejemplos concretos, cómo capturar datos de una web con las mejores librerías de Python: BeautifulSoup y Requests. Algunos los elaboraremos desde cero y en otros casos, utilizaremos el trabajo de otras personas que ponen a nuestra disposición su experiencia. Veremos también algunos consejos de buenas prácticas para el mejor uso de ScraperWiki, por ejemplo, cómo automatizar formularios y cómo limpiar los datos que nos traemos al hacer scraping antes de salvarlo en una pequeña base de datos o una hoja de cálculo.
Enlaces
Enlaces de la presentación
- El Confidencial
- De Castelldefels a Santiago, cuando la seguridad ferroviaria queda en entredicho.
- El sector eléctrico español da trabajo a 24 excargos públicos.
- La demografía de la crisis: consulte la variación de los habitantes de su municipio.
- El paro sólo frena su subida gracias al desplome de la población activa.
- De las subvenciones a la película perfecta: seis gráficos para entender los Goya.
Enlaces del taller
Deja un comentario