Estás navegando por el archivo de análisis.

Tutorial: Geodatos con Python

- el noviembre 2, 2017 en Tutoriales

 Desde Escuela de Datos, Sebastián Oliva, fellow 2017, enseña cómo usar Python para generar mapas a partir de datos georreferenciados.

Pues seguir el webinar del 31 de octubre paso a paso en el video que compartimos contigo y el cuaderno que publicamos abajo. También puedes consultar el cuaderno de trabajo de Sebastián aquí.

Lee el resto de la entrada →

Nuevas Dateras Latam

- el junio 1, 2016 en Uncategorized

En estas semanas estaremos publicando cuatro perfiles de dateras latinoamericanas que con su capacidad en análisis de datos y visión de alto impacto social están inyectando frescura a lo que conocemos como periodismo de datos en la región.

 

fotoTM

Cómo saber si tus ideas son correctas: Tania Montalvo, México

 

 

 

19242158KatherinePennacchio

Venezuela. Katherine Pennacchio: Rebeldía colaborativa

InfoEconómica – ejercicio datero en DF

- el marzo 23, 2015 en Experiencias

Hoy les compartimos una experiencia de desarrollo datero en la Ciudad de México: InfoEconómica. ¡Queremos compartir más historias latinas y españolas! Anímate a contarnos la tuya (en Twitter, Facebook).


Screen Shot 2015-02-06 at 17.05.24

La Secretaría de Desarrollo Económico (SEDECO) en la Ciudad de México está obligada por ley a publicar un reporte económico cada tres meses. Para cumplir esta obligación, hace una labor titánica de compilación y análisis de datos complejos publicados por el INEGI, la CONEVAL… Pero no mantiene un archivo histórico de los datos y reportes pasados.

Es decir: cuando la SEDECO publica un reporte nuevo, se pierde la información antigua; lxs ciudadanxs pierden el acceso a esa información.

Emanuel Zámano, desarrollador de CódigoCDMX (iniciativa del Laboratorio para la Ciudad para promover desarrollos tecnológicos dentro de las dependencias de gobierno al estilo Code for America), se inspiró en esta pérdida de información para proponerse un reto: InfoEconómica.

InfoEconómica es una página que permite revisar indicadores usados en el pasado por SEDECO, incluyendo los de coyunturas específicas, en un formato descargable pero fácil de consumir para lxs ciudadanxs.

 

¿Qué distingue a InfoEconómica de otros portales de publicación de datos?

  • Su audiencia elegida son lxs ciudadanxs en general – no programadores o periodistas.
  • En vez de publicar conjuntos de datos para análisis, presentan información ya analizada.
  • Propone un acotamiento de la infinidad de indicadores que maneja SEDECO para enfocarse en los más importantes para lxs ciudadanxs.
  • Aprovecha y deja disponibles otros materiales elaborados por la dependencia, como infografías y estudios.
  • Para cada indicador, marca las fuentes utilizadas. No da link para acceder directamente a los datos.

 

Limitaciones reconocidas del proyecto:

  • Sólo puede publicar información dentro de las atribuciones de SEDECO. Y, por ejemplo, los datos sobre trabajo y educación son trabajados por otras dependencias. En ese sentido, a Emanuel le encantaría que el dashboard de InfoEconómica fuera adoptado por otra parte del gobierno –como la Agencia de Gestión Urbana o la Jefatura de Gobierno– para que no el desarrollo sirva para «ciudadanizar» no sólo datos económicos, sino también de transporte, salud; los datos que muestran la realidad de la ciudad. Cuántos baches han sido reparados, cuántos viajes han sido hechos en Ecobici.

 

Y, como parte de la ficha técnica, unos datos…

  • Los datos analizados son descargables en csv; en el futuro sería ideal escalar el proyecto para permitir conexión directa con Json.
  • Gran parte de la labor fue justamente en el procesamiento de los datos que ya tenían las dependencias. Primero fue ver cómo estaban almacenados (generalmente archivos de Excel con infinidad de hojas); luego, acomodar la información separando los datos en grupos temáticos; finalmente, automatizar el proceso mediante scripts que leen partes del Excel y las categorizan en una base de datos.
  • Cronograma en términos para desarrolladorxs: primero se eligió qué partes poner; usó un framework (Laravel – es importante no empezar desde cero en estos desarrollos); preparó bases de datos; preparó scripts automáticos para todas las actualizaciones con PHP; base de datos Postgresql; usó servidor de pruebas (Vagrant) que indica qué necesita el framework para funcionar, y los servicios adicionales (base de datos, analítica). Después de crear ambiente de desarrollo, preparó el repositorio en GitHub, trackeando cada cambio de código ahí y en ambiente de producción. Clonó el repositorio, ejecutó todo el provisioning… y, en todo el proceso, asegurarse de incluir todo cambio en GitHub y de regreso en servidor de pruebas.

 

La petición de Emanuel a otrxs desarrolladorxs: ¡Clonen los repos en GitHub! ¡Hagan issues!

 

Gracias a Emanuel por compartir su historia en Escuela. Ahora te toca a ti compartir la tuya! Recuerda que estamos en TwitterFacebook.

Consejos prácticos para entender datos estadísticos

- el marzo 18, 2014 en Experiencias, Tutoriales

Esta sesión se centrará en los portales estadísticos, en los que podemos hallar un montón de datos de los que extraer historias periodísticas. Pero, exactamente, ¿qué hay? ¿Hay datos de estadísticas locales en el Instituto Nacional de Estadística o debo acudir a un portal local? ¿Puedo encontrar datos hiperlocales como las paradas de autobús o las escuelas de un barrio? ¿Los encuentro en un único portal o tengo que pasearme por varios?

pdd_6.jpg

Figura 1: Posibilidades infográficas con Infogr.am

17-17.45 h // «Errores de periodismo de datos. El proyecto Colibrí», con Diego Pasqual (Programador Proyecto Colibrí)

El PROYECTO COLIBRÍ es una iniciativa ciudadana que pretende servir de puente entre la comunidad de programadores y periodistas y la web del Congreso del Gobierno de España, para así facilitar el acceso a la información que en dicha web se puede encontrar. A partir de la experiencia de programar Proyecto Colibrí, Diego Pasqual nos contará lo aprendido: «una gran lección sobre cómo no hacer las cosas, desde el análisis hasta el diseño e implementación de la arquitectura, y me gustaría compartir con vosotros cómo no hacer un proyecto opendata».

18.15-20 h // Cómo descifrar los datos de los portales estadísticos, con Xavier Badosa (Institut d’Estadística de Catalunya, Idescat).

Xavier Badosa imparte el taller con el objetivo de presentar las posibilidades de reutilización de datos de una oficina estadística oficial como el Idescat. Se explicará la organización de la información en el Idescat y se mostrarán ejemplos de descarga de datos, de incrustación de soluciones ya realizadas y de consumo de servicios. En el campo de la visualización de datos, se explicará la funcionalidad de Google Public Data Explorer, en que el Idescat ofrece un conjunto de datos municipales y comarcales, así como de la biblioteca Idescat Visual.

Información práctica

Las sesiones de trabajo de Periodismo de Datos quieren ser unos encuentros prácticos con dos objetivos: aprender y profundizar en el trabajo con datos mediante talleres, y dar a conocer proyectos locales.

  • Fecha: 20 marzo 2014
  • Horario: 17:00 h – 20:00 h
  • Precio de la entrada: 3 €
  • Espacio: Mirador
  • Organiza Centre de Cultura Contemporània de Barcelona y Escuela de Datos de Open Knowledge Foundation Spain