Estás navegando por el archivo de Mexico.

Cómo saber si tus ideas son correctas: Tania Montalvo, México.

Marcos Ge - el Junio 1, 2016 en DAL, Experiencias, Fuentes de datos, Uncategorized

fotoTM

“Esta idea de que con Felipe Calderón [presidente mexicano de 2006 a 2012] estalló la violencia asociada al narcotráfico… yo quería que los datos vinculados me lo explicaran, y fue cuando encontré la explosión de células delictivas y cómo están reconocidas por las mismas autoridades que generaron esa violencia”,

dice Tania Montalvo, reportera que desde 2014 investiga el comportamiento de cuatro décadas de narcotráfico mexicano a través de bases de datos, trabajo conocido como NarcoData.

“Más allá de las ideas que tenemos, ¿qué argumentos realmente sostenibles tenemos para saber si esa idea es verdad o no? Para eso sirven realmente los datos en el periodismo”.

Montalvo, de 31 años, se ha hecho de una visión clara del periodismo de datos al cuantificar el poder y sus abusos en investigaciones sobre violaciones de la ley en detrimento del ambiente en la Ciudad de México, corrupción e incumplimiento de promesas al verificar el pago de nóminas a maestros (algunos de los cuales cobraban desde ultratumba) y, por supuesto, NarcoData, entre otras más.

¿Cómo han guiado los datos sus investigaciones periodísticas?

NarcoData

Screen Shot 2016-06-01 at 2.37.09 PM

Celda por celda, columna por columna, Montalvo construyó una imagen de datos para lo que llama “una sombra sin rostro”, la del crimen organizado. Entre otras conclusiones, cuantificó la explosión de la violencia: al finalizar el sexenio anterior a Calderón eran tres bandas criminales armadas que se tenían monitoreadas, tras seis años de una estrategia militarizada en su contra, se multiplicaron hasta sumar 52.

 

¿Cómo guiaron los datos a Montalvo y al equipo de Animal Político y Poderopedia de un documento único que obtuvieron en octubre de 2014, donde meramente se enlistaban los grupos delictivos activos ese año, territorio y cártel al que obedecían, hacia el análisis detallado de prácticamente toda la historia del narcotráfico en México?

“Lo que yo quería era tener toda la información en un mismo lugar, porque la información sobre el narco es tanta que no sabíamos dónde estaba la nota”.

 

La primera base que construyó fue sencillamente esa: qué organizaciones criminales había, su presencia en el territorio mexicano y su lealtad a cárteles determinados.

“Tuve que ir hacia atrás para mostrar cómo esas organizaciones antes no existían, porque los datos me fueron hablando y me hicieron preguntar ¿por qué ahora son 9 cárteles, cómo llegamos a ellos, por qué de pronto son más violentos, por qué unos son más grandes que otros? y todo eso lo pude hacer gracias a la primera base de datos”.

A partir de esa base “madre”, a golpe de teclazo en Excel, Montalvo construyó una nueva, que califica como una investigación de fuentes híbridas.

“No es un trabajo cuantitativo 100 por ciento. A la información en papel de la Procuraduría General de la República (PGR) agregué información de análisis que encontré en documentos académicos sobre estudio de crimen organizado, más información de entrevistas  y comunicados y boletines de la misma PGR a medios.”

Después interrogó a su nueva base.

“¿Qué era lo que me estaba mostrando? Hay que tener la mente muy abierta a hacer cualquier pregunta a los datos, hasta la más complicada, no obviar cosas, y tampoco creer que no vas a encontrar tus respuestas en la base, porque realmente los datos hablan, y hablan muchísimo”.

 

La respuesta entonces fue obvia. Los datos mostraban la pulverización de los grupos criminales en mayor número aparejada al incremento de la violencia con los años.

“Era la evolución de las bandas del crimen organizado, me estaba mostrando quiénes son los dominantes, que hubo una separación entre ellos. Eso me llamó a responderme con los mismo datos: ‘hay conflictos muy específicos entre los grandes cárteles’.”

“Es necesario entender qué es lo que tienes: si tienes años, cuáles son tus campos…  Con base en ello ves hacia dónde te pueden llevar los datos. Siempre respeta a tu base en el sentido de tenerla limpia, conocerla, para que te hable. Si no está limpia, cuando te ‘escupa’ una respuesta, no la vas a ver”.

NarcoData ha alcanzado siete entregas, pero las bases construidas por Tania aún no agotan su potencial. Este trabajo, no obstante, no era el primero en el que Montalvo construyera y analizara una base de datos.

Censo de la Reforma Educativa

CC By CEDIM News

CC By CEDIM News

En un proceso de supuesta renovación de estructuras mexicanas como la energética, la fiscal y la educativa, una de las promesas de avance en esta última fue la depuración de la nómina de profesores que reciben pago del erario público.

No más fallecidos que cobran sueldo por enseñar, maestros que renunciaron y cuyos pagos no obstante siguen siendo religiosamente cobrados o maestros que jamás dieron una sola clase frente a grupo. La investigación que Tania Montalvo publicó en 2015,  sobre la nómina nacional de maestros, descubrió que la promesa era, al menos hasta entonces, falsa.

Lo probó a través de la construcción y cruce del recién hecho censo magisterial nacional contra la nómina pagada por la Secretaría de Hacienda y Crédito Público (SHCP).

“La idea surgió de una base que nos entregó Gobierno de Oaxaca después de una solicitud de transparencia, con 40 mil celdas: cada maestro, cada escuela. Pudimos ver maestros hasta con 30 plazas, solamente en Oaxaca”.

Esa base se escaneó desde las infames fotocopias en papel que le fueron entregadas, desde donde escrapeó con algunas herramientas como Cometdocs, Tábula e Import.io.

Para ampliarla a nivel nacional, Tania recurrió al Instituto Mexicano para la Competitividad, con quienes obtuvo ayuda para rastrear los datos nacionales relacionados con la nómina magisterial a través de la plataforma de datos abiertos del gobierno federal, por entonces una novedad.

“Creo que de alguna forma ese fue mi primer acercamiento con los Datos Abiertos de gobierno, yo estaba escéptica, pero base con solicitud por cada estado, hubiésemos tardado muchísimo. Pudimos hacerlo a nivel nacional, pudimos comparar cómo la nómina antes y después de la reforma educativa no había cambiado, sino en un mal sentido, les estaban pagando más a los maestros pese a que se suponía que ya les habían depurado, y lo  pudimos ver trimestre a trimestre”.

La nómina, pagada por SHCP fue contrastada contra la base de datos de la Secretaría de Educación Pública (SEP), que recién había efectuado un censo donde se enlistaban qué maestros que daban clase frente a grupo, quiénes sólo realizaban labores sindicales y dejaba fuera “aviadores” y otros defraudadores.

“SHCP tiene que preguntar a SEP si todos esos maestros están frente a grupo y la SEP tuvo que haber verificado que estaban frente a grupo o si no murieron, porque había muchos muertos que seguían cobrando sueldos”.

Este año, la SEP reconoce por primera vez que dejó de pagar 5 mil plazas porque no estaban frente al grupo.  “Eso debió haber ocurrido antes”, acota Montalvo.

Gasolineras por colonia

En 2014 Montalvo desarrolló una investigación sobre las gasolineras que en la Ciudad de México violaban la ley al ser un excedente a lo permitido. En este trabajo el mayor reto fue la dispersión y falta de granularidad de algunos de los datos: Montalvo tenía por un lado información en porcentajes del excedente de gasolineras y por otra parte listados de todas las razones sociales de gasolineras en la Ciudad, pero no tenía las ubicaciones de las gasolineras que violaban la ley.

Screen Shot 2016-06-01 at 3.10.25 PM

 

“Yo sabía que había más gasolineras y que se estaba violando el reglamento, Pemex tenía muchas bases de datos, pero tenía los nombres de gasolineras al azar, no me decía dónde estaban, pero nosotros obtuvimos otra base de datos por delegación.

 

“Pudimos entonces cruzar las bases de datos para saber en dónde estaban, y cruzamos con una base más, de la Procuraduría Federal del Consumidor (Profeco), para saber cuáles estaban sancionadas, y cuáles estaban violando la ley al abrir”.

Con la ayuda de las organizaciones Escuela de Datos y Social Tic, y en particular de Phi Requiem, Fellow de Escuela de Datos 2014, se logró la sistematización de dicha información.

“De alguna forma fue una base chiquita, pero el caso es que toda la denuncia ya estaba totalmente construida, yo tenía reporteado con los gasolineros que se estaba violando el reglamento, pero no tenía datos para hacerlo mucho más visible.

“Nos permitió construir este mapita donde ya fue lo único que necesitábamos para cerrar y así le mostramos solidez a nuestro argumento de que se estaba violando la ley”.

Datos para justificar opiniones

De cierto modo, la trayectoria de Tania Montalvo le permitió desarrollar una idea que inició en una clase de periodismo asistido por computadora (PAC) en alguna de sus clases de periodismo en el Tec de Monterrey.

“Lo que me llevé de esa materia es entender la importancia de usar datos, de que la información en cualquier nota periodística fuera precisa, más allá de una declaración”.

Justificar (o no) con datos las declaraciones de personajes públicos o de opiniones públicas ampliamente compartidas entre ciudadanos, ha sido el hilo conductor desde sus primeras investigaciones en CNN Expansión sobre la ubicación de víctimas de violencia hasta NarcoData.

“Todo tipo de periodismo debe tener datos, y los hay en todas partes. Entiendo el punto de que se le llame periodismo de datos pero al final es periodismo.

“Si es periodismo: narrativo, de explicación, de lo que sea, es súper importante saber usar los datos y hacerlo bien. En el periodismo de datos puedes usarlos en masa, una cosa mucho más grande, pero para llegar a eso tiene que empezar utilizando bien porcentajes, tasas, sabiendo cómo se hace una diferencia porcentual… cosas que son elementales para que sigas el camino de los datos y ya puedas utilizar una base mucho más grande”.

Otro punto que es necesario tener en mente, en opinión de Montalvo, es que la interdisciplinariedad no suple la obligación individual de aprender de otras disciplinas.

“El trabajo multidisciplinario es valiosísimo, pero al mismo tiempo es fundamental que entre todos comprendamos la labor del otro, aunque sea en la parte mínima. Yo no programo, pero creo que sí es necesario tener al menos ideas básicas porque un programador es valiosísismo y están dedicados. Difícilmente llegue a los niveles en que está nuestro programador, Gilberto León, pero yo debería saber que si quiero que Gilberto entienda mis ideas, yo debería entender las suyas a un nivel técnico”.
“Yosune, nuestra diseñadora, que sí sabe de programación, tuvo que aprender muchísimo de mi labor periodística, en términos de mi mirada como periodista para poder visualizarla y yo al mismo tiempo tuve que aprender de ella para poder comunicar lo que tenía. En ese sentido es muy importante conocer un poco de lo que hace que el otro”.

InfoEconómica – ejercicio datero en DF

faeriedevilish - el Marzo 23, 2015 en Experiencias

Hoy les compartimos una experiencia de desarrollo datero en la Ciudad de México: InfoEconómica. ¡Queremos compartir más historias latinas y españolas! Anímate a contarnos la tuya (en Twitter, Facebook).


Screen Shot 2015-02-06 at 17.05.24

La Secretaría de Desarrollo Económico (SEDECO) en la Ciudad de México está obligada por ley a publicar un reporte económico cada tres meses. Para cumplir esta obligación, hace una labor titánica de compilación y análisis de datos complejos publicados por el INEGI, la CONEVAL… Pero no mantiene un archivo histórico de los datos y reportes pasados.

Es decir: cuando la SEDECO publica un reporte nuevo, se pierde la información antigua; lxs ciudadanxs pierden el acceso a esa información.

Emanuel Zámano, desarrollador de CódigoCDMX (iniciativa del Laboratorio para la Ciudad para promover desarrollos tecnológicos dentro de las dependencias de gobierno al estilo Code for America), se inspiró en esta pérdida de información para proponerse un reto: InfoEconómica.

InfoEconómica es una página que permite revisar indicadores usados en el pasado por SEDECO, incluyendo los de coyunturas específicas, en un formato descargable pero fácil de consumir para lxs ciudadanxs.

 

¿Qué distingue a InfoEconómica de otros portales de publicación de datos?

  • Su audiencia elegida son lxs ciudadanxs en general – no programadores o periodistas.
  • En vez de publicar conjuntos de datos para análisis, presentan información ya analizada.
  • Propone un acotamiento de la infinidad de indicadores que maneja SEDECO para enfocarse en los más importantes para lxs ciudadanxs.
  • Aprovecha y deja disponibles otros materiales elaborados por la dependencia, como infografías y estudios.
  • Para cada indicador, marca las fuentes utilizadas. No da link para acceder directamente a los datos.

 

Limitaciones reconocidas del proyecto:

  • Sólo puede publicar información dentro de las atribuciones de SEDECO. Y, por ejemplo, los datos sobre trabajo y educación son trabajados por otras dependencias. En ese sentido, a Emanuel le encantaría que el dashboard de InfoEconómica fuera adoptado por otra parte del gobierno –como la Agencia de Gestión Urbana o la Jefatura de Gobierno– para que no el desarrollo sirva para “ciudadanizar” no sólo datos económicos, sino también de transporte, salud; los datos que muestran la realidad de la ciudad. Cuántos baches han sido reparados, cuántos viajes han sido hechos en Ecobici.

 

Y, como parte de la ficha técnica, unos datos…

  • Los datos analizados son descargables en csv; en el futuro sería ideal escalar el proyecto para permitir conexión directa con Json.
  • Gran parte de la labor fue justamente en el procesamiento de los datos que ya tenían las dependencias. Primero fue ver cómo estaban almacenados (generalmente archivos de Excel con infinidad de hojas); luego, acomodar la información separando los datos en grupos temáticos; finalmente, automatizar el proceso mediante scripts que leen partes del Excel y las categorizan en una base de datos.
  • Cronograma en términos para desarrolladorxs: primero se eligió qué partes poner; usó un framework (Laravel – es importante no empezar desde cero en estos desarrollos); preparó bases de datos; preparó scripts automáticos para todas las actualizaciones con PHP; base de datos Postgresql; usó servidor de pruebas (Vagrant) que indica qué necesita el framework para funcionar, y los servicios adicionales (base de datos, analítica). Después de crear ambiente de desarrollo, preparó el repositorio en GitHub, trackeando cada cambio de código ahí y en ambiente de producción. Clonó el repositorio, ejecutó todo el provisioning… y, en todo el proceso, asegurarse de incluir todo cambio en GitHub y de regreso en servidor de pruebas.

 

La petición de Emanuel a otrxs desarrolladorxs: ¡Clonen los repos en GitHub! ¡Hagan issues!

 

Gracias a Emanuel por compartir su historia en Escuela. Ahora te toca a ti compartir la tuya! Recuerda que estamos en TwitterFacebook.

Ramo 23: datos abiertos y la corrupción

invitado - el Octubre 13, 2014 en Experiencias

dtm_201307

Este texto fue escrito por Hugo Osorio, diseñador especializado en desarrollo web, interacción y diseño de interfaz. Socio y mago en Gobierno Fácil, donde crean herramientas de datos abiertos y hacking cívico como INEGI Fácil y Ramo 23. Además es fundador de Vectores y Habítala.


 La corrupción como sistema político fue una solución histórica que debe ser comprendida, pero no continuada.”

Gabriel Zaid

De acuerdo al Índice de Percepción de la Corrupción 2013 de Transparencia Internacional, México está en el lugar 106 de 177 naciones, ubicándose como uno de los países más corruptos y que me deja con una duda dando vueltas: cómo podemos cambiar esta situación.

Uno de los caminos que han seguido las administraciones gubernamentales para combatir la corrupción es que parte de su actividad  y de sus representantes sea pública, aunque existen muy buenos ejemplos de herramientas creadas para fomentar la transparencia, la mayoría se enfoca únicamente en cumplir con el requisito de publicar la información, su objetivo no es siempre que la información pueda ser consultada, compartida, visualizada ni vigilada por los ciudadanos.

Así se hace evidente que, en materia de corrupción, las necesidades de los ciudadanos no son necesariamente las mismas que tienen los gobiernos. Esto en realidad representa una gran oportunidad para todos los que buscamos un cambio en México porque estas fuentes de información y la tecnología nos ayudan a crear herramientas que facilitan el acceso a la información pública, haciéndola entendible, permitiendo que los ciudadanos formen parte de un ejercicio contra la corrupción.

En ese sentido nuestra aportación es Ramo23.com, una herramienta web que facilita a los ciudadanos la consulta y la visualización de las asignaciones de los proyectos de los fondos del Ramo General 23, un instrumento de política presupuestaria que permite atender las obligaciones del Gobierno Federal cuyas asignaciones de recursos no corresponden al gasto directo de las dependencias ni de las entidades. Esta información son datos abiertos disponibles y liberados por la Secretaría de Hacienda y Crédito Público en marzo de 2014, con la división de los casi 56 mil millones de pesos a través de 4 mil 537 proyectos que serán transferidos a estados, municipios y delegaciones del Distrito Federal.

ramo23-1

ramo23-2

ramo23-3

¿Cuál es su utilidad?

La herramienta hace evidente como es asignado este presupuesto, permite búsquedas por proyecto, entidad y por palabra clave, pero esto no era suficiente porque muchos de los proyectos benefician a municipios con poco acceso a internet y donde las comunidades pueden usar estos datos para valorar si los recursos son ejercidos adecuadamente (pavimentación, espacios deportivos, alumbrado público, entre otros). Para resolver esto, Ramo23 integra una hoja de estilo que hace posible la impresión de cada resultado de búsqueda de manera legible.

Algunas notas han aparecido en diferentes periódicos nacionales haciendo referencia a la información que encuentran en nuestra herramienta, sin embargo el ejemplo que más me gusta es el de participación ciudadana, donde precisamente se imprimen los resultados y se reparten: Boris Cuapio, repartió hojas en su municipio, San Martín Texmelucan, Puebla, con la información del Ramo 23 referente a esa ciudad y la respuesta fue grandiosa, las personas comenzaron a preguntarle con gran interés dónde, cómo y cuándo se aplicarían esos recursos, provocando un boca en boca respecto a los recursos que recibía su ciudad.

Esto es un ejemplo de como ramo23.com facilita el acceso a la información pública, haciéndola entendible, permitiendo que los ciudadanos conozcan como se reparten los recursos, evitando la corrupción, recibiendo datos que les permiten evaluar y exigir su correcto uso. Pero esperamos más, porque estoy convencido de que es el mejor momento para que los ciudadanos nos unamos para compartir el conocimiento y revitalizar la democracia, ya lo decía aquella canción de aquel grupo de poetas sociales de los años noventa llamados Molotov: “Que se sienta el power mexicano, que se sienta todos juntos como hermanos, porque somos más y jalamos más parejo”.

Nos toca construir un mejor país.


TECNOLOGÍA:

  • HTML5, Javascript, Backbone, Require, GitHub, y Sass

CONJUNTO DE DATOS UTILIZADOS:

 

Explorando datos de gobierno en México, D.F.

PhiRequiem - el Septiembre 1, 2014 en Expediciones de Datos

Los pasados 12, 13 y 14 de agosto se llevó a cabo en México, D.F., una serie de talleres para aprovechar la primera liberación de datos abiertos del Gobierno Federal, que están publicados en el portal datos.gob.mx. En estos talleres participaron diversas organizaciones civiles y periodistas que, tras una introducción al uso de datos abiertos y una capacitación para el uso de herramientas de limpieza, análisis y visualización de datos, se dispusieron a explorar los datos de México en una expedición que tuvo los siguientes tópicos:

  • Martes 12 agosto: Infraestructura, productividad e inversión pública.
  • Miércoles 13 agosto: Pobreza, carencias y desarrollo social.
  • Jueves 14 agosto: Salud pública, demografía y población.

En los talleres identificamos preguntas que pueden ser resueltas utilizando conjuntos de datos, así como herramientas de limpieza y visualización que nos permiten formas de análisis rápidas y efectivas.

De la teoría a la práctica se mostró cómo se puede obtener dichos datos, y, empleando herramientas de código abierto, encontramos historias y vimos cómo crear visualizaciones para hacer la información más fácil de entender.

Durante los talleres, algunos invitados nos entusiasmaron contándonos sobre los proyectos en que trabajan, como el de las chicas de telus.mx que usaron datos públicos para generar inteligencia geopolítica, o los chicos de descifra.mx que usaron los datos públicos para orientar a PyMEs y Corporativos sobre micromercados. También Francisco Mekler de mejoratuescuela.org nos hablo sobre la importancia de anonimizar datos, y dio recomendaciones de seguridad que debemos tomar en cuenta a la hora de publicar.

 

Phi

Los facilitadores jugamos un papel muy importante en el proceso de aprendizaje, así que he aquí algunos consejos para para llevar un taller exitoso (^_-):

  • Planifica tu taller – No dejes las cosas al azar. Recuerda si tienes alguna errata, no hay que sufrir; tómalo con humor y úsalo para incentivar la participación.
  • Averigua los perfiles de la audiencia – Esto te permitirá encaminar el contenido del taller a algo con mayor interés para todos y todas.
  • Pásala bien – Si disfrutas lo que estás haciendo, es probable que los participantes también lo pasen bien.
  • No existen líneas divisorias – El público está ahí para aprender, pero siempre puedes enriquecerte conociendo lo que hacen y cómo lo hacen. Incentiva la participación; hazlos tus amigos.
  • Tú eres la guía – Sólo puedes mostrarles el camino, pero son ellos los que deben hacer las cosas.
  • Facilita la curva de aprendizaje – Busca un lenguaje en común, evita los tecnicismos y busca la manera más fácil de llegar al resultado.
  • Prepara las herramientas – Prepara la lista de herramientas y descargas, pide a los participantes las descarguen e instalen de ser posible antes de llegar al taller. Puedes tener unos USB precargados por cualquier contingencia.

Experiencias en el uso de datos: inegifacil.com

faeriedevilish - el Mayo 6, 2014 en Experiencias

dtm_201307

Boris Cuapio, INEGIFacil.com

En Escuela recopilamos historias de uso y apropiación de proyectos dateros en Latinoamérica y España. Hoy les compartimos la de Boris Cuapio Morales, creador de INEGI Fácil – una herramienta que permite la búsqueda de datos del web service del Instituto Nacional de Estadística y Geografía en México. 

Agradecemos a Boris la disposición para esta entrevista, que fue llevada a cabo en Data Meetup Puebla.


“En la universidad, me llamaba la atención que las notas en medios como The New York Times siempre se enlazaba a páginas web de sistemas de información de EEUU. Entonces yo me preguntaba: ¿Por qué no hay en México sistemas así?”

Boris Cuapio es un ilustrador-convertido-en-programador que vive en Puebla, México. A finales de 2012, él tenía la intención de usar información del INEGI, y encontró el servicio web… pero no tenía la capacidad para usarlo. Fin de la historia.

…Hasta finales de 2013. Boris estuvo trabajando para clientes en Canadá, que pedían productos que incorporaban el uso de APIs de redes sociales como Twitter o Flickr, lo cual le capacitó para usar el servicio web. Sus compañeros de trabajo le recomendaron comenzar proyectos de programación personales para no perder práctica, él pensó en uno: tratar de mostrar los datos del INEGI de una manera más fácil y más accesible.

Así nació INEGI Fácil, un portal que hace consultas al servicio web de inegi.gob.mx, y muestra los resultados en tablas y gráficas.

¿Pero por qué hay valor en que esto lo haga un ciudadano, y no el gobierno en sí? Boris piensa que la velocidad de los procesos institucionales no permitiría las adopciones tecnológicas que son necesarias en servicios de este tipo. Por ejemplo: mientras INEGI provee datos en XML (formato pesado que se ha ido abandonando en otros servicios), INEGI Fácil ya los da en JSON, y con marcadores adicionales. INEGI tiene un tutorial un tanto difícil de acceder, mientras que INEGI Fácil tiene una librería PHP que simplifica el trabajo. En términos de experiencia de usuario, no hay comparación (gracias a Hugo, la mente maestra detrás de los temas de diseño e interacción del sitio).

 

inegifacil_homev1

En realidad, el gobierno y él no son competencia. INEGI Fácil inició cerca de julio de 2013, y en enero de 2013 Boris fue contactado una persona en el INEGI. En pocas palabras, les sorprendió que alguien de hecho usara los servicios web! Cuando el sitio pase de sus dos fuentes actuales de información a las cien planeadas, él será un beta tester.

El proyecto le ha permitido aprender mucho sobre JS, XML, PHP, bases de datos, dataviz – cómo hacer gráficas, cómo exportar datos. Y le gusta ese trabajo; quiere que ya no sea un hobby, sino su proyecto principal. Quiere vender el producto a universidades, porque es donde más se utiliza los datos del INEGI.

Pero, por lo pronto, espera que en este mes los índices ya sean buscables y se pueda acceder a INEGI Fácil desde celulares. En un año, si consigue dinero, esperaría que se convierta un servicio web paralelo al INEGI; es decir, que lo utilicen medios de comunicación a través de embeds. Su ideal: le gustaría que en su universidad hagan diseño de información, gráficas, catálogos instructivos, textos educativos, y que aprovechen INEGI Fácil.

Tip datero de Boris (que, según él, le da a todo mundo, y nadie ha seguido) – “Junta tu dinero y contrata SafariBooks. Con eso puedes aprender lo que sea”.

En México se desarrolla plataformas basadas en datos abiertos. ¿Conoces otras en Latinoamérica? Nos encantará difundir sus historias en Escuela.

Open Data Day 2014 – México, D.F.

faeriedevilish - el Marzo 5, 2014 en Expediciones de Datos, Noticias

Publicamos este post originalmente en SocialTIC. Aquí estamos en Twitter y en Facebook.


opendataday

El pasado 22 de febrero de 2014 se celebró el Día Mundial de los Datos Abiertos. Latinoamérica lo hizo creativamente (con arte callejero y bicicletas, de los que hablaremos en otros posts), y en DF celebramos como más nos gusta: con una conmemorativa carne asada.

Bueno: y con una expedición de datos… que parece tener el récord a la expedición de datos más grande del mundo, por si alguien busca imponerse una meta 😉
(La meta, por cierto, son 75 personas)

1383084_472565776198862_1050454977_n

Siguiendo nuestros propios tips para tener una expedición de datos provechosa, a las 10 de la mañana comenzamos el trabajo con chicos y grandes de distintos campos. Primero encontramos el papel correcto para cada uno en un equipo de análisis de datos…
image
…Y después comenzamos a revisar datasets del Laboratorio para la Ciudad.

Así iniciaron 10 proyectos de análisis y visualización de datos en distintos rubros (salud, servicios urbanos, medio ambiente, movilidad, seguridad).

image

Algunos de ellos fueron hechos con apps en mente: análisis de calidad del aire para hacer recomendaciones a corredores, y reporteo ciudadano para disminuir la vulnerabilidad de los peatones en el ecosistema de la movilidad.

image

Algunos otros se enfocaron en aspectos informativos. Mostrar qué actividades hay en parques públicos para promover las actividades culturales; mostrar las defunciones en el sistema de salud del Distrito Federal.

Defunciones

Y, finalmente, algunos se enfocaron en la comprensión de las operaciones del gobierno. Uno trató de buscar correlaciones entre niveles de violencia y operaciones estatales en Michoacán; otro equipo se puso el reto de entender los rechazos de las verificaciones de automóviles en el Distrito Federal.

image

Aunque el proceso de la expedición de datos en sí fue revelador para los y las participantes, en SocialTIC nos gustaría ver que los resultados sean reveladores para otras organizaciones o dependencias del gobierno. Si todo sale bien, en algunos meses les contaremos lo sucedido.

Centraal, el Laboratorio para la CiudadNova México y SocialTIC agradecemos a quienes se unieron a celebrar el Día Mundial de los Datos Abiertos. Nos volvemos a ver en el siguiente City Hack Nights.

Expedición de datos en Monterrey

Sergio Araiza - el Febrero 18, 2014 en Expediciones de Datos

¿Alguna vez te imaginaste que una ciudad podría ser ofrecida a Dios? ¿O que una empresa podía recibir más de 15 pagos por diferentes conceptos en un mismo día? Bueno: ésas fueron las preguntas que se hicieron quienes participaron en la expedición de datos que realizamos en la ciudad de Monterrey, Nuevo León, con @CodeandoMexico y @ccinlac.

Siempre hemos dicho que en una expedición de datos puede participar todo mundo, y esta no fue la excepción: entre los asistentes, la  mayoría no era programador o programadora, ni había tenido un acercamiento previo al manejo de datos. Eso le dio un sabor especial a la actividad.

En la expedición, tuvimos varios obstáculos. El primero de ellos, que nunca es novedad: los formatos de las bases de datos. Para superarlos, usamos herramientas de extracción de datos como OnlineOCR, y normalizamos la información para usarla. Otro gran reto: no siempre es fácil llegar a la información.

Aprovechamos la información que se encuentra disponible en distintos portales de transparencia de los municipios de la zona metropolitana la ciudad de Monterrey: listados de proveedores, pagos de facturas, nóminas y votaciones de cabildo. Después de unas cuantas revisiones de los datos, surgieron las preguntas que dieron forma a nuestra aventura:

  • ¿Cuánto dinero había otorgado en donativos a iglesias un grupo de municipios llamados las Ciudades de Dios?
  • ¿Cuánto dinero ganan alcaldes y alcaldesas?
  • ¿Cuánto cuesta el servicio de recolección de basura en dos de los municipios más representativos de la zona metropolitana?
  • ¿Por qué hay un grupo de empresas que recibe varios pagos por cantidades pequeñas casi todos los días?

Al finalizar la expedición los equipos, habían encontrado datos importantes que plasmaron en una serie de infográficos. Aquí te mostramos algunos de ellos:

Suelo_MTY

Infográfico sobre sueldos de alcaldes. Para verlo completo, haz clic en la imagen.
 
easelly_visual
 
Infográfico sobre el costo de la recolección de basura.
 

¿Te animas a dirigir una expedición de datos? Aquí y aquí te damos tips para hacerlo. Recuerda que también siempre estamos disponibles para resolver tus dudas en @EscuelaDeDatos, Escuela en Facebook, y en info [@] escueladedatos [.] org .

Chicas Poderosas México

faeriedevilish - el Febrero 17, 2014 en Noticias

El 8, 9 y 10 de febrero, Escuela de Datos y SocialTIC formaron parte de un acontecimiento especial: la llegada de Chicas Poderosas a México. Con más de 70 periodistas, diseñadorxs y programadorxs reunidos en el CIDE y en la Embajada de Estados Unidos en México, el periodismo de datos local recibió un empujón amistoso con talleres en distintos temas, pláticas llenas de sabiduría periodística, y muchos ejemplos de herramientas y proyectos para inspirar.

Escuela y SocialTIC dieron una charla y un taller de limpieza+visualización de datos con Open Refine y Google Fusion Tables.

Si no pudiste asistir al taller pero quieres “vivirlo”, te recomendamos este hangout de un taller similar que dimos en el pasado. También tenemos una guía práctica para hacer mapas con Google Fusion Tables. Lee el resto de la entrada →

Escuela de Datos presente en #HackDF

Sergio Araiza - el Febrero 4, 2014 en Noticias

Los días 24, 25 y 26 de enero se realizó el Primer Festival de Datos Abiertos en la Ciudad de México, organizado por el Gobierno del Distrito Federal por medio del Laboratorio para la Ciudad.

Durante el evento se llevó a cabo el Hackatón para la Ciudad, que fomentaba el uso de datos sobre distintos temas de valor para los habitantes de la Ciudad de México. A estas actividades del festival se sumaron una serie de talleres orientados a los interesados en trabajar con datos pero que no contaban con equipo o conocimiento técnico para desarrollar una aplicación.

Escuela de Datos estuvo presente en las actividades facilitadas por el equipo de SocialTIC. Ahí impartimos la sesión de visualización de datos, que posteriormente fusionamos con el taller de periodismo de datos que impartió Flor Coelho de La Nación Data de Argentina.

Durante el taller revisamos el funcionamiento de herramientas para la limpieza de datos como OpenRefine, y también herramientas para la visualización como Timeline.JS, Google Fusion Tables y CartoDB. Durante toda la actividad, fue valioso contar con la colaboración de los participantes, quienes aportaron valiosas ideas al desarrollo del taller.

Al concluir las actividades, cada equipo presentó un proyecto de uso de los datos basado en la información que estaba disponible. Aquí puedes ver los resultados.

Scoda_HackDF

¡Agradecemos a lxs participantes del taller por toda la colaboración durante las actividades en #HackDF! @danitemi @claudibaez @monicameltis @nickops @fcoel

Finanzas públicas, APIs y estándares: la experiencia de IMCO

faeriedevilish - el Enero 8, 2014 en Experiencias

Screen Shot 2014-01-08 at 12.09.17

(Imagen capturada en imco.org.mx)

¿Tú conoces el panorama de las finanzas públicas en tu entidad, incluyendo sus fortalezas y debilidades? ¿Te sientes capaz de compararlo en ese sentido con otras entidades?

Finanzas públicas es un sitio del Instituto Mexicano para la Competitividad que busca ayudar a los mexicanos a contestar afirmativamente las preguntas anteriores. Pero la historia no termina ahí: tiene una propuesta tecnológica que lo hace replicable, que garantiza capacidad en el servicio, y que invita a ejercitar la creatividad.

Te compartimos la entrevista con Francisco Mekler del IMCO.

IMCO.datos from Jaime Fraire Quiroz on Vimeo.