Estás navegando por el archivo de Mexico.

Cómo una base de datos en México se adelantó al gobierno para buscar desaparecidos

Marcos Ge - el diciembre 5, 2017 en Noticias, Uncategorized

Peronasdesaparecidas.org.mx es el nombre de la interfaz creada por la organización sin fines de lucro Data Cívica, logró ya acercar datos cruciales a familias y organizaciones que buscan a personas desparecidas en México. Estos datos, como el nombre propio de las personas en los casos del fuero común (estatal o de provincias), no están actualmente publicadas en la base oficial gubernamental, el Registro Nacional de Personas Extraviadas o Desaparecidas (RNPED).

A dos semanas de su lanzamiento (el 14 de noviembre en Ciudad de México) la publicación de más de 31 mil nombres de personas desaparecidas propició que al menos 15 familias y dos colectivos de búsqueda acusen errores tan fundamentales como que el nombre en la base de datos no corresponde al familiar desaparecido, sino a otro famliar, que no lo está.

“El primer gran error (de RNPED), es que las personas desaparecidas no están; el segundo, que datos tan importante para la investigación como la fecha de desaparición, están mal. En uno de los casos, nos contactó la hija de la persona desaparecida diciéndonos que el nombre que está en la base es el de su tío (en lugar del de su padre desaparecido)”, dijo en entrevista Héctor Chávez, analista de datos en Data Cívica.

Además de facilitar a familias y organizaciones la verificación de fechas y lugar de desaparición junto con los nombres, la base permitirá una actualización de la base que le otorgue mayor confiabilidad, pues podrá investigarse quiénes, por ejemplo, salen de la base de datos, y por qué razones.

“Podemos ya contar historias sobre las personas desaparecidas con esos nombres. ¿Por qué salió de la base? ¿Se rectificó el delito de desaparición por el de secuestro, fue encontrada la persona con vida, fue encontrada sin vida?”, dice Chávez.

Una más de las ventajas de la publicación de los nombres es que finalmente puede cruzarse esta base con las que tienen las organizaciones y colectivas de búsqueda de personas desaparecidas que se han construido en varias entidades del país, y así combatir una de las mayores barreras para el análisis confiable de estos datos: la cifra negra.

“En contacto directo, nos han enviado también doscientas veinte fotos de familiares. Al menos quince familias y dos colectivos de búsqueda nos han contactado. La solución que estamos planteando es en el futuro es publicar un formulario donde sea posible añadir la información del familiar o persona en cuestión”.

Días después de la publicación de personasdesaparecidas.org.mx, el representante del poder ejecutivo mexicano firmó la Ley General de Desaparición Forzada de Personas y de Desaparición cometida por particulares, luego de dos años de que se publicara el proyecto de ley en la Gaceta Oficial de la Federación.

Esta ley contempla la publicación obligatoria de todos los nombres de las personas desparecidas en la base oficial, del fuero común o federal. No obstante, la ley no cuenta con mecanismos concretos de implementación aún, como un presupuesto que lo respalde. Por ello, Chávez considera que la publicación de su base se adelanta a la implementación de la ley.

“Estamos ganando meses o hasta años hasta que se publiquen (los nombres en RNPED). La nueva ley sí se habla muy bien con nuestro registro, sin embargo estamos ganando tiempo para las familias en este proceso de memoria y justicia para los desaparecidos”.

 

 

 

Cómo se hizo

La base consiste en la publicación de los datos oficiales de RNPED más 31 mil 968 nombres faltantes. Para lograrlo, el equipo de Data Cívica pasó dos años ideando e intentando distintos métodos.

“El principal camino fue darnos cuenta de que en internet está la base de de datos disponible, donde al insertar el nombre, Sergio, salen todos los registros junto con sus atributos: la fecha donde desapareció, el municipio donde desapareció, entre otras, pero no el nombre completo”.

La solución que ideó el equipo de Data Cívica fue ingresar nombre por nombre a la base de datos y descargar cada uno de los registros de cada nombre y apellido para después cruzar los distintos registros y encontrar concordancias.

Aunque al principio trataron de construir la lista de nombres manualmente, finalmente llegaron a la idea de de automatizar el ingreso de nombres usando los que se encuentran en las bases de datos del beneficiarios de los burós de salud y asistencia social mexicanos, el Instituto Mexicano del Seguro Social (IMSS) y de Secretaría de Desarrollo Social (respectivamente).

La automatización, ingreso y descargas de los datos de estas bases tardó alrededor de 5 días, y dependió para lograrlo no sólo de la velocidad de procesamiento bajo el código utilizado, sino de la velocidad de conexión a internet que permitiera la descarga de 18 mil bases de datos.

Pero el proceso más intensivo del análisis ocurrió después de la descarga.

“El reto fue el proceso de limpieza y de verificación. Consistió en verificar contra RNPED que cada “Munoz” que está mal escrito,  cada Zúñiga y otros,  realmente está mal en el RNPED, y no es un error de la automatización de nuestros nombres”.

Así, el equipo de Data Cívica se cercioró de que si en la base aparece J en lugar de un nombre, sea porque así está en la base original.

 

 

 

 

Haciendo mapas con ArcGIS en línea

invitado - el octubre 12, 2017 en Guest posts, Tutoriales

Desde Bogotá D.C., Andrés Forero  , especialista en GIS y datos geográficos, nos envía este post como parte de una serie tutorial sobre datos geográficos y cómo podemos aprovecharlos desde distintos softwares para su edición y publicación.

En estos últimos años he tenido la oportunidad de ejercer diferentes roles como consultor y asesor para el desarrollo territorial en Colombia, un rol que, dadas las deficiencias tecnológicas y gubernamentales existentes, ha sido un enorme reto profesional.

En Colombia existen 1.123 municipios, 900 de ellos requieren la actualización de su Plan de Ordenamiento Territorial, el cual es el reglamento oficial que regula y genera normas para el desarrollo adecuado del territorio y la utilización del suelo. Solo 100 de ellos, de acuerdo con el Departamento Nacional de Planeación – DNP, han apostado por modernizarse, concentrados en resolver grandes desafíos asociados a sistemas viales, transporte multimodal, gestión del riesgo de desastres, cambio climático y protección de recursos naturales, entre otros aspectos necesarios para el logro de una mejor calidad de vida y de ciudades sostenibles al servicio de sus habitantes.

Empoderar al ciudadano, al especialista y al tomador de decisiones implica encontrar herramientas que integren soluciones para dichos desafíos donde se garantice la participación conjunta. Partiendo de esta premisa, la construcción que hemos empezado a generar nace desde la cartografía social donde reunidos con líderes comunitarios y habitantes de un territorio se han empezado a identificar todos aquellos actores involucrados, desde la espacialización de los puntos de interés hasta la identificación de estrategias llevadas a cabo para mitigar riesgos.

Estas iniciativas han trascendido de lo análogo a lo digital, y es apenas lógico, es un salto necesario y obligatorio el cual facilita una toma de decisiones ideal. En Colombia, por ejemplo, la Organización Internacional para las Migraciones – OIM  ha realizado diferentes proyectos desde la cartografía social, a lo largo del territorio nacional enfocados en comunidades afectadas por el conflicto armado y la formulación de estrategias aplicadas al posconflicto. Desde septiembre del 2018, se ven reflejados en una biblioteca virtual georeferenciada conocida como BiblioDat, la biblioteca sobre construcción de paz y el conflicto en Colombia. México es otro gran ejemplo del empoderamiento de la tecnología y generación de información comunitaria en tiempo real a través de mapas colaborativos para la identificación con precisión de infraestructura, centros de acopio y capas de información posdesastre.

Imagen 1. Mapas táctiles para personas con discapacidad visual.
Fuente. Captura Propia.

¡Empecemos!

Creando mapas utilizando ArcGIS Online

 ArcGIS Online es un sistema SIG en la web de colaboración online que permite usar, crear y compartir mapas, escenas, aplicaciones y datos listo para usar. Para poder acceder a sus funcionalidades es necesario entrar allí creando una cuenta, de tal manera, que puedas tener un portal SIG propio. Sí, para nadie es un secreto que Esri fabrica software licenciado y eso no lo pondremos en discusión, pero déjenme decirles que como desarrolladores podemos acceder a sus funcionalidades para poderlas utilizar con estos fines… ¡No tiene costo!

Imagen 2. Registro gratuito en ArcGIS for Developers

 

 

 

 

 

 

 

 

 

 

 

Al momento de seguir los pasos que te solicitan allí, como el llenado de datos como nombre, apellido, correo, etc., te pedirá que le asignes un nombre al portal SIG que acabas de crear, el cual tendrá como dominio el siguiente:

 

http://tuportal.maps.arcgis.com

 

Listo, tienes tu portal geográfico desde el cual accederás con un usuario y contraseña donde podrás crear los mapas, publicar información y disponer la información que elijas hacia la comunidad.

Primero, ¿qué queremos mostrar en el mapa?

ArcGIS for Developers brinda la facilidad de agregar contenido proveniente de diferentes fuentes de información, o crearla desde allí, lo cual puede ser mucho mejor. Aquí empieza el trabajo de ustedes, dateros, la información espacial también mantiene unas buenas prácticas…. ¡y vaya si son extensas! dan para todo un estudio universitario de pregrado y hasta posgrado, de esto depende poder tener una representación geográfica adecuada. Comencemos creando una capa geográfica definiendo algunos parámetros utilizando la opción “Create an Empty Layer”.

La primera capa geográfica que crearemos corresponde a la identificación de (algunos) puntos de interés al interior de una zona de estudio. Villa de Leyva es un municipio colombiano ubicado en la provincia de Ricaurte del departamento de Boyacá, está ubicado a 40 km al occidente de Tunja, capital del departamento. Sobre este municipio agregaremos inicialmente tres puntos: la Plaza Mayor, el Museo Paleontológico y Pozos Azules. Para poder hacerlo, esta capa la denominaremos “puntos_de_interes” el cual será su título y nombre del servicio disponible para ser utilizado por otros desarrolladores. Agregamos algunas etiquetas para identificar con facilidad esta capa, en este caso: puntos de interés, Villa de Leyva, Escuela de Datos.

Imagen 4. Detalles de la capa geográfica

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

Al hacer click sobre “Geometry” definimos cómo queremos representar la información, sea como punto, línea o polígono y bajo qué sistema de referencia estará dicha información. Aquí definimos “punto” y el valor por defecto “4326” el cual corresponde al sistema de referencia WGS 84.

Imagen 5. Geometría de la capa geográfica

 

Luego definimos los campos que deseamos incluir sobre la capa; se incluirán el nombre del campo, el alias y el tipo de dato (string, integer, double, date). Agregaremos cuatro de ellos los cuales se nombrarán así:

 

Nombre del campo Alias del campo Tipo de campo Requerido
Nombre Nombre String
Fecha_de_visita Fecha de visita Date
Visitantes_por_dia Visitantes por día Double
Imagen Imagen String

 

Imagen 6. Campos de la capa geográfica

 

 

 

 

 

 

 

 

 

 

 

Por último, se realizan las configuraciones necesarias para hacer de la capa un elemento editable, compartido y actualizado (offline y online) las cual se desplegarán por defecto. Para este caso, la capa será compartida para el público. Haz click en “Create layer” y ¡voilá!, se ha creado una capa geográfica.

La ventana que aparecerá por defecto corresponde a los metadatos de la capa geográfica la cual está sujeta a modificaciones como:

  • Imagen miniatura
  • Resumen
  • Descripción
  • Fecha de creación
  • Fecha de modificación
  • Etiquetas
  • Capas incluidas
  • Previsualización
  • Créditos
  • Detalles
  • Acceso y restricciones de uso
  • URL del servicio

 

Si te das cuenta, desde este momento ArcGIS establece como prioridad describir la capa que se está creando y es una buena práctica que nosotros debemos empezar a implementar en nuestro flujo de trabajo. Aclaro que es opcional, ya que este proceso puedes hacerlo luego de agregar los datos.

Imagen 7. Descripción de la capa geográfica

 

Representando datos sobre un mapa
Ya van 1110 palabras y agradezco que hayas llegado hasta esta sección. Aquí empezarás a agregar información en ArcGIS Online con la capa creada online, también puedes agregarla desde distintas fuentes de información.

Imagen 8. Descripción de la capa geográfica

Al hacer click sobre “Open in Map Viewer” verás el que será tu espacio de trabajo desde ahora, aquí desplegarás, procesarás y publicarás la información. Como ves, el espacio por defecto es realmente simple y facilita realizar algunas configuraciones.

  1. Primero cambia el mapa base. Selecciona la pestaña “Basemap” y elige “Open StreetMap”
  2. En la barra de búsqueda escribe “Plaza Mayor, Villa de Leyva”
  3. Ahora haz click sobre la pestaña “Edit” y “New Feature” y agregarás la información pedida en los campos creados anteriormente

Imagen 9. Agregando información al mapa

 

Los datos que se agregarán son los siguientes:

 

Búsqueda Nombre Fecha de visita Visitantes por día Imagen
Plaza Mayor, Villa de Leyva Plaza Mayor 8/1/2017  4:00:00 PM 185 https://goo.gl/NHTZ1M
Museo Paleontológico, Villa de Leyva Museo Paleontológico 8/2/2017  2:00:00 PM 50 https://goo.gl/nCJ4pd
Los Pozos, Villa de Leyva Pozos Azules 8/3/2017  1:00:00 PM 89 https://goo.gl/ToRSK3

Imagen 10. Visualización sobre el mapa

 

Puedes agregar los puntos que necesites de acuerdo a tus requerimientos, esta es la forma en que visualizar la información a través de ventanas emergentes. En este enlace encontrarás más información sobre cómo configurar el pop-up. Luego de editarla se desplegará así:

Imagen 11. Ventana emergente sobre el mapa

Agregando información desde un archivo separado por comas (.csv)

 Como todos en todos los archivos, aquí se debe tener un trabajo de carpintería por debajo para desplegar correctamente la información; es esencial que contenga entre sus campos, datos geográficos los cuales estén relacionados con coordenadas (X, Y) o una dirección que pueda geocodificar. Para desplegarla únicamente tengo que arrastrar el archivo .CSV el cual contiene más puntos de interés hacia el mapa. Puedes descargarla haciendo click aquí.

Imagen 12. Cargue de información desde un .CSV

 

 

 

 

 

 

 

 

 

 

 

 

Agregando información desde un shapefile (.shp)

 

El shapefile es el formato de datos vectorial más popular y extendido en el trabajo con un SIG, se trata de un formato vectorial que guarda la localización de elementos geográficos y atributos a ellos asociados, pero no es capaz de almacenar relaciones topológicas. Estos elementos geográficos se pueden representar a partir de una capa de tipo punto, línea o polígono (áreas).

 

Un shapefile se compone de varios archivos informáticos, sin los cuales no podríamos visualizarlo en un software SIG, siendo tres el número imprescindible:

 

  • .shp – almacena las entidades geométricas de los objetos.
  • .shx – almacena el índice de los elementos geométricos.
  • .dbf – tabla dBASE donde se almacenan los atributos de los elementos geométricos.

 

Por otro lado y, opcionalmente, un shapefile puede estar compuesto por otros archivos que lo hacen más completo para la explotación de la información, fundamentalmente son:

 

  • .prj – almacena la información relativa al Sistema de Coordenadas.
  • .sbn y .sbx – almacena el índice espacial de las entidades.
  • .shp.xml – almacena los metadatos de la capa.

 

Teniendo claro el concepto, lo que haremos ahora es agregar algunas vías que se encuentran allí, esto debe estar en un archivo comprimido .ZIP el cual será cargado en ArcGIS Online así:

  1. Ve a la pestaña “Add” y selecciona “Add Layer from File”
  2. Selecciona el archivo “vias.zip” el cual podrás descargar desde aquí

Imagen 13. Carga de información como un archivo

 

 

 

 

 

 

 

 

Agregando información desde ArcGIS Online como un servicio

 

Miles de usuarios a diario publican información como un servicio, de tal manera que pueda ser consumido por otras personas. Esto facilita que no haya redundancia de información, que se pueda procesar datos actualizados y que pueda llegarse a utilizar información oficial.

 

Para este ejercicio llamaremos la división administrativa del municipio de Villa de Leyva únicamente buscando la capa que ya está creada.

 

  1. Ve a la pestaña “Add” y selecciona “Search for Layers”
  2. Busca “Veredas Villa de Leyva” en “ArcGIS Online” y verifica que la casilla “Within map area” esté deshabilitada

Carga la capa que aparece allí

Imagen 14. Carga de información

 

 

 

 

 

 

 

 

Cambia el nombre de las capas

 

Viste algunas de las formas en que se agrega y se edita información a un conjunto de capas, ahora es necesario personalizar la visualización de tal manera que configurando una simbología adecuada llegue a ser mucho más amigable para el usuario final. Para ello es necesario modificar primero el nombre de las capas.

 

  1. Dirígete a la pestaña “Details” y selecciona la capa “veredas villa de Leyva”.
  2. En “More options” selecciona “Rename” y nómbralo ahora como “Veredas”.

Imagen 15. Renombrando capas

Imagen 16. Cambio de simbología sobre la capa “Vereda”

Imagen 17. Personalizando simbología sobre la capa “Vereda”

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

De aquí para adelante eres tú quien decide cómo mostrarás estas capas, ¿cómo representarías adecuadamente los drenajes y los puntos de interés?

Guarda y comparte el mapa…

 

  1. En la pestaña “Save” podrás asignarle un título, un resumen, etiquetas y guardar el mapa que has creado.
  2. Una vez guardado, ve a la pestaña “Share” y elige la audiencia a quien mostrarás el mapa.

Imagen 18. Edición final simbología

 

 

 

Hay más…

Puedes representar esta información de una manera mucho más amigable y te invito a que revises todos los storymaps que Esri ofrece donde existen diferentes plantillas de aplicaciones web responsive que pueden servirte para contrar más historias. Revisa https://storymaps.arcgis.com/en/ y escoge cómo quieres representar lo que quieres contar.

 

 

 

 

 

Continúa el mapeo de vías y necesidades en México

Marcos Ge - el septiembre 27, 2017 en Experiencias, Fuentes de datos, Noticias, Uncategorized

CC atribución, compartir igual. By Patricia Curiel

 

 

 

 

 

 

 

El flujo de ayuda proveniente de la desbordante salida de la población a las calles de la Ciudad de México tras el terremoto del 19 de septiembre, población que dejó centros de trabajo y hogares propios para auxiliar a otros, se convierte también en un flujo de información que es necesario organizar para garantizar que la ayude llegue donde se requiere.

Miles de voluntarixs, con pico, pala y casco, pero también con alimentos, vendas, jeringas y otros materiales médicos llegaron a hacer fila para remover escombros o aliviar necesidades básicas de la población a cada uno de los más de 40 derrumbes en la ciudad.  Siguen llegando, aunque ahora con menos frecuencia, olas voluntarias que en en un principio hacían fila para llevar alimentos a centros de acopio rebasados, o que ya no podían almacenar el suficiente tiempo alimentos percederos. Esta fuerza política enfocada en la ayuda al otro irá languideciendo conforme pasen los días, a menos que hagamos un esfuerzo por lo contrario.

Aquí encuentras las fuentes y salidas de datos para el alivio de los terremotos del 7 y 19 de septiembre en México, y que afectaron principalmente a los estados de Chiapas, Oaxaca, Puebla, Morelos, Estado de México y Ciudad de México.

OSM México

         Desde el 9 de septiembre, un equipo liderado por Miriam González, Celine Jacquin, Edgar Lemus y al que se sumaron pronto Sandra Hernández y Vianney Pars, así como activistas ligadas a Openstreetmap México, iniciaron el trabajo de digitalizar la primera capa de información crucial para facilitar llegada de alivio humanitario a zonas de desastre: las vías de comunicación y edificios derrumbados.

Pero del más reciente terremoto sólo hay cuatro tareas completas de cartografía al 100%: la de Axochiapan, Morelos, y Atlixco, Atzitzihuacán y Atzala, en el estado de Puebla; mientras que faltan otras ocho tareas de mapeo relacionadas con el más reciente terremoto y otras tantas tareas de validación de esos mismos mapeos.

Existen dos formas de cartografía básicos, en sitio y remoto. Para sumarte al mapeo y validación, puedes ver esta capacitación que grabó Miriam en los días posteriores al sismo del 19 de septiembre.

En cuanto a la visualización de los datos que mapea OSM y su equipo de decenas de voluntarixs, el esfuerzo más comprensivo de agregación de datos lo llevó a cabo Leonel Castañeda , quien publica http://mapa.sismomexico.org/  gracias al trabajo de “deploy” que facilitó Codeando México, plataforma que agrega y visualiza datos no sólo de OSM, sino de las siguientes plataformas.

  • Manos a la obra, la plataforma más actualizada de ofertas y publicación de necesidades de ayuda, y que por defecto ofrece de una manera clara la descarga de su base de datos. Ojo: esta fuente de datos se actualiza en el sitio de manos a la obra, pero las capas que aparecen en mapasismomexico, por alguna razón no están actualizadas.
  • Mapillary, que es una herramienta muy usada en la cartografía para openstreetmap, pues permite subir a los servidores de esta organización fotografías y reportes de manera intuitiva
  • Verificado19s, un grupo de voluntarias y voluntarios que verifica las necesidades publicadas en redes sociales a partir de llamadas telefónicas y publica anuncios verificados.

En el grupo de trabajo se creó un subgrupo de depuración de datos, cuyo papel fue homologar en una base destino las bases heterogéneas que existen, con un proceso de limpieza de datos geográficos en el proceso.

Los grupos de pobladores autónomos y activistas críticos de los efectos del dominio del Estado mexicano y sus instituciones, así como de empresas y asociaciones alineadas con este,  pueden usar también plataformas creadas y gestionadas con software libre para reunir datos de centros de acopio y daños en inmueble. Un ejemplo de esta opción es solidaridat.mx.

Es necesario indicar que esta última realiza una labor exclusivamente de registro, no de vinculación inmediata con especialistas estructuralistas, como sí hace salvatucasa.mx, quienes acercan los reportes a estos expertos para la revisión de los inmuebles.

Únete al mapeo y validación de datos por terremoto en México

Marcos Ge - el septiembre 14, 2017 en Uncategorized

CopyfarleftP2P Subversiones.org

El desastre en México no ha concluido. Los terremotos del 8 y 19 de septiembre dejaron centenares de muertos y millones de damnificados, muchos de los cuales lo perdieron todo.

La comunidad del equipo humanitario de OpenStreetMap (HOT), por sus siglas en inglés, se volcó inmediatamente a la tarea de mapear los daños en caminos y edificaciones, labor que es fundamental para evaluar el daño y continuar haciendo llegar ayuda humanitaria, particularmente a los estados de Chiapas y Oaxaca en ese país.

Aquí puedes consultar la tarea del último terremoto en México, y las tareas de validación y mapeo pendientes. A la cabeza de este esfuerzo está Miriam González, parte de OpenStreetMap México.

Aunque las tareas han avanzado, aún faltan algunos mapeos para personas que quieran iniciar en OpenStreetMap, pero, también se requiere de validación

Si no sabes cómo hacerlo, aprende a mapear caminos y edificios en unos minutos con este video de José Luis Domingo en español. No es necesario que estés en México para colaborar.

En este apartado, la comunidad de OpenStreetMap pone a disposición de la comunidad interesada en ayudar, otros recursos para el aprendizaje y uso de mapas.

Para personas que no estén familiarizadas con el funcionamiento de OSM, pueden encontrar sencillas instrucciones por escrito aquí.

Si eres una usuaria más familiarizada con la plataforma, puedes encontrar información para validación de mapas aquí.

Datos abiertos para el alivio del desastre

Si eres una persona cercana a las localidades afectadas que buscar usar datos para aliviar el desastre o colaborar para hacer llegar víveres a las personas que los requieren, para las tareas que ya se completaron es posible descargar los datos abiertos del terremoto, en Juchitán de Zaragoza y San Dionisio del Mar, dos de los municipios más devastados por el terremoto.

 

 

 

Cómo saber si tus ideas son correctas: Tania Montalvo, México.

Marcos Ge - el junio 1, 2016 en DAL, Experiencias, Fuentes de datos, Uncategorized

fotoTM

“Esta idea de que con Felipe Calderón [presidente mexicano de 2006 a 2012] estalló la violencia asociada al narcotráfico… yo quería que los datos vinculados me lo explicaran, y fue cuando encontré la explosión de células delictivas y cómo están reconocidas por las mismas autoridades que generaron esa violencia”,

dice Tania Montalvo, reportera que desde 2014 investiga el comportamiento de cuatro décadas de narcotráfico mexicano a través de bases de datos, trabajo conocido como NarcoData.

“Más allá de las ideas que tenemos, ¿qué argumentos realmente sostenibles tenemos para saber si esa idea es verdad o no? Para eso sirven realmente los datos en el periodismo”.

Montalvo, de 31 años, se ha hecho de una visión clara del periodismo de datos al cuantificar el poder y sus abusos en investigaciones sobre violaciones de la ley en detrimento del ambiente en la Ciudad de México, corrupción e incumplimiento de promesas al verificar el pago de nóminas a maestros (algunos de los cuales cobraban desde ultratumba) y, por supuesto, NarcoData, entre otras más.

¿Cómo han guiado los datos sus investigaciones periodísticas?

NarcoData

Screen Shot 2016-06-01 at 2.37.09 PM

Celda por celda, columna por columna, Montalvo construyó una imagen de datos para lo que llama “una sombra sin rostro”, la del crimen organizado. Entre otras conclusiones, cuantificó la explosión de la violencia: al finalizar el sexenio anterior a Calderón eran tres bandas criminales armadas que se tenían monitoreadas, tras seis años de una estrategia militarizada en su contra, se multiplicaron hasta sumar 52.

 

¿Cómo guiaron los datos a Montalvo y al equipo de Animal Político y Poderopedia de un documento único que obtuvieron en octubre de 2014, donde meramente se enlistaban los grupos delictivos activos ese año, territorio y cártel al que obedecían, hacia el análisis detallado de prácticamente toda la historia del narcotráfico en México?

“Lo que yo quería era tener toda la información en un mismo lugar, porque la información sobre el narco es tanta que no sabíamos dónde estaba la nota”.

 

La primera base que construyó fue sencillamente esa: qué organizaciones criminales había, su presencia en el territorio mexicano y su lealtad a cárteles determinados.

“Tuve que ir hacia atrás para mostrar cómo esas organizaciones antes no existían, porque los datos me fueron hablando y me hicieron preguntar ¿por qué ahora son 9 cárteles, cómo llegamos a ellos, por qué de pronto son más violentos, por qué unos son más grandes que otros? y todo eso lo pude hacer gracias a la primera base de datos”.

A partir de esa base “madre”, a golpe de teclazo en Excel, Montalvo construyó una nueva, que califica como una investigación de fuentes híbridas.

“No es un trabajo cuantitativo 100 por ciento. A la información en papel de la Procuraduría General de la República (PGR) agregué información de análisis que encontré en documentos académicos sobre estudio de crimen organizado, más información de entrevistas  y comunicados y boletines de la misma PGR a medios.”

Después interrogó a su nueva base.

“¿Qué era lo que me estaba mostrando? Hay que tener la mente muy abierta a hacer cualquier pregunta a los datos, hasta la más complicada, no obviar cosas, y tampoco creer que no vas a encontrar tus respuestas en la base, porque realmente los datos hablan, y hablan muchísimo”.

 

La respuesta entonces fue obvia. Los datos mostraban la pulverización de los grupos criminales en mayor número aparejada al incremento de la violencia con los años.

“Era la evolución de las bandas del crimen organizado, me estaba mostrando quiénes son los dominantes, que hubo una separación entre ellos. Eso me llamó a responderme con los mismo datos: ‘hay conflictos muy específicos entre los grandes cárteles’.”

“Es necesario entender qué es lo que tienes: si tienes años, cuáles son tus campos…  Con base en ello ves hacia dónde te pueden llevar los datos. Siempre respeta a tu base en el sentido de tenerla limpia, conocerla, para que te hable. Si no está limpia, cuando te ‘escupa’ una respuesta, no la vas a ver”.

NarcoData ha alcanzado siete entregas, pero las bases construidas por Tania aún no agotan su potencial. Este trabajo, no obstante, no era el primero en el que Montalvo construyera y analizara una base de datos.

Censo de la Reforma Educativa

CC By CEDIM News

CC By CEDIM News

En un proceso de supuesta renovación de estructuras mexicanas como la energética, la fiscal y la educativa, una de las promesas de avance en esta última fue la depuración de la nómina de profesores que reciben pago del erario público.

No más fallecidos que cobran sueldo por enseñar, maestros que renunciaron y cuyos pagos no obstante siguen siendo religiosamente cobrados o maestros que jamás dieron una sola clase frente a grupo. La investigación que Tania Montalvo publicó en 2015,  sobre la nómina nacional de maestros, descubrió que la promesa era, al menos hasta entonces, falsa.

Lo probó a través de la construcción y cruce del recién hecho censo magisterial nacional contra la nómina pagada por la Secretaría de Hacienda y Crédito Público (SHCP).

“La idea surgió de una base que nos entregó Gobierno de Oaxaca después de una solicitud de transparencia, con 40 mil celdas: cada maestro, cada escuela. Pudimos ver maestros hasta con 30 plazas, solamente en Oaxaca”.

Esa base se escaneó desde las infames fotocopias en papel que le fueron entregadas, desde donde escrapeó con algunas herramientas como Cometdocs, Tábula e Import.io.

Para ampliarla a nivel nacional, Tania recurrió al Instituto Mexicano para la Competitividad, con quienes obtuvo ayuda para rastrear los datos nacionales relacionados con la nómina magisterial a través de la plataforma de datos abiertos del gobierno federal, por entonces una novedad.

“Creo que de alguna forma ese fue mi primer acercamiento con los Datos Abiertos de gobierno, yo estaba escéptica, pero base con solicitud por cada estado, hubiésemos tardado muchísimo. Pudimos hacerlo a nivel nacional, pudimos comparar cómo la nómina antes y después de la reforma educativa no había cambiado, sino en un mal sentido, les estaban pagando más a los maestros pese a que se suponía que ya les habían depurado, y lo  pudimos ver trimestre a trimestre”.

La nómina, pagada por SHCP fue contrastada contra la base de datos de la Secretaría de Educación Pública (SEP), que recién había efectuado un censo donde se enlistaban qué maestros que daban clase frente a grupo, quiénes sólo realizaban labores sindicales y dejaba fuera “aviadores” y otros defraudadores.

“SHCP tiene que preguntar a SEP si todos esos maestros están frente a grupo y la SEP tuvo que haber verificado que estaban frente a grupo o si no murieron, porque había muchos muertos que seguían cobrando sueldos”.

Este año, la SEP reconoce por primera vez que dejó de pagar 5 mil plazas porque no estaban frente al grupo.  “Eso debió haber ocurrido antes”, acota Montalvo.

Gasolineras por colonia

En 2014 Montalvo desarrolló una investigación sobre las gasolineras que en la Ciudad de México violaban la ley al ser un excedente a lo permitido. En este trabajo el mayor reto fue la dispersión y falta de granularidad de algunos de los datos: Montalvo tenía por un lado información en porcentajes del excedente de gasolineras y por otra parte listados de todas las razones sociales de gasolineras en la Ciudad, pero no tenía las ubicaciones de las gasolineras que violaban la ley.

Screen Shot 2016-06-01 at 3.10.25 PM

 

“Yo sabía que había más gasolineras y que se estaba violando el reglamento, Pemex tenía muchas bases de datos, pero tenía los nombres de gasolineras al azar, no me decía dónde estaban, pero nosotros obtuvimos otra base de datos por delegación.

 

“Pudimos entonces cruzar las bases de datos para saber en dónde estaban, y cruzamos con una base más, de la Procuraduría Federal del Consumidor (Profeco), para saber cuáles estaban sancionadas, y cuáles estaban violando la ley al abrir”.

Con la ayuda de las organizaciones Escuela de Datos y Social Tic, y en particular de Phi Requiem, Fellow de Escuela de Datos 2014, se logró la sistematización de dicha información.

“De alguna forma fue una base chiquita, pero el caso es que toda la denuncia ya estaba totalmente construida, yo tenía reporteado con los gasolineros que se estaba violando el reglamento, pero no tenía datos para hacerlo mucho más visible.

“Nos permitió construir este mapita donde ya fue lo único que necesitábamos para cerrar y así le mostramos solidez a nuestro argumento de que se estaba violando la ley”.

Datos para justificar opiniones

De cierto modo, la trayectoria de Tania Montalvo le permitió desarrollar una idea que inició en una clase de periodismo asistido por computadora (PAC) en alguna de sus clases de periodismo en el Tec de Monterrey.

“Lo que me llevé de esa materia es entender la importancia de usar datos, de que la información en cualquier nota periodística fuera precisa, más allá de una declaración”.

Justificar (o no) con datos las declaraciones de personajes públicos o de opiniones públicas ampliamente compartidas entre ciudadanos, ha sido el hilo conductor desde sus primeras investigaciones en CNN Expansión sobre la ubicación de víctimas de violencia hasta NarcoData.

“Todo tipo de periodismo debe tener datos, y los hay en todas partes. Entiendo el punto de que se le llame periodismo de datos pero al final es periodismo.

“Si es periodismo: narrativo, de explicación, de lo que sea, es súper importante saber usar los datos y hacerlo bien. En el periodismo de datos puedes usarlos en masa, una cosa mucho más grande, pero para llegar a eso tiene que empezar utilizando bien porcentajes, tasas, sabiendo cómo se hace una diferencia porcentual… cosas que son elementales para que sigas el camino de los datos y ya puedas utilizar una base mucho más grande”.

Otro punto que es necesario tener en mente, en opinión de Montalvo, es que la interdisciplinariedad no suple la obligación individual de aprender de otras disciplinas.

“El trabajo multidisciplinario es valiosísimo, pero al mismo tiempo es fundamental que entre todos comprendamos la labor del otro, aunque sea en la parte mínima. Yo no programo, pero creo que sí es necesario tener al menos ideas básicas porque un programador es valiosísismo y están dedicados. Difícilmente llegue a los niveles en que está nuestro programador, Gilberto León, pero yo debería saber que si quiero que Gilberto entienda mis ideas, yo debería entender las suyas a un nivel técnico”.
“Yosune, nuestra diseñadora, que sí sabe de programación, tuvo que aprender muchísimo de mi labor periodística, en términos de mi mirada como periodista para poder visualizarla y yo al mismo tiempo tuve que aprender de ella para poder comunicar lo que tenía. En ese sentido es muy importante conocer un poco de lo que hace que el otro”.

InfoEconómica – ejercicio datero en DF

faeriedevilish - el marzo 23, 2015 en Experiencias

Hoy les compartimos una experiencia de desarrollo datero en la Ciudad de México: InfoEconómica. ¡Queremos compartir más historias latinas y españolas! Anímate a contarnos la tuya (en Twitter, Facebook).


Screen Shot 2015-02-06 at 17.05.24

La Secretaría de Desarrollo Económico (SEDECO) en la Ciudad de México está obligada por ley a publicar un reporte económico cada tres meses. Para cumplir esta obligación, hace una labor titánica de compilación y análisis de datos complejos publicados por el INEGI, la CONEVAL… Pero no mantiene un archivo histórico de los datos y reportes pasados.

Es decir: cuando la SEDECO publica un reporte nuevo, se pierde la información antigua; lxs ciudadanxs pierden el acceso a esa información.

Emanuel Zámano, desarrollador de CódigoCDMX (iniciativa del Laboratorio para la Ciudad para promover desarrollos tecnológicos dentro de las dependencias de gobierno al estilo Code for America), se inspiró en esta pérdida de información para proponerse un reto: InfoEconómica.

InfoEconómica es una página que permite revisar indicadores usados en el pasado por SEDECO, incluyendo los de coyunturas específicas, en un formato descargable pero fácil de consumir para lxs ciudadanxs.

 

¿Qué distingue a InfoEconómica de otros portales de publicación de datos?

  • Su audiencia elegida son lxs ciudadanxs en general – no programadores o periodistas.
  • En vez de publicar conjuntos de datos para análisis, presentan información ya analizada.
  • Propone un acotamiento de la infinidad de indicadores que maneja SEDECO para enfocarse en los más importantes para lxs ciudadanxs.
  • Aprovecha y deja disponibles otros materiales elaborados por la dependencia, como infografías y estudios.
  • Para cada indicador, marca las fuentes utilizadas. No da link para acceder directamente a los datos.

 

Limitaciones reconocidas del proyecto:

  • Sólo puede publicar información dentro de las atribuciones de SEDECO. Y, por ejemplo, los datos sobre trabajo y educación son trabajados por otras dependencias. En ese sentido, a Emanuel le encantaría que el dashboard de InfoEconómica fuera adoptado por otra parte del gobierno –como la Agencia de Gestión Urbana o la Jefatura de Gobierno– para que no el desarrollo sirva para “ciudadanizar” no sólo datos económicos, sino también de transporte, salud; los datos que muestran la realidad de la ciudad. Cuántos baches han sido reparados, cuántos viajes han sido hechos en Ecobici.

 

Y, como parte de la ficha técnica, unos datos…

  • Los datos analizados son descargables en csv; en el futuro sería ideal escalar el proyecto para permitir conexión directa con Json.
  • Gran parte de la labor fue justamente en el procesamiento de los datos que ya tenían las dependencias. Primero fue ver cómo estaban almacenados (generalmente archivos de Excel con infinidad de hojas); luego, acomodar la información separando los datos en grupos temáticos; finalmente, automatizar el proceso mediante scripts que leen partes del Excel y las categorizan en una base de datos.
  • Cronograma en términos para desarrolladorxs: primero se eligió qué partes poner; usó un framework (Laravel – es importante no empezar desde cero en estos desarrollos); preparó bases de datos; preparó scripts automáticos para todas las actualizaciones con PHP; base de datos Postgresql; usó servidor de pruebas (Vagrant) que indica qué necesita el framework para funcionar, y los servicios adicionales (base de datos, analítica). Después de crear ambiente de desarrollo, preparó el repositorio en GitHub, trackeando cada cambio de código ahí y en ambiente de producción. Clonó el repositorio, ejecutó todo el provisioning… y, en todo el proceso, asegurarse de incluir todo cambio en GitHub y de regreso en servidor de pruebas.

 

La petición de Emanuel a otrxs desarrolladorxs: ¡Clonen los repos en GitHub! ¡Hagan issues!

 

Gracias a Emanuel por compartir su historia en Escuela. Ahora te toca a ti compartir la tuya! Recuerda que estamos en TwitterFacebook.

Ramo 23: datos abiertos y la corrupción

invitado - el octubre 13, 2014 en Experiencias

dtm_201307

Este texto fue escrito por Hugo Osorio, diseñador especializado en desarrollo web, interacción y diseño de interfaz. Socio y mago en Gobierno Fácil, donde crean herramientas de datos abiertos y hacking cívico como INEGI Fácil y Ramo 23. Además es fundador de Vectores y Habítala.


 La corrupción como sistema político fue una solución histórica que debe ser comprendida, pero no continuada.”

Gabriel Zaid

De acuerdo al Índice de Percepción de la Corrupción 2013 de Transparencia Internacional, México está en el lugar 106 de 177 naciones, ubicándose como uno de los países más corruptos y que me deja con una duda dando vueltas: cómo podemos cambiar esta situación.

Uno de los caminos que han seguido las administraciones gubernamentales para combatir la corrupción es que parte de su actividad  y de sus representantes sea pública, aunque existen muy buenos ejemplos de herramientas creadas para fomentar la transparencia, la mayoría se enfoca únicamente en cumplir con el requisito de publicar la información, su objetivo no es siempre que la información pueda ser consultada, compartida, visualizada ni vigilada por los ciudadanos.

Así se hace evidente que, en materia de corrupción, las necesidades de los ciudadanos no son necesariamente las mismas que tienen los gobiernos. Esto en realidad representa una gran oportunidad para todos los que buscamos un cambio en México porque estas fuentes de información y la tecnología nos ayudan a crear herramientas que facilitan el acceso a la información pública, haciéndola entendible, permitiendo que los ciudadanos formen parte de un ejercicio contra la corrupción.

En ese sentido nuestra aportación es Ramo23.com, una herramienta web que facilita a los ciudadanos la consulta y la visualización de las asignaciones de los proyectos de los fondos del Ramo General 23, un instrumento de política presupuestaria que permite atender las obligaciones del Gobierno Federal cuyas asignaciones de recursos no corresponden al gasto directo de las dependencias ni de las entidades. Esta información son datos abiertos disponibles y liberados por la Secretaría de Hacienda y Crédito Público en marzo de 2014, con la división de los casi 56 mil millones de pesos a través de 4 mil 537 proyectos que serán transferidos a estados, municipios y delegaciones del Distrito Federal.

ramo23-1

ramo23-2

ramo23-3

¿Cuál es su utilidad?

La herramienta hace evidente como es asignado este presupuesto, permite búsquedas por proyecto, entidad y por palabra clave, pero esto no era suficiente porque muchos de los proyectos benefician a municipios con poco acceso a internet y donde las comunidades pueden usar estos datos para valorar si los recursos son ejercidos adecuadamente (pavimentación, espacios deportivos, alumbrado público, entre otros). Para resolver esto, Ramo23 integra una hoja de estilo que hace posible la impresión de cada resultado de búsqueda de manera legible.

Algunas notas han aparecido en diferentes periódicos nacionales haciendo referencia a la información que encuentran en nuestra herramienta, sin embargo el ejemplo que más me gusta es el de participación ciudadana, donde precisamente se imprimen los resultados y se reparten: Boris Cuapio, repartió hojas en su municipio, San Martín Texmelucan, Puebla, con la información del Ramo 23 referente a esa ciudad y la respuesta fue grandiosa, las personas comenzaron a preguntarle con gran interés dónde, cómo y cuándo se aplicarían esos recursos, provocando un boca en boca respecto a los recursos que recibía su ciudad.

Esto es un ejemplo de como ramo23.com facilita el acceso a la información pública, haciéndola entendible, permitiendo que los ciudadanos conozcan como se reparten los recursos, evitando la corrupción, recibiendo datos que les permiten evaluar y exigir su correcto uso. Pero esperamos más, porque estoy convencido de que es el mejor momento para que los ciudadanos nos unamos para compartir el conocimiento y revitalizar la democracia, ya lo decía aquella canción de aquel grupo de poetas sociales de los años noventa llamados Molotov: “Que se sienta el power mexicano, que se sienta todos juntos como hermanos, porque somos más y jalamos más parejo”.

Nos toca construir un mejor país.


TECNOLOGÍA:

  • HTML5, Javascript, Backbone, Require, GitHub, y Sass

CONJUNTO DE DATOS UTILIZADOS:

 

Explorando datos de gobierno en México, D.F.

PhiRequiem - el septiembre 1, 2014 en Expediciones de Datos

Los pasados 12, 13 y 14 de agosto se llevó a cabo en México, D.F., una serie de talleres para aprovechar la primera liberación de datos abiertos del Gobierno Federal, que están publicados en el portal datos.gob.mx. En estos talleres participaron diversas organizaciones civiles y periodistas que, tras una introducción al uso de datos abiertos y una capacitación para el uso de herramientas de limpieza, análisis y visualización de datos, se dispusieron a explorar los datos de México en una expedición que tuvo los siguientes tópicos:

  • Martes 12 agosto: Infraestructura, productividad e inversión pública.
  • Miércoles 13 agosto: Pobreza, carencias y desarrollo social.
  • Jueves 14 agosto: Salud pública, demografía y población.

En los talleres identificamos preguntas que pueden ser resueltas utilizando conjuntos de datos, así como herramientas de limpieza y visualización que nos permiten formas de análisis rápidas y efectivas.

De la teoría a la práctica se mostró cómo se puede obtener dichos datos, y, empleando herramientas de código abierto, encontramos historias y vimos cómo crear visualizaciones para hacer la información más fácil de entender.

Durante los talleres, algunos invitados nos entusiasmaron contándonos sobre los proyectos en que trabajan, como el de las chicas de telus.mx que usaron datos públicos para generar inteligencia geopolítica, o los chicos de descifra.mx que usaron los datos públicos para orientar a PyMEs y Corporativos sobre micromercados. También Francisco Mekler de mejoratuescuela.org nos hablo sobre la importancia de anonimizar datos, y dio recomendaciones de seguridad que debemos tomar en cuenta a la hora de publicar.

 

Phi

Los facilitadores jugamos un papel muy importante en el proceso de aprendizaje, así que he aquí algunos consejos para para llevar un taller exitoso (^_-):

  • Planifica tu taller – No dejes las cosas al azar. Recuerda si tienes alguna errata, no hay que sufrir; tómalo con humor y úsalo para incentivar la participación.
  • Averigua los perfiles de la audiencia – Esto te permitirá encaminar el contenido del taller a algo con mayor interés para todos y todas.
  • Pásala bien – Si disfrutas lo que estás haciendo, es probable que los participantes también lo pasen bien.
  • No existen líneas divisorias – El público está ahí para aprender, pero siempre puedes enriquecerte conociendo lo que hacen y cómo lo hacen. Incentiva la participación; hazlos tus amigos.
  • Tú eres la guía – Sólo puedes mostrarles el camino, pero son ellos los que deben hacer las cosas.
  • Facilita la curva de aprendizaje – Busca un lenguaje en común, evita los tecnicismos y busca la manera más fácil de llegar al resultado.
  • Prepara las herramientas – Prepara la lista de herramientas y descargas, pide a los participantes las descarguen e instalen de ser posible antes de llegar al taller. Puedes tener unos USB precargados por cualquier contingencia.

Experiencias en el uso de datos: inegifacil.com

faeriedevilish - el mayo 6, 2014 en Experiencias

dtm_201307

Boris Cuapio, INEGIFacil.com

En Escuela recopilamos historias de uso y apropiación de proyectos dateros en Latinoamérica y España. Hoy les compartimos la de Boris Cuapio Morales, creador de INEGI Fácil – una herramienta que permite la búsqueda de datos del web service del Instituto Nacional de Estadística y Geografía en México. 

Agradecemos a Boris la disposición para esta entrevista, que fue llevada a cabo en Data Meetup Puebla.


“En la universidad, me llamaba la atención que las notas en medios como The New York Times siempre se enlazaba a páginas web de sistemas de información de EEUU. Entonces yo me preguntaba: ¿Por qué no hay en México sistemas así?”

Boris Cuapio es un ilustrador-convertido-en-programador que vive en Puebla, México. A finales de 2012, él tenía la intención de usar información del INEGI, y encontró el servicio web… pero no tenía la capacidad para usarlo. Fin de la historia.

…Hasta finales de 2013. Boris estuvo trabajando para clientes en Canadá, que pedían productos que incorporaban el uso de APIs de redes sociales como Twitter o Flickr, lo cual le capacitó para usar el servicio web. Sus compañeros de trabajo le recomendaron comenzar proyectos de programación personales para no perder práctica, él pensó en uno: tratar de mostrar los datos del INEGI de una manera más fácil y más accesible.

Así nació INEGI Fácil, un portal que hace consultas al servicio web de inegi.gob.mx, y muestra los resultados en tablas y gráficas.

¿Pero por qué hay valor en que esto lo haga un ciudadano, y no el gobierno en sí? Boris piensa que la velocidad de los procesos institucionales no permitiría las adopciones tecnológicas que son necesarias en servicios de este tipo. Por ejemplo: mientras INEGI provee datos en XML (formato pesado que se ha ido abandonando en otros servicios), INEGI Fácil ya los da en JSON, y con marcadores adicionales. INEGI tiene un tutorial un tanto difícil de acceder, mientras que INEGI Fácil tiene una librería PHP que simplifica el trabajo. En términos de experiencia de usuario, no hay comparación (gracias a Hugo, la mente maestra detrás de los temas de diseño e interacción del sitio).

 

inegifacil_homev1

En realidad, el gobierno y él no son competencia. INEGI Fácil inició cerca de julio de 2013, y en enero de 2013 Boris fue contactado una persona en el INEGI. En pocas palabras, les sorprendió que alguien de hecho usara los servicios web! Cuando el sitio pase de sus dos fuentes actuales de información a las cien planeadas, él será un beta tester.

El proyecto le ha permitido aprender mucho sobre JS, XML, PHP, bases de datos, dataviz – cómo hacer gráficas, cómo exportar datos. Y le gusta ese trabajo; quiere que ya no sea un hobby, sino su proyecto principal. Quiere vender el producto a universidades, porque es donde más se utiliza los datos del INEGI.

Pero, por lo pronto, espera que en este mes los índices ya sean buscables y se pueda acceder a INEGI Fácil desde celulares. En un año, si consigue dinero, esperaría que se convierta un servicio web paralelo al INEGI; es decir, que lo utilicen medios de comunicación a través de embeds. Su ideal: le gustaría que en su universidad hagan diseño de información, gráficas, catálogos instructivos, textos educativos, y que aprovechen INEGI Fácil.

Tip datero de Boris (que, según él, le da a todo mundo, y nadie ha seguido) – “Junta tu dinero y contrata SafariBooks. Con eso puedes aprender lo que sea”.

En México se desarrolla plataformas basadas en datos abiertos. ¿Conoces otras en Latinoamérica? Nos encantará difundir sus historias en Escuela.

Open Data Day 2014 – México, D.F.

faeriedevilish - el marzo 5, 2014 en Expediciones de Datos, Noticias

Publicamos este post originalmente en SocialTIC. Aquí estamos en Twitter y en Facebook.


opendataday

El pasado 22 de febrero de 2014 se celebró el Día Mundial de los Datos Abiertos. Latinoamérica lo hizo creativamente (con arte callejero y bicicletas, de los que hablaremos en otros posts), y en DF celebramos como más nos gusta: con una conmemorativa carne asada.

Bueno: y con una expedición de datos… que parece tener el récord a la expedición de datos más grande del mundo, por si alguien busca imponerse una meta 😉
(La meta, por cierto, son 75 personas)

1383084_472565776198862_1050454977_n

Siguiendo nuestros propios tips para tener una expedición de datos provechosa, a las 10 de la mañana comenzamos el trabajo con chicos y grandes de distintos campos. Primero encontramos el papel correcto para cada uno en un equipo de análisis de datos…
image
…Y después comenzamos a revisar datasets del Laboratorio para la Ciudad.

Así iniciaron 10 proyectos de análisis y visualización de datos en distintos rubros (salud, servicios urbanos, medio ambiente, movilidad, seguridad).

image

Algunos de ellos fueron hechos con apps en mente: análisis de calidad del aire para hacer recomendaciones a corredores, y reporteo ciudadano para disminuir la vulnerabilidad de los peatones en el ecosistema de la movilidad.

image

Algunos otros se enfocaron en aspectos informativos. Mostrar qué actividades hay en parques públicos para promover las actividades culturales; mostrar las defunciones en el sistema de salud del Distrito Federal.

Defunciones

Y, finalmente, algunos se enfocaron en la comprensión de las operaciones del gobierno. Uno trató de buscar correlaciones entre niveles de violencia y operaciones estatales en Michoacán; otro equipo se puso el reto de entender los rechazos de las verificaciones de automóviles en el Distrito Federal.

image

Aunque el proceso de la expedición de datos en sí fue revelador para los y las participantes, en SocialTIC nos gustaría ver que los resultados sean reveladores para otras organizaciones o dependencias del gobierno. Si todo sale bien, en algunos meses les contaremos lo sucedido.

Centraal, el Laboratorio para la CiudadNova México y SocialTIC agradecemos a quienes se unieron a celebrar el Día Mundial de los Datos Abiertos. Nos volvemos a ver en el siguiente City Hack Nights.