Mexico – Escuela De Datos http://es.schoolofdata.org evidencia es poder Sun, 25 Mar 2018 16:31:47 +0000 es hourly 1 https://wordpress.org/?v=5.3.2 114974193 Cómo una base de datos en México se adelantó al gobierno para buscar desaparecidos http://es.schoolofdata.org/2017/12/05/como-una-base-de-datos-en-mexico-se-adelanto-al-gobierno-para-buscar-desaparecidos/ http://es.schoolofdata.org/2017/12/05/como-una-base-de-datos-en-mexico-se-adelanto-al-gobierno-para-buscar-desaparecidos/#respond Tue, 05 Dec 2017 18:56:38 +0000 http://es.schoolofdata.org/?p=2369 Peronasdesaparecidas.org.mx es el nombre de la interfaz creada por la organización sin fines de lucro Data Cívica, que logró acercar datos cruciales a familias y organizaciones que buscan a personas desparecidas en México. Estos datos, como el nombre propio de las personas en los casos del fuero común (estatal o de provincias), no están actualmente publicados en la base oficial gubernamental, el Registro Nacional de Personas Extraviadas o Desaparecidas (RNPED).

 

A dos semanas de su lanzamiento (el 14 de noviembre en Ciudad de México) la publicación de más de 31 mil nombres de personas desaparecidas propició que al menos 15 familias y dos colectivos de búsqueda acusen errores tan fundamentales como que el nombre en la base de datos no corresponde al familiar desaparecido, sino a otro famliar, que no lo está.

«El primer gran error (de RNPED), es que las personas desaparecidas no están; el segundo, que datos tan importante para la investigación como la fecha de desaparición, están mal. En uno de los casos, nos contactó la hija de la persona desaparecida diciéndonos que el nombre que está en la base es el de su tío (en lugar del de su padre desaparecido)», dijo en entrevista Héctor Chávez, analista de datos en Data Cívica.

Además de facilitar a familias y organizaciones la verificación de fechas y lugar de desaparición junto con los nombres, la base permitirá una actualización de la base que le otorgue mayor confiabilidad, pues podrá investigarse quiénes, por ejemplo, salen de la base de datos, y por qué razones.

«Podemos ya contar historias sobre las personas desaparecidas con esos nombres. ¿Por qué salió de la base? ¿Se rectificó el delito de desaparición por el de secuestro, fue encontrada la persona con vida, fue encontrada sin vida?», dice Chávez.

Una más de las ventajas de la publicación de los nombres es que finalmente puede cruzarse esta base con las que tienen las organizaciones y colectivas de búsqueda de personas desaparecidas que se han construido en varias entidades del país, y así combatir una de las mayores barreras para el análisis confiable de estos datos: la cifra negra.

«En contacto directo, nos han enviado también doscientas veinte fotos de familiares. Al menos quince familias y dos colectivos de búsqueda nos han contactado. La solución que estamos planteando es en el futuro es publicar un formulario donde sea posible añadir la información del familiar o persona en cuestión».

Días después de la publicación de personasdesaparecidas.org.mx, el representante del poder ejecutivo mexicano firmó la Ley General de Desaparición Forzada de Personas y de Desaparición cometida por particulares, luego de dos años de que se publicara el proyecto de ley en la Gaceta Oficial de la Federación.

Esta ley contempla la publicación obligatoria de todos los nombres de las personas desparecidas en la base oficial, del fuero común o federal. No obstante, la ley no cuenta con mecanismos concretos de implementación aún, como un presupuesto que lo respalde. Por ello, Chávez considera que la publicación de su base se adelanta a la implementación de la ley.

«Estamos ganando meses o hasta años hasta que se publiquen (los nombres en RNPED). La nueva ley sí se habla muy bien con nuestro registro, sin embargo estamos ganando tiempo para las familias en este proceso de memoria y justicia para los desaparecidos”.

Cómo se hizo

La base consiste en la publicación de los datos oficiales de RNPED más 31 mil 968 nombres faltantes. Para lograrlo, el equipo de Data Cívica pasó dos años ideando e intentando distintos métodos.

“El principal camino fue darnos cuenta de que en internet está la base de de datos disponible, donde al insertar el nombre, Sergio, salen todos los registros junto con sus atributos: la fecha donde desapareció, el municipio donde desapareció, entre otras, pero no el nombre completo».

La solución que ideó el equipo de Data Cívica fue ingresar nombre por nombre a la base de datos y descargar cada uno de los registros de cada nombre y apellido para después cruzar los distintos registros y encontrar concordancias.

Aunque al principio trataron de construir la lista de nombres manualmente, finalmente llegaron a la idea de de automatizar el ingreso de nombres usando los que se encuentran en las bases de datos del beneficiarios de los burós de salud y asistencia social mexicanos, el Instituto Mexicano del Seguro Social (IMSS) y de Secretaría de Desarrollo Social (respectivamente).

La automatización, ingreso y descargas de los datos de estas bases tardó alrededor de 5 días, y dependió para lograrlo no sólo de la velocidad de procesamiento bajo el código utilizado, sino de la velocidad de conexión a internet que permitiera la descarga de 18 mil bases de datos.

Pero el proceso más intensivo del análisis ocurrió después de la descarga.

«El reto fue el proceso de limpieza y de verificación. Consistió en verificar contra RNPED que cada «Munoz» que está mal escrito,  cada Zúñiga y otros,  realmente está mal en el RNPED, y no es un error de la automatización de nuestros nombres».

Así, el equipo de Data Cívica se cercioró de que si en la base aparece J en lugar de un nombre, sea porque así está en la base original.

Flattr this!

]]>
http://es.schoolofdata.org/2017/12/05/como-una-base-de-datos-en-mexico-se-adelanto-al-gobierno-para-buscar-desaparecidos/feed/ 0 2369
Continúa el mapeo de vías y necesidades en México tras el terremoto http://es.schoolofdata.org/2017/09/27/mapeo-para-alivio-humanitario-tras-terremotos-en-mexico/ http://es.schoolofdata.org/2017/09/27/mapeo-para-alivio-humanitario-tras-terremotos-en-mexico/#comments Wed, 27 Sep 2017 21:54:43 +0000 http://es.schoolofdata.org/?p=2285

CC atribución, compartir igual. Pot Patricia Curiel

El flujo de ayuda proveniente de la desbordante salida de la población a las calles de la Ciudad de México tras el terremoto del 19 de septiembre, población que dejó centros de trabajo y hogares propios para auxiliar a otros, se convierte también en un flujo de información que es necesario organizar para garantizar que la ayude llegue donde se requiere.

Miles de voluntarixs, con pico, pala y casco, pero también con alimentos, vendas, jeringas y otros materiales médicos llegaron a hacer fila para remover escombros o aliviar necesidades básicas de la población a cada uno de los más de 40 derrumbes en la ciudad.  Siguen llegando, aunque ahora con menos frecuencia, olas voluntarias que en en un principio hacían fila para llevar alimentos a centros de acopio rebasados, o que ya no podían almacenar el suficiente tiempo alimentos percederos. Esta fuerza política enfocada en la ayuda al otro irá languideciendo conforme pasen los días, a menos que hagamos un esfuerzo por lo contrario.

Aquí encuentras las fuentes y salidas de datos para el alivio de los terremotos del 7 y 19 de septiembre en México, y que afectaron principalmente a los estados de Chiapas, Oaxaca, Puebla, Morelos, Estado de México y Ciudad de México.

OSM México

Desde el 9 de septiembre, un equipo liderado por Miriam González, Celine Jacquin, Edgar Lemus y al que se sumaron pronto Sandra Hernández y Vianney Pars, así como activistas ligadas a Openstreetmap México, iniciaron el trabajo de digitalizar la primera capa de información crucial para facilitar llegada de alivio humanitario a zonas de desastre: las vías de comunicación y edificios derrumbados.

Pero del más reciente terremoto sólo hay cuatro tareas completas de cartografía al 100%: la de Axochiapan, Morelos, y Atlixco, Atzitzihuacán y Atzala, en el estado de Puebla; mientras que faltan otras ocho tareas de mapeo relacionadas con el más reciente terremoto y otras tantas tareas de validación de esos mismos mapeos.

Existen dos formas de cartografía básicos, en sitio y remoto. Para sumarte al mapeo y validación, puedes ver esta capacitación que grabó Miriam en los días posteriores al sismo del 19 de septiembre.

En cuanto a la visualización de los datos que mapea OSM y su equipo de decenas de voluntarixs, el esfuerzo más comprensivo de agregación de datos lo llevó a cabo Leonel Castañeda , quien publica http://mapa.sismomexico.org/  gracias al trabajo de «deploy» que facilitó Codeando México, plataforma que agrega y visualiza datos no sólo de OSM, sino de las siguientes plataformas.

  • Manos a la obra, la plataforma más actualizada de ofertas y publicación de necesidades de ayuda, y que por defecto ofrece de una manera clara la descarga de su base de datos. Ojo: esta fuente de datos se actualiza en el sitio de manos a la obra, pero las capas que aparecen en mapasismomexico, por alguna razón no están actualizadas.
  • Mapillary, que es una herramienta muy usada en la cartografía para openstreetmap, pues permite subir a los servidores de esta organización fotografías y reportes de manera intuitiva
  • Verificado19s, un grupo de voluntarias y voluntarios que verifica las necesidades publicadas en redes sociales a partir de llamadas telefónicas y publica anuncios verificados.

En el grupo de trabajo se creó un subgrupo de depuración de datos, cuyo papel fue homologar en una base destino las bases heterogéneas que existen, con un proceso de limpieza de datos geográficos en el proceso.

Los grupos de pobladores autónomos y activistas críticos de los efectos del dominio del Estado mexicano y sus instituciones, así como de empresas y asociaciones alineadas con este,  pueden usar también plataformas creadas y gestionadas con software libre para reunir datos de centros de acopio y daños en inmueble. Un ejemplo de esta opción es solidaridat.mx.

Esta última realiza una labor exclusivamente de registro, no de vinculación inmediata con especialistas estructuralistas, como sí hace salvatucasa.mx, quienes acercan los reportes a estos expertos para la revisión de los inmuebles.

Flattr this!

]]>
http://es.schoolofdata.org/2017/09/27/mapeo-para-alivio-humanitario-tras-terremotos-en-mexico/feed/ 1 2285
Únete al mapeo y validación de datos por terremoto en México http://es.schoolofdata.org/2017/09/14/unete-al-mapeo-y-validacion-de-datos-por-terremoto-en-mexico/ http://es.schoolofdata.org/2017/09/14/unete-al-mapeo-y-validacion-de-datos-por-terremoto-en-mexico/#comments Thu, 14 Sep 2017 16:08:07 +0000 http://es.schoolofdata.org/?p=2275

CopyfarleftP2P Subversiones.org

El desastre en México no ha concluido. Los terremotos del 8 y 19 de septiembre dejaron centenares de muertos y millones de damnificados, muchos de los cuales lo perdieron todo.

La comunidad del equipo humanitario de OpenStreetMap (HOT), por sus siglas en inglés, se volcó inmediatamente a la tarea de mapear los daños en caminos y edificaciones, labor que es fundamental para evaluar el daño y continuar haciendo llegar ayuda humanitaria, particularmente a los estados de Chiapas y Oaxaca en ese país.

Aquí puedes consultar la tarea del último terremoto en México, y las tareas de validación y mapeo pendientes. A la cabeza de este esfuerzo está Miriam González, parte de OpenStreetMap México.

Aunque las tareas han avanzado, aún faltan algunos mapeos para personas que quieran iniciar en OpenStreetMap, pero, también se requiere de validación

Si no sabes cómo hacerlo, aprende a mapear caminos y edificios en unos minutos con este video de José Luis Domingo. No es necesario que estés en México para colaborar.

En este apartado, la comunidad de OpenStreetMap pone a disposición de la comunidad interesada en ayudar, otros recursos para el aprendizaje y uso de mapas.

Para personas que no estén familiarizadas con el funcionamiento de OSM, pueden encontrar sencillas instrucciones por escrito aquí.

Si eres una usuaria más familiarizada con la plataforma, puedes encontrar información para validación de mapas aquí.

Datos abiertos para el alivio del desastre

Si eres una persona cercana a las localidades afectadas que buscar usar datos para aliviar el desastre o colaborar para hacer llegar víveres a las personas que los requieren, para las tareas que ya se completaron es posible descargar los datos abiertos del terremoto, en Juchitán de Zaragoza y San Dionisio del Mar, dos de los municipios más devastados por el terremoto.

Flattr this!

]]>
http://es.schoolofdata.org/2017/09/14/unete-al-mapeo-y-validacion-de-datos-por-terremoto-en-mexico/feed/ 1 2275
Cómo saber si tus ideas son correctas: Tania Montalvo, México. http://es.schoolofdata.org/2016/06/01/como-saber-si-tus-ideas-son-correctas-tania-montalvo-mexico/ http://es.schoolofdata.org/2016/06/01/como-saber-si-tus-ideas-son-correctas-tania-montalvo-mexico/#respond Wed, 01 Jun 2016 19:13:25 +0000 http://es.schoolofdata.scoda.okfn.org/?p=1388

fotoTM

“Esta idea de que con Felipe Calderón [presidente mexicano de 2006 a 2012] estalló la violencia asociada al narcotráfico… yo quería que los datos vinculados me lo explicaran, y fue cuando encontré la explosión de células delictivas y cómo están reconocidas por las mismas autoridades que generaron esa violencia”,

dice Tania Montalvo, reportera que desde 2014 investiga el comportamiento de cuatro décadas de narcotráfico mexicano a través de bases de datos, trabajo conocido como NarcoData.

“Más allá de las ideas que tenemos, ¿qué argumentos realmente sostenibles tenemos para saber si esa idea es verdad o no? Para eso sirven realmente los datos en el periodismo”.

Montalvo, de 31 años, se ha hecho de una visión clara del periodismo de datos al cuantificar el poder y sus abusos en investigaciones sobre violaciones de la ley en detrimento del ambiente en la Ciudad de México, corrupción e incumplimiento de promesas al verificar el pago de nóminas a maestros (algunos de los cuales cobraban desde ultratumba) y, por supuesto, NarcoData, entre otras más.

¿Cómo han guiado los datos sus investigaciones periodísticas?

NarcoData

Screen Shot 2016-06-01 at 2.37.09 PM

Celda por celda, columna por columna, Montalvo construyó una imagen de datos para lo que llama “una sombra sin rostro”, la del crimen organizado. Entre otras conclusiones, cuantificó la explosión de la violencia: al finalizar el sexenio anterior a Calderón eran tres bandas criminales armadas que se tenían monitoreadas, tras seis años de una estrategia militarizada en su contra, se multiplicaron hasta sumar 52.

 

¿Cómo guiaron los datos a Montalvo y al equipo de Animal Político y Poderopedia de un documento único que obtuvieron en octubre de 2014, donde meramente se enlistaban los grupos delictivos activos ese año, territorio y cártel al que obedecían, hacia el análisis detallado de prácticamente toda la historia del narcotráfico en México?

“Lo que yo quería era tener toda la información en un mismo lugar, porque la información sobre el narco es tanta que no sabíamos dónde estaba la nota”.

 

La primera base que construyó fue sencillamente esa: qué organizaciones criminales había, su presencia en el territorio mexicano y su lealtad a cárteles determinados.

“Tuve que ir hacia atrás para mostrar cómo esas organizaciones antes no existían, porque los datos me fueron hablando y me hicieron preguntar ¿por qué ahora son 9 cárteles, cómo llegamos a ellos, por qué de pronto son más violentos, por qué unos son más grandes que otros? y todo eso lo pude hacer gracias a la primera base de datos”.

A partir de esa base “madre”, a golpe de teclazo en Excel, Montalvo construyó una nueva, que califica como una investigación de fuentes híbridas.

“No es un trabajo cuantitativo 100 por ciento. A la información en papel de la Procuraduría General de la República (PGR) agregué información de análisis que encontré en documentos académicos sobre estudio de crimen organizado, más información de entrevistas  y comunicados y boletines de la misma PGR a medios.”

Después interrogó a su nueva base.

“¿Qué era lo que me estaba mostrando? Hay que tener la mente muy abierta a hacer cualquier pregunta a los datos, hasta la más complicada, no obviar cosas, y tampoco creer que no vas a encontrar tus respuestas en la base, porque realmente los datos hablan, y hablan muchísimo”.

 

La respuesta entonces fue obvia. Los datos mostraban la pulverización de los grupos criminales en mayor número aparejada al incremento de la violencia con los años.

“Era la evolución de las bandas del crimen organizado, me estaba mostrando quiénes son los dominantes, que hubo una separación entre ellos. Eso me llamó a responderme con los mismo datos: ‘hay conflictos muy específicos entre los grandes cárteles’.”

“Es necesario entender qué es lo que tienes: si tienes años, cuáles son tus campos…  Con base en ello ves hacia dónde te pueden llevar los datos. Siempre respeta a tu base en el sentido de tenerla limpia, conocerla, para que te hable. Si no está limpia, cuando te ‘escupa’ una respuesta, no la vas a ver”.

NarcoData ha alcanzado siete entregas, pero las bases construidas por Tania aún no agotan su potencial. Este trabajo, no obstante, no era el primero en el que Montalvo construyera y analizara una base de datos.

Censo de la Reforma Educativa

CC By CEDIM News

CC By CEDIM News

En un proceso de supuesta renovación de estructuras mexicanas como la energética, la fiscal y la educativa, una de las promesas de avance en esta última fue la depuración de la nómina de profesores que reciben pago del erario público.

No más fallecidos que cobran sueldo por enseñar, maestros que renunciaron y cuyos pagos no obstante siguen siendo religiosamente cobrados o maestros que jamás dieron una sola clase frente a grupo. La investigación que Tania Montalvo publicó en 2015,  sobre la nómina nacional de maestros, descubrió que la promesa era, al menos hasta entonces, falsa.

Lo probó a través de la construcción y cruce del recién hecho censo magisterial nacional contra la nómina pagada por la Secretaría de Hacienda y Crédito Público (SHCP).

“La idea surgió de una base que nos entregó Gobierno de Oaxaca después de una solicitud de transparencia, con 40 mil celdas: cada maestro, cada escuela. Pudimos ver maestros hasta con 30 plazas, solamente en Oaxaca”.

Esa base se escaneó desde las infames fotocopias en papel que le fueron entregadas, desde donde escrapeó con algunas herramientas como Cometdocs, Tábula e Import.io.

Para ampliarla a nivel nacional, Tania recurrió al Instituto Mexicano para la Competitividad, con quienes obtuvo ayuda para rastrear los datos nacionales relacionados con la nómina magisterial a través de la plataforma de datos abiertos del gobierno federal, por entonces una novedad.

“Creo que de alguna forma ese fue mi primer acercamiento con los Datos Abiertos de gobierno, yo estaba escéptica, pero base con solicitud por cada estado, hubiésemos tardado muchísimo. Pudimos hacerlo a nivel nacional, pudimos comparar cómo la nómina antes y después de la reforma educativa no había cambiado, sino en un mal sentido, les estaban pagando más a los maestros pese a que se suponía que ya les habían depurado, y lo  pudimos ver trimestre a trimestre”.

La nómina, pagada por SHCP fue contrastada contra la base de datos de la Secretaría de Educación Pública (SEP), que recién había efectuado un censo donde se enlistaban qué maestros que daban clase frente a grupo, quiénes sólo realizaban labores sindicales y dejaba fuera “aviadores” y otros defraudadores.

“SHCP tiene que preguntar a SEP si todos esos maestros están frente a grupo y la SEP tuvo que haber verificado que estaban frente a grupo o si no murieron, porque había muchos muertos que seguían cobrando sueldos”.

Este año, la SEP reconoce por primera vez que dejó de pagar 5 mil plazas porque no estaban frente al grupo.  “Eso debió haber ocurrido antes”, acota Montalvo.

Gasolineras por colonia

En 2014 Montalvo desarrolló una investigación sobre las gasolineras que en la Ciudad de México violaban la ley al ser un excedente a lo permitido. En este trabajo el mayor reto fue la dispersión y falta de granularidad de algunos de los datos: Montalvo tenía por un lado información en porcentajes del excedente de gasolineras y por otra parte listados de todas las razones sociales de gasolineras en la Ciudad, pero no tenía las ubicaciones de las gasolineras que violaban la ley.

Screen Shot 2016-06-01 at 3.10.25 PM

 

“Yo sabía que había más gasolineras y que se estaba violando el reglamento, Pemex tenía muchas bases de datos, pero tenía los nombres de gasolineras al azar, no me decía dónde estaban, pero nosotros obtuvimos otra base de datos por delegación.

 

“Pudimos entonces cruzar las bases de datos para saber en dónde estaban, y cruzamos con una base más, de la Procuraduría Federal del Consumidor (Profeco), para saber cuáles estaban sancionadas, y cuáles estaban violando la ley al abrir”.

Con la ayuda de las organizaciones Escuela de Datos y Social Tic, y en particular de Phi Requiem, Fellow de Escuela de Datos 2014, se logró la sistematización de dicha información.

“De alguna forma fue una base chiquita, pero el caso es que toda la denuncia ya estaba totalmente construida, yo tenía reporteado con los gasolineros que se estaba violando el reglamento, pero no tenía datos para hacerlo mucho más visible.

“Nos permitió construir este mapita donde ya fue lo único que necesitábamos para cerrar y así le mostramos solidez a nuestro argumento de que se estaba violando la ley”.

Datos para justificar opiniones

De cierto modo, la trayectoria de Tania Montalvo le permitió desarrollar una idea que inició en una clase de periodismo asistido por computadora (PAC) en alguna de sus clases de periodismo en el Tec de Monterrey.

“Lo que me llevé de esa materia es entender la importancia de usar datos, de que la información en cualquier nota periodística fuera precisa, más allá de una declaración”.

Justificar (o no) con datos las declaraciones de personajes públicos o de opiniones públicas ampliamente compartidas entre ciudadanos, ha sido el hilo conductor desde sus primeras investigaciones en CNN Expansión sobre la ubicación de víctimas de violencia hasta NarcoData.

“Todo tipo de periodismo debe tener datos, y los hay en todas partes. Entiendo el punto de que se le llame periodismo de datos pero al final es periodismo.

“Si es periodismo: narrativo, de explicación, de lo que sea, es súper importante saber usar los datos y hacerlo bien. En el periodismo de datos puedes usarlos en masa, una cosa mucho más grande, pero para llegar a eso tiene que empezar utilizando bien porcentajes, tasas, sabiendo cómo se hace una diferencia porcentual… cosas que son elementales para que sigas el camino de los datos y ya puedas utilizar una base mucho más grande”.

Otro punto que es necesario tener en mente, en opinión de Montalvo, es que la interdisciplinariedad no suple la obligación individual de aprender de otras disciplinas.

“El trabajo multidisciplinario es valiosísimo, pero al mismo tiempo es fundamental que entre todos comprendamos la labor del otro, aunque sea en la parte mínima. Yo no programo, pero creo que sí es necesario tener al menos ideas básicas porque un programador es valiosísismo y están dedicados. Difícilmente llegue a los niveles en que está nuestro programador, Gilberto León, pero yo debería saber que si quiero que Gilberto entienda mis ideas, yo debería entender las suyas a un nivel técnico”.
“Yosune, nuestra diseñadora, que sí sabe de programación, tuvo que aprender muchísimo de mi labor periodística, en términos de mi mirada como periodista para poder visualizarla y yo al mismo tiempo tuve que aprender de ella para poder comunicar lo que tenía. En ese sentido es muy importante conocer un poco de lo que hace que el otro”.

Flattr this!

]]>
http://es.schoolofdata.org/2016/06/01/como-saber-si-tus-ideas-son-correctas-tania-montalvo-mexico/feed/ 0 1388
InfoEconómica – ejercicio datero en DF http://es.schoolofdata.org/2015/03/23/infoeconomica-ejercicio-datero-en-df/ http://es.schoolofdata.org/2015/03/23/infoeconomica-ejercicio-datero-en-df/#respond Mon, 23 Mar 2015 01:13:26 +0000 http://es.schoolofdata.scoda.okfn.org/?p=1078

Hoy les compartimos una experiencia de desarrollo datero en la Ciudad de México: InfoEconómica. ¡Queremos compartir más historias latinas y españolas! Anímate a contarnos la tuya (en Twitter, Facebook).


Screen Shot 2015-02-06 at 17.05.24

La Secretaría de Desarrollo Económico (SEDECO) en la Ciudad de México está obligada por ley a publicar un reporte económico cada tres meses. Para cumplir esta obligación, hace una labor titánica de compilación y análisis de datos complejos publicados por el INEGI, la CONEVAL… Pero no mantiene un archivo histórico de los datos y reportes pasados.

Es decir: cuando la SEDECO publica un reporte nuevo, se pierde la información antigua; lxs ciudadanxs pierden el acceso a esa información.

Emanuel Zámano, desarrollador de CódigoCDMX (iniciativa del Laboratorio para la Ciudad para promover desarrollos tecnológicos dentro de las dependencias de gobierno al estilo Code for America), se inspiró en esta pérdida de información para proponerse un reto: InfoEconómica.

InfoEconómica es una página que permite revisar indicadores usados en el pasado por SEDECO, incluyendo los de coyunturas específicas, en un formato descargable pero fácil de consumir para lxs ciudadanxs.

 

¿Qué distingue a InfoEconómica de otros portales de publicación de datos?

  • Su audiencia elegida son lxs ciudadanxs en general – no programadores o periodistas.
  • En vez de publicar conjuntos de datos para análisis, presentan información ya analizada.
  • Propone un acotamiento de la infinidad de indicadores que maneja SEDECO para enfocarse en los más importantes para lxs ciudadanxs.
  • Aprovecha y deja disponibles otros materiales elaborados por la dependencia, como infografías y estudios.
  • Para cada indicador, marca las fuentes utilizadas. No da link para acceder directamente a los datos.

 

Limitaciones reconocidas del proyecto:

  • Sólo puede publicar información dentro de las atribuciones de SEDECO. Y, por ejemplo, los datos sobre trabajo y educación son trabajados por otras dependencias. En ese sentido, a Emanuel le encantaría que el dashboard de InfoEconómica fuera adoptado por otra parte del gobierno –como la Agencia de Gestión Urbana o la Jefatura de Gobierno– para que no el desarrollo sirva para «ciudadanizar» no sólo datos económicos, sino también de transporte, salud; los datos que muestran la realidad de la ciudad. Cuántos baches han sido reparados, cuántos viajes han sido hechos en Ecobici.

 

Y, como parte de la ficha técnica, unos datos…

  • Los datos analizados son descargables en csv; en el futuro sería ideal escalar el proyecto para permitir conexión directa con Json.
  • Gran parte de la labor fue justamente en el procesamiento de los datos que ya tenían las dependencias. Primero fue ver cómo estaban almacenados (generalmente archivos de Excel con infinidad de hojas); luego, acomodar la información separando los datos en grupos temáticos; finalmente, automatizar el proceso mediante scripts que leen partes del Excel y las categorizan en una base de datos.
  • Cronograma en términos para desarrolladorxs: primero se eligió qué partes poner; usó un framework (Laravel – es importante no empezar desde cero en estos desarrollos); preparó bases de datos; preparó scripts automáticos para todas las actualizaciones con PHP; base de datos Postgresql; usó servidor de pruebas (Vagrant) que indica qué necesita el framework para funcionar, y los servicios adicionales (base de datos, analítica). Después de crear ambiente de desarrollo, preparó el repositorio en GitHub, trackeando cada cambio de código ahí y en ambiente de producción. Clonó el repositorio, ejecutó todo el provisioning… y, en todo el proceso, asegurarse de incluir todo cambio en GitHub y de regreso en servidor de pruebas.

 

La petición de Emanuel a otrxs desarrolladorxs: ¡Clonen los repos en GitHub! ¡Hagan issues!

 

Gracias a Emanuel por compartir su historia en Escuela. Ahora te toca a ti compartir la tuya! Recuerda que estamos en TwitterFacebook.

Flattr this!

]]>
http://es.schoolofdata.org/2015/03/23/infoeconomica-ejercicio-datero-en-df/feed/ 0 1078
Ramo 23: datos abiertos y la corrupción http://es.schoolofdata.org/2014/10/13/ramo-23-datos-abiertos-y-la-corrupcion/ http://es.schoolofdata.org/2014/10/13/ramo-23-datos-abiertos-y-la-corrupcion/#respond Mon, 13 Oct 2014 00:44:47 +0000 http://es.schoolofdata.scoda.okfn.org/?p=967

dtm_201307

Este texto fue escrito por Hugo Osorio, diseñador especializado en desarrollo web, interacción y diseño de interfaz. Socio y mago en Gobierno Fácil, donde crean herramientas de datos abiertos y hacking cívico como INEGI Fácil y Ramo 23. Además es fundador de Vectores y Habítala.


 La corrupción como sistema político fue una solución histórica que debe ser comprendida, pero no continuada.”

Gabriel Zaid

De acuerdo al Índice de Percepción de la Corrupción 2013 de Transparencia Internacional, México está en el lugar 106 de 177 naciones, ubicándose como uno de los países más corruptos y que me deja con una duda dando vueltas: cómo podemos cambiar esta situación.

Uno de los caminos que han seguido las administraciones gubernamentales para combatir la corrupción es que parte de su actividad  y de sus representantes sea pública, aunque existen muy buenos ejemplos de herramientas creadas para fomentar la transparencia, la mayoría se enfoca únicamente en cumplir con el requisito de publicar la información, su objetivo no es siempre que la información pueda ser consultada, compartida, visualizada ni vigilada por los ciudadanos.

Así se hace evidente que, en materia de corrupción, las necesidades de los ciudadanos no son necesariamente las mismas que tienen los gobiernos. Esto en realidad representa una gran oportunidad para todos los que buscamos un cambio en México porque estas fuentes de información y la tecnología nos ayudan a crear herramientas que facilitan el acceso a la información pública, haciéndola entendible, permitiendo que los ciudadanos formen parte de un ejercicio contra la corrupción.

En ese sentido nuestra aportación es Ramo23.com, una herramienta web que facilita a los ciudadanos la consulta y la visualización de las asignaciones de los proyectos de los fondos del Ramo General 23, un instrumento de política presupuestaria que permite atender las obligaciones del Gobierno Federal cuyas asignaciones de recursos no corresponden al gasto directo de las dependencias ni de las entidades. Esta información son datos abiertos disponibles y liberados por la Secretaría de Hacienda y Crédito Público en marzo de 2014, con la división de los casi 56 mil millones de pesos a través de 4 mil 537 proyectos que serán transferidos a estados, municipios y delegaciones del Distrito Federal.

ramo23-1

ramo23-2

ramo23-3

¿Cuál es su utilidad?

La herramienta hace evidente como es asignado este presupuesto, permite búsquedas por proyecto, entidad y por palabra clave, pero esto no era suficiente porque muchos de los proyectos benefician a municipios con poco acceso a internet y donde las comunidades pueden usar estos datos para valorar si los recursos son ejercidos adecuadamente (pavimentación, espacios deportivos, alumbrado público, entre otros). Para resolver esto, Ramo23 integra una hoja de estilo que hace posible la impresión de cada resultado de búsqueda de manera legible.

Algunas notas han aparecido en diferentes periódicos nacionales haciendo referencia a la información que encuentran en nuestra herramienta, sin embargo el ejemplo que más me gusta es el de participación ciudadana, donde precisamente se imprimen los resultados y se reparten: Boris Cuapio, repartió hojas en su municipio, San Martín Texmelucan, Puebla, con la información del Ramo 23 referente a esa ciudad y la respuesta fue grandiosa, las personas comenzaron a preguntarle con gran interés dónde, cómo y cuándo se aplicarían esos recursos, provocando un boca en boca respecto a los recursos que recibía su ciudad.

Esto es un ejemplo de como ramo23.com facilita el acceso a la información pública, haciéndola entendible, permitiendo que los ciudadanos conozcan como se reparten los recursos, evitando la corrupción, recibiendo datos que les permiten evaluar y exigir su correcto uso. Pero esperamos más, porque estoy convencido de que es el mejor momento para que los ciudadanos nos unamos para compartir el conocimiento y revitalizar la democracia, ya lo decía aquella canción de aquel grupo de poetas sociales de los años noventa llamados Molotov: “Que se sienta el power mexicano, que se sienta todos juntos como hermanos, porque somos más y jalamos más parejo”.

Nos toca construir un mejor país.


TECNOLOGÍA:

  • HTML5, Javascript, Backbone, Require, GitHub, y Sass

CONJUNTO DE DATOS UTILIZADOS:

 

Flattr this!

]]>
http://es.schoolofdata.org/2014/10/13/ramo-23-datos-abiertos-y-la-corrupcion/feed/ 0 967
Explorando datos de gobierno en México, D.F. http://es.schoolofdata.org/2014/09/01/explorando-datos-de-gobierno-en-mexico-d-f/ http://es.schoolofdata.org/2014/09/01/explorando-datos-de-gobierno-en-mexico-d-f/#respond Mon, 01 Sep 2014 16:21:25 +0000 http://es.schoolofdata.scoda.okfn.org/?p=934

Los pasados 12, 13 y 14 de agosto se llevó a cabo en México, D.F., una serie de talleres para aprovechar la primera liberación de datos abiertos del Gobierno Federal, que están publicados en el portal datos.gob.mx. En estos talleres participaron diversas organizaciones civiles y periodistas que, tras una introducción al uso de datos abiertos y una capacitación para el uso de herramientas de limpieza, análisis y visualización de datos, se dispusieron a explorar los datos de México en una expedición que tuvo los siguientes tópicos:

  • Martes 12 agosto: Infraestructura, productividad e inversión pública.
  • Miércoles 13 agosto: Pobreza, carencias y desarrollo social.
  • Jueves 14 agosto: Salud pública, demografía y población.

En los talleres identificamos preguntas que pueden ser resueltas utilizando conjuntos de datos, así como herramientas de limpieza y visualización que nos permiten formas de análisis rápidas y efectivas.

De la teoría a la práctica se mostró cómo se puede obtener dichos datos, y, empleando herramientas de código abierto, encontramos historias y vimos cómo crear visualizaciones para hacer la información más fácil de entender.

Durante los talleres, algunos invitados nos entusiasmaron contándonos sobre los proyectos en que trabajan, como el de las chicas de telus.mx que usaron datos públicos para generar inteligencia geopolítica, o los chicos de descifra.mx que usaron los datos públicos para orientar a PyMEs y Corporativos sobre micromercados. También Francisco Mekler de mejoratuescuela.org nos hablo sobre la importancia de anonimizar datos, y dio recomendaciones de seguridad que debemos tomar en cuenta a la hora de publicar.

 

Phi

Los facilitadores jugamos un papel muy importante en el proceso de aprendizaje, así que he aquí algunos consejos para para llevar un taller exitoso (^_-):

  • Planifica tu taller – No dejes las cosas al azar. Recuerda si tienes alguna errata, no hay que sufrir; tómalo con humor y úsalo para incentivar la participación.
  • Averigua los perfiles de la audiencia – Esto te permitirá encaminar el contenido del taller a algo con mayor interés para todos y todas.
  • Pásala bien – Si disfrutas lo que estás haciendo, es probable que los participantes también lo pasen bien.
  • No existen líneas divisorias – El público está ahí para aprender, pero siempre puedes enriquecerte conociendo lo que hacen y cómo lo hacen. Incentiva la participación; hazlos tus amigos.
  • Tú eres la guía – Sólo puedes mostrarles el camino, pero son ellos los que deben hacer las cosas.
  • Facilita la curva de aprendizaje – Busca un lenguaje en común, evita los tecnicismos y busca la manera más fácil de llegar al resultado.
  • Prepara las herramientas – Prepara la lista de herramientas y descargas, pide a los participantes las descarguen e instalen de ser posible antes de llegar al taller. Puedes tener unos USB precargados por cualquier contingencia.

Flattr this!

]]>
http://es.schoolofdata.org/2014/09/01/explorando-datos-de-gobierno-en-mexico-d-f/feed/ 0 934
Experiencias en el uso de datos: inegifacil.com http://es.schoolofdata.org/2014/05/06/experiencias-en-el-uso-de-datos-inegifacil-com/ http://es.schoolofdata.org/2014/05/06/experiencias-en-el-uso-de-datos-inegifacil-com/#comments Tue, 06 May 2014 22:23:34 +0000 http://es.schoolofdata.okfn.org/?p=827

dtm_201307

Boris Cuapio, INEGIFacil.com

En Escuela recopilamos historias de uso y apropiación de proyectos dateros en Latinoamérica y España. Hoy les compartimos la de Boris Cuapio Morales, creador de INEGI Fácil – una herramienta que permite la búsqueda de datos del web service del Instituto Nacional de Estadística y Geografía en México. 

Agradecemos a Boris la disposición para esta entrevista, que fue llevada a cabo en Data Meetup Puebla.


«En la universidad, me llamaba la atención que las notas en medios como The New York Times siempre se enlazaba a páginas web de sistemas de información de EEUU. Entonces yo me preguntaba: ¿Por qué no hay en México sistemas así?»

Boris Cuapio es un ilustrador-convertido-en-programador que vive en Puebla, México. A finales de 2012, él tenía la intención de usar información del INEGI, y encontró el servicio web… pero no tenía la capacidad para usarlo. Fin de la historia.

…Hasta finales de 2013. Boris estuvo trabajando para clientes en Canadá, que pedían productos que incorporaban el uso de APIs de redes sociales como Twitter o Flickr, lo cual le capacitó para usar el servicio web. Sus compañeros de trabajo le recomendaron comenzar proyectos de programación personales para no perder práctica, él pensó en uno: tratar de mostrar los datos del INEGI de una manera más fácil y más accesible.

Así nació INEGI Fácil, un portal que hace consultas al servicio web de inegi.gob.mx, y muestra los resultados en tablas y gráficas.

¿Pero por qué hay valor en que esto lo haga un ciudadano, y no el gobierno en sí? Boris piensa que la velocidad de los procesos institucionales no permitiría las adopciones tecnológicas que son necesarias en servicios de este tipo. Por ejemplo: mientras INEGI provee datos en XML (formato pesado que se ha ido abandonando en otros servicios), INEGI Fácil ya los da en JSON, y con marcadores adicionales. INEGI tiene un tutorial un tanto difícil de acceder, mientras que INEGI Fácil tiene una librería PHP que simplifica el trabajo. En términos de experiencia de usuario, no hay comparación (gracias a Hugo, la mente maestra detrás de los temas de diseño e interacción del sitio).

 

inegifacil_homev1

En realidad, el gobierno y él no son competencia. INEGI Fácil inició cerca de julio de 2013, y en enero de 2013 Boris fue contactado una persona en el INEGI. En pocas palabras, les sorprendió que alguien de hecho usara los servicios web! Cuando el sitio pase de sus dos fuentes actuales de información a las cien planeadas, él será un beta tester.

El proyecto le ha permitido aprender mucho sobre JS, XML, PHP, bases de datos, dataviz – cómo hacer gráficas, cómo exportar datos. Y le gusta ese trabajo; quiere que ya no sea un hobby, sino su proyecto principal. Quiere vender el producto a universidades, porque es donde más se utiliza los datos del INEGI.

Pero, por lo pronto, espera que en este mes los índices ya sean buscables y se pueda acceder a INEGI Fácil desde celulares. En un año, si consigue dinero, esperaría que se convierta un servicio web paralelo al INEGI; es decir, que lo utilicen medios de comunicación a través de embeds. Su ideal: le gustaría que en su universidad hagan diseño de información, gráficas, catálogos instructivos, textos educativos, y que aprovechen INEGI Fácil.

Tip datero de Boris (que, según él, le da a todo mundo, y nadie ha seguido) – «Junta tu dinero y contrata SafariBooks. Con eso puedes aprender lo que sea».

En México se desarrolla plataformas basadas en datos abiertos. ¿Conoces otras en Latinoamérica? Nos encantará difundir sus historias en Escuela.

Flattr this!

]]>
http://es.schoolofdata.org/2014/05/06/experiencias-en-el-uso-de-datos-inegifacil-com/feed/ 2 827
Open Data Day 2014 – México, D.F. http://es.schoolofdata.org/2014/03/05/open-data-day-2014-mexico-d-f/ http://es.schoolofdata.org/2014/03/05/open-data-day-2014-mexico-d-f/#respond Wed, 05 Mar 2014 17:35:39 +0000 http://es.schoolofdata.okfn.org/?p=756

Publicamos este post originalmente en SocialTIC. Aquí estamos en Twitter y en Facebook.


opendataday

El pasado 22 de febrero de 2014 se celebró el Día Mundial de los Datos Abiertos. Latinoamérica lo hizo creativamente (con arte callejero y bicicletas, de los que hablaremos en otros posts), y en DF celebramos como más nos gusta: con una conmemorativa carne asada.

Bueno: y con una expedición de datos… que parece tener el récord a la expedición de datos más grande del mundo, por si alguien busca imponerse una meta 😉
(La meta, por cierto, son 75 personas)

1383084_472565776198862_1050454977_n

Siguiendo nuestros propios tips para tener una expedición de datos provechosa, a las 10 de la mañana comenzamos el trabajo con chicos y grandes de distintos campos. Primero encontramos el papel correcto para cada uno en un equipo de análisis de datos…
image
…Y después comenzamos a revisar datasets del Laboratorio para la Ciudad.

Así iniciaron 10 proyectos de análisis y visualización de datos en distintos rubros (salud, servicios urbanos, medio ambiente, movilidad, seguridad).

image

Algunos de ellos fueron hechos con apps en mente: análisis de calidad del aire para hacer recomendaciones a corredores, y reporteo ciudadano para disminuir la vulnerabilidad de los peatones en el ecosistema de la movilidad.

image

Algunos otros se enfocaron en aspectos informativos. Mostrar qué actividades hay en parques públicos para promover las actividades culturales; mostrar las defunciones en el sistema de salud del Distrito Federal.

Defunciones

Y, finalmente, algunos se enfocaron en la comprensión de las operaciones del gobierno. Uno trató de buscar correlaciones entre niveles de violencia y operaciones estatales en Michoacán; otro equipo se puso el reto de entender los rechazos de las verificaciones de automóviles en el Distrito Federal.

image

Aunque el proceso de la expedición de datos en sí fue revelador para los y las participantes, en SocialTIC nos gustaría ver que los resultados sean reveladores para otras organizaciones o dependencias del gobierno. Si todo sale bien, en algunos meses les contaremos lo sucedido.

Centraal, el Laboratorio para la CiudadNova México y SocialTIC agradecemos a quienes se unieron a celebrar el Día Mundial de los Datos Abiertos. Nos volvemos a ver en el siguiente City Hack Nights.

Flattr this!

]]>
http://es.schoolofdata.org/2014/03/05/open-data-day-2014-mexico-d-f/feed/ 0 756
Expedición de datos en Monterrey http://es.schoolofdata.org/2014/02/18/expedicion-de-datos-en-monterrey/ http://es.schoolofdata.org/2014/02/18/expedicion-de-datos-en-monterrey/#respond Tue, 18 Feb 2014 16:28:19 +0000 http://es.schoolofdata.okfn.org/?p=717 ¿Alguna vez te imaginaste que una ciudad podría ser ofrecida a Dios? ¿O que una empresa podía recibir más de 15 pagos por diferentes conceptos en un mismo día? Bueno: ésas fueron las preguntas que se hicieron quienes participaron en la expedición de datos que realizamos en la ciudad de Monterrey, Nuevo León, con @CodeandoMexico y @ccinlac.

Siempre hemos dicho que en una expedición de datos puede participar todo mundo, y esta no fue la excepción: entre los asistentes, la  mayoría no era programador o programadora, ni había tenido un acercamiento previo al manejo de datos. Eso le dio un sabor especial a la actividad.

En la expedición, tuvimos varios obstáculos. El primero de ellos, que nunca es novedad: los formatos de las bases de datos. Para superarlos, usamos herramientas de extracción de datos como OnlineOCR, y normalizamos la información para usarla. Otro gran reto: no siempre es fácil llegar a la información.

Aprovechamos la información que se encuentra disponible en distintos portales de transparencia de los municipios de la zona metropolitana la ciudad de Monterrey: listados de proveedores, pagos de facturas, nóminas y votaciones de cabildo. Después de unas cuantas revisiones de los datos, surgieron las preguntas que dieron forma a nuestra aventura:

  • ¿Cuánto dinero había otorgado en donativos a iglesias un grupo de municipios llamados las Ciudades de Dios?
  • ¿Cuánto dinero ganan alcaldes y alcaldesas?
  • ¿Cuánto cuesta el servicio de recolección de basura en dos de los municipios más representativos de la zona metropolitana?
  • ¿Por qué hay un grupo de empresas que recibe varios pagos por cantidades pequeñas casi todos los días?

Al finalizar la expedición los equipos, habían encontrado datos importantes que plasmaron en una serie de infográficos. Aquí te mostramos algunos de ellos:

Suelo_MTY

Infográfico sobre sueldos de alcaldes. Para verlo completo, haz clic en la imagen.
 
easelly_visual
 
Infográfico sobre el costo de la recolección de basura.
 

¿Te animas a dirigir una expedición de datos? Aquí y aquí te damos tips para hacerlo. Recuerda que también siempre estamos disponibles para resolver tus dudas en @EscuelaDeDatos, Escuela en Facebook, y en info [@] escueladedatos [.] org .

Flattr this!

]]>
http://es.schoolofdata.org/2014/02/18/expedicion-de-datos-en-monterrey/feed/ 0 717