Uncategorized – Escuela De Datos http://es.schoolofdata.org evidencia es poder Mon, 22 Apr 2019 18:42:59 +0000 es hourly 1 https://wordpress.org/?v=5.3.2 114974193 Lo bueno, lo malo, lo geek. 10 librerías de código para resolver tus proyectos de visualización de datos http://es.schoolofdata.org/2019/04/22/lo-bueno-lo-malo-lo-geek-10-librerias-de-codigo-para-resolver-tus-proyectos-de-visualizacion-de-datos/ http://es.schoolofdata.org/2019/04/22/lo-bueno-lo-malo-lo-geek-10-librerias-de-codigo-para-resolver-tus-proyectos-de-visualizacion-de-datos/#respond Mon, 22 Apr 2019 18:42:59 +0000 http://es.schoolofdata.org/?p=2657 La visualización de datos es un arte y una ciencia, ya que, «una imagen vale más que mil líneas de datos». Existen librerías de código que hacen esta labor un poco más manejable.

¿Qué es una librería? ¿Cómo funciona?

Una librería es un kit de herramientas que contiene recursos que se pueden reutilizar. ¿No queremos empezar todo desde 0 verdad? Puedes hacer un llamado dentro de tu código a estas librerías para reutilizar aquellos recursos que necesites.

Para poder usar las siguientes librerías necesitas tener conocimientos previos de programación, pero si no los tienes,  puedes usar las siguientes herramientas que no necesitan de código.

4 factores a considerar antes de escoger una librería.

Antes de decidir cuál libreria utilizar es necesario tomar en cuenta los siguientes aspectos:

1.- El formato de los datos que vas a utilizar.

Los datos que deseas visualizar están en un .csv, en un .sql, en un pdf, etc. Las librerías trabajan con ciertos formatos por lo que debes buscar la que más se adecúe a tu situación.

2.- ¿Qué tan personalizable es?

Algunas librerías son restrictivas. Las más fáciles de aprender son más limitadas mientras que las más complejas son más personalizables.

3.- Los tipos de gráficos disponibles.

Revisa bien que la librería genere ese gráfico que estas buscando. 

4.- ¿Qué tan fácil de aprender es? ¿Se puede encontrar buena documentación sobre ella?

Sabemos que a veces necesitamos las cosas para ayer. Si estás en un apuro, no pierdas tu tiempo con algo complicado.  Si dispones de más tiempo hay una infinidad de cosas por descubrir en librerías complejas.

A continuación, las librerías 

 

D3.js

http://d3js.org

D3.js es una librería JavaScript para manipular documentos basados en datos. D3 utiliza HTML, SVG y CSS. D3 te da completamente el control: es muy customizable. Con ella, puedes crear desde gráficas sencillas como barras, hasta visualizaciones complejas, como gráficos relacionales o visualizaciones con mapas.

? Ventajas

  • Es una librería muy popular con una comunidad muy activa, lo que facilita el aprendizaje y te brinda respuestas rápidas a tus preguntas.
  • Es compatible con la librería Javascript React.
  • Existen varias librerías como C3.js o Metrics Graphics.js, que usan D3 en el back-end, lo cual reduce el trabajo para obtener buenos gráficos.
  • Sin dependencias y fácil de configurar.
  • D3 ofrece un increíble nivel de interactividad.

? Desventajas

  • La curva de aprendizaje es compleja. De esta manera, si lo que se deseas obtener es un gráfico sencillo, quizá esta no sea una buena opción.
  • Requiere librerías adicionales para exportar los gráficos.

 

Processing.js

http://processingjs.org/

Processing.js es una librería JavaScript que permite hacer visualizaciones de datos, arte digital, animaciones interactivas, gráficos educativos, videojuegos, etc. Trabaja con estándares web y cualquier complemento. Processing.js es el proyecto hermano de Processing.

? Ventajas

  • Processing.js está escrito en JavaScript y usa el elemento <canvas> de HTML5. Convierte tu código JavaScript y lo ejecuta.
  • Utiliza estándares web modernos.
  • Si sabes codificar en Processing no necesitas aprender Javascript.

? Desventajas

  • Processing.js utiliza el concepto de un directorio de datos, donde se encuentran las imágenes y otros recursos. Processing.js no incluye esto. Como resultado, siempre se debe proporcionar páginas de archivos (por ejemplo, imágenes).
  • Processing.js necesita tu ayuda al anular métodos de superclase sobrecargados. Esto quiere decir que cuando se hereden métodos de una clase, no se podrá sobrescribir.
  • Solo tiene dos modos de renderizado. Si estás pasando de Processing (el cual tiene muchos modos de Renderizado) a Processing.js, puede ser un poco problemático.

Google Charts

https://developers.google.com/chart/?hl=en

Google Charts es un servicio web que permite crear gráficos con la información que se le proporciona y es de fácil uso.  Es la librería que soporta Google Analytics, por lo que se puede usar en diferentes formatos como Json, Javascript y plugins que se pueden integrar con varios lenguajes de programación.

? Ventajas

  • Es personalizable. Puedes hacer tus propios gráficos para que combinen con tu web.
  • Se conecta a tus datos en tiempo real utilizando una variedad de herramientas y protocolos.
  • Compatibilidad con varios navegadores.
  • Puedes utilizar un código embebido Javascript en tu página web.
  • Es gratis
  • Puede generar los gráficos mediante Hojas de cálculo, bases de datos SQL, archivos CSV y hacer actualizaciones automáticas.

? Desventajas

  • No te da un procesamiento estadístico sofisticado.
  • Requiere una conexión de red.

Chartjs.js

http://www.chartjs.org/

Chart.js es una biblioteca de JavaScript que  permite dibujar diferentes tipos de gráficos responsive mediante el elemento canvas de HTML5.

? Ventajas

  • Es responsivo
  • Modular (Funcionalidades separadas)
  • Open Source, así puedes compartir y modificar el código fuente.
  • La documentación de chart.js  está bien organizada y provee información detallada de cada una de las características.

? Desventajas

  • Funciona mejor para algo rápido y simple. En caso de un proyecto complejo y más personalizado, esta librería no es la adecuada.

 

Vis.js

http://visjs.org/

Una librería de visualización dinámica web. La librería está diseñada para ser fácil de usar, manejar grandes cantidades de datos dinámicos y permitir la manipulación e interacción con los datos.

? Ventajas

  • Responsivo
  • Modular (Funcionalidades separadas)
  • Open Source
  • Vis.js  tiene un showcase de proyectos y documentación clara

? Desventajas

  • Lento: Cuando el gráfico tiene muchos detalles se necesita poner un mensaje “Cargando” para que los usuarios lo sepan.

Sigma.js

http://sigmajs.org/

Sigma es una librería JavaScript dedicada a las visualizaciones de datos. Facilita la publicación de gráficos de redes en páginas web y permite a los desarrolladores integrar su exploración en aplicaciones web.

? Ventajas

  • Bastante adaptable
  • Se puede agregar toda la interactividad deseada
  • Apto para principiantes.

? Desventajas

  • Cuando los nodos están conectados por varios bordes, estos se tienden a superponer y se necesita un plugin adicional para solucionar el problema.

 

Flot Charts

http://www.flotcharts.org/

Flot es una librería JavaScript para jQuery para visualizar datos, con un enfoque en el uso simple, aspecto atractivo y características interactivas.

? Ventajas

  • Fácil de usar y con amplia documentación disponible.
  • A la hora de hacer gráficos con ejes, admite múltiples ejes en Y(el eje vertical), lo cual es importante para poder correlacionar tendencias
  • Configuración Simple.

? Desventajas

  • Tiene un número limitado de tipos de gráficos que puedes hacer.

 

Chartist.js

https://gionkunz.github.io/chartist-js/

Chartist.js es una librería Javascript open-source con charts responsive. Genera los gráficos en SVG (al ser vectoriales son DPI-independientes). Es una librería muy sencilla de usar muy flexible y muy ligera  que ocupa sólo 10 Kb y no tiene dependencias.

? Ventajas

  • Gran flexibilidad al usar CSS
  • Utiliza formatos SVG para los gráficos
  • Completamente responsivo
  • Sin dependencias y fácil de configurar

? Desventajas

  • No todos los navegadores soportan sus animaciones.

 

Plot.ly

https://plot.ly/

Plotly es una librería Python que genera gráficos interactivos de calidad en línea. Ejemplos gráficos de líneas, diagramas de dispersión, gráficos de áreas, gráficos de barras, barras de error, diagramas de cajas, histogramas, mapas de calor, subtramas, ejes múltiples, gráficos polares y gráficos de burbujas.

? Ventajas

  • Gran soporte para ejes complejos y múltiples.
  • Herramientas integradas de zoom y filtrado en gráficos y mapas.
  • Tiene una documentación clara con opciones y ejemplos.
  • Gráficos interactivos.

? Desventajas

  • Los gráficos no funcionan en todos los navegadores.

 

Seaborn

http://seaborn.pydata.org/

Seaborn es una librería de visualización de datos para Python basada en matplotlib. Proporciona una interfaz de alto nivel para dibujar gráficos estadísticos atractivos e informativos.

? Ventajas

  • Genera gráficos atractivos visualmente.
  • Los gráficos tienen muchas características para  personalizar.
  • Documentación clara y muchos ejemplos disponibles.

? Desventajas

  • Si estás acostumbrado a la librería para python Matplotlib los parámetros en Seaborn son diferentes aunque Seaborn esté basado en Matplotlib, esto puede ser confuso.

Por Pamela Gonzáles

Flattr this!

]]>
http://es.schoolofdata.org/2019/04/22/lo-bueno-lo-malo-lo-geek-10-librerias-de-codigo-para-resolver-tus-proyectos-de-visualizacion-de-datos/feed/ 0 2657
¿Qué son los sistemas de coordenadas cartográficas? http://es.schoolofdata.org/2019/04/01/que-son-los-sistemas-de-coordenadas-cartograficas/ http://es.schoolofdata.org/2019/04/01/que-son-los-sistemas-de-coordenadas-cartograficas/#respond Mon, 01 Apr 2019 15:15:32 +0000 https://es.schoolofdata.org/?p=2700 ¿Qué es lo que hay que considerar cuando queremos hacer un mapa? Te explicamos los sistemas de coordenadas cartográficas, cómo funcionan, qué sistemas de proyección existen y cómo influencian tus trabajos con geodatos.


Cuando elaboramos un mapa o croquis que trata de representar con cierta precisión el espacio físico se nos hace necesario utilizar un sistema de referencia, sin este no sería posible ubicar en el mapa nuestros datos. Este sistema de referencia es lo que comúnmente conocemos como coordenadas cartográficas.

Normalmente esos valores – las coordenadas – son dos números que representan la ubicación de lo que queremos posicionar en el mapa, y se ubican con relación a los puntos cardinales. Estos valores muestran la ubicación horizontal de lo que queremos localizar, un valor es la ubicación en el eje X (este – oeste) y el otro en el eje Y (norte – sur). Puede darse también el caso de que las coordenadas tengan un tercer valor que corresponda a la ubicación en el eje vertical (elevación, eje Z), pero estas últimas no son comúnmente utilizadas.

Cada sistema de coordenadas tiene un nombre, código y parámetros que lo definen. Estas características son necesarias para transformar entre distintos sistemas con la mayor precisión posible y así desplegar correctamente en un mismo mapa las ubicaciones de datos con coordenadas de sistemas distintos. El identificador para cada distinto sistema de coordenadas se conoce como el CRS (del inglés Coordinate Reference System) y sin este no se ubicarían correctamente nuestros datos. Cuando se necesita conocer el CRS de un conjunto de datos se recomienda utilizar el sitio http://epsg.io, en este se encuentra la información y parámetros de la mayoría de los sistemas de coordenadas cartográficas utilizados en el mundo.

¿Coordenadas proyectadas o no proyectadas?

Cuando utilizamos conjuntos de datos que poseen coordenadas cartográficas, llegaremos a notar que muchos de estos tienen coordenadas con unidades distintas: unas coordenadas pueden estar en grados – minutos – segundos, otras en números positivos y negativos con muchos decimales o inclusive en metros o pies. La razón de estas diferencias es la problemática que existe cuando tratamos de representar en una superficie plana la superficie de la Tierra.

La Tierra es una esfera (o técnicamente, un elipsoide – achatada en los polos) por lo que si queremos representarla en una superficie plana como un mapa o una pantalla de computadora, tendremos distintos problemas relacionados a distorsiones de los elementos que se quieren mostrar. Un ejemplo de este problema de transformación de superficies distintas es cuando vemos en un mapa del mundo que el tamaño de Groenlandia es similar al de todo el continente Africano (como antiguamente en Google Maps) y en realidad el área de Groenlandia es unas 14 veces menor a la de toda África.

Para el abordaje de este problema existen distintos sistemas de coordenadas, y un cartógrafo, dependiendo de la situación y objetivos del mapa a realizar, decidirá escoger entre sistemas de coordenadas que muestren fielmente, por ejemplo, la forma de los elementos del mapa. En otros casos, el cartógrafo preferirá que las proporciones de las áreas de estos elementos se acerquen más a los reales (comprometiendo la forma de estos). Normalmente si el mapa que estamos haciendo es de un área muy pequeña, no deberíamos de preocuparnos por estas distorsiones, pero si es de un continente o del planeta sí deben de tenerse en cuenta.

Cuando las coordenadas se dan como ángulos (grados-minutos-segundos o grados-minutos y decimales o grados con decimales) se le llaman coordenadas no proyectadas (algunos inclusive las llaman coordenadas geográficas) y se les dice así porque estos valores se dan por el ángulo que se produce en el centro de la tierra entre la ubicación del dato y un punto de referencia (Meridiano de Greenwich o el paralelo del Ecuador). En este caso las coordenadas se dan en pares Lat Long, siendo la latitud la coordenada en el eje Y, con valor positivo si está al norte del ecuador y negativo si está al sur. La longitud es en el eje X y posee valores negativos que representan ubicaciones al oeste del Meridiano de Greenwich y positivos al este.

En caso de que las coordenadas se den en unidades de distancia (metros, pies, etc.) se les llaman coordenadas proyectadas, ya que para generar estos valores hubo que proyectar la superficie del planeta en una superficie plana. Aunque existen muchos sistemas de proyección, el más utilizado es el UTM (Universal Transverse Mercator), el mismo que antiguamente utilizaba Google Maps.

Afortunadamente la mayoría de herramientas para trabajar con datos geográficos, tanto los programas de sistemas de información geográfica (QGIS, ArcGIS, gvSIG), análisis de datos (R/Python) como para visualización en web (D3, Leaflet), manejan muchos sistemas de coordenadas.

Para quienes deseen conocer más sobre el tema, un video educativo de Vox muestra de manera sencilla las tecnicalidades que envuelven el problema de representar la superficie de la Tierra en una superficie plana:

Jason Davies tiene una excelente animación en D3 de los distintas proyecciones y cómo cambia la forma y tamaño de los distintos componentes del mapa de acuerdo al sistema de coordenadas utilizado: https://www.jasondavies.com/maps/transition/

Tips para trabajar con coordenadas

Cada país cuenta con un sistema de coordenadas oficial y algunos tienen varios (¡en Costa Rica, un país diminuto, tenemos 3 sistemas de coordenadas que en algún momento fueron oficiales!); por consiguiente, saber en cuál sistema están las coordenadas del conjunto de datos a veces puede ser una labor compleja. Aún así se pueden dar varios tips:

  • Si los datos tienen coordenadas no proyectadas (valores en ángulos: grados-minutos-segundos, grados con decimales, grados-minutos con decimales) lo más probable es que estén en el sistema de coordenadas WGS84 (CRS EPSG:4326), este también es el sistema de coordenadas que utilizan nativamente los dispositivos de navegación por satélite (GPS).
  • Si los datos vienen de un sistema catastral nacional, las coordenadas posiblemente sean proyectadas y estén en el sistema de coordenadas oficial del país. En caso de no conocer el CRS, pueden buscarlo con el nombre del país en el enlace que se dio anteriormente.
  • Si se están tomando los datos de mapas impresos, normalmente la información del sistema de coordenadas se da en la parte inferior del mismo.

 

Por Guillermo Durán

Ingeniero forestal y geógrafo, fellow en cambio climático por la Iniciativa Latinoamericana por los Datos Abiertos y Escuela de Datos. Tiene experiencia en el uso de diferentes tecnologías, como programación en R, PostgreSQL, ArcGIS y QGIS. Su trabajo en biogeografía lo ha llevado a diseñar áreas protegidas en Panamá, georeferenciar los datos de los museos de Historial Natural o trabajar en las distribuciones de ciertas especies en futuros climáticos usando Machine Learning. Guillermo estudió ingeniería forestal en Instituto Tecnológico de Costa Rica y luego obtuvo una maestría en Geografía en la Universidad Estatal de San Francisco, California. Ha colaborado con el Centro de Investigaciones Geofísicas de la Universidad de Costa Rica con el análisis y visualización de modelos climáticos.

Flattr this!

]]>
http://es.schoolofdata.org/2019/04/01/que-son-los-sistemas-de-coordenadas-cartograficas/feed/ 0 2700
Así es como Latinoamérica va a celebrar el #OpenDataDay http://es.schoolofdata.org/2019/03/01/asi-es-como-latinoamerica-va-a-celebrar-el-opendataday/ http://es.schoolofdata.org/2019/03/01/asi-es-como-latinoamerica-va-a-celebrar-el-opendataday/#respond Fri, 01 Mar 2019 00:41:53 +0000 https://es.schoolofdata.org/?p=2687 Un año más, el Día de los Datos Abiertos celebra iniciativas de transparencia en todo el mundo, con más de 200 eventos programados. En Latinoamérica, SocialTIC y  Escuela De Datos se une a la celebración en 4 países a través de expediciones de datos, charlas, talleres, meet-ups y rallys dateros.

A la vez,  en otros países de la región organizaciones amigas trabajarán alrededor de un mismo objetivo: concientizar sobre la necesidad de abrir los datos públicos para que sean accesibles y puedan ser reutilizados para generar valor.

Este sábado 2 de marzo es el Día de los Datos Abiertos y te compartimos algunos de los eventos programados para celebrarlo. Tú también puedes unirte al evento más cercano y a la celebración mundial usando el hashtag #ODD19.

? Ciudad de México – Sábado 2 de marzo

Toda una kermés datera: un día de talleres, expedición de datos, proyectos, rally de obra pública, retos de datos de la ciudad. Gibrán Mena de SocialTIC estará dando un taller sobre extracción de datos de solicitudes de información de la plataforma Infomex

Conoce más sobre el Evento, su Agenda y Regístrate para participar.


? San José, Costa Rica – Sábado 2 de marzo

La Comisión de Gobierno Abierto junto a organizaciones de sociedad civil, academia y ciudadanía activa organizan un espacio de charlas, talleres y conocimiento.

          

 

 

En este evento, Eugenia Loría, fellow de Contrataciones Abiertas de Escuela de Datos, estará hablando sobre casos de uso en las contrataciones públicas de Costa Rica, así como presentando una guía temática de apertura de datos que desarrolló. 

Conoce más sobre el evento, su Agenda y Regístrate para participar.


? La Paz, Bolivia – Sábado 9 de marzo

BoliviaTechHub y Escuela de Datos organizan un encuentro en el que se aprenderá sobre los básicos de Datos Abiertos y Contataciones Abiertas. Luego, se conocerá sobre cómo a través de los presupuestos analizar la equidad de género y se realizará una expedición de datos para abrir información del Sistema de Contrataciones del Estado. Pamela González, fellow de Contrataciones Abiertas de Escuela de Datos estará liderando una sesión.

Conoce más sobre el Evento y Regístrate para participar en estos enlaces.


? Ciudad de Guatemala – Sábado 9 de marzo

Escuela de Datos va a crear un espacio que te permita aprender cómo usar los datos de las contrataciones públicas, además de guiar un ejercicio sobre el proceso y la transparencia. Sofía Montenegro, fellow de Escuela de Datos compartirá los hallazgos de su proyecto sobre transparencia que busca entender cómo funciona este sistema. Además una meet-up con los proyectos de tecnología cívica que buscan incidir en las próximas elecciones generales


 

El Open Data Day o Día de los Datos Abiertos es una celebración anual de los datos abiertos alrededor del mundo. Distintos grupos crearán eventos locales en este día y utilizarán los datos abiertos en sus comunidades para crear aplicaciones, visualizaciones, liberar datos o publicar análisis sobre el estado de los datos abiertos. Es una oportunidad para mostrar los beneficios de los datos abiertos y potenciar su uso.

Las actividades de este año se concentran en cuatro ejes:

  • Ciencia Abierta
  • Rastreo de flujos de dinero público
  • Mapeo abierto
  • Desarrollo equitativo

Puedes conocer los otros eventos que estarán sucediendo en este enlace y así conocer a la comunidad de datos abiertos de tu país en https://opendataday.org/#map

Flattr this!

]]>
http://es.schoolofdata.org/2019/03/01/asi-es-como-latinoamerica-va-a-celebrar-el-opendataday/feed/ 0 2687
¿Qué le podemos aprender al Mundial de la igualdad? http://es.schoolofdata.org/2018/07/06/que-le-podemos-aprender-al-mundial-de-la-igualdad/ http://es.schoolofdata.org/2018/07/06/que-le-podemos-aprender-al-mundial-de-la-igualdad/#respond Fri, 06 Jul 2018 16:20:49 +0000 http://es.schoolofdata.org/?p=2613 Durante el Mundial de Fútbol Rusia 2018 una iniciativa buscó llevar un poco de esa atención por los países y sus enfrentamientos hacia una cancha diferente: la de los derechos y la búsqueda de equidad. El Mundial de la Igualdad logró vincular a varias iniciativas de datos de la región y aprovechó la coyuntura para posicionar un tema.

Hablamos con Verónica Toro, parte del equipo colombiano de DataSketch que coorganizó este proyecto para conocer más sobre el proceso de este boom mundialista.

Perdonen el espíritu mundialista, pero es una fiebre y eso se pega. Escuela de Datos no salió inmune de Rusia 2018

La cancha

El proyecto partía de una premisa clara: que los medios y organizaciones tengan una agenda mucho más responsable en cuanto a temas de género, aprovechando la atención que el mundial de fútbol explota.

Así, fueron produciendo materiales para compartir en redes que fueran mostrando cómo cada país que disputaba un partido se encontraba en temas de derechos sexuales y reproductivos, leyes antidiscriminación, cifras de feminicidios, brecha educativa y salarial o cualquier otro dato que permitiera brindar un panorama sobre la situación de la igualdad en estos países.


Las jugadas

Cada integrante del equipo aportó a este proyecto su mirada única. Veamos algunas de las jugadas más representativas de su actuar:

Sabemos que muchos de ustedes llenaron su álbum de calcomanías con las caritas de los jugadores. Pero un mundial no lo gana un Messi o un Ronaldo, sino un equipo. Es por eso que este proyecto generó fichas por país que son comparables e intercambiables. La herramienta Figus de la Igualdad te permite hacer estas comparaciones.

Por ejemplo, compara a Uruguay y Francia, los dos equipos que hoy disputan los cuartos de final.

 

Pero  no todo el mundo está estandarizado (siempre sufrimos por esto cuando hablamos de datos a un plano internacional). Por eso, este equipazo también desarrolló unas fintas como  cápsulas informativas que brindaban datos curiosos sobre cada país. No podemos meter a todo el mundo en un cajón, pero hay aspectos interesantes que permiten particularizar a cada equipo.

Siempre es necesario evaluar los resultados al final de un partido, por eso no se olvidaban de brindar el marcador final, los resultados y las estadísticas del encuentro:

Visualizar los datos no necesariamente implica presentar un mapa, infografía o gráfico. Parafraseando el dicho, una foto dice más que mil estadísticas.

Así como no hay mundial sin figuritas, tampoco el Mundial de la Igualdad se podía quedar sin mascota oficial.

Los equipos de edición de Wikipedia también pidieron que les pasaran la bola y al tenerla, hicieron el taquito para pedir #EquilibraLaCancha

La mejor transmisión en vivo se complementa de gráficos a medio tiempo y al cierre. Vean no más estos comparativos que nos permiten ir posicionando a los países, dependiendo del indicador. Acá vemos la esperanza de vida de una mujer en Colombia y Polonia.

Y para el logo y el trofeo, ¿Por qué elegir un color cuando se puede tener un arcoiris? Además, una mano alzada y con el puño cerrado nos recuerda el momento histórico de las olimpiadas de México 1968 en las que, tras ganar la carrera de 200 metros, los atletas negros Tommie Smith y John Carlos alzaron su puño en señal de protesta por los derechos civiles de la población negra en ese país.

Si no te gustó nuestra selección, siempre puedes buscar otras jugadas con el hashtag #MundialDeLaIgualdad


El equipo y sus integrantes

Nació de pláticas entre medios y organizaciones. Así, El Mundial de la Igualdad fue tomando forma a partir del diálogo entre Economía Femini(s)ta (Argentina) y DataSketch (Colombia) y sentaron las bases para el proyecto. Poco a poco otros actores se fueron sumando a la cancha y expandiendo los alcances de esta jugada.

Fútbol Femenino (Perú), Chequeado (Argentina), la Gobernación de Nariño (Colombia), Más que una hincha (México) se fueron sumando y pidieron un pase largo. El trabajo en conjunto se evidencia en la cuentas de redes sociales como @igualdata


El entrenamiento

Como todo partido, el entrenamiento tenía contemplado un primer y segundo tiempo. Pero la energía se contagió tanto y se puso reñida la cosa así que tuvieron que irse a tiempos extras.

En Argentina, el primer tiempo se jugó el 14 de abril en el Polideportivo de Boedo. Consistió de una hackaton en la que buscaron datos, armaron videos y visualizaciones, y conceptualizaron parte de los juegos interactivos que la plataforma cuenta.

El segundo tiempo se jugó en Colombia, simultáneo en las ciudades de Bogotá y Nariño, en donde aparte de la labor datera se jugó un torneo de fútbol con equipos femeninos y LGBT+. Y para los tiempos extras, Perú pidió la pelota e hizo su jugada.


La estrategia

Encontrar datos de ciertos países no fue fácil por muchas razones. Las primera, la falta de estándares en todos los temas o la falta de estudios que lleguen a todos los países y regiones. La segunda, la poca disponibilidad de materiales de ciertos países en un idioma que el equipo conociera.

Los equipos recurrieron a varias fuentes internacionales para construir los perfiles de los países, acá recopilamos algunas de ellas que otros equipos pueden retomar para hacer nuevas jugadas, independientemente de la liga en la que estén jugando.

  • El Banco Mundial cuenta con un portal de datos que incluye indicadores etiquetados y agrupados sobre género. Aparte de acceder a datos estandarizados y oficiales, esta herramienta te permite descargarlos en diversos formatos y compararlos a través de visualizaciones de diferentes tipos.
  • El informe “La lucha por la igualdad de género: una batalla cuesta arriba” explica cómo persiste la desigualdad en la vida social y económica de cada país. Aborda temas como brecha de género en educación, falta de equidad en el trabajo remunerado y examina las políticas públicas dirigidas a contrarrestar este problema. Fue elaborado por la OCDE, la Organización para la Cooperación y el Desarrollo Económico.
  • En el  Índice Global de Brecha de Género de 2017. se evidencia el comportamiento de 144 países en la participación económica, la educación, la salud y calidad de vida, y el acceso al poder político. Es elaborado por el Foro Económico Mundial.
  • Otras instituciones como Unicef y ONU Mujeres también cuentan con reportes y estudios sobre estos temas.

 

El resto de la información del proyecto se construyó a través de noticias y medios de comunicación. Gran parte de la información utilizada se encontró a través de los hackatones realizado en varios espacios.


El análisis del partido

Junto a Verónica Toro conversamos sobre los aprendizajes de este proyecto y llegamos a algunas conclusiones y consejos para quienes quieran embarcarse en una aventura similar:

Si la sociedad civil conoce los datos, casos y estadísticas puede generar conciencia en diferentes audiencias y llevarlos a través de emociones como la indignación, el acto de cuestionarse a sí mismos o a sus instituciones y entornos, y movilizarse para buscar una solución.

La ciudadanía hace que los datos tengan sentido. Cuando los usan y se apropian de ellos, se dan cuenta del poder que tienen al manejarlos para contribuir al impacto social.

La gente no comparte datos porque no le llegan o no los conoce. Al entrar en contacto con ellos, empiezan a referirlos, a hablar de ellos, compartirlos y utilizarlos. Proyectos como éste te permiten identificar a una audiencia que está interesada en que las condiciones del juego cambien. Los datos son sólo un medio para este cambio.

Los datos nos permiten también entender nuestro momento histórico: las cosas no eran como antes. Sabemos que han cambiado, en algunos espacios para mejor.

El Mundial de La Igualdad nos está enseñando a aprovechar una coyuntura. Al subirse a la ola del mundial de Rusia, que mueve a muchos, eso fue vital para que el proyecto tuviera impacto. Estos datos que estamos presentando no funcionarían tan bien o tan masivamente en otro tiempo/espacio.

Es muy importante crear debates entre lo que le interesa a las organizaciones sociales y combinarlo con temas o enfoques que interesen a las audiencias.

Las acciones combinadas entre organizaciones suman y pueden generar mayor impacto que muchos esfuerzos individuales no articulados.

Flattr this!

]]>
http://es.schoolofdata.org/2018/07/06/que-le-podemos-aprender-al-mundial-de-la-igualdad/feed/ 0 2613
Formatos de aprendizaje: ¿Cómo escoger mejor qué actividad hacer? http://es.schoolofdata.org/2018/06/15/formatos-de-aprendizaje-como-escoger-mejor-que-actividad-hacer/ http://es.schoolofdata.org/2018/06/15/formatos-de-aprendizaje-como-escoger-mejor-que-actividad-hacer/#respond Fri, 15 Jun 2018 20:51:46 +0000 http://es.schoolofdata.org/?p=2578 La red mundial de Escuela de Datos es un equipo conformado por más de 14 organizaciones o capítulos regionales que trabajan en conjunto para organizar cientos de actividades de enseñanza sobre datos: desde talleres, hasta cursos en línea; campamentos de verano o conferencias internacionales.

El éxito de este enfoque en red no es algo casual: como equipo hemos dedicado mucho esfuerzo a repensar nuestras actividades, nuestros enfoques y nuestros formatos.

Cuando comenzamos, en 2013, nuestro enfoque era muy masivo y privilegiaba los cursos masivos en línea (MOOCs), y con el paso de los años no hemos abandonado eso, pero hemos trabajado mucho más en persona para alcanzar a los periodistas y organizaciones sociales a las que buscamos apoyar.

La matriz de alfabetización de datos

En equipo, elaboramos una matriz que resume muchos de los retos y problemas que hemos enfrentado como Escuela de Datos y de los que platicamos con los miembros de la red. En diferentes sesiones de encuentro entre la red como los summercamps anuales tenemos discusiones y ejercicios que nos permiten ir adecuando nuestro trabajo.

En base a nuestros propios comentarios y aportes, generamos una matriz que resume y clarifica algunos de los temas recurrentes en nuestras evaluaciones y seguimientos. Algunas de estos hallazgos surgen de la experiencia constante y de observaciones post-actividades que, poco a poco, van revelando patrones que nos permiten entender qué funciona mejor.

Queremos que más personas aprendan a usar datos y por eso creemos que estas consideraciones son útiles como parámetro para que proyectemos espacios de interacción que tengan mejores resultados.

En esta matriz la duración del evento es una variable crucial, por diferentes razones:

  • Si programas un evento de mayor duración, menos personas pueden ser parte, pero esos que sí pueden demuestran un mayor nivel de compromiso a las metas del programa.
  •  Los eventos de mayor duración te permiten desarrollar a profundidad diversos contenidos y explorar algunas cuestiones cruciales que en espacios cortos no es recomendable: hablar sobre los matices de un tema, cuestionarlo y desarrollar criterio a través de este proceso que se combine con el conocimiento práctico y teórico.
  • Al trabajar en construcción de capacidades, el tiempo y la repetición son claves para lograr una apropiación de los contenidos, técnicas y herramientas.

Esta matriz nos sirve también para que, cada año, con una nueva generación de líderes que entrenan a otros a través de nuestro programa de Fellowships, ellos puedan tomar discernir mejor qué actividades desarrollar y responder a la demanda de los socios y aliados, así como proyectar una agenda propia.

 

 

La matriz se divide en cuatro propósitos específicos del trabajo de Escuela de Datos y se manifiesta en cuatro temporalidades diferentes.

Creación de contenido: En Escuela de Datos estamos constantemente produciendo tutoriales y blogs con experiencias y reflexiones. No sólo a través de nuestros sitios web sino también activando conversaciones a través de  de nuestras redes sociales y en cursos masivos, webinars y charlas que coproducimos con aliados en diferentes ámbitos.

Construir capacidades de entrenadores: la lógica de nuestra red parte del principio de que una persona que aprendió con nosotros, si continúa aplicando el conocimiento y  aprendiendo más puede eventualmente convertirse en un entrenador. Así fue mi historia con Escuela de Datos. La fellowship trabaja también bajo este enfoque y nuestros fellows de años pasados se convierten en capacitadores experimentados luego de este proceso. Por eso, cuando nos juntamos también dedicamos un tiempo para aprender de los demás y capacitarnos. Muchos programas con los que colaboramos siguen esta lógica expansiva: Training-Of-Trainers que, al entrenar a quienes entrenan, eleva a una potencia n los alcances de nuestros espacios de aprendizaje.

Construir capacidades de beneficiaros: el entrenamiento más clásico supone que un grupo de interesados aprende de un miembro de la red de Escuela de Datos. Hacemos muchas actividades de este tipo, que suelen ser introductorias o que se van adecuando al público específico y los temas diferentes: los datos no quieren decir números y presupuestos, también pueden ser otros temas que trabajamos como género, cambio climático, desarrollo sostenible, rendición de cuentas y acción humanitaria.

Proyectos data-driven: Entendemos la lógica de un proyecto de impacto social y a eso le añadimos un proceso de enfoque basado en la evidencia y lo que nos dicen los datos y su análisis. Es así como hemos acompañado diferentes proyectos alrededor del mundo, ya sean de periodismo de datos e investigación, de recolección de datos en acción humanitaria: salud, emergencias y riesgo; de publicación y apertura de datos desde el gobierno o la sociedad civil y la generación de plataformas digitales en diferentes niveles. No se trata solo de saber qué hacer con los datos, sino saber cómo trabajar en un proyecto en el que estos sean determinantes.

¿Por qué una matriz?

Este cuadro sencillo nos permitió pensar críticamente sobre el valor añadido que cada actividad puede tener. ¿Cuál sería el impacto efectivo de una organización que sólo hace entrenamiento de plazos muy cortos en comparación con otra que se enfoca en proyectos a largo plazo? Al entrevistar a algunos de nuestros socios y miembros de la red pudimos analizar nuestros procesos, y a eso le añadimos reportes de talleres, programas y los resultados de algunas encuestas de evaluación en nuestros talleres (sí, esos formularios o papeles que llenas al finalizar un taller tienen sentido de existir).

Algunas de las conclusiones que surgieron de ese proceso:

  • Las actividades de muy corto plazo son más valiosas para concientizar y promocionar el uso de datos. Además, que sean cortas permite que muchas más personas se adhieran y podamos construir una comunidad de datos activa en los diferentes ecosistemas locales en los que nos movemos.
  • La construcción de capacidades requiere un tiempo mediano o largo de aprendizaje. En una actividad de un día o una mañana se aprenden panoramas generales, pero no tiene la repetición ni las etapas graduales que influyen en la apropiación del conocimiento y la generación de habilidades.
  • La creación de contenido complementa las actividades en persona y se puede generar a partir de, por lo que no consiste sólo en esperar que la gente llegue a tus contenidos por sí mismos o por magia.
  • Los proyectos data-driven en colaboración con socios y beneficiarios son los que demuestran claramente un impacto, aunque no necesariamente este impacto o el proyecto en sí se sostiene en el tiempo.

Con algunas de estas conclusiones construimos una versión de valor añadido que incluye estos criterios que consideramos son útiles para cualquiera que busca formar en habilidades de datos.

 

Estas dos matrices pueden servirte como un recurso a la hora de programar actividades o de sopesar qué opción de aprendizaje te conviene más, entre las diferentes opciones que existen.

Como siempre, estamos dispuestos a escucharte y saber cómo aplicas estos contenidos y si te parecen útiles. Creemos que estos son una guía que puede nutrir el componente metodológico de muchos procesos de formación en tecnología cívica y uso de datos. 

 

La matriz y este contenido son, a la vez, una traducción y adaptación de los propuestos por School of Data. Puedes encontrar esa primera versión en esta publicación en inglés. 

Flattr this!

]]>
http://es.schoolofdata.org/2018/06/15/formatos-de-aprendizaje-como-escoger-mejor-que-actividad-hacer/feed/ 0 2578
Cómo una base de datos en México se adelantó al gobierno para buscar desaparecidos http://es.schoolofdata.org/2017/12/05/como-una-base-de-datos-en-mexico-se-adelanto-al-gobierno-para-buscar-desaparecidos/ http://es.schoolofdata.org/2017/12/05/como-una-base-de-datos-en-mexico-se-adelanto-al-gobierno-para-buscar-desaparecidos/#respond Tue, 05 Dec 2017 18:56:38 +0000 http://es.schoolofdata.org/?p=2369 Peronasdesaparecidas.org.mx es el nombre de la interfaz creada por la organización sin fines de lucro Data Cívica, que logró acercar datos cruciales a familias y organizaciones que buscan a personas desparecidas en México. Estos datos, como el nombre propio de las personas en los casos del fuero común (estatal o de provincias), no están actualmente publicados en la base oficial gubernamental, el Registro Nacional de Personas Extraviadas o Desaparecidas (RNPED).

 

A dos semanas de su lanzamiento (el 14 de noviembre en Ciudad de México) la publicación de más de 31 mil nombres de personas desaparecidas propició que al menos 15 familias y dos colectivos de búsqueda acusen errores tan fundamentales como que el nombre en la base de datos no corresponde al familiar desaparecido, sino a otro famliar, que no lo está.

«El primer gran error (de RNPED), es que las personas desaparecidas no están; el segundo, que datos tan importante para la investigación como la fecha de desaparición, están mal. En uno de los casos, nos contactó la hija de la persona desaparecida diciéndonos que el nombre que está en la base es el de su tío (en lugar del de su padre desaparecido)», dijo en entrevista Héctor Chávez, analista de datos en Data Cívica.

Además de facilitar a familias y organizaciones la verificación de fechas y lugar de desaparición junto con los nombres, la base permitirá una actualización de la base que le otorgue mayor confiabilidad, pues podrá investigarse quiénes, por ejemplo, salen de la base de datos, y por qué razones.

«Podemos ya contar historias sobre las personas desaparecidas con esos nombres. ¿Por qué salió de la base? ¿Se rectificó el delito de desaparición por el de secuestro, fue encontrada la persona con vida, fue encontrada sin vida?», dice Chávez.

Una más de las ventajas de la publicación de los nombres es que finalmente puede cruzarse esta base con las que tienen las organizaciones y colectivas de búsqueda de personas desaparecidas que se han construido en varias entidades del país, y así combatir una de las mayores barreras para el análisis confiable de estos datos: la cifra negra.

«En contacto directo, nos han enviado también doscientas veinte fotos de familiares. Al menos quince familias y dos colectivos de búsqueda nos han contactado. La solución que estamos planteando es en el futuro es publicar un formulario donde sea posible añadir la información del familiar o persona en cuestión».

Días después de la publicación de personasdesaparecidas.org.mx, el representante del poder ejecutivo mexicano firmó la Ley General de Desaparición Forzada de Personas y de Desaparición cometida por particulares, luego de dos años de que se publicara el proyecto de ley en la Gaceta Oficial de la Federación.

Esta ley contempla la publicación obligatoria de todos los nombres de las personas desparecidas en la base oficial, del fuero común o federal. No obstante, la ley no cuenta con mecanismos concretos de implementación aún, como un presupuesto que lo respalde. Por ello, Chávez considera que la publicación de su base se adelanta a la implementación de la ley.

«Estamos ganando meses o hasta años hasta que se publiquen (los nombres en RNPED). La nueva ley sí se habla muy bien con nuestro registro, sin embargo estamos ganando tiempo para las familias en este proceso de memoria y justicia para los desaparecidos”.

Cómo se hizo

La base consiste en la publicación de los datos oficiales de RNPED más 31 mil 968 nombres faltantes. Para lograrlo, el equipo de Data Cívica pasó dos años ideando e intentando distintos métodos.

“El principal camino fue darnos cuenta de que en internet está la base de de datos disponible, donde al insertar el nombre, Sergio, salen todos los registros junto con sus atributos: la fecha donde desapareció, el municipio donde desapareció, entre otras, pero no el nombre completo».

La solución que ideó el equipo de Data Cívica fue ingresar nombre por nombre a la base de datos y descargar cada uno de los registros de cada nombre y apellido para después cruzar los distintos registros y encontrar concordancias.

Aunque al principio trataron de construir la lista de nombres manualmente, finalmente llegaron a la idea de de automatizar el ingreso de nombres usando los que se encuentran en las bases de datos del beneficiarios de los burós de salud y asistencia social mexicanos, el Instituto Mexicano del Seguro Social (IMSS) y de Secretaría de Desarrollo Social (respectivamente).

La automatización, ingreso y descargas de los datos de estas bases tardó alrededor de 5 días, y dependió para lograrlo no sólo de la velocidad de procesamiento bajo el código utilizado, sino de la velocidad de conexión a internet que permitiera la descarga de 18 mil bases de datos.

Pero el proceso más intensivo del análisis ocurrió después de la descarga.

«El reto fue el proceso de limpieza y de verificación. Consistió en verificar contra RNPED que cada «Munoz» que está mal escrito,  cada Zúñiga y otros,  realmente está mal en el RNPED, y no es un error de la automatización de nuestros nombres».

Así, el equipo de Data Cívica se cercioró de que si en la base aparece J en lugar de un nombre, sea porque así está en la base original.

Flattr this!

]]>
http://es.schoolofdata.org/2017/12/05/como-una-base-de-datos-en-mexico-se-adelanto-al-gobierno-para-buscar-desaparecidos/feed/ 0 2369
Cómo crear un mapa 3D de Buenos Aires, Argentina http://es.schoolofdata.org/2017/10/04/como-crear-un-mapa-3d-de-buenos-aires-argentina/ http://es.schoolofdata.org/2017/10/04/como-crear-un-mapa-3d-de-buenos-aires-argentina/#respond Wed, 04 Oct 2017 18:47:26 +0000 http://es.schoolofdata.org/?p=2303 Por Nicolas Grossman y Bruno Salerno

Los mapas son excelentes herramientas para visualizar datos de una ciudad y compararlos entre zonas de la misma. Pero si además podemos graficar los edificios en tres dimensiones, la visualización resulta más impactante aún. En este tutorial contamos cómo realizamos el mapa que muestra los precios promedio del metro cuadrado en cada parcela de la ciudad de Buenos Aires (Argentina) y San Pablo (Brasil), con sus respectivos edificios en 3D.

1. Obtener los shapefiles con las geometrías de las parcelas/edificios de la ciudad y su respectiva altura y un dataset con las propiedades en venta y su precio.

En el caso de Buenos Aires, la información  está en archivos distintos.

2. Calcular el precio por metro cuadrado y la altura para cada parcela

A partir del dataset de propiedades y el de parcelas, utilizando un spatial join de Qgis, se calcula el precio promedio del metro cuadrado que le corresponde a cada parcela. Este tutorial explica simplemente cómo hacerlo.

Luego unimos los datos de las parcelas con la altura de cada edificio.

Se hace una union de estos datasets por el campo que identifica a cada parcela, que incluye la “sección”, la “manzana” y la “parcela”, para así poder asociar cada parcela a su altura correspondiente.

3. Transformar el shapefile en un tileset vectorial

En este punto transformamos el shapefile en un tileset vectorial que es un tipo información georeferenciada que usan múltiples tecnologías de mapas digitales para mostrar los datos.

Se denominan «tilesets» porque se trata de un malla de mosaicos que cubre la superficie deseada: cada mosaico tiene cierta información que va siendo dibujada a medida que navegamos por esa zona del mapa. Si no fuera por estos mosaicos sería muy lento mostrar toda la información que muestra el mapa.

Primero hay que convertir el shapefile producido en el primer punto en un GEOJSON (QGis=> guardar como => GeoJSON).

Usaremos el formato de tiles vectorial de Mapbox, mbtiles, ya que es ahí donde nosotros vamos a subir nuestro tileset. Para realizar la conversión de geojson a mbtiles usaremos el programa tippecanoe (https://github.com/mapbox/tippecanoe):

tippecanoe -o 3d_map_tileset.mbtiles -z 17 -Z 12 3d_map_tileset.geojson

Los parámetros z y Z son importantes, porque los tilesets se construyen por nivel de zoom. Cuanto más grande es el rango de zooms para el que se construye el tileset, más pesado es.

4. Subir el tileset a Mapbox Studio

Una vez generado el archivo, hay que subirlo a Mapbox Studio, en la sección datasets.

 

5. Programar Javascript

Vamos a necesitar programar un poco de javascript para poder mostrar la capa. De hecho, hay que hacer una aplicación en javascript que nos permita cargar un baselayer y el tileset en cuestión. Para eso vamos a usar Mapbox GL JS (https://github.com/mapbox/mapbox-gl-js).  La documentación sobre la API se encuentra en https://www.mapbox.com/mapbox-gl-js/api/.

Supongamos que vamos a hacer todo en un archivo llamado “our_map.html”. Los pasos a seguir serían:

        1. Crear el esqueleto de html:

<html>

<body

  <!– mapbox gl js –>

  <script src=’https://api.tiles.mapbox.com/mapbox-gl-js/v0.38.0/mapbox-gl.js’></script>

  <link href=’https://api.tiles.mapbox.com/mapbox-gl-js/v0.38.0/mapbox-gl.css’ rel=’stylesheet’ />

<script>

  // Here we are going to put our map code

</script>

</body>

</html>

Tenemos que realizar las siguientes tareas dentro del bloque <script>

        2. Cargar mapbox

  var center = [-58.388875,-34.612427];

 

      mapboxgl.accessToken = ‘YOUR ACCESS TOKEN’;

      var map = new mapboxgl.Map({

        container: ‘map’,

        style: ‘mapbox://styles/YOUTUSER/YOUR_BASE_STYLE’,

        center: center,

        zoom: 13.5,

        pitch: 59.5,

        bearing: 0

      });

       3. Cargar el tileset:

 map.on(‘style.load’, function () {

          map.addSource(‘buildings’,

              {«type»: «vector»,

                «url»: «THE TILESET URL»

              });

          map.addLayer({

            ‘id’: ‘buildings’,

            ‘interactive’: true,

            ‘type’: ‘fill-extrusion’,

            ‘source’: ‘buildings’,

            ‘source-layer’: ‘super_new_join_finalgeojson’,

            ‘paint’: {

              ‘fill-extrusion-height’: {

                ‘property’: ‘altura’,

                ‘stops’: [

                  [{zoom: 13, value: 0},   0],

                  [{zoom: 13.5, value: 1000}, 0],

                  [{zoom: 17.5, value: 0}, 0],

                  [{zoom: 17.5, value: 1000}, 1000]

                ]

              },

              ‘fill-extrusion-color’: {

                ‘property’: ‘precio’,

                ‘stops’: [

                  [0, ‘#e6e6e6’],

                  [700, ‘#ffffb2’],

                  [1754, ‘#fecc5c’],

                  [2233, ‘#fd8d3c’],

                  [2751, ‘#f03b20’],

                  [3683, ‘#bd0026’]

                ]

              },

              ‘fill-extrusion-opacity’: 0.9

            }

          }, ‘road_major_label’);

        });

Tomar nota de las partes más importantes:

 ‘fill-extrusion-height’: {

            ‘property’: ‘altura’,

}

Aquí estamos diciendo “tomar las alturas de los edificios del campo ‘altura’”.

Y

fill-extrusion-color: style: {

          ‘property’: ‘precio’,

          ‘stops’: [

            [0, ‘#e6e6e6’],

            [700, ‘#ffffb2’],

            [1754, ‘#fecc5c’],

            [2233, ‘#fd8d3c’],

            [2751, ‘#f03b20’],

            [3683, ‘#bd0026’]

          ]

        }

Aquí estamos diciendo “pintar usando los valores del campo ‘precio’ y usar los rangos para diferenciar los colores”, si no hay valor, usar ‘#e6e6e6’, si el valor está entre 0 y 700, usar ‘#ffffb2’, si el valor está entre 700 y 1754 usar  ‘#fecc5c’, y así sucesivamente.

 

El código completo sería:

<html>

  <body

    <!– mapbox gl js –>

    <script src=’https://api.tiles.mapbox.com/mapbox-gl-js/v0.38.0/mapbox-gl.js’></script>

    <link href=’https://api.tiles.mapbox.com/mapbox-gl-js/v0.38.0/mapbox-gl.css’ rel=’stylesheet’ />

    <div style=»padding:0; margin:0; width:100%; height:100%» id=»map»></div>

    <script>

      window.onload = function(){

        var center = [-58.388875,-34.612427];

        mapboxgl.accessToken = ‘YOUR ACCESS TOKEN’;

        var map = new mapboxgl.Map({

          container: ‘map’,

          style: ‘mapbox://styles/YOUTUSER/YOUR_BASE_STYLE’,

          center: center,

          zoom: 13.5,

          pitch: 59.5,

          bearing: 0

        });

        map.on(‘style.load’, function () {

          map.addSource(‘buildings’,

              {«type»: «vector»,

                «url»: «THE TILESET URL»

              });

          map.addLayer({

            ‘id’: ‘buildings’,

            ‘interactive’: true,

            ‘type’: ‘fill-extrusion’,

            ‘source’: ‘buildings’,

            ‘source-layer’: ‘super_new_join_finalgeojson’,

            ‘paint’: {

              ‘fill-extrusion-height’: {

                ‘property’: ‘altura’,

                ‘stops’: [

                  [{zoom: 13, value: 0},   0],

                  [{zoom: 13.5, value: 1000}, 0],

                  [{zoom: 17.5, value: 0}, 0],

                  [{zoom: 17.5, value: 1000}, 1000]

                ]

              },

              ‘fill-extrusion-color’: {

                ‘property’: ‘precio’,

                ‘stops’: [

                  [0, ‘#e6e6e6’],

                  [700, ‘#ffffb2’],

                  [1754, ‘#fecc5c’],

                  [2233, ‘#fd8d3c’],

                  [2751, ‘#f03b20’],

                  [3683, ‘#bd0026’]

                ]

              },

              ‘fill-extrusion-opacity’: 0.9

            }

          }, ‘road_major_label’);

        });

      }

    </script>

  </body>

</html>

Servir el HTML desde un server

Ahora hay que servir el html desde un server. En nuestra máquina local podemos usar http-server . Una vez instalado, (se puede instalar con npm: npm install http-server), hay que correrlo en la misma carpeta donde tenemos nuestro html. Y después, en el browser, navegar a localhost:8080/our_map.html.

Flattr this!

]]>
http://es.schoolofdata.org/2017/10/04/como-crear-un-mapa-3d-de-buenos-aires-argentina/feed/ 0 2303
Continúa el mapeo de vías y necesidades en México tras el terremoto http://es.schoolofdata.org/2017/09/27/mapeo-para-alivio-humanitario-tras-terremotos-en-mexico/ http://es.schoolofdata.org/2017/09/27/mapeo-para-alivio-humanitario-tras-terremotos-en-mexico/#comments Wed, 27 Sep 2017 21:54:43 +0000 http://es.schoolofdata.org/?p=2285

CC atribución, compartir igual. Pot Patricia Curiel

El flujo de ayuda proveniente de la desbordante salida de la población a las calles de la Ciudad de México tras el terremoto del 19 de septiembre, población que dejó centros de trabajo y hogares propios para auxiliar a otros, se convierte también en un flujo de información que es necesario organizar para garantizar que la ayude llegue donde se requiere.

Miles de voluntarixs, con pico, pala y casco, pero también con alimentos, vendas, jeringas y otros materiales médicos llegaron a hacer fila para remover escombros o aliviar necesidades básicas de la población a cada uno de los más de 40 derrumbes en la ciudad.  Siguen llegando, aunque ahora con menos frecuencia, olas voluntarias que en en un principio hacían fila para llevar alimentos a centros de acopio rebasados, o que ya no podían almacenar el suficiente tiempo alimentos percederos. Esta fuerza política enfocada en la ayuda al otro irá languideciendo conforme pasen los días, a menos que hagamos un esfuerzo por lo contrario.

Aquí encuentras las fuentes y salidas de datos para el alivio de los terremotos del 7 y 19 de septiembre en México, y que afectaron principalmente a los estados de Chiapas, Oaxaca, Puebla, Morelos, Estado de México y Ciudad de México.

OSM México

Desde el 9 de septiembre, un equipo liderado por Miriam González, Celine Jacquin, Edgar Lemus y al que se sumaron pronto Sandra Hernández y Vianney Pars, así como activistas ligadas a Openstreetmap México, iniciaron el trabajo de digitalizar la primera capa de información crucial para facilitar llegada de alivio humanitario a zonas de desastre: las vías de comunicación y edificios derrumbados.

Pero del más reciente terremoto sólo hay cuatro tareas completas de cartografía al 100%: la de Axochiapan, Morelos, y Atlixco, Atzitzihuacán y Atzala, en el estado de Puebla; mientras que faltan otras ocho tareas de mapeo relacionadas con el más reciente terremoto y otras tantas tareas de validación de esos mismos mapeos.

Existen dos formas de cartografía básicos, en sitio y remoto. Para sumarte al mapeo y validación, puedes ver esta capacitación que grabó Miriam en los días posteriores al sismo del 19 de septiembre.

En cuanto a la visualización de los datos que mapea OSM y su equipo de decenas de voluntarixs, el esfuerzo más comprensivo de agregación de datos lo llevó a cabo Leonel Castañeda , quien publica http://mapa.sismomexico.org/  gracias al trabajo de «deploy» que facilitó Codeando México, plataforma que agrega y visualiza datos no sólo de OSM, sino de las siguientes plataformas.

  • Manos a la obra, la plataforma más actualizada de ofertas y publicación de necesidades de ayuda, y que por defecto ofrece de una manera clara la descarga de su base de datos. Ojo: esta fuente de datos se actualiza en el sitio de manos a la obra, pero las capas que aparecen en mapasismomexico, por alguna razón no están actualizadas.
  • Mapillary, que es una herramienta muy usada en la cartografía para openstreetmap, pues permite subir a los servidores de esta organización fotografías y reportes de manera intuitiva
  • Verificado19s, un grupo de voluntarias y voluntarios que verifica las necesidades publicadas en redes sociales a partir de llamadas telefónicas y publica anuncios verificados.

En el grupo de trabajo se creó un subgrupo de depuración de datos, cuyo papel fue homologar en una base destino las bases heterogéneas que existen, con un proceso de limpieza de datos geográficos en el proceso.

Los grupos de pobladores autónomos y activistas críticos de los efectos del dominio del Estado mexicano y sus instituciones, así como de empresas y asociaciones alineadas con este,  pueden usar también plataformas creadas y gestionadas con software libre para reunir datos de centros de acopio y daños en inmueble. Un ejemplo de esta opción es solidaridat.mx.

Esta última realiza una labor exclusivamente de registro, no de vinculación inmediata con especialistas estructuralistas, como sí hace salvatucasa.mx, quienes acercan los reportes a estos expertos para la revisión de los inmuebles.

Flattr this!

]]>
http://es.schoolofdata.org/2017/09/27/mapeo-para-alivio-humanitario-tras-terremotos-en-mexico/feed/ 1 2285
Datos para fiscalizar a municipios en Argentina http://es.schoolofdata.org/2017/08/02/datos-para-fiscalizar-a-municipios-en-argentina/ http://es.schoolofdata.org/2017/08/02/datos-para-fiscalizar-a-municipios-en-argentina/#comments Wed, 02 Aug 2017 17:39:57 +0000 http://es.schoolofdata.org/?p=2183 En un entorno donde los datos locales se hacen cada vez más necesarios y relevantes, Datos Concepción, organización evangelista sobre datos abiertos en Argentina, lanzó un portal de apertura de datos municipales con visualizaciones interactivas, filtros para bucear en los datos y bases descargables para que puedan ser reutilizadas en nuevas aplicaciones y herramientas.

En esta colaboración, Adrián Pino, coordinador de Datos Concepción y Soledad Arreguez, periodista, investigadora y colaboradora de la misma organización, comparten cinco aprendizajes clave sobre la creación y navegación del portal de datos abiertos.

El proyecto nació hace un año con la meta de montar el primer portal de transparencia de la provincia de Entre Ríos (Argentina) para la Municipalidad de Concepción del Uruguay. La plataforma se lanzó el lunes 4 de Julio de 2017 y ya está en línea en www.concepciontransparente.org.   desde allí es posible el acceso a los gastos del Municipio desde 2009 hasta la actualidad.
La plataforma (en versión beta) permite a los usuarios filtrar y visualizar el régimen de contrataciones y otras modalidades a partir de la información oficial que publica la Municipalidad, incluyendo la cantidad de órdenes de compra, el ranking de obra pública y el monto que percibió cada proveedor.

El coordinador de Datos Concepción, Adrián Pino,  dijo que “el desafío implicó pensar en una herramienta dinámica, simple de entender para el común de los usuarios y con una fuerte apuesta a estructurar los datos de forma clara y ordenada para que sea fácil efectuar búsquedas, seleccionar proveedores y descargar la información”.

Aprendizajes

1. Mostrar los contratistas de la Obra Pública

 

 

 

La enorme sensibilidad que despiertan los hechos de corrupción vinculados a las coimas en las obras Públicas vuelve necesario exhibir un Ranking de Contratos de Obra Pública para dar seguimiento a los principales beneficiarios de este rubro. No hay transparencia posible si no se identifica claramente quiénes son los principales contratistas de la obra pública, cuántos contratos recibieron y por cuánto dinero.

2. Filtros para bucear en los datos

Para promover un gobierno transparente hay que permitir que todas las contrataciones estén disponibles y en línea, y puedan ser exploradas con filtros para comparar. El control cruzado de proveedores y los procesos de auditoría cívica que permite el Portal Concepción Transparente marcan un piso elevado para los intentos de corrupción. La posibilidad de interactuar con los datos es crucial en este tipo de proyectos.

 

 

 

 

 

 

 

 

 

 

 

3. Permitir el análisis a través del tiempo

Si se muestra información a partir de los años disponibles, es posible trabajar con el filtro de fecha, que permite analizar algunos patrones en los datos y gastos de los Municipios.

4. Visualizaciones interactivas.

La sencillez y claridad de las visualizaciones es una necesidad creciente entre los Portales de Transparencia, que tienen la enorme misión de ayudar a los ciudadanos a entender el destino de los dineros públicos.

 

 

 

 

 

 

 

 

5. Datos Abiertos

La disponibilidad para descargar los datos en formatos abiertos es un requisito cada vez más necesario en la promoción de formas de empoderamiento que impulsan los procesos de apertura y transparencia de datos públicos. Con más datos en poder de los usuarios, es más probable que haya mejores controles para evitar el desvío de fondos públicos.

El desafío de escalar

El trabajo de Datos Concepción en el desarrollo de esta herramienta contó con las aportaciones del equipo de Genosha y se estructuró con un esquema que permite ser adaptado a los requerimientos de otros Municipios de Latinoamérica. En esta etapa posterior al lanzamiento estamos mejorando las prestaciones del Portal, agregando funcionalidades y visualizaciones que mejoren la comprensión de los gastos de cada Municipio.

El esfuerzo de nuestro equipo está enfocado en ciudades de hasta 300 mil habitantes, entendiendo que los Municipios de menor cantidad de población son los que requieren más acompañamiento para avanzar en políticas de Transparencia y Apertura de Datos.

En este momento el equipo de Datos Concepción está a la búsqueda de financiamiento adicional que les permita escalar a otros Municipios de Latinoamérica que ya han mostrado interés en replicar este Portal de Transparencia.

Flattr this!

]]>
http://es.schoolofdata.org/2017/08/02/datos-para-fiscalizar-a-municipios-en-argentina/feed/ 4 2183
Cómo entender el presupuesto, caso de éxito de un MOOC en México http://es.schoolofdata.org/2017/07/29/como-entender-el-presupuesto-caso-de-exito-de-un-mooc-en-mexico/ http://es.schoolofdata.org/2017/07/29/como-entender-el-presupuesto-caso-de-exito-de-un-mooc-en-mexico/#comments Sat, 29 Jul 2017 03:09:44 +0000 http://es.schoolofdata.org/?p=2178

 

Cómo Entender el Presupuesto, el Gasto Público a través de los Datos es un curso masivo en línea ocurrido en México entre marzo y abril de 2017.  Es un ejemplo de la colaboración entre organizaciones civiles como Socialtic e instancias gubernamentales mexicanas como la Secretaría de Hacienda y Crédito Público (SHCP).

En esta entrevista Lorena Rivero, directora del área de monitoreo del desempeño y análisis de la información en la SHCP, relata junto con Sergio Araiza, responsable del área de datos en Socialtic, los logros del curso masivo.

Con apenas tres semanas de registro, reunió a 17 mil 500 estudiantes, de los cuales cerca de la mitad comenzó alguna de las actividades. De estas personas 70 por ciento aprobó el curso, un número inusitado para capacitaciones de esta naturaleza.

La mitad de ellos, además, aprobó con un puntaje mayor a 95. Los estudiantes fueron principalmente servidores públicos (alrededor del 80 por ciento) académicos (12%), integrantes de la iniciativa privada y organizaciones civiles formaron el resto.

A través de este curso y el anterior, uno que SHCP organizó en colaboración con la Universidad Nacional Autónoma de México (UNAM), Rivero ha llegado a la conclusión de que los datos locales son los más relevantes para la comunidad general y, por lo tanto, los más valiosos y los que más apremian cursos como Entender el Presupuesto.

Dada la demanda, se prevé que se abra una nueva edición próximamente.

Flattr this!

]]>
http://es.schoolofdata.org/2017/07/29/como-entender-el-presupuesto-caso-de-exito-de-un-mooc-en-mexico/feed/ 2 2178