datos abiertos – Escuela De Datos http://es.schoolofdata.org evidencia es poder Thu, 09 Aug 2018 15:26:49 +0000 es hourly 1 https://wordpress.org/?v=5.3.2 114974193 Fellows Estado Abierto en Costa Rica: Conóceles. http://es.schoolofdata.org/2018/08/09/fellows-estado-abierto-en-costa-rica-conoceles/ http://es.schoolofdata.org/2018/08/09/fellows-estado-abierto-en-costa-rica-conoceles/#respond Thu, 09 Aug 2018 15:21:00 +0000 http://es.schoolofdata.org/?p=2661 Este año comenzamos una nueva modalidad de fellowship, la Fellowship Estado Abierto, a través de la cual líderes locales colaboran con instituciones públicas para afrontar los retos de abrir datos desde el sector público.

Esta generación tendrá la oportunidad de trabajar en conjunto con dos instituciones del Gobierno de Costa Rica, así como en colaboración con la Iniciativa Latinoamericana de Datos Abiertos (ILDA) y Escuela de Datos.

Guillermo Durán – Cambio Climático 

@gds506

A Guillermo le interesa hacer entendibles los análisis de datos a través de la visualización. Tiene experiencia en el uso de diferentes tecnologías, como programación en R (tidyverse, shiny y data.table), PostfreSQL, ArcGIS y QGIS.

Su trabajo en biogeografía lo ha llevado a diseñar áreas protegidas en Panamá, georeferenciar los datos de los museos de Historial Natural o trabajar en las distribuciones de ciertas especies en futuros climáticos usando Machine Learning. Guillermo estudió ingeniería forestal en Instituto Tecnológico de Costa Rica y luego obtuvo una maestría en Geografía en la Universidad Estatal de San Francisco, California. Forma parte del Centro de Investigaciones Geofísicas de la Universidad de Costa Rica con el análisis y visualización de modelos climáticos.

Guillermo estará trabajando en utilizar indicadores sobre el estado del medio ambiente, los Objetivos de Desarrollo Sustentable y relacionarlos con el cambio climático junto a la Dirección de Cambio Climático del Ministerio de Ambiente y Energía.


Eugenia Loria – Contrataciones Abiertas

Eugenia tiene experiencia en el uso de software estadísticos como SPSS, Minitab, JMP, Eviews y lenguajes de programación como R. Busca explicar las contrataciones a través de la relación entre variables y modelos explicativos, así como la evaluación del impacto de los diferentes programas.

Ha trabajado en la Banca Central de Costa Rica y en órganos multilaterales. Tiene experiencia en la docencia. Su área de fortaleza es la estadística descriptiva y el análisis de datos.

Le interesa usar su creatividad para promover el uso de datos y estadística para la toma de decisiones en el ámbito público. Cree en el poder de la alfabetización en datos. Ve la transparencia como una oportunidad para eficientar el trabajo del sector público.

Eugenia se dedicará a trabajar en Contrataciones Abiertas, una oportunidad para la rendición de cuentas y la transparencia, junto a la Dirección General de Administración de Bienes y Contratación Administrativa del Ministerio de Hacienda.


El programa de la fellowship Datos Abiertos para el Estado Abierto está diseñado para que nuestros fellows puedan organizar talleres, eventos de comunidad en Costa Rica y contenidos educativos, además de generar proyectos de mayor alcance con las instituciones aliadas.Este programa es apoyado por el fondo de transparencia del Banco Interamericano de Desarrollo (BID) y la colaboración de la Fundación Avina.

La Fellowship Estado Abierto continúa con el trabajo desarrollado por ILDA y la Universidad de Costa Rica capacitando a más de 140 personas en el servicio civil, y  busca aumentar la conciencia sobre la alfabetización de datos en el sector público y fortalecer comunidades que, juntas, pueden poner en práctica sus habilidades para hacer el cambio que quieren ver en el mundo.

Flattr this!

]]>
http://es.schoolofdata.org/2018/08/09/fellows-estado-abierto-en-costa-rica-conoceles/feed/ 0 2661
Buscamos a la generación 2018 de fellows de EscuelaDeDatos http://es.schoolofdata.org/2018/04/16/buscamos-a-la-generacion-2018-de-fellows-de-escuela-de-datos/ http://es.schoolofdata.org/2018/04/16/buscamos-a-la-generacion-2018-de-fellows-de-escuela-de-datos/#comments Mon, 16 Apr 2018 17:35:08 +0000 http://es.schoolofdata.org/?p=2474 Buscamos mujeres y hombres apasionadxs por los datos. Si tienes experiencia en periodismo, diseño, desarrollo web, visualización de datos, economía, ciencia de datos o cualquier otra rama relacionada con el uso de datos y tecnología para contribuir a la sociedad, te estamos buscando.

Conoce más detalles sobre esta oportunidad…

Sobre la fellowship

Las fellowships son posiciones de 9 meses para personas apasionadas por los datos con talento y creatividad para generar actividades y proyectos innovadores.  Durante este periodo de tiempo, los y las fellows trabajan como parte de la red de Escuela de Datos desarrollando nuevas habilidades y conocimientos ya sea relacionados con una temática social, la construcción de comunidades de datos y la formación para alcanzar un mayor uso de datos.

Este período es una oportunidad para que una persona con trabajo previo pueda desarrollar su potencial de una manera más plena, con el apoyo de la red de formadores y especialistas de Escuela de Datos.

La fellowship de Escuela de Datos te permite crecer, generar proyectos de mayor alcance y contar apoyo participar de eventos y conferencias internacionales, asi como  organizar tus propias actividades y apoyar a tu comunidad local.

Como parte de este fellowship, nuestro objetivo conjunto es incrementar la alfabetización de datos y construir comunidades de práctica que cuenten con las habilidades en el uso de datos para poder cambiar su entorno. En este año, las fellowships tendrán un enfoque temático: las Contrataciones Abiertas, una oportunidad para fiscalizar cómo los gobiernos hacen uso de los bienes públicos y exigirles que rindan cuentas.

Una fellowship temática

Para enfocar el entrenamiento y experiencia de aprendizaje de las y los Fellows de Escuela de Datos 2018, este año se contempla un enfoque temático. Como resultado, se priorizará la selección de postulantes que:

  • Cuenten con experiencia profesional o proyectos personales en relación con alguna arista de este enfoque temático.
  • Muestren entusiasmo por el entrenamiento y la formación de capacidades. Ser fellow conlleva realizar talleres, mentorías y asesoría necesarias para formar en uso y manejo de datos.
  • Conozcan a su comunidad local de organizaciones que trabajan en temas relacionados con transparencia, fiscalización, uso de datos y desarrollo sostenible. Que demuestren tener vínculos con quienes abordan esta temática de manera directa

Estamos buscando a individuos involucrados que ya cuentan con conocimiento profundo de un sector o tema, y que activamente han influenciado el uso de los datos en esa temática dada. Este enfoque permitirá a las y los Fellows iniciar rápidamente actividades y alcanzar lo máximo durante su participación en la Escuela de Datos: ¡nueve meses pasan muy rápido!

< Conoce más sobre el enfoque temático >

Nueve meses para generar un impacto

La Fellowship es de mayo  a diciembre de 2018 y comprende por lo menos 10 días al mes del tiempo de cada Fellow para trabajar offline y online. La o el Fellow debe fortalecer su comunidad local a través de entrenamientos, apoyando proyectos basados en datos y satisfaciendo sus necesidades para el uso de datos. Virtualmente, la o el Fellow debe participar activamente en la red global de School of Data, compartiendo conocimiento a través de sesiones online, posts en el blog y contribuyendo con la generación y actualización de los recursos de enseñanza de la comunidad. Cada Fellow recibirá un apoyo mensual de $1,000USD por su trabajo.

Como parte del programa, todos los Fellows seleccionados participarán presencialmente en el SummerCamp 2018 de la red global de School of Data en donde conocerán a otros miembros de la comunidad, compartirán conocimientos y habilidades, aprenderán sobre métodos, tácticas y enfoques de entrenamiento de Escuela de Datos.

Buscamos a personas que tengan experiencia en trabajar con datos y diversas tecnologías, por eso el perfil profesional o de estudios es variable. En el pasado nuestros fellows han sido desarrolladores, comunicadoras, economistas y periodistas con diferentes habilidades específicas, pero algo en común: pasión por los datos y el trabajo en comunidad.

Las tareas comunes de la fellowship incluyen

  • Construir comunidad local de usuarios y públicos, lograr primeros acercamientos con interesados en el uso de datos abiertos a través de talleres, charlas y meetups. 
  • Conocimiento básico de metodologías de uso de datos para enseñarle a otros y crear contenidos educativos que se publican en nuestro blog. 
  • Brindar asesoría técnica en el uso de datos y metodologías a otras organizaciones o proyectos
  • Poder conducir un proyecto propio relacionado a los temas de la fellowship.
  • Organizar, planificar y dar seguimiento a proyectos cívicos y la generación de diversos productos.

¿Qué estás esperando? Tienes hasta el 6 de mayo de 2018 para aplicar a esta oportunidad.

Para aplicar, ingresa al formulario 

http://bit.ly/2018_fellowship

Para más información, escríbenos a [email protected] o tuiteanos a @EscuelaDeDatos

Flattr this!

]]>
http://es.schoolofdata.org/2018/04/16/buscamos-a-la-generacion-2018-de-fellows-de-escuela-de-datos/feed/ 2 2474
Cómo una base de datos en México se adelantó al gobierno para buscar desaparecidos http://es.schoolofdata.org/2017/12/05/como-una-base-de-datos-en-mexico-se-adelanto-al-gobierno-para-buscar-desaparecidos/ http://es.schoolofdata.org/2017/12/05/como-una-base-de-datos-en-mexico-se-adelanto-al-gobierno-para-buscar-desaparecidos/#respond Tue, 05 Dec 2017 18:56:38 +0000 http://es.schoolofdata.org/?p=2369 Peronasdesaparecidas.org.mx es el nombre de la interfaz creada por la organización sin fines de lucro Data Cívica, que logró acercar datos cruciales a familias y organizaciones que buscan a personas desparecidas en México. Estos datos, como el nombre propio de las personas en los casos del fuero común (estatal o de provincias), no están actualmente publicados en la base oficial gubernamental, el Registro Nacional de Personas Extraviadas o Desaparecidas (RNPED).

 

A dos semanas de su lanzamiento (el 14 de noviembre en Ciudad de México) la publicación de más de 31 mil nombres de personas desaparecidas propició que al menos 15 familias y dos colectivos de búsqueda acusen errores tan fundamentales como que el nombre en la base de datos no corresponde al familiar desaparecido, sino a otro famliar, que no lo está.

«El primer gran error (de RNPED), es que las personas desaparecidas no están; el segundo, que datos tan importante para la investigación como la fecha de desaparición, están mal. En uno de los casos, nos contactó la hija de la persona desaparecida diciéndonos que el nombre que está en la base es el de su tío (en lugar del de su padre desaparecido)», dijo en entrevista Héctor Chávez, analista de datos en Data Cívica.

Además de facilitar a familias y organizaciones la verificación de fechas y lugar de desaparición junto con los nombres, la base permitirá una actualización de la base que le otorgue mayor confiabilidad, pues podrá investigarse quiénes, por ejemplo, salen de la base de datos, y por qué razones.

«Podemos ya contar historias sobre las personas desaparecidas con esos nombres. ¿Por qué salió de la base? ¿Se rectificó el delito de desaparición por el de secuestro, fue encontrada la persona con vida, fue encontrada sin vida?», dice Chávez.

Una más de las ventajas de la publicación de los nombres es que finalmente puede cruzarse esta base con las que tienen las organizaciones y colectivas de búsqueda de personas desaparecidas que se han construido en varias entidades del país, y así combatir una de las mayores barreras para el análisis confiable de estos datos: la cifra negra.

«En contacto directo, nos han enviado también doscientas veinte fotos de familiares. Al menos quince familias y dos colectivos de búsqueda nos han contactado. La solución que estamos planteando es en el futuro es publicar un formulario donde sea posible añadir la información del familiar o persona en cuestión».

Días después de la publicación de personasdesaparecidas.org.mx, el representante del poder ejecutivo mexicano firmó la Ley General de Desaparición Forzada de Personas y de Desaparición cometida por particulares, luego de dos años de que se publicara el proyecto de ley en la Gaceta Oficial de la Federación.

Esta ley contempla la publicación obligatoria de todos los nombres de las personas desparecidas en la base oficial, del fuero común o federal. No obstante, la ley no cuenta con mecanismos concretos de implementación aún, como un presupuesto que lo respalde. Por ello, Chávez considera que la publicación de su base se adelanta a la implementación de la ley.

«Estamos ganando meses o hasta años hasta que se publiquen (los nombres en RNPED). La nueva ley sí se habla muy bien con nuestro registro, sin embargo estamos ganando tiempo para las familias en este proceso de memoria y justicia para los desaparecidos”.

Cómo se hizo

La base consiste en la publicación de los datos oficiales de RNPED más 31 mil 968 nombres faltantes. Para lograrlo, el equipo de Data Cívica pasó dos años ideando e intentando distintos métodos.

“El principal camino fue darnos cuenta de que en internet está la base de de datos disponible, donde al insertar el nombre, Sergio, salen todos los registros junto con sus atributos: la fecha donde desapareció, el municipio donde desapareció, entre otras, pero no el nombre completo».

La solución que ideó el equipo de Data Cívica fue ingresar nombre por nombre a la base de datos y descargar cada uno de los registros de cada nombre y apellido para después cruzar los distintos registros y encontrar concordancias.

Aunque al principio trataron de construir la lista de nombres manualmente, finalmente llegaron a la idea de de automatizar el ingreso de nombres usando los que se encuentran en las bases de datos del beneficiarios de los burós de salud y asistencia social mexicanos, el Instituto Mexicano del Seguro Social (IMSS) y de Secretaría de Desarrollo Social (respectivamente).

La automatización, ingreso y descargas de los datos de estas bases tardó alrededor de 5 días, y dependió para lograrlo no sólo de la velocidad de procesamiento bajo el código utilizado, sino de la velocidad de conexión a internet que permitiera la descarga de 18 mil bases de datos.

Pero el proceso más intensivo del análisis ocurrió después de la descarga.

«El reto fue el proceso de limpieza y de verificación. Consistió en verificar contra RNPED que cada «Munoz» que está mal escrito,  cada Zúñiga y otros,  realmente está mal en el RNPED, y no es un error de la automatización de nuestros nombres».

Así, el equipo de Data Cívica se cercioró de que si en la base aparece J en lugar de un nombre, sea porque así está en la base original.

Flattr this!

]]>
http://es.schoolofdata.org/2017/12/05/como-una-base-de-datos-en-mexico-se-adelanto-al-gobierno-para-buscar-desaparecidos/feed/ 0 2369
Únete al mapeo y validación de datos por terremoto en México http://es.schoolofdata.org/2017/09/14/unete-al-mapeo-y-validacion-de-datos-por-terremoto-en-mexico/ http://es.schoolofdata.org/2017/09/14/unete-al-mapeo-y-validacion-de-datos-por-terremoto-en-mexico/#comments Thu, 14 Sep 2017 16:08:07 +0000 http://es.schoolofdata.org/?p=2275

CopyfarleftP2P Subversiones.org

El desastre en México no ha concluido. Los terremotos del 8 y 19 de septiembre dejaron centenares de muertos y millones de damnificados, muchos de los cuales lo perdieron todo.

La comunidad del equipo humanitario de OpenStreetMap (HOT), por sus siglas en inglés, se volcó inmediatamente a la tarea de mapear los daños en caminos y edificaciones, labor que es fundamental para evaluar el daño y continuar haciendo llegar ayuda humanitaria, particularmente a los estados de Chiapas y Oaxaca en ese país.

Aquí puedes consultar la tarea del último terremoto en México, y las tareas de validación y mapeo pendientes. A la cabeza de este esfuerzo está Miriam González, parte de OpenStreetMap México.

Aunque las tareas han avanzado, aún faltan algunos mapeos para personas que quieran iniciar en OpenStreetMap, pero, también se requiere de validación

Si no sabes cómo hacerlo, aprende a mapear caminos y edificios en unos minutos con este video de José Luis Domingo. No es necesario que estés en México para colaborar.

En este apartado, la comunidad de OpenStreetMap pone a disposición de la comunidad interesada en ayudar, otros recursos para el aprendizaje y uso de mapas.

Para personas que no estén familiarizadas con el funcionamiento de OSM, pueden encontrar sencillas instrucciones por escrito aquí.

Si eres una usuaria más familiarizada con la plataforma, puedes encontrar información para validación de mapas aquí.

Datos abiertos para el alivio del desastre

Si eres una persona cercana a las localidades afectadas que buscar usar datos para aliviar el desastre o colaborar para hacer llegar víveres a las personas que los requieren, para las tareas que ya se completaron es posible descargar los datos abiertos del terremoto, en Juchitán de Zaragoza y San Dionisio del Mar, dos de los municipios más devastados por el terremoto.

Flattr this!

]]>
http://es.schoolofdata.org/2017/09/14/unete-al-mapeo-y-validacion-de-datos-por-terremoto-en-mexico/feed/ 1 2275
Datos para fiscalizar a municipios en Argentina http://es.schoolofdata.org/2017/08/02/datos-para-fiscalizar-a-municipios-en-argentina/ http://es.schoolofdata.org/2017/08/02/datos-para-fiscalizar-a-municipios-en-argentina/#comments Wed, 02 Aug 2017 17:39:57 +0000 http://es.schoolofdata.org/?p=2183 En un entorno donde los datos locales se hacen cada vez más necesarios y relevantes, Datos Concepción, organización evangelista sobre datos abiertos en Argentina, lanzó un portal de apertura de datos municipales con visualizaciones interactivas, filtros para bucear en los datos y bases descargables para que puedan ser reutilizadas en nuevas aplicaciones y herramientas.

En esta colaboración, Adrián Pino, coordinador de Datos Concepción y Soledad Arreguez, periodista, investigadora y colaboradora de la misma organización, comparten cinco aprendizajes clave sobre la creación y navegación del portal de datos abiertos.

El proyecto nació hace un año con la meta de montar el primer portal de transparencia de la provincia de Entre Ríos (Argentina) para la Municipalidad de Concepción del Uruguay. La plataforma se lanzó el lunes 4 de Julio de 2017 y ya está en línea en www.concepciontransparente.org.   desde allí es posible el acceso a los gastos del Municipio desde 2009 hasta la actualidad.
La plataforma (en versión beta) permite a los usuarios filtrar y visualizar el régimen de contrataciones y otras modalidades a partir de la información oficial que publica la Municipalidad, incluyendo la cantidad de órdenes de compra, el ranking de obra pública y el monto que percibió cada proveedor.

El coordinador de Datos Concepción, Adrián Pino,  dijo que “el desafío implicó pensar en una herramienta dinámica, simple de entender para el común de los usuarios y con una fuerte apuesta a estructurar los datos de forma clara y ordenada para que sea fácil efectuar búsquedas, seleccionar proveedores y descargar la información”.

Aprendizajes

1. Mostrar los contratistas de la Obra Pública

 

 

 

La enorme sensibilidad que despiertan los hechos de corrupción vinculados a las coimas en las obras Públicas vuelve necesario exhibir un Ranking de Contratos de Obra Pública para dar seguimiento a los principales beneficiarios de este rubro. No hay transparencia posible si no se identifica claramente quiénes son los principales contratistas de la obra pública, cuántos contratos recibieron y por cuánto dinero.

2. Filtros para bucear en los datos

Para promover un gobierno transparente hay que permitir que todas las contrataciones estén disponibles y en línea, y puedan ser exploradas con filtros para comparar. El control cruzado de proveedores y los procesos de auditoría cívica que permite el Portal Concepción Transparente marcan un piso elevado para los intentos de corrupción. La posibilidad de interactuar con los datos es crucial en este tipo de proyectos.

 

 

 

 

 

 

 

 

 

 

 

3. Permitir el análisis a través del tiempo

Si se muestra información a partir de los años disponibles, es posible trabajar con el filtro de fecha, que permite analizar algunos patrones en los datos y gastos de los Municipios.

4. Visualizaciones interactivas.

La sencillez y claridad de las visualizaciones es una necesidad creciente entre los Portales de Transparencia, que tienen la enorme misión de ayudar a los ciudadanos a entender el destino de los dineros públicos.

 

 

 

 

 

 

 

 

5. Datos Abiertos

La disponibilidad para descargar los datos en formatos abiertos es un requisito cada vez más necesario en la promoción de formas de empoderamiento que impulsan los procesos de apertura y transparencia de datos públicos. Con más datos en poder de los usuarios, es más probable que haya mejores controles para evitar el desvío de fondos públicos.

El desafío de escalar

El trabajo de Datos Concepción en el desarrollo de esta herramienta contó con las aportaciones del equipo de Genosha y se estructuró con un esquema que permite ser adaptado a los requerimientos de otros Municipios de Latinoamérica. En esta etapa posterior al lanzamiento estamos mejorando las prestaciones del Portal, agregando funcionalidades y visualizaciones que mejoren la comprensión de los gastos de cada Municipio.

El esfuerzo de nuestro equipo está enfocado en ciudades de hasta 300 mil habitantes, entendiendo que los Municipios de menor cantidad de población son los que requieren más acompañamiento para avanzar en políticas de Transparencia y Apertura de Datos.

En este momento el equipo de Datos Concepción está a la búsqueda de financiamiento adicional que les permita escalar a otros Municipios de Latinoamérica que ya han mostrado interés en replicar este Portal de Transparencia.

Flattr this!

]]>
http://es.schoolofdata.org/2017/08/02/datos-para-fiscalizar-a-municipios-en-argentina/feed/ 4 2183
Relevancia de datos abiertos: del discurso al impacto http://es.schoolofdata.org/2017/05/29/relevancia-de-datos-abiertos-del-discurso-al-impacto/ http://es.schoolofdata.org/2017/05/29/relevancia-de-datos-abiertos-del-discurso-al-impacto/#respond Mon, 29 May 2017 00:00:03 +0000 http://es.schoolofdata.org/?p=2059 Chasm

CC by SA Monyo Kararan

Hay todavía un abismo entre el discurso de datos abiertos y el impacto que esta apertura, publicación, vinculación y otras prácticas tienen en la vida de las poblaciones globales. El puente entre los extremos de ese abismo es la relevancia de los datos, es decir, la capacidad que estos tienen para ser aprovechados efectivamente por las diversas poblaciones globales. Este abismo parece especialmente insondable para poblaciones que son política y socialmente excluidas.

La vinculación de los dos extremos de ese hueco es cada vez de una necesidad mayor, toda vez que organismos, oficiales y autónomos globales, han adoptado en mayor o menor medida dicho discurso de apertura de datos.

Es necesario en este punto, a la vez que admitir los avances, prestar atención a las muchas deficiencias en políticas de apertura en regiones específicas, reconocer que la apertura no es un fin en sí mismo, y que resulta trivial si no viene aparejada de garantías de acceso y uso de los conjuntos de datos. Más aún, resulta indispensable establecer mecanismos concretos y específicos para corregir esta deficiencia.

Para ello deben desarrollarse estándares contextuales, técnicos y de evaluación,  con miras a la inclusión de amplias poblaciones que se beneficien del impacto de las políticas de apertura de datos.

El eje técnico

Dear W3C

CC by NC SA Paul Downey

En un sentido técnico, la relevancia de datos es una métrica de calidad de datos que vincula los sets de datos disponibles con el interés de actores sociales. En este mismo sentido, parte del abismo entre apertura e impacto es irónicamente un vacío de (meta)datos: aquellos que se refieren a las potencialidades de “consumo” de dichos conjuntos de datos.

En una publicación sobre prácticas recomendables para la publicación de datos en la web,  el World Wide Web Consortium (W3C) detalla una serie de criterios para que los conjuntos de datos sean vinculables y aprovechables en máximo grado. Entre estas prácticas, se encuentra el uso de un Vocabulario para el Uso de Conjuntos de datos (DUV, por sus siglas en inglés), para proveer un modo de retroalimentación entre “consumidores” y “publicadores” de datos sobre el uso de los mismos. Por ejemplo, agregando metadatos descriptivos a los conjuntos de datos, tanto sobre la base en sí misma, como de sus posibles usos. De esta manera, se generan metadatos que permiten contrastar el uso sugerido y el reuso dado.

Estas nuevas prácticas se adscriben a los principios FAIR y concuerdan con el espíritu de distribución y acceso universal que originalmente concibió internet.

Phil Archer, una de las diecinueve personas que redactó las recomendaciones, describe el propósito del documento de la siguiente manera:

“Quiero una revolución. No una revolución política, ni ciertamente una revolución violenta, pero una revolución a fin de cuentas. Una revolución de la manera en la que las personas piensan sobre compartir datos en la red”.

El eje contextual

Ayot2inapa

CC by SA Marcos Ge

Para implementar relevancia hace falta una revolución que sí es de índole política: el reconocimiento de necesidades prioritarias en la publicación de conjuntos de datos, con respecto a necesidades de todos los grupos poblacionales, pero con especial atención a datos sobre garantías individuales que son sistemáticamente violentadas por gobiernos y otros actores sociales en distintas latitudes globales.

Por ejemplo, en el contexto mexicano, la Corte Interamericana de Derechos Humanos (CIDH) detalla en uno de sus informes más recientes no sólo algunas de las violaciones sistemáticas de Derechos Humanos: desaparición, desaparición forzada, tortura, ejecuciones extrajudiciales, injusticia; sino también las poblaciones más vulneradas por estas violaciones: mujeres, pueblos indígenas, niñas, niños, adolescentes, defensoras de derechos humanos, personas migrantes, personas lesbianas, gay, bisexuales, trans y otras formas de disentimiento sexual.

En países en que se viven estas condiciones, es indispensable que este contexto de Derechos Humanos sea considerado como un factor determinante para la elaboración de políticas de apertura de datos relevantes. Aparejada a estas políticas, sólo la instrumentación de reglamentaciones y mecanismos concretos de análisis de la demanda de datos puede proveer a estas poblaciones de elementos para su defensa, que convengan efectivamente en la mejora de sus vidas.

Un paso más para asegurar la relevancia de los datos abiertos es la creación de mecanismos específicos que garanticen que poblaciones política y económicamente excluidas tengan acceso a un volumen y calidad de datos suficientes que les permita trabajar para erradicar las prácticas mismas que han promovido su exclusión.

Es decir, debe existir una concordancia entre las políticas de apertura de datos y la agenda pública propuesta por un gobierno abierto para el empoderamiento de la población, agenda que ya de por sí debe incluir a las poblaciones mencionadas.

Para la elaboración de estándares de todo tipo sobre políticas de relevancia de datos deben ser llamadas a participar no solamente especialistas en defensa de derechos, legislaciones nacionales e internacionales y otras disciplinas, sino principalmente representantes de estas poblaciones vulneradas y despojadas de la vida o de factores que permitan una vida digna.

Hoy en día, la generación y publicación de datos con esta perspectiva se está llevando a cabo por organizaciones activistas. En México, por ejemplo, periodistas e investigadores independientes hicieron pública una base de datos sobre personas desaparecidas, y en Bolivia son activistas quienes construyen una base de datos sobre feminicidios; en España periodistas organizaron datos sobre la brecha de clase en el acceso a medicamentos; en Estados Unidos, un profesor universitario creó una base de variables relevantes para la comunidad LGBTTI; y desde el Reino Unido, el medio The Guardian creó una plataforma que muestra el número de personas de raza negra que mueren por causa de disparos de policías.

El eje de evaluación

Derivado del emparejamiento de los nuevos estándares técnicos propuestos por la W3C con las prioridades humanitarias globales, las poblaciones tendrían herramientas para exigir no sólo la calidad de los datos en los términos tradicionales de formatos de apertura, sino también en cuanto a su relevancia.

Por ejemplo, la encuesta global Open Data Survey, de la que proviene el Open Data Index de la organización Open Knowledge International, contiene algunas preguntas sobre la accesibilidad legal y técnica de los conjuntos de datos como una medida de su calidad. El Open Data Barometer, por otra parte, tiene un apartado de impacto social de la apertura de datos. Este año destaca, entre otras cosas, que el impacto en transparencia y rendición de cuentas disminuyó un 22%, mientras que el impacto en emprendimientos se incrementó 15%, lo cual ilustra que ciertos grupos sociales se están beneficiando de la apertura más que otros.

El aprovechamiento de la información es clave para que los conjuntos de datos puedan ser relevantes, no hay relevancia sin aprovechamiento y no hay aprovechamiento sin acceso a la información. En el caso ilustrado por el Open Data Barometer, los conjuntos de datos son relevantes solamente para emprendedores, lo cual implica que no necesariamente son relevantes para cualquier otro grupo poblacional.

No obstante, se necesitan más detalles para la evaluación de la relevancia de los datos a nivel nacional y local. En 2015, el investigador Juan Ortiz Freuler publicó el Estado de la Oferta y la Demanda de Datos Abiertos Gubernamentales tras la implementación de normativas de la defenestrada Alianza por el Gobierno Abierto en México, (de la cual las organizaciones de ese país decidieron salir, precisamente, debido a la evidencia de espionaje en contra de defensores de la salud y otros activistas con software de uso exclusivo gubernamental).

El informe de Freuler mostró, entre otros análisis, que la mayoría de las solicitudes de información (emparentadas con la demanda de datos abiertos) fueron realizadas por personas con grado académico de licenciatura, lo cual implica una profunda brecha de acceso a ellos respecto de poblaciones no profesionalizadas.

En su Uso y Cumplimiento de la Legislación de Acceso a la Información Pública en Brasil, Chile y México , los investigadores Silvana Fumega y Marcos Mendiburu ofrecen también algunos ejemplos de las ventajas de obtener datos sobre la demanda de información pública.

Por ejemplo, en la investigación de Fumega y Mendiburu se detalla que México incorpora dentro de la Ley General de Transparencia y Acceso a la Información Pública (LGTAIP) la obligación del organismo garante de recopilar datos sobre las solicitudes de información pública.

Con esta obligación, tanto el Estado como actores independientes pueden llegar a la conclusión de que en 2013 los institutos de seguridad social nacionales en México y Brasil  y el ministerio de salud en Chile fueron las instancias públicas que más  solicitudes de información recibieron. A partir de esa información es posible tomar medidas para jerarquizar la información de dicha instancia de salud pública.

Simultáneamente, los datos estadísticos sobre las personas que hacen las solicitudes, como su edad, género o escolaridad, abonan a la necesidad de delinear con datos también las políticas públicas de datos abiertos.

Así, la estandarización técnica de ciertas prácticas permitiría obtener y cruzar datos sobre el uso y propósito de los mismos; la priorización contextual permitirá garantizar que poblaciones excluidas y en riesgo puedan beneficiarse tanto como el resto de los grupos sociales; y la evaluación permitirá monitorear el resultado de las prácticas mencionadas. 

En la publicación de las recomendaciones a las que antes aludí, sobre publicación de datos en internet, la W3C proponía generar a través de ellas una revolución exclusivamente tecnológica. No obstante, su articulación con estas otras formulaciones podría provocar una muy necesaria revolución que sí pertenece al orden de lo político: el empoderamiento de las comunidades a través del uso de conjuntos de datos.

Flattr this!

]]>
http://es.schoolofdata.org/2017/05/29/relevancia-de-datos-abiertos-del-discurso-al-impacto/feed/ 0 2059
Cómo empezar a armar tu base de datos sobre feminicidio http://es.schoolofdata.org/2016/12/08/como-empezar-a-armar-tu-base-de-datos-sobre-feminicidio/ http://es.schoolofdata.org/2016/12/08/como-empezar-a-armar-tu-base-de-datos-sobre-feminicidio/#respond Thu, 08 Dec 2016 17:27:53 +0000 https://es.schoolofdata.org/?p=1867 El Observatorio de Igualdad de Género de América Latina y El Caribe dispone de datos de feminicidio de fuentes oficiales de 18 países latinoamericanos. Bolivia no es uno de ellos, pues aunque la ley 348 para Garantizar a las Mujeres una Vida Libre de Violencia fue promulgada en 2013, los datos que se publican se remiten a información general por parte de la Policía, y en el mejor de los casos, valiosas investigaciones de ONGs cuya base de datos no es abierta y se publican datos condensados a travé de informes.

Ante la urgencia de la creciente oleada de crímenes, algunas organizaciones de sociedad civil como “Cuántas Más” en Bolivia, ven como urgente la necesidad de armar una base de datos recopilando los hechos que además se encuentre abierta al público para que puedan ser consultados por investigadores, periodistas, o cualquier persona que tenga interés de hacer algo más con datos registrados y sistematizados; si en tu país no dispones de fuentes oficiales, aquí te damos algunos criterios que debes considerar para armar la base de datos.

image00

 

 

 

 

  1. Diferencia entre datos primarios y datos secundarios. Datos primarios son aquellos que se obtienen a través de una recopilación de datos propia, como la observación de procesos, una encuesta o una entrevista. Los datos secundarios por otra parte son datos que otros ya han recopilado y han puesto a disposición pública. Si estás planeando hacer una recopilación de casos, lo más probable es que recurras a este segundo grupo, con base en estudios, estadísticas de otras organizaciones, o publicaciones de prensa.
  2. Cuando recopiles datos propios considera que estos pueden ser cuantitativos o cualitativos. Los datos cuantitativos se caracterizan por su enfoque estandarizado y tienen como objetivo verificar, confirmando o refutando, diversas relaciones e hipótesis basadas en números. Los datos cualitativos ofrecen un enfoque abierto y sirven para recoger información que no se pueda representar mediante cifras pero puede dar una mejor comprensión de una cuestión.
  3. Algunas veces, los datos pueden estar publicados en sitios web pero no existe un link de descarga. En ese caso, te sugiero utilizar una herramienta para la extracción de datos fácil de usar que tiene como objetivo obtener datos de forma estructurada de cualquier sitio web; se trata de import.io y puedes consultar este tutorial para aprender a usarlo.
  4. Es importante conocer las otras organizaciones que trabajan en la recepción de denuncias de violencia de género o que proveen servicios legales; estas organizaciones también pueden proveer datos fuente de órganos descentralizados, por ejemplo, de carácter municipal, servicios de atención a la salud, el sistema de justicia penal y prestadores de servicios sociales, por nombrar algunos.
  5. Si vas a obtener tus datos desde información publicada en prensa, trata de cotejar adicionalmente con uno o dos medios; de esta forma garantizas la verificación de los datos publicados y el aumento de aquella información que algún medio no pudo obtener.
  6. Saca provecho de Google Alerts, un servicio de Google que te permite recibir alertas a tu email cuando el buscador indexa nueva información relacionada con las palabras clave de búsqueda. Con esta herramienta puedes automatizar el proceso de búsqueda o actualizar los resultados de una búsqueda de tu interés a lo largo del tiempo, hasta que decidas eliminar la alerta; programa por ejemplo las palabras feminicidio o mujer asesinada.
  7. Identifica todos los criterios relevantes para tu primer análisis: nombres, edades, y locaciones suelen ser datos que comúnmente identificamos; sin embargo, la riqueza para análisis de tu base de datos puede estar en los datos que no siempre consideramos como el número de hijos sobrevivientes al hecho, la relación de la víctima con el victimario, el estado del caso y si es que ha obtenido sentencia, el tipo de agresión que se produjo, si es que hubo una denuncia de violencia previa. La granularidad es importante.
  8. Documenta el proceso, es importante explicar los pasos que seguiste para que las personas interesadas en la base de datos tengan los argumentos completos de tu trabajo. Aquí puedes encontrar algunas opciones para realizar este paso.
  9. Finalmente escoge la mejor manera de mostrarlos, dependiendo del volumen y el contenido de tu base de datos puedes optar de mostrarlos, por ejemplo, en una línea de tiempo o un mapa. Solo recuerda publicarlos con el enlace de descarga.

Adicionalmente, si te interesa indagar más profundo, CEPAL lanza un curso cada año de introducción sobre estadística e indicadores de género que a la fecha va en su sexta versión. Debes estar atento al lanzamiento de la próxima convocatoria.

Flattr this!

]]>
http://es.schoolofdata.org/2016/12/08/como-empezar-a-armar-tu-base-de-datos-sobre-feminicidio/feed/ 0 1867
¡Data Wrangler: limpia tus bases en un tris! http://es.schoolofdata.org/2016/09/13/data-wrangler-limpia-tus-bases-en-un-tris/ http://es.schoolofdata.org/2016/09/13/data-wrangler-limpia-tus-bases-en-un-tris/#respond Tue, 13 Sep 2016 17:42:13 +0000 https://es.schoolofdata.org/?p=1795 Amo el trabajo de datos. Pero hay una cosa que no me gusta: la limpieza. ¿No te ha pasado alguna vez? ¡A mí sí y sigo contando! Por eso, quiero enseñarte cómo utilizar una herramienta para hacer al mal tiempo buena y cara: Wrangler. Esta es una herramienta interactiva GRATUITA, desarrollada por el proyecto de investigación Stanford/Berkeley, que sirve para la limpieza y transformación de datos.

Con ella, te lo prometo, pasarás menos tiempo limpiando y más tiempo analizando tus datos a la hora de elaborar bases de datos. ¿Te animas a probarla? Bueno, pues, lee y te cuento cómo la probé con una tabla de datos, sobre las primeras tres jornadas de CONCACAF 2016-2017, que extraje de Mismarcadores.com.

1

 

 

 

 

¡Menor tiempo, mejor limpieza!
Un profesor en la «U» solía decirme que, lo bueno si breve, dos veces bueno. Y eso es lo que evoca Wrangler al momento de utilizarlo. Para comenzar, ingresa a http://vis.stanford.edu/wrangler/, donde encontrarás un botón al que hasta el más curioso y entusiasta datero dará clic con su provocativo Try It Now (¡Pruébala ahora!).

34

 

 

 

 

Como verás a continuación, la interfaz de Wrangler es sencilla. Un poco primaria para algunos, pero los resultados son prometedores para quienes deseamos limpiar datos rápido y bien. ¿Ves cómo está la tabla? Fea, ¿verdad?5

 

 

 

 

Para mejorarla, lo primero que hice fue seleccionar la primera fila de la tabla y acudí al auxilio de la opción Promote para que la primera fila sea el encabezado de cada una de nuestras columnas. Así, ya tenemos un encabezado con el cual la carpintería datera puede comenzar. ¡Eso sí! Para cambiar cada uno de sus nombres puedes dar doble clic y ¡listo! ¡Ya tienes categorías!

6 7

 

 

 

 

Ahora, rellenemos los espacios en blanco de cada jornada. Para eso, sombreé la columna JORNADA. Y me fui a la opción Fill, con la cual puedes reemplazar las columnas/filas en blanco por insumos de valor. Para este caso, le indiqué que debía rellenar todo espacio debajo de JORNADA que estuviera en blanco.

¿Cómo? Colocando lo siguiente en su barra de opciones:

Column JORNADA

Direction: above

Row: JORNADA is null

Finalizado esto, aparecerá una opción con nuestros comandos en el menú SUGGESTIONS. Dale clic al signo de «más» y verás cómo empieza a tomar forma la cosa.

8

 

 

 

 

Sí, yo también vi esas filas en blanco que no aportan nada en cada JORNADA. Para eliminarlas, selecciona cada una de las columnas e ingresa a la opción DELETE, donde podrás prescindir de cada una de ellas en el menú de la izquierda, dando clic al signo más en el menú SUGGESTIONS.

9

 

 

 

 

Mejor, ¿no? Ahora, tenemos otra piedrita en el camino: ¡Fecha y hora están unidas! Pero, que no panda el cúnico. Para separarlas, me di a la tarea de hacer lo siguiente:

1) Seleccioné la columna FECHA

2) Fui a la opción SPLIT y coloca WHITESPACE en la variable after.

3) Y voilá…

10

 

 

 

 

¡Eso sí! No pases por alto cambiar las columnas SPLIT a FECHA y HORA respectivamente. Ahora, veo que el MARCADOR está igual de sucio. Por tanto, tendremos que separar cada uno de esas ÊÊ que les mantienen unidos. ¡Empecemos entonces! Yo comencé por el marcador del equipo 2 e hice esto:

1) Sombreé la columna MARCADOR

2) Fui a la opción SPLIT y coloca ÊÊ en la variable after.

3) ¡Listo! ¡Ya me lo separó!

11

 

 

 

 

Ahora, viene lo mejor: ¿cómo quitamos esas ÊÊ del marcador del equipo 1? Antes de separar, sombreemos las ÊÊ y sígueme con lo siguiente:

1) Vamos a la opción SPLIT

2) Coloquemos ÊÊ en la opción on

3) ¡Mira qué padre! ¡Nos separó las ÊÊ del marcador!

4) ¡No olvides renombrar la columna separada como MARCADOR EQUIPO 1!

12

 

 

 

 

¡Solo nos queda prescindir de la columna en blanco del anterior SPLIT! Y, para eso, ve a la opción DROP y dale clic a la primera opción que te presenta el menú SUGGESTIONS.

13

 

 

 

 

¿Qué hacemos ahora? Ve a la opción EXPORT que se encuentra debajo de SUGGESTIONS y haz clic. Te saldrá una pantalla con la tabla de datos limpia. Copíala y llévala a tu Text Edit (Mac) o Bloc de Notas (Windows). Pega el archivo y guárdalo como un texto sin formato con extensión .csv.

15

 

 

 

 

Ahora, si la curiosidad te mata como a mí me pasó, abrí el .csv en Excel… ¡Y este fue el resultado!

16

 

 

 

 

¡Justo algo con lo cual podemos trabajar! ¡Gracias por oír mis plegarias dateras, Wrangler!

¿Por qué confiar en Wrangler?

«¿Para qué tanto problema?», dijo sabiamente Juan Gabriel. Y yo le creo… yo te invito a darle un voto de confianza a Wrangler. ¿Por qué? Porque me ha pasado que se me va el tiempo (¡y la vida!) manipulando datos exclusivamente para que las herramientas de visualización y análisis las leen. Pero, ¡oh, sorpresa! Muchas veces, el resultado no es el esperado porque la limpieza no fue lo que yo deseaba.

Y, en esos deseos de cosas imposibles, Wrangler está diseñadas para acelerar esos procesos; más, si tienes a un editor o a tu jefe exigiendo bases de datos y visualizaciones rápidas y bien ejecutadas. Con este insumo, pasarás menos tiempo lidiando con tus datos y mucho más aprendiendo de ellos al tener las preguntas correctas que te ayuden a sustentar/refutar hipótesis de periodismo de datos.

También, te permite la transformación interactiva de información sucia que puedes encontrar a diario en insumos de análisis para cualquier proyecto en el cual te encuentres trabajando. Y, lo que más me encanta, te ayuda a exportar datos para su utilización en mis dos inseparables amigos: Excel o Tableau. ¡Yeeeeeeeeeeeeeey!
Por los registros, ¡no te preocupes! Una vez exportes la data trabajada, la herramienta volverá a su fase original con las bases precargadas (¡otra razón para amarte, Wrangler!). Ya si esto no te convence, anímate a probarla y compartirnos qué te parece y que no. ¡No te quedes con las ganas y comparte con nosotros tus impresiones acá o en nuestro Twitter (@EscueladeDatos)! ¡Cambio y fuera!

 

 

 

 

Flattr this!

]]>
http://es.schoolofdata.org/2016/09/13/data-wrangler-limpia-tus-bases-en-un-tris/feed/ 0 1795
Onodo: hacer mapas de relaciones no es complicado http://es.schoolofdata.org/2016/08/23/onodo-hacer-mapas-de-relaciones-no-es-complicado/ http://es.schoolofdata.org/2016/08/23/onodo-hacer-mapas-de-relaciones-no-es-complicado/#respond Tue, 23 Aug 2016 22:53:56 +0000 https://es.schoolofdata.org/?p=1757 Hace un mes la Fundación Civio lanzó su aplicación gratuita para crear mapas de relaciones y se puede convertir en la solución para muchos, como yo, que nunca pudieron hacer uno porque las herramientas parecían muy complicadas.

Para poder hacer esa afirmación hice una prueba con las relaciones de los personajes de Narcos, la serie de Netflix, que narra la investigación que llevó a la captura del narcotraficante Pablo Escobar.

Este mapa fue realizado en un poco menos de una hora, recolectando toda la información e insertándola en Onodo. Ahora les explicaré porqué es tan fácil de usar:

  • No necesitas ser un experto en Excel, ni siquiera abrirlo. Onodo permite insertar uno a uno los nodos (cada una de las personas, instituciones, etc… que necesitamos poner en el mapa) y también permite personalizar una a una las relaciones de cada nodo dentro de la misma aplicación.

Screen Shot 2016-08-11 at 12.03.17 PM Onodo 1

 

 

 

 

 

 

 

  • Es intuitivo, no es necesario leer el manual para usar sus funciones básicas. Ni siquiera existe un manual, si quieres algo parecido puedes ver su demostración en este enlace.

Ahora te explicaré cómo hice este mapa de relaciones en menos de una hora:

  • Recolecté los datos de los personajes en IMBd y Wikipedia.
  • Inserté los datos de cada personaje como un nodo. Por ejemplo: Pablo Escobar era el líder del Cartel de Medellín. Entonces usé el botón “Añadir nodo” y puse el nombre y la imagen que busqué en Google. Añadí otro nodo para el Cartel de Medellín. Ambos se reflejaron al instante en la visualización.

Onodo 2

 

 

 

  • Los nodos no están completos sin una relación. Entonces cambié a la pestaña de “relaciones” y hice click en el botón “añadir relación” para indicar que el nodo “Pablo Escobar” es el líder  del “Cartel de Medellín”. Esto también se reflejó al instante.

Onodo 3

 

 

 

  • Así se muestra la visualización al hacer click sobre el nodo de “Pablo Escobar”.

Onodo 4

 

 

 

  • Luego agregue la información del resto de personajes principales y secundarios de la serie, de la misma manera que hice con Pablo Escobar.  Todas se fueron mostrando dentro de la visualización.
  • Compartir la visualización dentro de cualquier otro sitio es igual de sencillo. Pulsas en el botón “Comparte” donde harás pública la visualización y después te creará un iframe y un enlace fijo.

Onodo 5

 

 

 

 

 

Si aún no te convence esta sencilla explicación puedes entrar a este enlace para ver otros mapas de relaciones que han realizado otros usuarios.  Y si la explicación te convenció, como usarlo me convenció a mí, puedes entrar a este enlace para crear tu cuenta y empezar a experimentar.

 

Flattr this!

]]>
http://es.schoolofdata.org/2016/08/23/onodo-hacer-mapas-de-relaciones-no-es-complicado/feed/ 0 1757
Cómo DataBasic puede ayudarte a empezar tu storytelling http://es.schoolofdata.org/2016/07/19/como-databasic-puede-ayudarte-a-empezar-tu-storytelling/ http://es.schoolofdata.org/2016/07/19/como-databasic-puede-ayudarte-a-empezar-tu-storytelling/#respond Tue, 19 Jul 2016 19:43:47 +0000 https://es.schoolofdata.org/?p=1692 Aprender a trabajar con datos y utilizar las herramientas correctas tienen una curva de aprendizaje, como todo proceso, que a veces puede intimidar un poco al inicio. Lo se por experiencia propia.

En el afán de aprender y despejar las dudas que surgen en el análisis de datos, muchas veces aceleramos la carrera tratando de comprender de inmediato herramientas complejas, no siempre es el mejor camino. Por ello es necesario revisar herramientas pensadas para quienes está empezando con datos abiertos en el entendido de que progresivamente se adquiera mayor destreza en el análisis de datos.

DataBasic IO es una suite de herramientas intuitivas y fáciles de usar pensada para personas curiosas por analizar datos y contar historias, que todavía no están interiorizadas en los conceptos, tareas específicas o sencillamente no saben por dónde comenzar. En pocas palabras, simplifican el primer acercamiento a partir de tres herramientas que dan como resultado análisis prácticos de tus datos.

Aquí te cuento, una a una, qué pueden hacer estas herramientas a través de ejemplos con los que te puedes encontrar en el día a día.

DataBasic1

Word Counter, la primera de la lista, hace un análisis cuantitativos de un texto plano y te muestra las palabras y frases más comunes, este último más interesante todavía porque te pone en contexto de las palabras más usadas a través de bigramas y trigramas.

Si lo deseas puedes usar los ejemplos de la herramienta (son letras de canciones), pegar un enlace o un texto, o subir un documento: yo me decidí por esta última y trabajé con el discurso del Presidente de Bolivia del pasado 1° de mayo de 2016; la herramienta sólo se acepta archivos txt, docx, rtf. El resultado se muestra en dos grupos, el primero es una nube de palabras:

DataBasic2

Seguido de bigramas, trigramas y palabras encontradas con mayor frecuencia; estas listas se pueden descargar como un archivo CSV.

DataBasic3

De esta última imagen puedes ver, por ejemplo, que la palabra “compañeros” se repite 25 veces, y la palabra “compañeras” solamente 14; también que la frase “millones de bolivianos” aparece 13 veces, y aunque no sale en la imagen, se repite 4 veces el nombre “Hernan Siles Suazo”, ex presidente de Bolivia (1982) en cuyo mandato logró preservar la democracia luego de 18 años de sucesivos gobiernos militares y golpes de estado.

Si no te interesan los discursos presidenciales, también podrías utilizar textos planos sobre propuestas de candidatos, planes de gobierno, etc. WordCounter te ayuda a entender que se pueden encontrar muchas historias en un solo conjunto de datos.

WTF csv, un nombre cuya pregunta nos hemos hecho todos alguna vez. Esta herramienta te da una visión general de lo que está en tu archivo .csv y te ayuda a pasar rápidamente a preguntarle cosas a tus hojas de cálculo en un conjunto de datos o a partir de la combinación de varios conjuntos de datos.

Nuevamente cuentas con ejemplos propios de la herramienta, como la lista de pasajeros del Titanic; yo decidí utilizar el .csv de “Que no te la charlen”, un proyecto de transparencia universitaria con datos de las universidades y carreras públicas de Bolivia.

La herramienta te muestra la información en bloques giratorios, de un lado la información puesta de forma visual, y del otro como resumen en texto. Cada bloque representa una columna y contiene un resumen de la información en las filas de esa columna.

DataBasic 3

Viendo los contenidos empiezas a hacerte preguntas desde cada bloque, como: “¿por qué la Universidad Autónoma Gabriel Rene Moreno se repite 91 veces?”; o combinando bloques, como abajo, “¿Por qué si “Universidad Mayor de San Simón” -Cochabamba- se repite 89 veces, aparecen “Cochabamba” 74 veces mencionada en la columna Ciudad/Región?

Puedes complementar tu análisis con datos de apoyo que te ayuden a entender mejor el contexto de la información, como los del Censo de Población y Vivienda; o repetir el ejercicio usando otros .csv por ejemplo si quieres revisar presupuestos públicos para identificar el ítem que genera más gasto y a su vez comparar estos datos con presupuestos de la misma institución pero de otras ciudades.
Same Diff, la última de esta suite, compara dos documentos de texto y encuentra similaridades y diferencias en las palabras basadas en un algoritmo de similitud coseno que indica cuán parecidos son dos documentos.

No considera las sílabas con acentos ni apóstrofes, por lo que algunas de las palabras analizadas se ven cortadas; decidí probar la herramienta comparando las leyes de Identidad de Género de Bolivia y de Argentina, este fue el resultado:

DataBasic5

La columna de la izquierda muestra palabras únicas de la Ley de Identidad de Género de Argentina (pila, articulo, registral, documento, integral), en tanto que la columna de la derecha muestra el resultado para la ley boliviana (dato, propio, sereci, estado, transexuales); los resultados de la columna central, por otra parte indican las palabras encontradas en ambos documentos: identidad, nombre, sexo, género, ley, cambio.

La herramienta es interesante para encontrar temas comunes en el caso de documentos diferentes, o los elementos diferenciadores en documentos muy similares, como en el ejemplo de arriba en que la legislación de Bolivia se enfoca en instituciones (SERECI) y el estado.

 Un plus general de DataBasic IO es que las herramientas se probaron en aulas y talleres para asegurar de que funcionen correctamente y que sean fácilmente comprensibles; también desarrollaron guías de actividades para cada herramienta, pensadas para replicar con estudiantes, periodistas, etc., y que combinan datos ligeros, como letras de canciones o avistamientos de OVNIS, para facilitar el abordaje de la búsqueda de historias de datos de manera más entretenida y simple.

Flattr this!

]]>
http://es.schoolofdata.org/2016/07/19/como-databasic-puede-ayudarte-a-empezar-tu-storytelling/feed/ 0 1692