Imagen de perfil de Marcos Ge Destacado

Postúlate a los programas Fellowship Escuela de Datos 2017 y Experto en Datos

Marcos Ge - el Marzo 4, 2017 en Noticias

Escuela de Datos invita a personas que se desempeñen en el periodismo, la defensa de la sociedad civil y cualquier persona interesada en impulsar la alfabetización de datos a postularse a los programas Fellowship 2017 y Experto en Datos, que se desarrollarán de abril a diciembre de 2017. Están abiertas hasta 10 posiciones. La convocatoria está abierta hasta el domingo 2 de abril de 2017.

Postular al Fellowship Postular al Programa Experto en Datos

El Fellowship

Las becas son prácticas de nueve meses con Escuela de Datos para agentes o entusiastas de la alfabetización de datos. Durante este tiempo, los becarios trabajarán junto a School of Data para crear un programa individual que aproveche tanto la experiencia colectiva de nuestra red con el propósito de ayudar a los becarios a adquirir nuevas habilidades como el conocimiento que los Fellows traen consigo. Este conocimiento puede ser sobre un tema en específico, una comunidad o problemas específicos de alfabetización de datos, como se describe en las áreas de enfoque de este año.

Al igual que en años anteriores, el objetivo del programa de becas es aumentar la conciencia sobre la alfabetización de datos y construir comunidades que, juntas, pueden utilizar las habilidades de alfabetización de datos para hacer el cambio que quieren ver en el mundo. Esto lo logra el fellow primariamente a través de la generación de talleres, eventos de comunidad y contenidos, además de tareas propias de sus proyectos con organizaciones aliadas.

La Beca 2017 continuará el enfoque temático iniciado por la clase 2016. Como resultado, estaremos dando prioridad a los candidatos que:

Posean experiencia y entusiasmo por un área específica de capacitación en alfabetización de datos.

Pueda demostrar vínculos con una organización que se desempeña en esta área definida y/o vínculos con una red establecida que opera en el campo.

Estamos buscando individuos comprometidos que ya tienen un conocimiento profundo de un sector dado y han estado reflexionando sobre los problemas de alfabetización de datos enfrentados en el campo. Esto ayudará a los becarios a empezar a correr y a lograr lo máximo durante su tiempo con School of Data: ¡nueve meses pasan volando!

Leer más sobre el Programa de Becas

El programa de expertos en datos

Lanzado formalmente por primera vez este año, el programa de Expertos en Datos tiene como objetivo fortalecer la capacidad de las organizaciones de la sociedad civil estratégicamente posicionadas para lograr cambios sociales en su campo de experiencia y administrar y entregar proyectos impulsados ​​por datos. El Programa de Expertos en Datos fue diseñado para complementar el fellowship de la Escuela de Datos y para ello, estamos reclutando un perfil ligeramente diferente. Se espera que el expertise en datos sea más elevado que el de los becarios, con habilidades técnicas y de gestión de proyectos demostrables. Al hacer coincidir estas personas con las organizaciones asociadas seleccionadas, a la vez que les brindamos apoyo a través de nuestra red y de nuestros socios, esperamos crear un impacto decisivo en el uso de datos dentro de organizaciones clave de la sociedad civil en todo el mundo.

En consecuencia, priorizaremos a las personas que:

Posean experiencia y conocimientos relevantes en las áreas técnicas en que nuestros socios locales necesitan ayuda.

Las áreas de enfoque en 2017

Hemos formado alianzas con organizaciones interesadas en trabajar con los siguientes temas: Periodismo de Datos, Datos de Procuración de Fondos y Datos de la Industria Extractiva. Estas asombrosas organizaciones aliadas proveerán a los fellows y expertos con guía, mentorías y expertise en sus respectivos campos.

Programa Tema Ubicación Posiciones disponibles
Fellowship Datos de Industria Extractiva Sénégal, Côte d’Ivoire Hasta 2
Fellowship Datos de Procuración de Fondos Global Hasta 1
Fellowship Periodismo de Datos Global Hasta 2
Fellowship Enfoque propio del postulante Global Hasta 3
Data Expert Datos de la Industria Extractiva Uganda, Tanzania 2

9 meses para crear impacto

Los dos programas se ejecutarán de abril a diciembre de 2017, e implican hasta 10 días al mes de tiempo. Mientras que los becarios se concentrarán en planchar sus habilidades como formadores de datos y construir una comunidad a su alrededor, los expertos se centrarán en el apoyo y la formación de una organización de la sociedad civil o redacción con un proyecto específico. Los becarios recibirán un estipendio mensual de $ 1,000 USD al mes para cubrir su trabajo. Los expertos, que tendrán una planificación con más variaciones, recibirán un estipendio total de $ 10,500 USD durante el curso del programa.

En mayo, tanto los expertos como los becarios se reunirán durante un campamento de verano en persona (el lugar está por determinarse) para reunirse con sus compañeros, construir y compartir sus habilidades y aprender sobre la forma en que Escuela de Datos capacita en habilidades de datos.

¿Que estás esperando?

Lea más acerca de la Beca de la Escuela de Datos o Aplique ahora

Información clave: Fellowship

Posiciones disponibles: hasta 10 becarios. Aprende más.

Fecha límite de solicitud: 2 de abril de 2017, medianoche GMT + 0

Duración: Del 15 de abril de 2017 al 31 de diciembre de 2017

Nivel de actividad: 10 días por mes

Estipendio: $ 1000 USD por mes

Información clave: Programa de expertos en datos

  • Posiciones disponibles: 2 expertos, en Uganda y Tanzania.
  • Fecha límite de solicitud: 2 de abril de 2017, medianoche GMT + 0
  • Duración: Del 15 de abril de 2017 al 31 de diciembre de 2017
  • Nivel de actividad: hasta 10 días por mes.

* Estipendio: $ 10,500 USD en total

Acerca de la diversidad e inclusividad

School of Data se compromete a ser inclusivo en sus prácticas de reclutamiento. La inclusión significa no excluir a nadie por su raza, edad, religión, apariencia cultural, orientación sexual, origen étnico o género. Activamente tratamos de reclutar individuos que difieren entre sí en estas características, basados en la creencia de que la diversidad enriquece todo lo que hacemos.

Finalmente, estamos agradecidos por el apoyo de nuestros socios y financiadores para hacer estos programas financiados. El Programa de la Escuela de Datos se financia a través de subvenciones de las siguientes instituciones: Internews / USAID, Open Data For Development (Banco Mundial y IDRC), la Fundación Hewlett y las fundaciones Open Society, el Instituto de Gobernanza de Recursos Naturales y Publica lo que Pagas.

Fellowship latam: una plataforma de impacto

Marcos Ge - el Marzo 27, 2017 en Experiencias, Noticias

El programa Fellowship  de la red internacional Escuela de Datos invita a personas interesadas en la alfabetización de datos a postularse cada año para habilitar a otros en el uso de datos y crear comunidades locales que fortalezcan el uso de los mismos. Al mismo tiempo, el programa ha funcionado como una plataforma para proyectar el trabajo de sus participantes. Las ocho personas que han integrado las filas del fellowship siguen generando impacto, con los datos, en el mundo.

Antonio Cucho

Antonio Cucho Gamboa, fellow por Perú A finales de 2013 y  principios de 2014, fundó la organización Open Data Perú y se postuló en 2014 para el fellowship. Al tener capacidades técnicas como programador y unirse a periodistas co fundó la publicación online de periodismo de investigación Ojo Público.

Su experiencia organizando comunidades de datos abiertos comenzó en el encuentro regional más relevante para los datos abiertos en Latinoamérica: Abrelatam (2014).

Tras terminar su fellowship, Antonio se mudó para integrarse al equipo de periodismo de datos de Univision Noticias, medio estadounidense dirigido a la población hispana en Estados Unidos. Con Univision Data ha desarrollado diferentes trabajos relacionados con la defensa de los derechos de la población de contexto hispanoparlante, como un mapa interactivo para mostrar la población hispana que aún no domina el idioma inglés, describir los resultados de medio siglo de guerra en Colombia. Además, promovió la primera plataforma de factchecking en español (dentro del territorio estadunidense): “El Detector de Mentiras”.

A pesar de radicar fuera de Perú, su trabajo con ese país no ha concluido, lidera el desarrollo y coordina la investigación de la primera plataforma de contrataciones abiertas en  su país de origen. Este es un esfuerzo en conjunto de la comunidad Open Data Perú y la OSC Proética para promover la transparencia en las contrataciones estales, identificando diferentes patrones que permitirán a especialistas realizar una exploración más sencilla dentro de miles de contrataciones que contienen irregularidades en el proceso.

Si quieres saber más de lo que hizo Antonio durante su fellowship, da clic aquí.

Julio López

Durante su Fellowship, en 2015, Julio se concentró en datos de la industria de extracción, a través de su trabajo con Natural Resource Governance Institute.

Julio se encuentra trabajando como consultor de la División de Energía del Banco Interamericano de Desarrollo (BID), donde apoya la implementación de la Iniciativa Energía Sostenible para Todos (SEforAll) en América Latina y el Caribe. Antes de incorporarse al BID, trabajó en la Organización Latinoamericana de Energía (OLADE) como especialista de información energética y previamente coordinó proyectos de investigación en políticas públicas para think tanks y OSCs en América Latina.

En 2015 desarrolló su Fellowship en Escuela de Datos, donde trabajo en fortalecer la comunidad local de datos abiertos en Ecuador y colaboró con un proyecto global sobre datos de proyectos de industrias extractivas. Recientemente es co-fundador de @Datalat, una iniciativa civil sobre el uso de datos y tecnología en Ecuador.

Omar Luna

Tras su fellowship en 2015, Omar Luna dedicó sus esfuerzos en El Salvador a la colaboración con el medio independiente El Faro,  con quienes capacita a estudiantes de periodismo en diversos rubros políticos y de datos con el objetivo de la construcción de dos grandes productos: una base de datos que le sirva a El Faro para crear una visualización de datos de cara a las elecciones de diputados 2018-2021, así como la consolidación del Observatorio de Comunicación Política de la Universidad Centroamericana (UCA).

También colabora con Proyecto Cero, donde Omar lideró la construcción de una base de datos que visibiliza la toma de decisiones clave en la Asamblea Legislativa.. Omar conoció a la coordinadora, Claudia Ortiz,  el año pasado durante el desarrollo del fellow.

Una de las colaboraciones más cercanas y estrechas que tuvo durante y después de mi fellowship ha sido con el equipo de la unidad de datos de El Diario de Hoy (EDH). Su editora periodística, Lilian Martínez, y su editora de visualización, Norma Ramírez, contactaron a Omar para que desarrollara capacitaciones constantes en uso de hojas de cálculo y software de visualización. Con EDH también ha creado visualizaciones sobre temas como embarazo adolescente y personas desaparecidas.

Phi Requiem

En 2014, Phi Requiem dedicó su fellowship a la formación de capacidades entre periodistas y activistas centroamericanos. Hoy su vocación de capacitación continúa. Con la iniciativa Hagamos Data (#HagamosData), se encuentra entrenando un más amplio grupo de personas para el uso de datos: por una parte entrena entrenadores, y por otra entrena a público no especializado. Se encuentra en un proceso de acompañamiento con la organización con el National Democratic Institute (NDI) para el uso de datos.

Phi también colaboró con el equipo que desarrolló Ruido CDMX, la plataforma construida con hardware libre y código abierto para la recolección y visualización de ruido en la Ciudad de México. Actualmente se encuentra desarrollando una segunda fase de este proceso, Ruido en las Ciudades, con software y hardware libres de generaciones más eficientes y accesibles que las de la anterior. El objetivo es acercar la creación de estos recolectores de datos a un grupo muy diverso de la población para generar datos abiertos sobre este fenómeno, de amplio impacto ambiental y de salud.

Si quieres saber más del trabajo de Phi Requiem durante su fellowship, da clic aquí

Camila Salazar

Camila desarrolló su fellowship en 2015.  Ella tiene un grado universitario en periodismo y obtuvo un segundo grado en Economía.

Tras el fellowship, Camila se ha desenvuelto como periodista de datos en la Unidad de Datos del Diario La Nación.  Estos son los proyectos en los que participó en el último año:

  • Aplicación para calcular el salario en el sector público, para la que ejecutó una investigación sobre el sistema de remuneraciones en el sector público.
  • Factchecking en vivo del discurso presidencial.
  • También desarrolla multitud de investigaciones, como esta sobre el sector cooperativo en Costa Rica.
Además de ser periodista en campo, Camila comparte su conocimiento a través de la docencia universitaria, talleres y actividades sobre periodismo de datos. El semestre anterior impartió el curso de Periodismo de Datos en la Universidad de Costa Rica.  Es un curso que forma parte del plan de estudios del Bachillerato en Periodismo.

Si quieres saber más sobre la labor de Camila durante su fellowship, da clic aquí.

Raisa Valda

Dedicó su fellowship a generar comunidades de datos abiertos en toda Bolivia, así como a conectar con organizaciones aliadas para su proyecto de datos contra violencia de género Cuántas Más.

  • Fue seleccionada para ser parte de la Escuela de Incidencia de Ciudadano Inteligente (Chile) para trabajar sobre género y tecnologías.
  • También la invitaron, desde la Embajada de Suecia en Bolivia, a participar en Stockholm Internet Forum 2017(SIF17) on Internet Freedom for Global Development en mayo de este año.
  • Fue invitada a dictar un módulo de docencia junto a la Fundación para el Periodismo de La Paz en su Diplomado en periodismo digital, sobre redes sociales y otras tecnologías en el periodismo, en julio de 2017.
  • Participará en el IX Congreso de la AEB – Estudios de Internet y sociedad en Bolivia, con una ponencia sobre datos abiertos y ciudadanía, en julio de este año.

Raisa está dedicada íntegramente a Cuántas Más. A partir de los datos que obtuvieron en 2016 sobre los casos de feminicidio, hallaron dos que llamaron su atención:

1. en el 78% de los casos se trataban de feminicidios íntimos (esposos,concubinos, novios, ex novios, ex esposos, ex concubinos),
2. en el 34% de los casos, las víctimas tenían menos de 20 años de edad.
Por ello, en el primer trimestre de este año, centraron su trabajo de prevención en el abordaje de violencias dentro las relaciones de noviazgo en la adolescencia con una ruta de talleres (“No es que me pidas así”) piloto por 6 ciudades de Bolivia.
Se trata de talleres piloto para los que Raisa desarrolló una metodología que permite a los adolescentes, entre 15 y 17 años, hablar sobre sus percepciones de violencia y cómo la entiende; y a partir de ello generar mensajes en audiovisual en sus propios códigos lingüísticos (nada solemne, nada políticamente correcto). Este material no se difundirá como una campaña masiva, no es el propósito; sino a través de sus propias redes de manera natural.
Cuántas Más tiene el propósito de centrar su trabajo, para esta gestión, en temas violencia que involucra a jóvenes, sea en las relaciones de noviazgo (basadas en encuestas y estudios realizados por la Coordinadora de la Mujeres) o en su desenvolvimiento en la universidad (basado en un estudio realizado por UNFPA sobre la UMSA).

Ximena Villagrán

Durante y tras su fellowship, Ximena ha sido catedrática titular de Periodismo de Datos en la Universidad del Istmo. Es también consultora para proyectos periodísticos y talleres de periodismo de datos en Honduras, El Salvador y Guatemala para la agencia internacional Internews, con quienes comenzó su colaboración, al igual que Omar, durante el fellowship.

Hoy Ximena está fundando su propia iniciativa de periodismo de datos, El Intercambio, que propone un vínculo íntimo entre crónica y periodismo de datos y busca dotar a los periodistas de un rol más activo en la búsqueda de fondos para el periodismo independiente.

Junto con Omar Luna, desarrolló una extensa currrícula para periodistas de datos en toda Centroamérica. Hoy también es consultora para la nueva unidad de datos del medio guatemalteco Prensa Libre y trabaja en un proyecto de explicación, a través de los datos, con la publicación también guatemalteca Nómada.

Daniel Villatoro

Daniel Villatoro se desempeña hoy como reportero senior en el medio guatemalteco Plaza Pública. Además de escribir crónica y desarrollar investigaciones de datos, tras la fellowship, Daniel incursionó en prácticas artísticas a través de los datos.

Daniel desarrolló una investigación sobre ingresos económicos por hora trabajada y de acuerdo con etnia y género, para concluir rasgos visibles de explotación en las poblaciones femeninas de Guatemala.

Con esta investigación generó mapas y visualizaciones que dieron soporte a una propuesta en acrílico y billetes, para visualizar con elementos cotidianos las opresiones también cotidianas. Su solución formal se expuso durante Nuevas Proporciones.

 “Las gráficas son representaciones, recursos que se manifiestan visualmente para mostra relaciones […] Huyendo de la representación, busco trabajar las gráficas con los objetos mismos en vez de representarlos: algo tan obvio como personificar al dinero con un billete o al tiempo con un reloj”, puede leerse en la justificación de su proyecto.

Daniel Villatoro se ocupa, también desde el periodismo, constantemente con temas de opresión de clase y de etnia, sobre el ingreso de grandes capas de la población. Así ha desarrollado investigaciones con mapas y visualizaciones de datos  como esta, que aborda la insuficiencia del salario mínimo, como en muchos otros, en su país.

¿Cómo celebramos el Open Data Day 2017 en Quito?

Julio López - el Marzo 14, 2017 en Experiencias, Guest posts, Noticias

Texto por Lisette Arévalo Gross (@larevalogross) *Periodista ecuatoriana de Gkillcity y Datalat

Con las cerca de 60 sillas completamente llenas, a las 09:00 comenzó el Open Data Day 2017. Por segunda vez en Ecuador (aquí la edición 2016), Datalat y MediaLabUIO organizaron este evento para fomentar el uso de datos abiertos para la transformación social. Iván Terceros y Margarita Yepez del Medialab UIO y Datalat, dieron la bienvenida a los asistentes. El enfoque de este Open Data Day fue medio ambiente y datos abiertos, en su mayoría, las actividades se enfocan en cómo utilizar herramientas de datos abiertos en este contexto. A continuación hacemos un repaso de dichas actividades que se agruparon en 4 talleres y 5 charlas sobre proyectos con datos, networking y una actividad de cierre hands on.

Agradecemos a todos los asistentes, a los equipos de MediaLabUIO y Datalat, y a todas las organizaciones que apoyaron el evento: Urbamapp, Gkillcity, Biciacción, LlactaLab, Mi Bus UIO, OuiShare Quito, Verde Muskuna, Handytec y Fundación Ciudadana y Desarrollo. Todos estos esfuerzos enriquecen la comunidad local de datos abiertos, y sobre todo fomentar el uso de datos abiertos en ONGs, gobiernos, empresas y sociedad civil.

Talleres

  • DatClima, datos y técnicas – Verde Muskuna, Marco Calderón, director de Verde Muskuna, compartió técnicas y datos acerca del clima. Con ejemplos cortos, los asistentes conocieron las tendencias históricas del clima en el Ecuador, técnicas para trabajar con grandes volúmenes de datos climáticos, impactos de los cambios en el clima sobre la producción agrícola, y portales para generar y descargar información del clima futuro. Como conclusión del taller, se establecieron las prioridades para la generación y manejo de datos del clima, así como ideas para estudios complementarios.
  • Datos abiertos 1.0 – Datalat, Julio López, de la Escuela de Datos y Datalat, realizó un taller para aquellos que por primera vez se acercan al al uso de datos abiertos. Desde funcionarios del Municipio de Quito hasta periodistas, los asistentes aprendieron a diferenciar una base de datos abiertos de una cerrada, qué pasos seguir en caso de no tener acceso a información, herramientas para visualizar datos, cómo transformar pdfs en excels, y más técnicas básicas. Los asistentes utilizaron un ejemplo de cuántos metros cuadrados existen por habitante en Quito para repasar paso a paso cómo manejar una base de datos para responder una incógnita.
  • Mining semi-structured data with Elasticsearch & Kibana – Handytec, El taller estuvo a cargo del director ejecutivo de Handytec, empresa dedicada a proveer herramientas y soluciones estratégicas para la captura, procesamiento, análisis y visualización de grandes bases de datos. Diego Montúfar presentó el stack de Elastic como herramienta para almacenar, procesar y visualizar datos semi estructurados y Big Data. Los participantes estuvieron expuestos a tres casos de uso: Análisis de Redes sociales en tiempo real, Clickstream Análisis y Log Analytics. La charla se llevó a cabo con 20 asistentes de diversos perfiles profesionales y todos mostraron interés profundo en la herramienta. Algunos solicitaron un taller técnico más detallado para aprender a utilizar la herramienta.
  • Técnicas de mapeo y visualización de datos – Urbamapp, el quipo de Urbamapp explicó las razones y beneficios de mapear; una presentación con antecedentes destacados acerca de mapas al servicio de investigaciones y de herramientas de mapeo gratis y privadas; en este punto, se mostró un demo de Urbamapp como una aplicación útil para recolectar información georreferenciada. Los asistentes hicieron un ejercicio práctico que les permitió mapear árboles cercanos y diferenciarlos con las etiquetas: “árboles patrimoniales” y “no patrimoniales”. Finalmente, los participantes y el equipo de Urbamapp tuvieron una charla más cercana sobre cómo usar la app para sus proyectos académicos y de investigación.

Charlas sobre proyectos con Datos

  • Factchecking – Gkillcity, Lisette Arévalo Gross, editora de la revista digital Gkillcity y miembro de Datalat, quien habló sobre la primera plataforma de factchecking del país, El Verificador. El objetivo, explicó Arévalo, es que a través de bases de datos se pueda verificar que lo que dicen los políticos y las figuras de poder sea verdad.
  • Datos y mapa de movilidad – Mi Bus, Fernando Ledesma presentó la plataforma Mi bus que cuenta con datos de rutas y localización de paradas recolectados en la ciudad de Quito sobre el transporte masivo privado, esta iniciativa se podría ampliar a otras ciudades del país.
  • Territorios colaborativos para proyectos ambientales – Ouishare Quito, presentó un proyecto relacionado a los desperdicios en la ciudad de Quito, presentaron indicadores sobre la cantidad de comida y desperdicios en la ciudad y el potencial para implementar proyectos de economía colaborativa a través de un banco de alimentos.
  • Laboratorio de Movilidad y Encuesta del Perfil del Ciclista- Biciaccion y  Llactalab, Carlos Zurita presentó las actividades desarrolladas en el laboratorio de movilidad y la información que han venido recopilando sobre ciclistas urbanos. Asimismo, Daniel Orellana de Llactalab lanzó la primera encuesta para definir el perfil del ciclista en el país que estarán desarrollando en este 2017.
  • Acceso, datos y participación ciudadana – Fundación Ciudadanía y Desarrollo, Marcelo Espinel hizo un recuento de los proyectos que la fundación viene trabajando con el uso de datos abiertos y acceso a la información, por ejemplo el Observatorio Legislativo, y la plataforma web “Queremos saber” Asimismo, en el tema electoral y de datos lanzaron una herramienta para informar mejor a los ciudadanos sobre los candidatos y funcionarios públicos, Radiografía Política.

Visualización Análoga 

La jornada del Open Data Day Ecuador cerró con una actividad hands-on a cargo de Estela Navarrete (@bluewake) de Datalat sobre visualizaciones análogas, en la que los participantes representan datos estadísticos en el espacio público utilizando diversos materiales didácticos. En nuestro ejercicio formamos grupos de trabajo para analizar datos relacionados a gestión de residuos y movilidad, y los resultados fueron creativas representaciones que se tomaron las instalaciones del MediaLabUIO en Ciespal y generaron una dinámica discusión sobre la problemática medioambiental en nuestro país.

Latinoamérica se alista para el Open Data Day 2017

Julio López - el Febrero 21, 2017 en Experiencias, Fuentes de datos, Guest posts, Noticias

Este post se publicó también en el Blog de conocimiento abierto Abierto al Público, del Banco Interamericano de Desarrollo (BID)  aquí.

Por quinto año consecutivo la comunidad global de datos abiertos celebrará el Open Data Day (ODD), una iniciativa ya conocida y liderada por Open Knowledge International. A lo largo del sábado 4 de marzo, grupos locales organizan eventos que buscan utilizar los datos abiertos de sus comunidades para promover que más personas conozcan sus beneficios y fomentar la adopción de políticas de datos en gobiernos, iniciativa privada y sociedad civil.

En este 2017, el ODD se enfocará en 4 áreas temáticas: rastreo de dinero público, datos abiertos de investigación, el medio ambiente y derechos humanos. En su renovado sitio web, el ODD ofrece varios recursos para entender mejor estas cuatro áreas, incluyendo bases de datos abiertas, y una herramienta para crear el logo con el nombre de la ciudad del evento.

 

 

El Open Data Day da inicio a un 2017 que tendrá otros eventos regionales sobre datos abiertos (Abrelatam y Condatos en Costa Rica) y sobre todo puede ser una gran oportunidad para que las comunidades locales trabajen por una agenda local colaborativa. De momento ya han sido registrados más de 160 eventos en el mapa del ODD y a continuación te presentamos los eventos que se desarrollarán en ciudades latinoamericanas.

Argentina

  • Buenos Aires

La Fundación Conocimiento Abierto y otras organizaciones de la sociedad civil y entidades gubernamentales organizan el 4to encuentro por el ODD y buscan generar un espacio de diálogo y una jornada con paneles, presentación y mesas temáticas al aire libre. Ingresa aquí para más.

  • Rosario

Open Data Day llega a Rosario donde por primera vez se está organizando un evento. Para ver más detalles recomendamos seguir a Accion Colectiva .

Brasilia, Maceió y Teresina, Brasil

 

  • Brasilia celebra el OOD con un Hackaton sobre rastreo de dinero público e invita a todos los sectores de la sociedad a participar. Más información aquí.

 

  • En la ciudad de Maceió, Alagoas, se celebrará el OOD los días 10 y 11 de marzo con un taller para evangelizar al público sobre el poder de los datos abiertos para la innovación y la transparencia, sobretodo, busca comprometer a representantes del poder público para expandir sus iniciativas de apertura de datos. Más información sobre el evento aquí.

 

 

Colombia

  • Bogotá

 

Una jornada organizada por BigData Colombia para aprender sobre conceptos y el uso de datos se desarrollará en la Universidad Santo Tomás.

La agenda y más información del evento se ha publicado acá

 

 

 

  • Medellín

En Medellín, la Fundación Gobierno Abierto Colombia está organizando una feria de intercambio o trueque de Datos Abiertos sobre el medio ambiente, incluyendo la calidad del aire en la ciudad. Más información del evento aquí.

 

 

 

 

 

Ecuador

 

 

  • Quito

Por segundo año consecutivo en Quito, Datalat y MediaLabUIO están organizando un encuentro que incluye talleres, charlas y actividades hands-on sobre el apertura y uso de datos abiertos, así como un taller para usar datos locales relacionados al medio ambiente. Más informacion disponible en este enlace

 

El Salvador

 

  • San Salvador

 

El Grupo Local de la Open Knowledge International El Salvador está preparando por tercer año consecutivo un evento por el ODD 2017, más información se publicará en su pagina de facebook.

Guatemala

  • Ciudad de Guatemala

Escuela de Datos y Red Ciudadana están preparando un evento local por el ODD, para mayor información recomendamos visitar el sitio web o seguirlos en Twitter.

México

  • Ciudad de México

Por cuarto año en la Ciudad de México diferentes grupos de usuarios de datos abiertos se reunirán para participar en talleres, charlas y una expedición de datos.

Más información disponible en su Twitter @socialtic y en su blog.

 

Panamá

En la ciudad de Panamá, Ipandetec y otras organizaciones locales están organizando un taller de visualizaciones y un meet-up sobre datos abiertos, para mayor información recomendamos seguir su sitio web.

Paraguay

En Asunción, Open Data Paraguay, Girolabs y TEDIC están organizando actividades para el Open Data Day.

Por otra parte, Senatics y Koga Impact Lab están haciendo lo propio desde Gobierno en Asunción.

Uruguay

 

  • Montevideo

La comunidad de los Cafés de DATA  en Montevideo  está organizando un encuentro para renovar y mejorar el proyecto ATuNombre.uy, que permite visualizar las calles de Montevideo que llevan nombre de mujer y conocer más de esas mujeres y sus historias. Más información aquí.

 

 

 

 

Paysandú

Por primera vez en la ciudad fronteriza de Paysandú (Uruguay), Data Concepción y Subsidios.uy organiza un evento de esta índole para crear un mapa interactivo de las inundaciones en la costa argentina y uruguaya. Más información en el sitio web del evento.

 

 

Para el día del evento:

 

  • El sábado 4 de marzo súmate a la conversación en Twitter usando el hashtag #OpenDataDay y #ODD17
  • ¿Quiéres conocer más y ver otros eventos alrededor del mundo ? Revisa la página del evento oficial en español http://opendataday.org/es_mx

 

¿Cómo organizar un evento local? No hay receta, pero puedes identificar y contactar a grupos locales que trabajen con datos abiertos (gobierno, universidades, empresas privadas, sociedad civil, etc), organicen un meet-up, registrarlo en el mapa del evento (donde también puedes crear un logo) y empezar a difundirlo. Hay varias plataformas donde puedes publicarlo (eventbride, meet-uo y hasta google forms).

 

Puedes usar minería de texto y “Machine Learning” sin programación

Daniel Villatoro - el Enero 10, 2017 en Tutoriales

Esta API te permite obtener datos procesables y clasificables a partir de textos. Puedes entrenarla para que aprenda automáticamente (machine learning) a reconocer y clasificar en las categorías que tú establezcas.

A partir de un set de datos (que puede ser .csv, o .xls) puedes entrenar esta API para que trabaje para ti. En la interfaz web de MonkeyLearn puedes ir probando y entrenando para aplicar un modelo.  Debido a que es una API, esta plataforma es integrable con otros lenguajes de programación que te permitirán procesar los textos de tu fuente de datos a tiempo real y publicarlos.

Una de las ventajas de esta plataforma es que no tienes que ser programador o un experto en Machine Learning para empezar a usarla. La interfaz de usuario te irá dando pasos que deberás seguir para crear un modelo y cuando entiendas la manera en que funciona, podrás ir avanzando en su uso.

Esta herramienta aprende a base de clasificadores de texto, una categoría o etiqueta que se asigna automáticamente a una pieza de texto. Aunque el programa ya cuenta con unos clasificadores comunes, puedes crear los propios.

Con base en estas etiquetas, MonkeyLearn hará una clasificación al leer el contenido de tu set de datos. Por ejemplo, en una base de datos sobre proyectos de compras de una institución pública, esta herramienta te podría ayudar a reconocer los rubros de los fondos, o a clasificar qué tipo de productos se compraron y clasificarlos en base a una jerarquía establecida.

Al leer el texto, MonkeyLearn aplica los parámetros establecidos en los clasificadores de texto y te provee un resultado. El resultado se muestra en lenguaje JSON, para la API. La categorización del producto puede ser en varias categorías, por ejemplo Compras / Materiales de construcción / Asfalto. Aparte de esta clasificación, el programa también te provee un valor de probabilidad, el cual determina el nivel de certidumbre sobre la predicción realizada para que puedas mantener control sobre el rigor con el que tu modelo se aplica y la manera en que funciona.

Los módulos

Esta herramienta te permite tres funciones principales que indican el tipo de módulo que creas:

  1. Clasificación: Es un módulo que toma el texto y lo devuelve con etiquetas o categorías organizadas en algún tipo de jerarquía
  2. Extracción: Es el módulo que extrae ciertos datos dentro de un texto, que pueden ser entidades, nombres, direcciones, palabras clave, etc.
  3. Pipeline: Es el módulo que combina otros módulos, tanto de clasificación como de extracción, para que puedas construir un modelo más robusto con mayor nivel de procesamiento.

Las tres funciones principales de esta plataforma son:

    1. Análisis de sentimientos: Te permite detectar sentimientos (positivos, negativos, etc) en un texto a través de machine learning.
    2. Categorización de temas: Identifica el tema de un texto y lo reconoce.
  • Otras clasificaciones: Clasifica los contenidos de un texto y los asigna a una jerarquía.

Tutorial: Cómo crear un clasificador de textos a partir de una descripción

Para probar esta herramienta, vamos a crear un clasificador que lea un texto y lo asigne a una categoría y jerarquía establecida por nosotros. En este caso, trabajaré con los datos de las compras del estado de Guatemala. Aunque mi set de datos contiene mucha información, voy a trabajar solo con el campo “Descripción” que tiene contenidos como este: INTRODUCCION DE ENERGIA ELECTRICA, CASERIO PENIEL, TUCURU, A. V.

Para utilizar MonkeyLearn debes crear un usuario o vincularlo a tu cuenta de Github.
Al hacer click en +Create Module se te desplegarán las opciones para guardar tu primer clasificador.

image09

MonkeyLearn te va guiando paso a paso para que completes la información necesaria para crear un módulo. Al rellenar los datos de tu clasificador, da click en Next.image04

Responde a las preguntas que te hace sobre el tipo de trabajo que estás haciendo. En este caso, seleccionamos “otras clasificaciones”.

image11

Selecciona la opción que más se ajuste al tipo de texto que vas a analizar, pueden ser tweets (textos cortos con emoticones), noticias de diferentes medios, comentarios o reseñas de usuarios, descripciones de productos, emails, o texto personalizado. Debido a que estamos trabajando las compras del estado, vamos a seleccionar Product Descriptions. También es importante que señales el idioma en que está tu texto.

image01

Al crear tu módulo, se abrirá un panel con diferentes opciones. En Category Tree se enlistan las diferentes categorías de tu modelo. Para crear nuevas categorías, haz click en el menú a la par de Root y selecciona Add child. Al hacer esto, creas nuevas categorías “hijas”. En este caso crearemos “Agua potable” “Caminos y carreteras” “Energía eléctrica” “Agricultura” y cuantas secciones queramos tener. MonkeyLearn también permite añadir subcategorías dentro de las categorías.

image05

Para que nuestro modelo funcione, debemos entrenar cada categoría con ejemplos que le permitirán al programa reconocer automáticamente textos similares a los ejemplos que le dimos. Al hacer click en el menú desplegable a la par de cada categoría se muestra la opción Create sample, que te permite ingresar ejemplos.

image06

Para entrenar la categoría “Caminos y carreteras” vamos a añadir cuantos ejemplos podamos de descripciones que se ajusten a esta sección. Por ejemplo, “MEJORAMIENTO CALLE PAVIMENTADO Y ENCUNETADO…”. El agregar muchos ejemplos robustece la capacidad de que nuestro modelo identifique con mayor celeridad las categorías.

El panel principal de MonkeyLearn muestra las categorías en la sección Tree. Al hacer click en Samples, podemos ver los ejemplos que añadimos para cada categoría.

image00

 

Luego de añadir varios ejemplos a todas nuestras categorías, dejamos que las capacidades de machine learning se ajusten al hacer click en Train

image08

Con nuestro modelo ya entrenado, nos vamos a la secció Classify para aplicar este modelo a un set de datos. La fuente de datos puede ser un texto corrido o un archivo csv o xls.

image08

Seleccionamos nuestro archivo y nos presenta una muestra de nuestro set de datos y nos  pregunta qué columna es la que vamos a analizar.  Para seleccionar nuestra columna debemos marcar la opción Use as text que se muestra en la primera fila.  Y para aplicar el modelo pulsamos Next.

image03

image07

MonkeyLearn aplicará el modelo de clasificación que creamos y devolverá un archivo descargable.

En nuestro ejemplo, utilizamos un set de datos de las adjudicaciones del estado a proveedores. Nuestra base de datos contaba con categorías útiles como la entidad compradora, modalidad, fecha de adjudicación, proveedor y descripción. Sin embargo, las descripciones son texto escrito no categorizado, por lo que buscábamos categorizar esas compras por el tipo de materiales que se compraban.

En el archivo que MonkeyLearn produce se agregan varios elementos. “Classification path” te muestra la categorización que realizó y, si tiene jerarquía, te muestra los diferentes niveles separados por / una barra diagonal. Te muestra también “Level 1 label”, la clasificación que realizó, y “Level 1 probability”, un índice de probabilidad sobre la similitud entre el texto que encontró y los ejemplos que le mostraste.

image10

 

A medida que entrenes más cada categoría, tus resultados serán más certeros. Debido a la cantidad de registros de una base de datos, la clasificación manual sería un proceso muy tardado. Así que cuando tengas estos problemas puedes aplicar el machine learning para clasificar o tematizar bases de datos con texto.

Yo estoy aprendiendo a utilizar esta herramienta, pero si tienes dudas o ejemplos sobre cómo aplicar estas habilidades a un trabajo con datos, tuiteanos a @EscuelaDeDatos y @danyvillatoro. Nos gustaría saber de qué manera has podido aplicar esta herramienta a tu trabajo.

 

magazine.image = https://es.schoolofdata.org/files/2017/01/image07.png

 

Cómo hacer visualizaciones de datos con Tableau

Omar Luna - el Diciembre 29, 2016 en Expediciones de Datos, Tutoriales, Uncategorized

Mi incursión en Tableau surgió como una oportunidad. Hace dos años, trabajaba en una Organización No Gubernamental (ONG) en El Salvador especializada en el tema de mujeres. Mi exjefe estaba por comprar un software especializado en visualizar datos. Se me acercó y me preguntó: “¿Le interesaría aprenderlo?” Dudé. No mucho, pero dudé. Y, pese a las dificultades iniciales, acepté el reto y heme aquí intentando que la gente lo ame tanto como yo lo hago.

De ahí, cada que puedo recomiendo Tableau, una herramienta creada por tres entusiastas de los datos en la Universidad de Stanford, como un excelente aliado en visualización cuando carecemos de equipos multidisciplinarios (conformado por visualizadores, infografistas, diseñadores, entre otros), pues se sustenta en el concepto one man band para contar cierto tipo de temáticas con gráficos. ¡Ojo! Tiene una versión pagada, pero si trabajas en una universidad o lo utilizas para fines académicos puedes solicitar una copia GRATUITA para dos años y válida para ser instalada en dos computadoras acá: http://www.tableau.com/academic/students.

Por eso, hoy quiero compartir contigo cómo puedes hacer visualizaciones de mapas y gráficas que, en su momento, impactaron al funcionario salvadoreño con un set de datos que trabajé durante mi paso por dicho proyecto, enfocado en la problemática de mujeres salvadoreñas deportadas de México y Estados Unidos, un fenómeno que casi no había sido analizado ni comprendido del todo en mi país. Sin más, zambullámonos en el vasto y fascinante mundo de Tableau, ¿sí?

¡Bellísimo así!

Es lo primero que dirás al abrir la nueva versión de Tableau, pues su edición 10 ha apostado por una interfaz más intuitiva para quien se anime a explorar el noble arte de la visualización. Te lo digo yo porque vengo de donde asustan, ya que me tocó aprender a utilizarlo en su versión 7. Como puedes ver en el menú de la izquierda, puedes conectar tus bases desde un archivo (ya sea .xls, .csv, .tsv, entre otros) hasta aquellas que tengas trabajadas en un servidor (MySQL, Oracle Server, etcétera).

image00

 

 

¡Comencemos! Conectaremos mi archivo con la opción Conectar a un archivo > Excel. Buscaremos la base trabajada en mi computadora y Tableau se tomara unos momentos para procesarla. ¡Voilá! Tendremos una previsualización para que podamos revisar la data antes de trabajar con ella. Esta deberías verla de la siguiente forma:

image12

El trabajo de carpintería con una base de datos se vuelve fundamental, pues dicho set se encuentra preparado para ser leído por un programa de computadora como Tableau con el objetivo de que puedan realizarse todas las conexiones y relaciones necesarias para analizar datos que nos hagan ver más allá de lo evidente (Thunder, Thunder,Thundercats, ¡oooooooooooh!).

A ojo de buen cubero, puedes ver que Tableau automáticamente establecer una diferenciación entre aquellos valores que son textos y números; no puede establecer que los años, las latitudes y longitudes son variables que pueden trabajarse de forma diferenciada en el caso de una visualización.

Para cambiarlas, haz clic sobre el ícono Numeral (#) que aparece arriba de dichas categorías > Rol geográfico > Latitud/Longitud. Finalizado este paso, verás que ha cambiado el ícono Numeral (#) por un globo terráqueo. ¡Eso significa que funcionó! ¡Yey! De igual forma, sigue los mismos pasos para la variable Ano y cambíalo por una Cadena que nos servirá para analizar los años de forma continua.

image02

 

 

 

 

¡A trabajar! Demos clic en el recuadro naranja denominado Hoja 1 y sigamos el camino datero hacia nuestro canvas en blanco. Qué belleza, ¿no? Tableau establece una clara diferenciación entre cada aspecto clave de visualización (filtros, marcas, gráficos, hojas, dashboards, entre otros) y, además, simplifica el trabajo mediante el arrastre de variables hacia determinados campos o con solo darle doble clic a las medidas y dimensiones podemos verlas desplegadas en nuestro canvas.

image23

 

Comencemos con un mapa. Para desplegarlo, haz doble clic en Longitud y Latitud; te aparecerá un punto geográfico que localizará a El Salvador en un mapa de OpenStreet. Como necesitamos visibilizar a los 262 municipios del país para visibilizar la temática de las mujeres repatriadas, arrastremos las Medidas Departamento y Municipio hacia la opción Detalle del Menú Marcas. ¡Listo!

image21

¿Ves? Ya podemos ver cómo cambia nuestra forma de visualizar mapas. Gracias a Tableau, podemos estilizar colores y tamaños de los puntos con cantidades o tasas; arrastremos Municipio y Tasa por cada 100,000 habitantes a las opciones Color y Tamaño del menú Marca respectivamente. Así, podemos mostrar la gravedad, repitencia de un fenómeno u otra problemática nacional.

image16

 

 

Pero, ¿qué pasa si no deseas los colores y tamaños preestablecidos de Tableau? Tableau te ofrece la maravillosa ventaja de arreglarlos a tu gusto en las opciones del menú Marca. Acá, yo cambié un poco el tamaño y utilicé la paleta de color púrpura de la herramienta. Para modificarlo, hice lo siguiente: di clic a la opción Color del Menú Marca > Editar Colores > Seleccionar paleta de colores > Púrpura > Asignar Paleta > Aceptar. ¡Y me quedó así!

ya

 

¡Momento! ¡Falta algo! Exacto: limpiar la descripción emergente. Aún contempla la Latitud y Longitud, así como otras variables útiles para describir el fenómeno en cada localidad. Dado que nos interesa que la gente se familiarice y lo entienda de un vistazo, arrastremos las siguientes Medidas a la opción Descripción emergente (Tooltip) del Menú Marcas: Forma de repatriacion y Cantidad.

Por las demás variables, ¡tranquilo! Ya se encuentran contempladas en dicho apartado. Para limpiar la suciedad persistente en el Tooltip puedes editar y condensar la información a lo más importante. ¡Ojo! No abuses de la paleta de colores, pues tu historia puede difuminarse ante una paleta de colores infinita e innecesaria. Finalizada tu edición, dale clic a Aceptar. ¡Primera hoja lista!

Do the evolution!
Como la rola de Pearl Jam, esta herramienta te ayuda a ver cómo evoluciona un fenómeno con gráficas de líneas o áreas. Para ver este caso, hagamos lo siguiente. Agreguemos una nueva hoja a nuestro libro de trabajo, haciendo clic en el botón inferior derecho, ubicado cerca de la hoja Mapa. En ella, arrastraremos la dimension de los años y la medida Cantidad a los apartados de columnas y filas respectivamente. ¿Ves cómo se despliega ahora?

image13

 

 

 

 

 

 

 

 

Maticemos el grado de intensidad de la gráfica arrastrando la medida Cantidad en la opción Color del menú Marcas y editemos el color a púrpura. Así, daremos aire de familia a nuestra visualización. Ahora bien, para vislumbrar las cantidades, arrastremos la medida Cantidad al campo Etiqueta del menú Marca y así podrás ver cómo se presentó el fenómeno en general durante tres años.

 

 

 

 

 

 

 

 

 

 

 

Si eres curioso como yo, notarás que al pasar el cursor sobre los puntos, verás que la Descripción emergente no tiene lo que necesitamos. Por eso, arrastraremos las siguientes variables a Descripción emergente: Departamento y Forma de repatriacion. Nuevamente, condensemos y editemos para resaltar lo importante. Así, tendremos un before and after espectacultar. Maravilloso, ¿verdad?

image07

 

 

 

 

 

 

 

 

 

 

 

Entre el mapa y el gráfico, ¿notaste elementos comunes que pueden servir para filtros? Yo también. Sazonemos nuestras hojas con ellos para que sean aplicables en un dashboard. Arrastremos las dimensiones Departamento y Forma de repatriación al campo Filtros, ubicado arriba del menú Marca. Seleccionemos todas sus variables y apliquémoslas a ambas hojas. Para el caso de los años, solo se lo aplicaremos al mapa, dado que ya contamos con un gráfico que muestra la evolución en el tiempo.

image10

 

 

 

 

 

 

 

 

 

 

 

image06

 

 

 

 

 

 

 

 

 

 

 

image04

 

 

 

 

 

 

 

 

 

 

 

¿Y si hacemos un muñeco?

¡Llegó el momento! Creemos un dashboard. Este es un elemento que contendrá nuestras hojas y otros elementos de interés para nuestra visualización. Accedamos a él con el botón Nuevo dashboard, ubicado cerca del botón Nueva hoja. ¡Voilá! Un canvas con la posibilidad de visibilizar el fenómeno de mujeres repatriadas a El Salvador. Arrastremos nuestras dos hojas para que nos queden así:

image11

 

 

 

 

 

 

 

 

 

 

 

Ordenemos la casa. Coloquemos la cantidad de tasas como valor flotante. Para hacerlo, haremos clic derecho sobre la flecha desplegable hacia abajo del contenedor de tasas y seleccionaremos la opción Flotante. Deshágamonos de las leyendas de colores de los municipios haciendo clic en la X que aparece en su contenedor. Finalizado esto, convoquemos los filtros a escena. Haremos clic sobre la flecha negra desplegable en el contenedor de la hoja Mapa y seleccionaremos la opción Filtro > Ano, Forma de repatriación y Departamento. Estos aparecerán de la siguiente forma:

image18

 

 

 

 

 

 

 

 

 

 

 

¡Yo sé! Aún no se ve lindo nuestro dashboard. Coloquemos dos filas imaginarias arriba de nuestro mapa. ¿Cómo? Utilicemos la opción Objetos > En blanco para colocarlas en el dashboard. Al principio, nos saldrán fuera de lugar, pero podemos arrastrarlas para acomodarlas en lo más alto de nuestra visualización. Una vez posicionadas, necesitamos redactar un titular y un indicador que guié a nuestro usuario a darse un vueltín por nuestra visualización.

Hagámoslo realidad haciendo clic en la opción Texto del Menú Objetos. Posteriormente, posicionemos el titular en la primera fila y el indicador en la siguiente. Terminado esto, elimina la fila del titular y despliega el titular en toda la fila; con el indicador ocurre lo contrario, dado que deberás arrastrar los filtros posterior a él. Acómodalos y obtendrás como resultado lo siguiente:

image01

 

 

 

 

 

 

 

 

Prescindamos del titular del Mapa. Haremos clic sobre la flecha desplegable del contenedor Mapa y le quitaremos el cheque a la opción Título. ¡Se fue, se fue! Ahora, pulamos el títular de nuestra gráfica. ¿Cómo? Hagamos clic sobre su titular y redactemos: Cantidad de mujeres repatriadas en. Finalizado eso, haremos clic en Insertar y coloquemos las siguientes variables en nuestro titular: ATTR(Departamento) – ATTR(Forma de repatriacion). Así, le daremos interactividad una vez el usuario se valga de los filtros para analizar la información. image14

 

 

 

 

 

 

 

 

 

 

 

 

image08

 

 

 

 

 

 

 

 

 

 

 

Ah, ¡lo olvidaba! También, puedes formatear el título para darle el mismo realce que al titular de nuestro dashboard. ¡Ojo! Siempre, siempre, siempre cita la fuente de dónde obtuviste la información, dado que eso te será de mucha utilidad para respaldar de dónde fue extraída y qué otras consideraciones tomaste en cuenta al momento de analizar la data, como el caso de las tasas.

 

¿Con quién se queda el Tableau?

Supongamos que ya tenemos nuestra visualización como la queremos. Acá, solo nos queda publicarlo en línea. Para eso, Tableau nos pide que elaboremos un extracto de nuestra información como respaldo. ¡Manos a la obra! Iremos a la barra de Menús > Datos > Extraer Datos. Acá, aparecerá un menú donde podremos añadir todas las variables clave que se extraerán de tu data.

image25

 

 

 

 

 

 

 

 

 

 

 

 

Haremos clic a la opción Añadir y seleccionaremos Año. A continuación, aparecerá una ventana emergente donde estarán todos los años. Escogélos todos y daremos clic en el botón Aceptar. Seguiremos el mismo procedimiento para el resto de variables; finalizado este procedimiento, crearemos el extracto dando clic en el botón Extracto.

image19

 

 

 

 

 

 

 

 

 

 

 

image03

 

 

 

 

 

 

 

 

 

 

 

image19

 

 

 

 

 

 

 

 

 

 

 

¡Ya casi, ya casi! Ahora vamos a la opción Servidor de la barra de menú. Escogeremos Tableau Public > Guardar en Tableau Public como… En cuanto hagamos eso, nos aparecerá una ventana donde ingresaremos nuestro correo electrónico y nuestra clave para acceder a nuestra cuenta. Si no cuentas con una, ¡tranquilo! Esta herramienta te permite crearla durante este proceso.

image17

 

 

 

 

 

 

 

 

 

 

 

 

image15

 

 

 

 

 

 

 

 

 

 

 

 

image05

 

 

 

 

 

 

 

 

 

 

 

Tan pronto como ingresemos nuestros datos, nos pedirá que redactemos el nombre de nuestra visualización. En este caso, le puse Mujeres repatriadas en El Salvador. Damos clic al botón Guardar. La herramienta procesará… ¡Voilá! ¡Nuestro Tableau aparecerá desplegado en nuestro perfil público de Tableau, donde podemos editarle detalles, como una breve descripción, qué tipo de formatos autorizamos a la herramienta para que la gente pueda descargar, entre otras utilidades.

image20

 

 

 

 

 

 

 

 

 

 

 

¿Tableau o no Tableau? ¡Esa es la cuestión!

Mi recomendación es que apuestes por Tableau. Y, si tu medio de comunicación u organización puede adquirirlo, mucho que mejor, pues una clara diferencia entre la versión gratuita y la versión pagada es que tienes mejor cobertura de seguridad, acceso al servidor pagado (con mejor seguridad que el público) y mayor lectura de líneas de registro y formato de apertura de ciertos archivos.

Sumado a eso, concuerdo con Ojo Público (2016) al garantizarte que la creación de filtros permite que los usuarios consulten y obtengan resultados personalizados en datos. Y, sobre todo, el hecho de que no se necesita saber programación para usarla, pues, al descubrir que algunas de sus funcionalidades provienen de herramientas como Excel, la cosa pinta mucho que mejor.

¡Eso sí! “Sobre advertencia, no hay engaño”. Actualmente, la mayoría de información sobre esta herramienta se encuentra en inglés, su foro de atención al usuario se tarda un poco (¡o un siglo!) en responder y algunos gráficos, como el mapa de relleno, dejan mucho que desear cuando son regiones o naciones foráneas a Estados Unidos…

Aun así, es una herramienta que promete mucho en su nueva actualización, a la que vale la pena acercarse por facilitarte un poco más las cosas a la hora de visibilizarse historias con datos, así como el grado de interactividad que le brinda al usuario y, si ya con esto no logro convencerte, te reto a que la pruebes y nos compartas qué te parece y que no debajo de esta publicación o en nuestro Twitter (@EscueladeDatos). Cheers!

Cómo empezar a armar tu base de datos sobre feminicidio

Raisa Valda Ampuero - el Diciembre 8, 2016 en Experiencias, Tutoriales

El Observatorio de Igualdad de Género de América Latina y El Caribe dispone de datos de feminicidio de fuentes oficiales de 18 países latinoamericanos. Bolivia no es uno de ellos, pues aunque la ley 348 para Garantizar a las Mujeres una Vida Libre de Violencia fue promulgada en 2013, los datos que se publican se remiten a información general por parte de la Policía, y en el mejor de los casos, valiosas investigaciones de ONGs cuya base de datos no es abierta y se publican datos condensados a travé de informes.

Ante la urgencia de la creciente oleada de crímenes, algunas organizaciones de sociedad civil como “Cuántas Más” en Bolivia, ven como urgente la necesidad de armar una base de datos recopilando los hechos que además se encuentre abierta al público para que puedan ser consultados por investigadores, periodistas, o cualquier persona que tenga interés de hacer algo más con datos registrados y sistematizados; si en tu país no dispones de fuentes oficiales, aquí te damos algunos criterios que debes considerar para armar la base de datos.

image00

 

 

 

 

  1. Diferencia entre datos primarios y datos secundarios. Datos primarios son aquellos que se obtienen a través de una recopilación de datos propia, como la observación de procesos, una encuesta o una entrevista. Los datos secundarios por otra parte son datos que otros ya han recopilado y han puesto a disposición pública. Si estás planeando hacer una recopilación de casos, lo más probable es que recurras a este segundo grupo, con base en estudios, estadísticas de otras organizaciones, o publicaciones de prensa.
  2. Cuando recopiles datos propios considera que estos pueden ser cuantitativos o cualitativos. Los datos cuantitativos se caracterizan por su enfoque estandarizado y tienen como objetivo verificar, confirmando o refutando, diversas relaciones e hipótesis basadas en números. Los datos cualitativos ofrecen un enfoque abierto y sirven para recoger información que no se pueda representar mediante cifras pero puede dar una mejor comprensión de una cuestión.
  3. Algunas veces, los datos pueden estar publicados en sitios web pero no existe un link de descarga. En ese caso, te sugiero utilizar una herramienta para la extracción de datos fácil de usar que tiene como objetivo obtener datos de forma estructurada de cualquier sitio web; se trata de import.io y puedes consultar este tutorial para aprender a usarlo.
  4. Es importante conocer las otras organizaciones que trabajan en la recepción de denuncias de violencia de género o que proveen servicios legales; estas organizaciones también pueden proveer datos fuente de órganos descentralizados, por ejemplo, de carácter municipal, servicios de atención a la salud, el sistema de justicia penal y prestadores de servicios sociales, por nombrar algunos.
  5. Si vas a obtener tus datos desde información publicada en prensa, trata de cotejar adicionalmente con uno o dos medios; de esta forma garantizas la verificación de los datos publicados y el aumento de aquella información que algún medio no pudo obtener.
  6. Saca provecho de Google Alerts, un servicio de Google que te permite recibir alertas a tu email cuando el buscador indexa nueva información relacionada con las palabras clave de búsqueda. Con esta herramienta puedes automatizar el proceso de búsqueda o actualizar los resultados de una búsqueda de tu interés a lo largo del tiempo, hasta que decidas eliminar la alerta; programa por ejemplo las palabras feminicidio o mujer asesinada.
  7. Identifica todos los criterios relevantes para tu primer análisis: nombres, edades, y locaciones suelen ser datos que comúnmente identificamos; sin embargo, la riqueza para análisis de tu base de datos puede estar en los datos que no siempre consideramos como el número de hijos sobrevivientes al hecho, la relación de la víctima con el victimario, el estado del caso y si es que ha obtenido sentencia, el tipo de agresión que se produjo, si es que hubo una denuncia de violencia previa. La granularidad es importante.
  8. Documenta el proceso, es importante explicar los pasos que seguiste para que las personas interesadas en la base de datos tengan los argumentos completos de tu trabajo. Aquí puedes encontrar algunas opciones para realizar este paso.
  9. Finalmente escoge la mejor manera de mostrarlos, dependiendo del volumen y el contenido de tu base de datos puedes optar de mostrarlos, por ejemplo, en una línea de tiempo o un mapa. Solo recuerda publicarlos con el enlace de descarga.

Adicionalmente, si te interesa indagar más profundo, CEPAL lanza un curso cada año de introducción sobre estadística e indicadores de género que a la fecha va en su sexta versión. Debes estar atento al lanzamiento de la próxima convocatoria.

Datos al Tablero: análisis de desigualdad en Colombia.

invitado - el Noviembre 28, 2016 en Experiencias, Fuentes de datos

 

Daniel Suárez Pérez, coordinador del proyecto colombiano Datos Al Tablero, comparte cómo éste se inició, cómo se desarrolló, y los retos que aún tiene por delante.

Datos al Tablero se realizó vía School of Data, a través del Data Member Support, en alianza con el movimiento Todos por la Educación. Es una análisis de la desigualdad educativa en Colombia, a través de la recolección y análisis de datos sobre deserción y repitencia entre 2012 y 2015.

Combinando bases de datos con Tableau Public de manera automática

Daniel Villatoro - el Octubre 24, 2016 en Tutoriales

En ocasiones, tenemos dos o más bases de datos que queremos combinar por un factor común. El uso de datos es más efectivo cuando puedes combinar varias bases de datos y ver cómo se relacionan entre ellas. Tableau Public es un programa que nos permite hacer esto de manera sencilla. En este tutorial veremos cómo hacerlo.

Al combinar datos de manera automática te ahorras el tedioso trabajo de tener que emparejar de manera manual dos o varios set de datos.

Al combinar datos de manera automática te ahorras el tedioso trabajo de tener que emparejar de manera manual dos o varios set de datos.

 

  • Instala el programa

 

Este programa gratuito te permite importar tus datos para crear visualizaciones interactivas. Todo tu trabajo se guarda en tu usuario y se puede compartir a través de códigos embed o iframes. Otra ventaja es que el programa está disponible para los sistemas operativos Windows y Mac. Para descargar la aplicación, entra en este link y sigue las instrucciones que el instalador te señala.

2) Asegúrate de que tus datos compartan un denominador común

Cuando quieres unir bases de datos debes asegurarte de que ambas compartan algún campo que vincule los dos sets de datos. Por ejemplo, si tienes dos set de datos sobre los países de Latinoamérica, tu denominador común puede ser el nombre del país. O si tienes datos sobre denuncias y delitos de los partidos políticos, el denominador común puede ser el nombre o las siglas del partido.

3) Repasa la teoría de los conjuntos

Tableau Public te permite realizar dos tipos de combinaciones.

La primera, es una unión interior.

image00

 

 

 

 

En este tipo de unión, sólo se copiaran los datos en los que el denominador común de ambas fuentes de datos coincida. Por ejemplo, si tenemos un set de datos sobre alfabetización en  todos los países del mundo y lo combinamos con datos sobre el acceso a la educación primaria en los países de Latinoamérica, nuestra base de datos combinada solo mostrará los datos de los países de Latinoamérica.

La segunda, es una unión izquierda.

image01

 

 

 

 

En este tipo de unión, se copiarán todos los datos de tu primera fuente de datos y sólo se agregarán los datos de la segunda fuente cuando estos coincidan en denominador común. Las filas que no tengan coincidencias se mostrarán como valores nulos. Siguiendo nuestro ejemplo, nuestra base de datos combinada mostraría los datos de alfabetización de todos los países del mundo, pero aquellos que no forman parte de Latinoamérica no contarían con datos sobre el acceso a educación primaria.

4) Abre el programa y conecta tu primera fuente de datos

Al iniciar, el programa te invita a conectar a un archivo de base de datos, que puede ser en formatos Excel (xls, xlsx), Archivos de texto (csv) o Access. Selecciona tu primer set de datos. En nuestro ejemplo, sería el archivo con el porcentaje de alfabetización de todos los países del mundo.

image03

 

 

 

 

5) Añade tu segunda fuente de datos

Haz click en la palabra añadir y agrega una segunda base de datos. En nuestro ejemplo, es el archivo con el porcentaje de acceso a la educación primaria en los países latinoamericanos.

image05

 

 

 

 

6) Arrastra ambos sets de datos y conéctalos

Al arrastrar las diferentes hojas de cálculo a la pantalla de Tableau Public, el programa te mostrará la relación que estás creando entre ambas bases de datos y te dará una muestra de cómo luce tu conexión de datos.

image06

 

 

 

 

7) Edita la conexión

Haz click en los dos círculos unidos que se muestran entre tus fuentes de datos para abrir una ventana de edición de tu unión. En esta pestaña debes de decidir si quieres una combinación interior o una combinación izquierda. También debes de indicar cuál es la categoría en tus fuentes de datos que coincide o es igual en ambas. En este caso, seleccionamos el campo Country (País) para que combine los datos de cada país de manera automática.

image04

 

 

 

 

Siguiendo el ejemplo, si decides hacer una conexión interior, la combinación de estas dos bases de datos sólo te mostraria 42 filas con los datos de alfabetización y acceso a educación primaria de los 42 países de Latinoamérica y el Caribe.

En cambio, si eliges una conexión izquierda, el set de datos resultante te mostraría 254 filas con los nombres de todos los países del mundo y sus datos sobre alfabetización, pero los datos sobre acceso a educación primaria solo estarían en los países latinoamericanos. El resto de países tendría un valor nulo en esta categoría.

Durante todo el proceso, Tableau Public te muestra una previsualización de cómo se ve tu set de datos combinado debajo de la sección en la que editas las uniones.

8) Copiar y guardar.

Selecciona todas las filas y columnas de tu base de datos combinada haciendo click en la esquina superior izquierda de la previsualización que te muestra el programa. Copia el contenido con la combinación Ctrl+C o ⌘+C,  pégalo en el editor de hojas de cálculo de tu preferencia y guárdalo.

Así, de manera sencilla, puedes combinar bases de datos con muchos campos y sin tener que prestar atención y copiar manualmente las coincidencias. Esta práctica es de mucha utilidad cuando quieres combinar diferentes estadísticas sobre varios lugares, o cuando quieres combinar una base de datos con datos georeferenciales con una que contenga estadísticas.

La combinación izquierda te puede servir para identificar valores que coincidan entre dos bases de datos. Esto es de mucha utilidad cuando estás creando hipótesis para investigaciones o quieres comprobar relaciones entre listados de personas o entidades.

Usando Carto: ¿Cómo unir mi base de datos con un mapa de polígonos?

Ximena Villagrán - el Septiembre 21, 2016 en Tutoriales

La aplicación para hacer mapas Carto (antes CartoDB) es una herramienta útil para visualizar información geográfica pero tiene una desventaja, no cuenta con la información cartográfica de países pequeños o “poco importantes” a nivel mundial.

Es por eso que los que hacemos mapas en países latinoamericanos tenemos una misión un poco más complicada, debemos conseguir la información cartográfica y unirla con nuestras bases de datos.

A continuación describiremos el proceso para unir el archivo con la información cartográfica y una base de datos en Excel.

El archivo con los polígonos de los municipios de Guatemala en formato Shape (.shp) lo obtuve de la página web de la Secretaría de Planificación de la Presidencia, si necesitas un mapa de tu país puedes descargarlo en este enlace.

Sube el archivo .zip que contiene el archivo .shp a Carto para empezar a usarlo.

image10

 

 

 

 

Como podrás ver en la columna quinta columna “código” están los códigos asignados por el gobierno de Guatemala a cada municipio.
Estos son códigos estandarizados que debe tener el Instituto Nacional de Estadística de tu país. Estos son los códigos estandarizados de los 340 municipios de Guatemala.

image01

En el caso de Guatemala utilizamos los códigos porque normalmente ninguna base de datos de información gubernamental tiene los mismos nombres para todos los municipios, como en el caso del archivo .shp y la base de datos.
Ahora debes abrir la base de datos que quieres visualizar en el mapa. En mi caso usaré una que tiene información sobre las escuelas preprimaria del país.

 

 

image09

 

 

 

 

Para agregar los códigos estandarizados a la base de datos agregaremos una columna y usaremos la fórmula BUSCARV para localizar los códigos en el archivo anterior.

image11

 

 

 

 

Ya con los códigos en todos los municipios deberás subir el archivo a Carto.

image05

 

 

 

 

 

 

 

 

Ahora debes dar click en “edit” y a “Merge with dataset”

image02

 

 

 

 

Debes elegir la opción “Column join” para unir los dos archivos

image00

 

 

 

Y seleccionar en la segunda columna el archivo “municipios_gtm” que fue el que subiste del archivo .shp.

image13

 

 

 

 

Debes seleccionar que utilice la geometría del archivo “municipios_gtm” que es el que tiene la información cartográfica.

image08

 

 

 

 

Y ahora viene la magia. Debes hacer click en “Merge Datasets”. Así quedan las dos tablas unidas.

image03

 

 

 

 

Ahora debes hacer click en “Map view”. Todos los polígonos de los municipios estarán marcados.

image04

 

 

 

 

 

 

Luego ya deberás personalizar tu mapa como quieras utilizando los datos de tu base de datos.

Este fue mi resultado:

image12