El mapa musical de Bogotá

invitado - el Mayo 22, 2017 en Experiencias, Fuentes de datos, Guest posts

Esta publicación es una contribución de la iniciativa Datasketch, que nace en Bogotá para promover el conocimiento del análisis y visualización de datos entre todas las capas de la sociedad (y no sólo entre especialistas), a nivel local y global.

Nuestros amigos de Datasketch accedieron a enriquecer el blog de Escuela de Datos con publicaciones periódicas. Su primera entrega es la aplicación de datos Mapa Musical de Bogotá, que realizaron haciendo un ejercicio de crowdsourcing sobre canciones emblemáticas del país y diseñando con javascript esta visualización interactiva.

Mapas de redes: así investigamos el poder en nuevo aeropuerto mexicano

invitado - el Mayo 8, 2017 en Experiencias, Fuentes de datos, Noticias

Este post es una colaboración de Claudia Ocaranza, periodista de datos e investigación del Proyecto Organización, Desarrollo, Educación e Investigación (PODER), sobre la investigación Torre de Control, que navega y visualiza cientos de contratos de proveedores para la construcción del Nuevo Aeropuerto Internacional de la Ciudad de México (NAICM).

“El mundo es un pañuelo” decimos jocosamente cuando encontramos una conexión inesperada con otra persona. En la élite política y económica mexicana (y regional) esta frase debe repetirse mucho, ya que cuando empezamos a conectar puntos encontramos infinidad de conexiones inesperadas que en demasiados casos acaban generando grandes beneficios. La técnica, que por supuesto hace un uso extensivo de datos, se llama mapas o redes de poder.

Pero, ¿cómo se construyen las redes de poder? Existen diferentes formas y la finalidad siempre es mostrar las conexiones entre dos o más sujetos (personas, empresas u organizaciones). En el Proyecto sobre Organización, Desarrollo, Educación e Investigación (PODER) aplicamos esta técnica en la investigación empresarial y normalmente diferenciamos entre el mapa horizontal (proveedores, clientes y competidores) y el vertical (propietarios, accionistas, matrices y subsidiarias). Los datos que generamos los guardamos en una base de datos libre y abierta llamada QuiénEsQuién.wiki.

El último proyecto en el que hemos aplicado esta técnica es el de Torre de Control, un gran mapa de poder de todo el proceso de contratación de proveedores para la construcción del Nuevo Aeropuerto Internacional de la Ciudad de México.

 

Analizando la publicación, que nos guía a través de los contratos por medio de “diapositivas”, vemos dos elementos esenciales que nos orientan a través de ella: las conexiones y los nodos. Siguiendo el orden en que van apareciendo, primero tenemos el nodo central, el NAICM, luego están los tipos de contratación y en la tercera diapositiva están todos los contratos que hemos rastreado. Las empresas ganadoras de cada uno de los contratos aparecen en la cuarta diapositiva, y en la quinta la investigación vertical de ellas: a quién pertenecen.

A pesar de ser una red de poder, la TorreDeControl.org no es un mapa clásico de relaciones, dónde las conexiones no están estratificadas como lo están en este caso. Seguro que habrán visto redes más complejas que mapean las relaciones entre distintos actores. Aún así no hay una forma correcta de hacer los mapas de poder, todo depende de lo que quieras contar.

 

¿Dónde encontramos los datos? Esta pregunta no es sólo para los mapas de poder, sino para cualquier proyecto datero que quieras hacer. En el caso de la TorreDeControl.org bajamos, limpiamos y sistematizamos la información de más de 200 contratos realizados entre el Grupo Aeroportuario de la Ciudad de México (GACM) y diferentes proveedores, ya sean empresas, personas u organizaciones.

La limpieza y el análisis de los datos de contratos públicos, pero también de las empresas que participan en esas licitaciones y adjudicaciones, nos puede ayudar para encontrar relaciones que a simple vista no resultan tan evidentes. Para Torre de Control accedimos a data de Compranet, el repositorio de compras públicas del gobierno mexicano, datos.gob.mx, y realizamos solicitudes de información. Además trabajamos con nuestra propia base de datos de QuiénEsQuién.Wiki, en la que tenemos la información de las empresas y empresarios.

Así, pudimos construir una sola base de datos en la que unimos la información de los contratos con la de las empresas ganadoras, como sus socios, accionistas y miembros del Consejo de Administración. Con esto elevamos el nivel de conocimiento sobre quiénes (empresas y empresarios) se benefician con la construcción del NAICM. Como era de esperarse, el poder se concentra en ciertas empresas y sus socios, inversionistas, accionistas y consejeros, que suelen repetirse en las compañías de mayor poder.

Por tomar un ejemplo, el empresario Carlos Slim está relacionado con al menos 10 contratos del NAICM, ya sea a través de empresas matrices, subsidiarias y hasta familiares que también ganaron contratos.

 

Los datos que obtuvimos para Torre de Control reflejan que Radiomóvil Dipsa, S.A. de C.V. obtuvo por adjudicación directa el contrato para los servicios de telefonía celular. Esa es toda la información que se puede obtener de Compranet; sin embargo, revisando los datos empresariales de Radiomóvil Dipsa, encontramos que es subsidiaria de América Móvil.

Operadora CICSA, de Grupo Carso, propiedad de Carlos Slim, ganó en consorcio con otras empresas el contrato más jugoso del nuevo aeropuerto, la construcción del edificio terminal, por más de 84 mil millones de pesos. A su vez Grupo Carso tiene como inversionistas a seis bancos que también son prestamistas de un crédito para el Grupo Aeroportuario por más de 3 mil millones de dólares. (Desde PODER reporteamos esta data, aquí puedes leer nuestra nota.)

Ya encontramos las relaciones, ahora ¿cómo las mapeamos? Responder a cuatro preguntas nos ayudará para conocer cómo se mueve el poder: desde dónde surge, hacia dónde, dentro de dónde y con qué finalidad se ejerce. En el caso de Slim, el poder surge desde sus empresas hacia el Grupo Aeroportuario de la Ciudad de México, el cual decide cómo y a quién adjudicar las obras del aeropuerto. La finalidad, claro, es participar en la megaobra que recibirá una inversión de más de 180 mil millones de pesos.

Muchas veces tener una visualización nos ayuda a entender mejor los flujos de poder. Existen herramientas que nos permiten mapear estas redes de forma sencilla. Por mencionar dos, Gephi y VIS de Dashboard sirven para mostrar gráficamente cómo se relacionan dos o más sujetos.

La información se guía por redes de poder”, escribió Miguel Ángel Bastenier. El análisis de datos limpios y organizados nos lleva a dar sentido a montañas de información y a hacer evidente relaciones de poder que marcan el rumbo de las decisiones sobre megaproyectos que suceden en nuestro país.

Narrativas basadas en datos: aprende a elegir formatos para tus audiencias

invitado - el Abril 28, 2017 en Uncategorized

Narrativas Basadas en Datos

En este webinar de Juan Manuel Casanueva, director de SocialTIC, puedes aprender a distinguir el grado de especialización de tus audiencias para elegir el tratamiento adecuado de los datos para su consumo. También puedes evalúar distintos tipos de formatos y conocer ejemplos iberoamericanos de narrativas basadas en datos.

—-

Los datos en crudo deben filtrarse y analizarse, y usualmente esto lo hacen usuarios especializados, las organizaciones o periodistas deben convertir esos datos en información consumible para generar conocimiento.

Filtros y simuladores de análisis son también para cierto tipo de usuarios, pero ciertos tipos de visualizaciones ya no dependen del grado de especialización de los mismos. El grado que hace más consumibles los datos es el de las historias.

Otra manera de aproximarse a audiencias es a través de los enfoques y formatos adecuados.

Para entender la idea se requieren gráficas simples, imágenes, carteles, infografías simples. Para explicar fenómenos descubiertos a través de datos se pueden contar historias con mapas, animaciones e infografías, o incluso a través de la visualización de redes de poder.

Y en el último nivel de enfoque de datos, el del entendimiento del detalle, se pueden elaborar bases de datos dinámicas, visualizaciones complejas e infografías interactivas.

Para tener una noción del impacto, hay que recordar que las cifras son difíciles de recordar, por lo que podemos explorar soluciones visuales e incluso artísticas a hora de medir las proporciones, por ejemplo, mapas que distorsionan las proporciones de una geografía de acuerdo con algunas tasas. También es posible mostrar proporciones a través del tiempo para evaluar fenómenos ambientales.

En este webinar puedes conocer ejemplos de narrativas iberoamericanas basadas en datos, como Fondos de Papel, de Ojo Público en Perú; Infoamazonia, en Perú, Brasil y Bolivia; Medicamentalia en España, y otros.

Nueve proyectos presentados en el primer #DatosYcañas

Ximena Villagrán - el Abril 18, 2017 en Expediciones de Datos, Noticias

Esto sucedió cuando los datos y las cañas se unieron por primera vez en Madrid.

El 11 de marzo el evento estrella de Escuela de Datos y SocialTic llegó por primera vez a España después de decenas de rondas exitosas en Latinoamérica.

Las cañas fueron la excusa para reunir a periodistas de los medios y proyectos con periodismo de datos más importantes del país y conocer sus mejores trabajos.

Las cañas del Café de Ruiz fueron patrocinadas por El Faro y SocialTic, quienes representaron a Latinoamérica durante esa noche.

Estas fueron las presentaciones:

El Confidencial – Crear bases de datos propias

Daniele Grasso, jefe de la unidad de datos, utilizó como ejemplo El Prometómetro, el trabajo sobre feminicidios y el comparador de tallas de ropa  para explicar como en su medio crean temas a partir de bases de datos hechas desde cero por el equipo.

Eldiario.es – Los papeles de la Castellana

Juan Luis Sánchez, subdirector, y Raúl Sánchez, periodista de datos, presentaron las investigaciones sobre amnistía fiscal realizadas a partir de una filtración en el buzón seguro Filtrala.

Datadista

Ana Tudela y Antonio Delgado, fundadores del proyecto, presentaron el trabajo que empezó hace algunos meses en el nuevo portal. Sus trabajos pueden ser a corto, mediano y largo plazo, con una sección de investigaciones basadas en datos abiertos.

El Mundo – Football Leaks

Paula Delgado, periodista de El Mundo Data, presentó las lecciones que obtuvo después de la investigación transnacional que reveló, por ejemplo, algunos documentos fiscales del futbolista Cristiano Ronaldo.

El Faro

José Luis Sanz, director de El Faro, que patrocinó este evento también presentó los proyectos con datos realizados por el medio salvadoreño. Uno de los proyectos que más llamó la atención fue El Retrato de la Desigualdad  que consistió en un levantamiento de datos autónomo para mostrar la movilización de 24 jóvenes en San Salvador.

Los aires del cáncer – Máster de periodismo de investigación, datos y visualización de El Mundo

Manuel Varela, ex estudiante del máster, presentó la investigación que realizó como trabajo final del curso acerca de cómo el cáncer de pulmón aumenta en las zonas industriales con mayor contaminación en el aire.

Maldito Bulo

(https://twitter.com/malditobulo?lang=en)

Clara Jiménez y Julio Montes, fundadores también de Maldita Hemeroteca, presentaron cómo identificar “fake news”, las razones por las que se crean y cómo medir la cantidad de mentiras de un medio de comunicación.

El País – The New Arrivals

http://elpais.com/agr/la_odisea_de_los_nuevos_europeos/a

Guimar del Ser, periodista de El País, presentó el trabajo hecho en conjunto con The Guardian y Der Spiguel que usa la historia de un equipo de fútbol integrado por refugiados en Jerez de la Frontera, España para plantear un escenario general con datos sobre la situación de los refugiados en Europa

Populate Tools – portal de peticiones de información

Martín González, de la empresa Populate Tools, presentó el portal de código abierto para realizar peticiones de información a el gobierno español, aunque puede adaptarse a cualquier país.

Fellowship latam: una plataforma de impacto

Marcos Ge - el Marzo 27, 2017 en Experiencias, Noticias

El programa Fellowship  de la red internacional Escuela de Datos invita a personas interesadas en la alfabetización de datos a postularse cada año para habilitar a otros en el uso de datos y crear comunidades locales que fortalezcan el uso de los mismos. Al mismo tiempo, el programa ha funcionado como una plataforma para proyectar el trabajo de sus participantes. Las ocho personas que han integrado las filas del fellowship siguen generando impacto, con los datos, en el mundo.

Antonio Cucho

Antonio Cucho Gamboa, fellow por Perú A finales de 2013 y  principios de 2014, fundó la organización Open Data Perú y se postuló en 2014 para el fellowship. Al tener capacidades técnicas como programador y unirse a periodistas co fundó la publicación online de periodismo de investigación Ojo Público.

Su experiencia organizando comunidades de datos abiertos comenzó en el encuentro regional más relevante para los datos abiertos en Latinoamérica: Abrelatam (2014).

Tras terminar su fellowship, Antonio se mudó para integrarse al equipo de periodismo de datos de Univision Noticias, medio estadounidense dirigido a la población hispana en Estados Unidos. Con Univision Data ha desarrollado diferentes trabajos relacionados con la defensa de los derechos de la población de contexto hispanoparlante, como un mapa interactivo para mostrar la población hispana que aún no domina el idioma inglés, describir los resultados de medio siglo de guerra en Colombia. Además, promovió la primera plataforma de factchecking en español (dentro del territorio estadunidense): “El Detector de Mentiras”.

A pesar de radicar fuera de Perú, su trabajo con ese país no ha concluido, lidera el desarrollo y coordina la investigación de la primera plataforma de contrataciones abiertas en  su país de origen. Este es un esfuerzo en conjunto de la comunidad Open Data Perú y la OSC Proética para promover la transparencia en las contrataciones estales, identificando diferentes patrones que permitirán a especialistas realizar una exploración más sencilla dentro de miles de contrataciones que contienen irregularidades en el proceso.

Si quieres saber más de lo que hizo Antonio durante su fellowship, da clic aquí.

Julio López

Durante su Fellowship, en 2015, Julio se concentró en datos de la industria de extracción, a través de su trabajo con Natural Resource Governance Institute.

Julio se encuentra trabajando como consultor de la División de Energía del Banco Interamericano de Desarrollo (BID), donde apoya la implementación de la Iniciativa Energía Sostenible para Todos (SEforAll) en América Latina y el Caribe. Antes de incorporarse al BID, trabajó en la Organización Latinoamericana de Energía (OLADE) como especialista de información energética y previamente coordinó proyectos de investigación en políticas públicas para think tanks y OSCs en América Latina.

En 2015 desarrolló su Fellowship en Escuela de Datos, donde trabajo en fortalecer la comunidad local de datos abiertos en Ecuador y colaboró con un proyecto global sobre datos de proyectos de industrias extractivas. Recientemente es co-fundador de @Datalat, una iniciativa civil sobre el uso de datos y tecnología en Ecuador.

Omar Luna

Tras su fellowship en 2015, Omar Luna dedicó sus esfuerzos en El Salvador a la colaboración con el medio independiente El Faro,  con quienes capacita a estudiantes de periodismo en diversos rubros políticos y de datos con el objetivo de la construcción de dos grandes productos: una base de datos que le sirva a El Faro para crear una visualización de datos de cara a las elecciones de diputados 2018-2021, así como la consolidación del Observatorio de Comunicación Política de la Universidad Centroamericana (UCA).

También colabora con Proyecto Cero, donde Omar lideró la construcción de una base de datos que visibiliza la toma de decisiones clave en la Asamblea Legislativa.. Omar conoció a la coordinadora, Claudia Ortiz,  el año pasado durante el desarrollo del fellow.

Una de las colaboraciones más cercanas y estrechas que tuvo durante y después de mi fellowship ha sido con el equipo de la unidad de datos de El Diario de Hoy (EDH). Su editora periodística, Lilian Martínez, y su editora de visualización, Norma Ramírez, contactaron a Omar para que desarrollara capacitaciones constantes en uso de hojas de cálculo y software de visualización. Con EDH también ha creado visualizaciones sobre temas como embarazo adolescente y personas desaparecidas.

Phi Requiem

En 2014, Phi Requiem dedicó su fellowship a la formación de capacidades entre periodistas y activistas centroamericanos. Hoy su vocación de capacitación continúa. Con la iniciativa Hagamos Data (#HagamosData), se encuentra entrenando un más amplio grupo de personas para el uso de datos: por una parte entrena entrenadores, y por otra entrena a público no especializado. Se encuentra en un proceso de acompañamiento con la organización con el National Democratic Institute (NDI) para el uso de datos.

Phi también colaboró con el equipo que desarrolló Ruido CDMX, la plataforma construida con hardware libre y código abierto para la recolección y visualización de ruido en la Ciudad de México. Actualmente se encuentra desarrollando una segunda fase de este proceso, Ruido en las Ciudades, con software y hardware libres de generaciones más eficientes y accesibles que las de la anterior. El objetivo es acercar la creación de estos recolectores de datos a un grupo muy diverso de la población para generar datos abiertos sobre este fenómeno, de amplio impacto ambiental y de salud.

Si quieres saber más del trabajo de Phi Requiem durante su fellowship, da clic aquí

Camila Salazar

Camila desarrolló su fellowship en 2015.  Ella tiene un grado universitario en periodismo y obtuvo un segundo grado en Economía.

Tras el fellowship, Camila se ha desenvuelto como periodista de datos en la Unidad de Datos del Diario La Nación.  Estos son los proyectos en los que participó en el último año:

  • Aplicación para calcular el salario en el sector público, para la que ejecutó una investigación sobre el sistema de remuneraciones en el sector público.
  • Factchecking en vivo del discurso presidencial.
  • También desarrolla multitud de investigaciones, como esta sobre el sector cooperativo en Costa Rica.
Además de ser periodista en campo, Camila comparte su conocimiento a través de la docencia universitaria, talleres y actividades sobre periodismo de datos. El semestre anterior impartió el curso de Periodismo de Datos en la Universidad de Costa Rica.  Es un curso que forma parte del plan de estudios del Bachillerato en Periodismo.

Si quieres saber más sobre la labor de Camila durante su fellowship, da clic aquí.

Raisa Valda

Dedicó su fellowship a generar comunidades de datos abiertos en toda Bolivia, así como a conectar con organizaciones aliadas para su proyecto de datos contra violencia de género Cuántas Más.

  • Fue seleccionada para ser parte de la Escuela de Incidencia de Ciudadano Inteligente (Chile) para trabajar sobre género y tecnologías.
  • También la invitaron, desde la Embajada de Suecia en Bolivia, a participar en Stockholm Internet Forum 2017(SIF17) on Internet Freedom for Global Development en mayo de este año.
  • Fue invitada a dictar un módulo de docencia junto a la Fundación para el Periodismo de La Paz en su Diplomado en periodismo digital, sobre redes sociales y otras tecnologías en el periodismo, en julio de 2017.
  • Participará en el IX Congreso de la AEB – Estudios de Internet y sociedad en Bolivia, con una ponencia sobre datos abiertos y ciudadanía, en julio de este año.

Raisa está dedicada íntegramente a Cuántas Más. A partir de los datos que obtuvieron en 2016 sobre los casos de feminicidio, hallaron dos que llamaron su atención:

1. en el 78% de los casos se trataban de feminicidios íntimos (esposos,concubinos, novios, ex novios, ex esposos, ex concubinos),
2. en el 34% de los casos, las víctimas tenían menos de 20 años de edad.
Por ello, en el primer trimestre de este año, centraron su trabajo de prevención en el abordaje de violencias dentro las relaciones de noviazgo en la adolescencia con una ruta de talleres (“No es que me pidas así”) piloto por 6 ciudades de Bolivia.
Se trata de talleres piloto para los que Raisa desarrolló una metodología que permite a los adolescentes, entre 15 y 17 años, hablar sobre sus percepciones de violencia y cómo la entiende; y a partir de ello generar mensajes en audiovisual en sus propios códigos lingüísticos (nada solemne, nada políticamente correcto). Este material no se difundirá como una campaña masiva, no es el propósito; sino a través de sus propias redes de manera natural.
Cuántas Más tiene el propósito de centrar su trabajo, para esta gestión, en temas violencia que involucra a jóvenes, sea en las relaciones de noviazgo (basadas en encuestas y estudios realizados por la Coordinadora de la Mujeres) o en su desenvolvimiento en la universidad (basado en un estudio realizado por UNFPA sobre la UMSA).

Ximena Villagrán

Durante y tras su fellowship, Ximena ha sido catedrática titular de Periodismo de Datos en la Universidad del Istmo. Es también consultora para proyectos periodísticos y talleres de periodismo de datos en Honduras, El Salvador y Guatemala para la agencia internacional Internews, con quienes comenzó su colaboración, al igual que Omar, durante el fellowship.

Hoy Ximena está fundando su propia iniciativa de periodismo de datos, El Intercambio, que propone un vínculo íntimo entre crónica y periodismo de datos y busca dotar a los periodistas de un rol más activo en la búsqueda de fondos para el periodismo independiente.

Junto con Omar Luna, desarrolló una extensa currrícula para periodistas de datos en toda Centroamérica. Hoy también es consultora para la nueva unidad de datos del medio guatemalteco Prensa Libre y trabaja en un proyecto de explicación, a través de los datos, con la publicación también guatemalteca Nómada.

Daniel Villatoro

Daniel Villatoro se desempeña hoy como reportero senior en el medio guatemalteco Plaza Pública. Además de escribir crónica y desarrollar investigaciones de datos, tras la fellowship, Daniel incursionó en prácticas artísticas a través de los datos.

Daniel desarrolló una investigación sobre ingresos económicos por hora trabajada y de acuerdo con etnia y género, para concluir rasgos visibles de explotación en las poblaciones femeninas de Guatemala.

Con esta investigación generó mapas y visualizaciones que dieron soporte a una propuesta en acrílico y billetes, para visualizar con elementos cotidianos las opresiones también cotidianas. Su solución formal se expuso durante Nuevas Proporciones.

 “Las gráficas son representaciones, recursos que se manifiestan visualmente para mostra relaciones […] Huyendo de la representación, busco trabajar las gráficas con los objetos mismos en vez de representarlos: algo tan obvio como personificar al dinero con un billete o al tiempo con un reloj”, puede leerse en la justificación de su proyecto.

Daniel Villatoro se ocupa, también desde el periodismo, constantemente con temas de opresión de clase y de etnia, sobre el ingreso de grandes capas de la población. Así ha desarrollado investigaciones con mapas y visualizaciones de datos  como esta, que aborda la insuficiencia del salario mínimo, como en muchos otros, en su país.

¿Cómo celebramos el Open Data Day 2017 en Quito?

Julio López - el Marzo 14, 2017 en Experiencias, Guest posts, Noticias

Texto por Lisette Arévalo Gross (@larevalogross) *Periodista ecuatoriana de Gkillcity y Datalat

Con las cerca de 60 sillas completamente llenas, a las 09:00 comenzó el Open Data Day 2017. Por segunda vez en Ecuador (aquí la edición 2016), Datalat y MediaLabUIO organizaron este evento para fomentar el uso de datos abiertos para la transformación social. Iván Terceros y Margarita Yepez del Medialab UIO y Datalat, dieron la bienvenida a los asistentes. El enfoque de este Open Data Day fue medio ambiente y datos abiertos, en su mayoría, las actividades se enfocan en cómo utilizar herramientas de datos abiertos en este contexto. A continuación hacemos un repaso de dichas actividades que se agruparon en 4 talleres y 5 charlas sobre proyectos con datos, networking y una actividad de cierre hands on.

Agradecemos a todos los asistentes, a los equipos de MediaLabUIO y Datalat, y a todas las organizaciones que apoyaron el evento: Urbamapp, Gkillcity, Biciacción, LlactaLab, Mi Bus UIO, OuiShare Quito, Verde Muskuna, Handytec y Fundación Ciudadana y Desarrollo. Todos estos esfuerzos enriquecen la comunidad local de datos abiertos, y sobre todo fomentar el uso de datos abiertos en ONGs, gobiernos, empresas y sociedad civil.

Talleres

  • DatClima, datos y técnicas – Verde Muskuna, Marco Calderón, director de Verde Muskuna, compartió técnicas y datos acerca del clima. Con ejemplos cortos, los asistentes conocieron las tendencias históricas del clima en el Ecuador, técnicas para trabajar con grandes volúmenes de datos climáticos, impactos de los cambios en el clima sobre la producción agrícola, y portales para generar y descargar información del clima futuro. Como conclusión del taller, se establecieron las prioridades para la generación y manejo de datos del clima, así como ideas para estudios complementarios.
  • Datos abiertos 1.0 – Datalat, Julio López, de la Escuela de Datos y Datalat, realizó un taller para aquellos que por primera vez se acercan al al uso de datos abiertos. Desde funcionarios del Municipio de Quito hasta periodistas, los asistentes aprendieron a diferenciar una base de datos abiertos de una cerrada, qué pasos seguir en caso de no tener acceso a información, herramientas para visualizar datos, cómo transformar pdfs en excels, y más técnicas básicas. Los asistentes utilizaron un ejemplo de cuántos metros cuadrados existen por habitante en Quito para repasar paso a paso cómo manejar una base de datos para responder una incógnita.
  • Mining semi-structured data with Elasticsearch & Kibana – Handytec, El taller estuvo a cargo del director ejecutivo de Handytec, empresa dedicada a proveer herramientas y soluciones estratégicas para la captura, procesamiento, análisis y visualización de grandes bases de datos. Diego Montúfar presentó el stack de Elastic como herramienta para almacenar, procesar y visualizar datos semi estructurados y Big Data. Los participantes estuvieron expuestos a tres casos de uso: Análisis de Redes sociales en tiempo real, Clickstream Análisis y Log Analytics. La charla se llevó a cabo con 20 asistentes de diversos perfiles profesionales y todos mostraron interés profundo en la herramienta. Algunos solicitaron un taller técnico más detallado para aprender a utilizar la herramienta.
  • Técnicas de mapeo y visualización de datos – Urbamapp, el quipo de Urbamapp explicó las razones y beneficios de mapear; una presentación con antecedentes destacados acerca de mapas al servicio de investigaciones y de herramientas de mapeo gratis y privadas; en este punto, se mostró un demo de Urbamapp como una aplicación útil para recolectar información georreferenciada. Los asistentes hicieron un ejercicio práctico que les permitió mapear árboles cercanos y diferenciarlos con las etiquetas: “árboles patrimoniales” y “no patrimoniales”. Finalmente, los participantes y el equipo de Urbamapp tuvieron una charla más cercana sobre cómo usar la app para sus proyectos académicos y de investigación.

Charlas sobre proyectos con Datos

  • Factchecking – Gkillcity, Lisette Arévalo Gross, editora de la revista digital Gkillcity y miembro de Datalat, quien habló sobre la primera plataforma de factchecking del país, El Verificador. El objetivo, explicó Arévalo, es que a través de bases de datos se pueda verificar que lo que dicen los políticos y las figuras de poder sea verdad.
  • Datos y mapa de movilidad – Mi Bus, Fernando Ledesma presentó la plataforma Mi bus que cuenta con datos de rutas y localización de paradas recolectados en la ciudad de Quito sobre el transporte masivo privado, esta iniciativa se podría ampliar a otras ciudades del país.
  • Territorios colaborativos para proyectos ambientales – Ouishare Quito, presentó un proyecto relacionado a los desperdicios en la ciudad de Quito, presentaron indicadores sobre la cantidad de comida y desperdicios en la ciudad y el potencial para implementar proyectos de economía colaborativa a través de un banco de alimentos.
  • Laboratorio de Movilidad y Encuesta del Perfil del Ciclista- Biciaccion y  Llactalab, Carlos Zurita presentó las actividades desarrolladas en el laboratorio de movilidad y la información que han venido recopilando sobre ciclistas urbanos. Asimismo, Daniel Orellana de Llactalab lanzó la primera encuesta para definir el perfil del ciclista en el país que estarán desarrollando en este 2017.
  • Acceso, datos y participación ciudadana – Fundación Ciudadanía y Desarrollo, Marcelo Espinel hizo un recuento de los proyectos que la fundación viene trabajando con el uso de datos abiertos y acceso a la información, por ejemplo el Observatorio Legislativo, y la plataforma web “Queremos saber” Asimismo, en el tema electoral y de datos lanzaron una herramienta para informar mejor a los ciudadanos sobre los candidatos y funcionarios públicos, Radiografía Política.

Visualización Análoga 

La jornada del Open Data Day Ecuador cerró con una actividad hands-on a cargo de Estela Navarrete (@bluewake) de Datalat sobre visualizaciones análogas, en la que los participantes representan datos estadísticos en el espacio público utilizando diversos materiales didácticos. En nuestro ejercicio formamos grupos de trabajo para analizar datos relacionados a gestión de residuos y movilidad, y los resultados fueron creativas representaciones que se tomaron las instalaciones del MediaLabUIO en Ciespal y generaron una dinámica discusión sobre la problemática medioambiental en nuestro país.

Postúlate a los programas Fellowship Escuela de Datos 2017 y Experto en Datos

Marcos Ge - el Marzo 4, 2017 en Noticias

Escuela de Datos invita a personas que se desempeñen en el periodismo, la defensa de la sociedad civil y cualquier persona interesada en impulsar la alfabetización de datos a postularse a los programas Fellowship 2017 y Experto en Datos, que se desarrollarán de abril a diciembre de 2017. Están abiertas hasta 10 posiciones. La convocatoria está abierta hasta el domingo 16 de abril de 2017.

Postular al Fellowship Postular al Programa Experto en Datos

El Fellowship

Las becas son prácticas de nueve meses con Escuela de Datos para agentes o entusiastas de la alfabetización de datos. Durante este tiempo, los becarios trabajarán junto a School of Data para crear un programa individual que aproveche tanto la experiencia colectiva de nuestra red con el propósito de ayudar a los becarios a adquirir nuevas habilidades como el conocimiento que los Fellows traen consigo. Este conocimiento puede ser sobre un tema en específico, una comunidad o problemas específicos de alfabetización de datos, como se describe en las áreas de enfoque de este año.

Al igual que en años anteriores, el objetivo del programa de becas es aumentar la conciencia sobre la alfabetización de datos y construir comunidades que, juntas, pueden utilizar las habilidades de alfabetización de datos para hacer el cambio que quieren ver en el mundo. Esto lo logra el fellow primariamente a través de la generación de talleres, eventos de comunidad y contenidos, además de tareas propias de sus proyectos con organizaciones aliadas.

La Beca 2017 continuará el enfoque temático iniciado por la clase 2016. Como resultado, estaremos dando prioridad a los candidatos que:

Posean experiencia y entusiasmo por un área específica de capacitación en alfabetización de datos.

Pueda demostrar vínculos con una organización que se desempeña en esta área definida y/o vínculos con una red establecida que opera en el campo.

Estamos buscando individuos comprometidos que ya tienen un conocimiento profundo de un sector dado y han estado reflexionando sobre los problemas de alfabetización de datos enfrentados en el campo. Esto ayudará a los becarios a empezar a correr y a lograr lo máximo durante su tiempo con School of Data: ¡nueve meses pasan volando!

Leer más sobre el Programa de Becas

El programa de expertos en datos

Lanzado formalmente por primera vez este año, el programa de Expertos en Datos tiene como objetivo fortalecer la capacidad de las organizaciones de la sociedad civil estratégicamente posicionadas para lograr cambios sociales en su campo de experiencia y administrar y entregar proyectos impulsados ​​por datos. El Programa de Expertos en Datos fue diseñado para complementar el fellowship de la Escuela de Datos y para ello, estamos reclutando un perfil ligeramente diferente. Se espera que el expertise en datos sea más elevado que el de los becarios, con habilidades técnicas y de gestión de proyectos demostrables. Al hacer coincidir estas personas con las organizaciones asociadas seleccionadas, a la vez que les brindamos apoyo a través de nuestra red y de nuestros socios, esperamos crear un impacto decisivo en el uso de datos dentro de organizaciones clave de la sociedad civil en todo el mundo.

En consecuencia, priorizaremos a las personas que:

Posean experiencia y conocimientos relevantes en las áreas técnicas en que nuestros socios locales necesitan ayuda.

Las áreas de enfoque en 2017

Hemos formado alianzas con organizaciones interesadas en trabajar con los siguientes temas: Periodismo de Datos, Datos de Procuración de Fondos y Datos de la Industria Extractiva. Estas asombrosas organizaciones aliadas proveerán a los fellows y expertos con guía, mentorías y expertise en sus respectivos campos.

Programa Tema Ubicación Posiciones disponibles
Fellowship Datos de Industria Extractiva Sénégal, Côte d’Ivoire Hasta 2
Fellowship Datos de Procuración de Fondos Global Hasta 1
Fellowship Periodismo de Datos Global Hasta 2
Fellowship Enfoque propio del postulante Global Hasta 3
Data Expert Datos de la Industria Extractiva Uganda, Tanzania 2

9 meses para crear impacto

Los dos programas se ejecutarán de abril a diciembre de 2017, e implican hasta 10 días al mes de tiempo. Mientras que los becarios se concentrarán en planchar sus habilidades como formadores de datos y construir una comunidad a su alrededor, los expertos se centrarán en el apoyo y la formación de una organización de la sociedad civil o redacción con un proyecto específico. Los becarios recibirán un estipendio mensual de $ 1,000 USD al mes para cubrir su trabajo. Los expertos, que tendrán una planificación con más variaciones, recibirán un estipendio total de $ 10,500 USD durante el curso del programa.

En mayo, tanto los expertos como los becarios se reunirán durante un campamento de verano en persona (el lugar está por determinarse) para reunirse con sus compañeros, construir y compartir sus habilidades y aprender sobre la forma en que Escuela de Datos capacita en habilidades de datos.

¿Que estás esperando?

Lea más acerca de la Beca de la Escuela de Datos o Aplique ahora

Información clave: Fellowship

Posiciones disponibles: hasta 10 becarios. Aprende más.

Fecha límite de solicitud: 16 de abril de 2017, medianoche GMT + 0

Duración: Del 15 de abril de 2017 al 31 de diciembre de 2017

Nivel de actividad: 10 días por mes

Estipendio: $ 1000 USD por mes

Información clave: Programa de expertos en datos

  • Posiciones disponibles: 2 expertos, en Uganda y Tanzania.
  • Fecha límite de solicitud: 16 de abril de 2017, medianoche GMT + 0
  • Duración: Del 15 de abril de 2017 al 31 de diciembre de 2017
  • Nivel de actividad: hasta 10 días por mes.

* Estipendio: $ 10,500 USD en total

Acerca de la diversidad e inclusividad

School of Data se compromete a ser inclusivo en sus prácticas de reclutamiento. La inclusión significa no excluir a nadie por su raza, edad, religión, apariencia cultural, orientación sexual, origen étnico o género. Activamente tratamos de reclutar individuos que difieren entre sí en estas características, basados en la creencia de que la diversidad enriquece todo lo que hacemos.

Finalmente, estamos agradecidos por el apoyo de nuestros socios y financiadores para hacer estos programas financiados. El Programa de la Escuela de Datos se financia a través de subvenciones de las siguientes instituciones: Internews / USAID, Open Data For Development (Banco Mundial y IDRC), la Fundación Hewlett y las fundaciones Open Society, el Instituto de Gobernanza de Recursos Naturales y Publica lo que Pagas.

Latinoamérica se alista para el Open Data Day 2017

Julio López - el Febrero 21, 2017 en Experiencias, Fuentes de datos, Guest posts, Noticias

Este post se publicó también en el Blog de conocimiento abierto Abierto al Público, del Banco Interamericano de Desarrollo (BID)  aquí.

Por quinto año consecutivo la comunidad global de datos abiertos celebrará el Open Data Day (ODD), una iniciativa ya conocida y liderada por Open Knowledge International. A lo largo del sábado 4 de marzo, grupos locales organizan eventos que buscan utilizar los datos abiertos de sus comunidades para promover que más personas conozcan sus beneficios y fomentar la adopción de políticas de datos en gobiernos, iniciativa privada y sociedad civil.

En este 2017, el ODD se enfocará en 4 áreas temáticas: rastreo de dinero público, datos abiertos de investigación, el medio ambiente y derechos humanos. En su renovado sitio web, el ODD ofrece varios recursos para entender mejor estas cuatro áreas, incluyendo bases de datos abiertas, y una herramienta para crear el logo con el nombre de la ciudad del evento.

 

 

El Open Data Day da inicio a un 2017 que tendrá otros eventos regionales sobre datos abiertos (Abrelatam y Condatos en Costa Rica) y sobre todo puede ser una gran oportunidad para que las comunidades locales trabajen por una agenda local colaborativa. De momento ya han sido registrados más de 160 eventos en el mapa del ODD y a continuación te presentamos los eventos que se desarrollarán en ciudades latinoamericanas.

Argentina

  • Buenos Aires

La Fundación Conocimiento Abierto y otras organizaciones de la sociedad civil y entidades gubernamentales organizan el 4to encuentro por el ODD y buscan generar un espacio de diálogo y una jornada con paneles, presentación y mesas temáticas al aire libre. Ingresa aquí para más.

  • Rosario

Open Data Day llega a Rosario donde por primera vez se está organizando un evento. Para ver más detalles recomendamos seguir a Accion Colectiva .

Brasilia, Maceió y Teresina, Brasil

 

  • Brasilia celebra el OOD con un Hackaton sobre rastreo de dinero público e invita a todos los sectores de la sociedad a participar. Más información aquí.

 

  • En la ciudad de Maceió, Alagoas, se celebrará el OOD los días 10 y 11 de marzo con un taller para evangelizar al público sobre el poder de los datos abiertos para la innovación y la transparencia, sobretodo, busca comprometer a representantes del poder público para expandir sus iniciativas de apertura de datos. Más información sobre el evento aquí.

 

 

Colombia

  • Bogotá

 

Una jornada organizada por BigData Colombia para aprender sobre conceptos y el uso de datos se desarrollará en la Universidad Santo Tomás.

La agenda y más información del evento se ha publicado acá

 

 

 

  • Medellín

En Medellín, la Fundación Gobierno Abierto Colombia está organizando una feria de intercambio o trueque de Datos Abiertos sobre el medio ambiente, incluyendo la calidad del aire en la ciudad. Más información del evento aquí.

 

 

 

 

 

Ecuador

 

 

  • Quito

Por segundo año consecutivo en Quito, Datalat y MediaLabUIO están organizando un encuentro que incluye talleres, charlas y actividades hands-on sobre el apertura y uso de datos abiertos, así como un taller para usar datos locales relacionados al medio ambiente. Más informacion disponible en este enlace

 

El Salvador

 

  • San Salvador

 

El Grupo Local de la Open Knowledge International El Salvador está preparando por tercer año consecutivo un evento por el ODD 2017, más información se publicará en su pagina de facebook.

Guatemala

  • Ciudad de Guatemala

Escuela de Datos y Red Ciudadana están preparando un evento local por el ODD, para mayor información recomendamos visitar el sitio web o seguirlos en Twitter.

México

  • Ciudad de México

Por cuarto año en la Ciudad de México diferentes grupos de usuarios de datos abiertos se reunirán para participar en talleres, charlas y una expedición de datos.

Más información disponible en su Twitter @socialtic y en su blog.

 

Panamá

En la ciudad de Panamá, Ipandetec y otras organizaciones locales están organizando un taller de visualizaciones y un meet-up sobre datos abiertos, para mayor información recomendamos seguir su sitio web.

Paraguay

En Asunción, Open Data Paraguay, Girolabs y TEDIC están organizando actividades para el Open Data Day.

Por otra parte, Senatics y Koga Impact Lab están haciendo lo propio desde Gobierno en Asunción.

Uruguay

 

  • Montevideo

La comunidad de los Cafés de DATA  en Montevideo  está organizando un encuentro para renovar y mejorar el proyecto ATuNombre.uy, que permite visualizar las calles de Montevideo que llevan nombre de mujer y conocer más de esas mujeres y sus historias. Más información aquí.

 

 

 

 

Paysandú

Por primera vez en la ciudad fronteriza de Paysandú (Uruguay), Data Concepción y Subsidios.uy organiza un evento de esta índole para crear un mapa interactivo de las inundaciones en la costa argentina y uruguaya. Más información en el sitio web del evento.

 

 

Para el día del evento:

 

  • El sábado 4 de marzo súmate a la conversación en Twitter usando el hashtag #OpenDataDay y #ODD17
  • ¿Quiéres conocer más y ver otros eventos alrededor del mundo ? Revisa la página del evento oficial en español http://opendataday.org/es_mx

 

¿Cómo organizar un evento local? No hay receta, pero puedes identificar y contactar a grupos locales que trabajen con datos abiertos (gobierno, universidades, empresas privadas, sociedad civil, etc), organicen un meet-up, registrarlo en el mapa del evento (donde también puedes crear un logo) y empezar a difundirlo. Hay varias plataformas donde puedes publicarlo (eventbride, meet-uo y hasta google forms).

 

Puedes usar minería de texto y “Machine Learning” sin programación

Daniel Villatoro - el Enero 10, 2017 en Tutoriales

Esta API te permite obtener datos procesables y clasificables a partir de textos. Puedes entrenarla para que aprenda automáticamente (machine learning) a reconocer y clasificar en las categorías que tú establezcas.

A partir de un set de datos (que puede ser .csv, o .xls) puedes entrenar esta API para que trabaje para ti. En la interfaz web de MonkeyLearn puedes ir probando y entrenando para aplicar un modelo.  Debido a que es una API, esta plataforma es integrable con otros lenguajes de programación que te permitirán procesar los textos de tu fuente de datos a tiempo real y publicarlos.

Una de las ventajas de esta plataforma es que no tienes que ser programador o un experto en Machine Learning para empezar a usarla. La interfaz de usuario te irá dando pasos que deberás seguir para crear un modelo y cuando entiendas la manera en que funciona, podrás ir avanzando en su uso.

Esta herramienta aprende a base de clasificadores de texto, una categoría o etiqueta que se asigna automáticamente a una pieza de texto. Aunque el programa ya cuenta con unos clasificadores comunes, puedes crear los propios.

Con base en estas etiquetas, MonkeyLearn hará una clasificación al leer el contenido de tu set de datos. Por ejemplo, en una base de datos sobre proyectos de compras de una institución pública, esta herramienta te podría ayudar a reconocer los rubros de los fondos, o a clasificar qué tipo de productos se compraron y clasificarlos en base a una jerarquía establecida.

Al leer el texto, MonkeyLearn aplica los parámetros establecidos en los clasificadores de texto y te provee un resultado. El resultado se muestra en lenguaje JSON, para la API. La categorización del producto puede ser en varias categorías, por ejemplo Compras / Materiales de construcción / Asfalto. Aparte de esta clasificación, el programa también te provee un valor de probabilidad, el cual determina el nivel de certidumbre sobre la predicción realizada para que puedas mantener control sobre el rigor con el que tu modelo se aplica y la manera en que funciona.

Los módulos

Esta herramienta te permite tres funciones principales que indican el tipo de módulo que creas:

  1. Clasificación: Es un módulo que toma el texto y lo devuelve con etiquetas o categorías organizadas en algún tipo de jerarquía
  2. Extracción: Es el módulo que extrae ciertos datos dentro de un texto, que pueden ser entidades, nombres, direcciones, palabras clave, etc.
  3. Pipeline: Es el módulo que combina otros módulos, tanto de clasificación como de extracción, para que puedas construir un modelo más robusto con mayor nivel de procesamiento.

Las tres funciones principales de esta plataforma son:

    1. Análisis de sentimientos: Te permite detectar sentimientos (positivos, negativos, etc) en un texto a través de machine learning.
    2. Categorización de temas: Identifica el tema de un texto y lo reconoce.
  • Otras clasificaciones: Clasifica los contenidos de un texto y los asigna a una jerarquía.

Tutorial: Cómo crear un clasificador de textos a partir de una descripción

Para probar esta herramienta, vamos a crear un clasificador que lea un texto y lo asigne a una categoría y jerarquía establecida por nosotros. En este caso, trabajaré con los datos de las compras del estado de Guatemala. Aunque mi set de datos contiene mucha información, voy a trabajar solo con el campo “Descripción” que tiene contenidos como este: INTRODUCCION DE ENERGIA ELECTRICA, CASERIO PENIEL, TUCURU, A. V.

Para utilizar MonkeyLearn debes crear un usuario o vincularlo a tu cuenta de Github.
Al hacer click en +Create Module se te desplegarán las opciones para guardar tu primer clasificador.

image09

MonkeyLearn te va guiando paso a paso para que completes la información necesaria para crear un módulo. Al rellenar los datos de tu clasificador, da click en Next.image04

Responde a las preguntas que te hace sobre el tipo de trabajo que estás haciendo. En este caso, seleccionamos “otras clasificaciones”.

image11

Selecciona la opción que más se ajuste al tipo de texto que vas a analizar, pueden ser tweets (textos cortos con emoticones), noticias de diferentes medios, comentarios o reseñas de usuarios, descripciones de productos, emails, o texto personalizado. Debido a que estamos trabajando las compras del estado, vamos a seleccionar Product Descriptions. También es importante que señales el idioma en que está tu texto.

image01

Al crear tu módulo, se abrirá un panel con diferentes opciones. En Category Tree se enlistan las diferentes categorías de tu modelo. Para crear nuevas categorías, haz click en el menú a la par de Root y selecciona Add child. Al hacer esto, creas nuevas categorías “hijas”. En este caso crearemos “Agua potable” “Caminos y carreteras” “Energía eléctrica” “Agricultura” y cuantas secciones queramos tener. MonkeyLearn también permite añadir subcategorías dentro de las categorías.

image05

Para que nuestro modelo funcione, debemos entrenar cada categoría con ejemplos que le permitirán al programa reconocer automáticamente textos similares a los ejemplos que le dimos. Al hacer click en el menú desplegable a la par de cada categoría se muestra la opción Create sample, que te permite ingresar ejemplos.

image06

Para entrenar la categoría “Caminos y carreteras” vamos a añadir cuantos ejemplos podamos de descripciones que se ajusten a esta sección. Por ejemplo, “MEJORAMIENTO CALLE PAVIMENTADO Y ENCUNETADO…”. El agregar muchos ejemplos robustece la capacidad de que nuestro modelo identifique con mayor celeridad las categorías.

El panel principal de MonkeyLearn muestra las categorías en la sección Tree. Al hacer click en Samples, podemos ver los ejemplos que añadimos para cada categoría.

image00

 

Luego de añadir varios ejemplos a todas nuestras categorías, dejamos que las capacidades de machine learning se ajusten al hacer click en Train

image08

Con nuestro modelo ya entrenado, nos vamos a la secció Classify para aplicar este modelo a un set de datos. La fuente de datos puede ser un texto corrido o un archivo csv o xls.

image08

Seleccionamos nuestro archivo y nos presenta una muestra de nuestro set de datos y nos  pregunta qué columna es la que vamos a analizar.  Para seleccionar nuestra columna debemos marcar la opción Use as text que se muestra en la primera fila.  Y para aplicar el modelo pulsamos Next.

image03

image07

MonkeyLearn aplicará el modelo de clasificación que creamos y devolverá un archivo descargable.

En nuestro ejemplo, utilizamos un set de datos de las adjudicaciones del estado a proveedores. Nuestra base de datos contaba con categorías útiles como la entidad compradora, modalidad, fecha de adjudicación, proveedor y descripción. Sin embargo, las descripciones son texto escrito no categorizado, por lo que buscábamos categorizar esas compras por el tipo de materiales que se compraban.

En el archivo que MonkeyLearn produce se agregan varios elementos. “Classification path” te muestra la categorización que realizó y, si tiene jerarquía, te muestra los diferentes niveles separados por / una barra diagonal. Te muestra también “Level 1 label”, la clasificación que realizó, y “Level 1 probability”, un índice de probabilidad sobre la similitud entre el texto que encontró y los ejemplos que le mostraste.

image10

 

A medida que entrenes más cada categoría, tus resultados serán más certeros. Debido a la cantidad de registros de una base de datos, la clasificación manual sería un proceso muy tardado. Así que cuando tengas estos problemas puedes aplicar el machine learning para clasificar o tematizar bases de datos con texto.

Yo estoy aprendiendo a utilizar esta herramienta, pero si tienes dudas o ejemplos sobre cómo aplicar estas habilidades a un trabajo con datos, tuiteanos a @EscuelaDeDatos y @danyvillatoro. Nos gustaría saber de qué manera has podido aplicar esta herramienta a tu trabajo.

 

magazine.image = https://es.schoolofdata.org/files/2017/01/image07.png

 

Cómo hacer visualizaciones de datos con Tableau

Omar Luna - el Diciembre 29, 2016 en Tutoriales, Uncategorized

Mi incursión en Tableau surgió como una oportunidad. Hace dos años, trabajaba en una Organización No Gubernamental (ONG) en El Salvador especializada en el tema de mujeres. Mi exjefe estaba por comprar un software especializado en visualizar datos. Se me acercó y me preguntó: “¿Le interesaría aprenderlo?” Dudé. No mucho, pero dudé. Y, pese a las dificultades iniciales, acepté el reto y heme aquí intentando que la gente lo ame tanto como yo lo hago.

De ahí, cada que puedo recomiendo Tableau, una herramienta creada por tres entusiastas de los datos en la Universidad de Stanford, como un excelente aliado en visualización cuando carecemos de equipos multidisciplinarios (conformado por visualizadores, infografistas, diseñadores, entre otros), pues se sustenta en el concepto one man band para contar cierto tipo de temáticas con gráficos. ¡Ojo! Tiene una versión pagada, pero si trabajas en una universidad o lo utilizas para fines académicos puedes solicitar una copia GRATUITA para dos años y válida para ser instalada en dos computadoras acá: http://www.tableau.com/academic/students.

Por eso, hoy quiero compartir contigo cómo puedes hacer visualizaciones de mapas y gráficas que, en su momento, impactaron al funcionario salvadoreño con un set de datos que trabajé durante mi paso por dicho proyecto, enfocado en la problemática de mujeres salvadoreñas deportadas de México y Estados Unidos, un fenómeno que casi no había sido analizado ni comprendido del todo en mi país. Sin más, zambullámonos en el vasto y fascinante mundo de Tableau, ¿sí?

¡Bellísimo así!

Es lo primero que dirás al abrir la nueva versión de Tableau, pues su edición 10 ha apostado por una interfaz más intuitiva para quien se anime a explorar el noble arte de la visualización. Te lo digo yo porque vengo de donde asustan, ya que me tocó aprender a utilizarlo en su versión 7. Como puedes ver en el menú de la izquierda, puedes conectar tus bases desde un archivo (ya sea .xls, .csv, .tsv, entre otros) hasta aquellas que tengas trabajadas en un servidor (MySQL, Oracle Server, etcétera).

image00

 

 

¡Comencemos! Conectaremos mi archivo con la opción Conectar a un archivo > Excel. Buscaremos la base trabajada en mi computadora y Tableau se tomara unos momentos para procesarla. ¡Voilá! Tendremos una previsualización para que podamos revisar la data antes de trabajar con ella. Esta deberías verla de la siguiente forma:

image12

El trabajo de carpintería con una base de datos se vuelve fundamental, pues dicho set se encuentra preparado para ser leído por un programa de computadora como Tableau con el objetivo de que puedan realizarse todas las conexiones y relaciones necesarias para analizar datos que nos hagan ver más allá de lo evidente (Thunder, Thunder,Thundercats, ¡oooooooooooh!).

A ojo de buen cubero, puedes ver que Tableau automáticamente establecer una diferenciación entre aquellos valores que son textos y números; no puede establecer que los años, las latitudes y longitudes son variables que pueden trabajarse de forma diferenciada en el caso de una visualización.

Para cambiarlas, haz clic sobre el ícono Numeral (#) que aparece arriba de dichas categorías > Rol geográfico > Latitud/Longitud. Finalizado este paso, verás que ha cambiado el ícono Numeral (#) por un globo terráqueo. ¡Eso significa que funcionó! ¡Yey! De igual forma, sigue los mismos pasos para la variable Ano y cambíalo por una Cadena que nos servirá para analizar los años de forma continua.

image02

 

 

 

 

¡A trabajar! Demos clic en el recuadro naranja denominado Hoja 1 y sigamos el camino datero hacia nuestro canvas en blanco. Qué belleza, ¿no? Tableau establece una clara diferenciación entre cada aspecto clave de visualización (filtros, marcas, gráficos, hojas, dashboards, entre otros) y, además, simplifica el trabajo mediante el arrastre de variables hacia determinados campos o con solo darle doble clic a las medidas y dimensiones podemos verlas desplegadas en nuestro canvas.

image23

 

Comencemos con un mapa. Para desplegarlo, haz doble clic en Longitud y Latitud; te aparecerá un punto geográfico que localizará a El Salvador en un mapa de OpenStreet. Como necesitamos visibilizar a los 262 municipios del país para visibilizar la temática de las mujeres repatriadas, arrastremos las Medidas Departamento y Municipio hacia la opción Detalle del Menú Marcas. ¡Listo!

image21

¿Ves? Ya podemos ver cómo cambia nuestra forma de visualizar mapas. Gracias a Tableau, podemos estilizar colores y tamaños de los puntos con cantidades o tasas; arrastremos Municipio y Tasa por cada 100,000 habitantes a las opciones Color y Tamaño del menú Marca respectivamente. Así, podemos mostrar la gravedad, repitencia de un fenómeno u otra problemática nacional.

image16

 

 

Pero, ¿qué pasa si no deseas los colores y tamaños preestablecidos de Tableau? Tableau te ofrece la maravillosa ventaja de arreglarlos a tu gusto en las opciones del menú Marca. Acá, yo cambié un poco el tamaño y utilicé la paleta de color púrpura de la herramienta. Para modificarlo, hice lo siguiente: di clic a la opción Color del Menú Marca > Editar Colores > Seleccionar paleta de colores > Púrpura > Asignar Paleta > Aceptar. ¡Y me quedó así!

ya

 

¡Momento! ¡Falta algo! Exacto: limpiar la descripción emergente. Aún contempla la Latitud y Longitud, así como otras variables útiles para describir el fenómeno en cada localidad. Dado que nos interesa que la gente se familiarice y lo entienda de un vistazo, arrastremos las siguientes Medidas a la opción Descripción emergente (Tooltip) del Menú Marcas: Forma de repatriacion y Cantidad.

Por las demás variables, ¡tranquilo! Ya se encuentran contempladas en dicho apartado. Para limpiar la suciedad persistente en el Tooltip puedes editar y condensar la información a lo más importante. ¡Ojo! No abuses de la paleta de colores, pues tu historia puede difuminarse ante una paleta de colores infinita e innecesaria. Finalizada tu edición, dale clic a Aceptar. ¡Primera hoja lista!

Do the evolution!
Como la rola de Pearl Jam, esta herramienta te ayuda a ver cómo evoluciona un fenómeno con gráficas de líneas o áreas. Para ver este caso, hagamos lo siguiente. Agreguemos una nueva hoja a nuestro libro de trabajo, haciendo clic en el botón inferior derecho, ubicado cerca de la hoja Mapa. En ella, arrastraremos la dimension de los años y la medida Cantidad a los apartados de columnas y filas respectivamente. ¿Ves cómo se despliega ahora?

image13

 

 

 

 

 

 

 

 

Maticemos el grado de intensidad de la gráfica arrastrando la medida Cantidad en la opción Color del menú Marcas y editemos el color a púrpura. Así, daremos aire de familia a nuestra visualización. Ahora bien, para vislumbrar las cantidades, arrastremos la medida Cantidad al campo Etiqueta del menú Marca y así podrás ver cómo se presentó el fenómeno en general durante tres años.

 

 

 

 

 

 

 

 

 

 

 

Si eres curioso como yo, notarás que al pasar el cursor sobre los puntos, verás que la Descripción emergente no tiene lo que necesitamos. Por eso, arrastraremos las siguientes variables a Descripción emergente: Departamento y Forma de repatriacion. Nuevamente, condensemos y editemos para resaltar lo importante. Así, tendremos un before and after espectacultar. Maravilloso, ¿verdad?

image07

 

 

 

 

 

 

 

 

 

 

 

Entre el mapa y el gráfico, ¿notaste elementos comunes que pueden servir para filtros? Yo también. Sazonemos nuestras hojas con ellos para que sean aplicables en un dashboard. Arrastremos las dimensiones Departamento y Forma de repatriación al campo Filtros, ubicado arriba del menú Marca. Seleccionemos todas sus variables y apliquémoslas a ambas hojas. Para el caso de los años, solo se lo aplicaremos al mapa, dado que ya contamos con un gráfico que muestra la evolución en el tiempo.

image10

 

 

 

 

 

 

 

 

 

 

 

image06

 

 

 

 

 

 

 

 

 

 

 

image04

 

 

 

 

 

 

 

 

 

 

 

¿Y si hacemos un muñeco?

¡Llegó el momento! Creemos un dashboard. Este es un elemento que contendrá nuestras hojas y otros elementos de interés para nuestra visualización. Accedamos a él con el botón Nuevo dashboard, ubicado cerca del botón Nueva hoja. ¡Voilá! Un canvas con la posibilidad de visibilizar el fenómeno de mujeres repatriadas a El Salvador. Arrastremos nuestras dos hojas para que nos queden así:

image11

 

 

 

 

 

 

 

 

 

 

 

Ordenemos la casa. Coloquemos la cantidad de tasas como valor flotante. Para hacerlo, haremos clic derecho sobre la flecha desplegable hacia abajo del contenedor de tasas y seleccionaremos la opción Flotante. Deshágamonos de las leyendas de colores de los municipios haciendo clic en la X que aparece en su contenedor. Finalizado esto, convoquemos los filtros a escena. Haremos clic sobre la flecha negra desplegable en el contenedor de la hoja Mapa y seleccionaremos la opción Filtro > Ano, Forma de repatriación y Departamento. Estos aparecerán de la siguiente forma:

image18

 

 

 

 

 

 

 

 

 

 

 

¡Yo sé! Aún no se ve lindo nuestro dashboard. Coloquemos dos filas imaginarias arriba de nuestro mapa. ¿Cómo? Utilicemos la opción Objetos > En blanco para colocarlas en el dashboard. Al principio, nos saldrán fuera de lugar, pero podemos arrastrarlas para acomodarlas en lo más alto de nuestra visualización. Una vez posicionadas, necesitamos redactar un titular y un indicador que guié a nuestro usuario a darse un vueltín por nuestra visualización.

Hagámoslo realidad haciendo clic en la opción Texto del Menú Objetos. Posteriormente, posicionemos el titular en la primera fila y el indicador en la siguiente. Terminado esto, elimina la fila del titular y despliega el titular en toda la fila; con el indicador ocurre lo contrario, dado que deberás arrastrar los filtros posterior a él. Acómodalos y obtendrás como resultado lo siguiente:

image01

 

 

 

 

 

 

 

 

Prescindamos del titular del Mapa. Haremos clic sobre la flecha desplegable del contenedor Mapa y le quitaremos el cheque a la opción Título. ¡Se fue, se fue! Ahora, pulamos el títular de nuestra gráfica. ¿Cómo? Hagamos clic sobre su titular y redactemos: Cantidad de mujeres repatriadas en. Finalizado eso, haremos clic en Insertar y coloquemos las siguientes variables en nuestro titular: ATTR(Departamento) – ATTR(Forma de repatriacion). Así, le daremos interactividad una vez el usuario se valga de los filtros para analizar la información. image14

 

 

 

 

 

 

 

 

 

 

 

 

image08

 

 

 

 

 

 

 

 

 

 

 

Ah, ¡lo olvidaba! También, puedes formatear el título para darle el mismo realce que al titular de nuestro dashboard. ¡Ojo! Siempre, siempre, siempre cita la fuente de dónde obtuviste la información, dado que eso te será de mucha utilidad para respaldar de dónde fue extraída y qué otras consideraciones tomaste en cuenta al momento de analizar la data, como el caso de las tasas.

 

¿Con quién se queda el Tableau?

Supongamos que ya tenemos nuestra visualización como la queremos. Acá, solo nos queda publicarlo en línea. Para eso, Tableau nos pide que elaboremos un extracto de nuestra información como respaldo. ¡Manos a la obra! Iremos a la barra de Menús > Datos > Extraer Datos. Acá, aparecerá un menú donde podremos añadir todas las variables clave que se extraerán de tu data.

image25

 

 

 

 

 

 

 

 

 

 

 

 

Haremos clic a la opción Añadir y seleccionaremos Año. A continuación, aparecerá una ventana emergente donde estarán todos los años. Escogélos todos y daremos clic en el botón Aceptar. Seguiremos el mismo procedimiento para el resto de variables; finalizado este procedimiento, crearemos el extracto dando clic en el botón Extracto.

image19

 

 

 

 

 

 

 

 

 

 

 

image03

 

 

 

 

 

 

 

 

 

 

 

image19

 

 

 

 

 

 

 

 

 

 

 

¡Ya casi, ya casi! Ahora vamos a la opción Servidor de la barra de menú. Escogeremos Tableau Public > Guardar en Tableau Public como… En cuanto hagamos eso, nos aparecerá una ventana donde ingresaremos nuestro correo electrónico y nuestra clave para acceder a nuestra cuenta. Si no cuentas con una, ¡tranquilo! Esta herramienta te permite crearla durante este proceso.

image17

 

 

 

 

 

 

 

 

 

 

 

 

image15

 

 

 

 

 

 

 

 

 

 

 

 

image05

 

 

 

 

 

 

 

 

 

 

 

Tan pronto como ingresemos nuestros datos, nos pedirá que redactemos el nombre de nuestra visualización. En este caso, le puse Mujeres repatriadas en El Salvador. Damos clic al botón Guardar. La herramienta procesará… ¡Voilá! ¡Nuestro Tableau aparecerá desplegado en nuestro perfil público de Tableau, donde podemos editarle detalles, como una breve descripción, qué tipo de formatos autorizamos a la herramienta para que la gente pueda descargar, entre otras utilidades.

image20

 

 

 

 

 

 

 

 

 

 

 

¿Tableau o no Tableau? ¡Esa es la cuestión!

Mi recomendación es que apuestes por Tableau. Y, si tu medio de comunicación u organización puede adquirirlo, mucho que mejor, pues una clara diferencia entre la versión gratuita y la versión pagada es que tienes mejor cobertura de seguridad, acceso al servidor pagado (con mejor seguridad que el público) y mayor lectura de líneas de registro y formato de apertura de ciertos archivos.

Sumado a eso, concuerdo con Ojo Público (2016) al garantizarte que la creación de filtros permite que los usuarios consulten y obtengan resultados personalizados en datos. Y, sobre todo, el hecho de que no se necesita saber programación para usarla, pues, al descubrir que algunas de sus funcionalidades provienen de herramientas como Excel, la cosa pinta mucho que mejor.

¡Eso sí! “Sobre advertencia, no hay engaño”. Actualmente, la mayoría de información sobre esta herramienta se encuentra en inglés, su foro de atención al usuario se tarda un poco (¡o un siglo!) en responder y algunos gráficos, como el mapa de relleno, dejan mucho que desear cuando son regiones o naciones foráneas a Estados Unidos…

Aun así, es una herramienta que promete mucho en su nueva actualización, a la que vale la pena acercarse por facilitarte un poco más las cosas a la hora de visibilizarse historias con datos, así como el grado de interactividad que le brinda al usuario y, si ya con esto no logro convencerte, te reto a que la pruebes y nos compartas qué te parece y que no debajo de esta publicación o en nuestro Twitter (@EscueladeDatos). Cheers!