Llamada a los desarrolladores para el Green ICT Application Challenge

¿Cuál es una de las principales características que convierte a las smart cities en ‘smart’? La sostenibilidad. Sin ella no serían tan inteligentes puesto que hoy en día es impensable levantar un proyecto de esta magnitud sin preocuparse de mantener un respeto por el medio ambiente.
Con esta filosofía en mente, la Unión Internacional de Telecomunicaciones (UIT) y Telefónica han lanzado la tercera edición del Green ICT Application Challenge. Este concurso busca la aplicación TIC que mejor pueda impulsar la sostenibilidad dentro de una smart city. El ganador será premiado con 5.000 dólares en metálico. Para ello tendrá que presentar un proyecto original con un plan preciso (que incluya forma de implementación y modelo de negocio), dirigido a paliar los efectos contaminantes de una gran masa de personas conviviendo en un núcleo de población.
 
El reto, enmarcado dentro de la iniciativa Responsabilidad Corporativa y Sostenibilidad de Telefónica, propone la consecución de un proyecto escalable y de gran impacto para una smart city. Son múltiples las áreas que esta aplicación TIC podría tratar. Desde la gestión de la energía y otros recursos básicos, como el agua, hasta el logro de una adaptación al cambio climático, pasando por el tratamiento de residuos, el transporte o el urbanismo.
Todos estos temas, básicos para cualquier ciudad inteligente que se precie de serlo, podrán servir de base para construir una aplicación que transforme procesos deficientes y otros optimizados para cuidar el medio ambiente. La ambición de los promotores del proyecto es que el software sea una solución global que valga para todas las smart cities, que no esté pensada exclusivamente para un entorno concreto. De ahí que se dé prioridad a quienes tengan presentes a los países en vías de desarrollo.

Para participar en Green ICT Application Challenge es necesario pertenecer a un país de la UIT y registrarse siendo mayor de edad rellenando este formulario. Las bases del concurso se pueden leer en este PDF. Los interesados deberán presentar sus propuestas antes del 31 de mayo y el ganador será anunciado el 1 de julio.

Sostenibilidad y habitabilidad, el camino de las smart cities
 
En estos momentos la mayoría de la población mundial ya vive en las ciudades y está previsto que para el año 2050 se incremente este dato hasta el 70%. Actualmente el conjunto de las urbes es responsable de más de un 70% de las emisiones de gases de efecto invernadero, mientras que su consumo de energía está entre el 60 y el 80% a nivel global. Si a estas abultadas estadísticas se les suma un mayor número de habitantes, el problema medioambiental aumenta.
 
Las smart cities se han postulado como la opción tecnológica viable para mejorar la sostenibilidad de las ciudades a partir de ya. Aunque el concepto teórico incluye la optimización de muchos servicios generales para el ciudadano, el factor medioambiental es clave en tanto que es un claro indicador de la habitabilidad.
 
Las ciudades tienen que evolucionar y precisamente este objetivo es el que persigue Green ICT Application Challenge. Y no sólo eso, sino algo que va más allá: buscar la implicación de las personas –en este caso los desarrolladores– en el cambio urbano que necesariamente debe producirse en un corto periodo de tiempo, a lo largo y ancho de todo el mundo, con el fin de encontrar la sostenibilidad.

Objetivo: buscar estándares para las smart cities
 
El concurso tiene como finalidad estimular la creación de aplicaciones tecnológicas estandarizadas que sean de utilidad en una smart city. Este factor es importante porque al tratarse de proyectos muy recientes, las ciudades inteligentes han evolucionado cada una por su cuenta.
Son pocas las aplicaciones y los sistemas que se pueden exportar de unas ciudades inteligentes a otras. Las diferentes necesidades de cada lugar, más el hecho de que son proveedores distintos los que dirigen los proyectos, hacen más complicado conformar una estandarización. Pero las ventajas de disponer de una tecnología común son muchas. De esta forma se podrían ahorrar costes de desarrollo e impulsar una evolución más rápida.
 
Éste es uno de los retos que se ha propuesto la Unión Internacional de Telecomunicaciones, que quiere estimular el desarrollo de aplicaciones con capacidad para ser utilizadas en diferentes smart cities. Dentro de esta línea de trabajo, el respeto por el medio ambiente se presenta como una necesidad básica para cualquier ciudad, tal y como expresa la Unión Internacional de Telecomunicaciones en su Call to Action on “Smart Cities”.
 
Pablo G. Bejerano 

Agenex recomienda a las familias extremeñas el 'autoconsumo eléctrico' para ahorrar hasta un 80% en la factura

La Agencia Extremeña de la Energía (Agenex) ha recomendado a las familias de Extremadura el uso de paneles solares como forma de 'autoconsumo eléctrico', una medida que según ha explicado permite ahorrar hasta el 80 por ciento de la factura cada año.
En una nota de prensa, la agencia ha destacado que, "con una legislación clara y el impulso de la administración", el autoconsumo individual será "altamente rentable", "y pronto una realidad en las familias extremeñas, comunidades de vecinos o pequeñas empresas de nuestra región".
De este modo, ha valorado que el Gobierno de Extremadura haya publicado una circular en la que "se aclara la tramitación necesaria para desarrollar el autoconsumo energético", entre los consumidores particulares y las pequeñas y medianas empresas extremeñas.
En este sentido, ha explicado que "ni los ayuntamientos ni las comunidades autónomas tienen claro cómo interpretar la normativa", de manera que esta publicación "va a clarificar los procedimientos administrativos".
Una iniciativa que, a su juicio, supondrá "más agilidad" en la resolución de los correspondientes expedientes administrativos, y "más seguridad a los ciudadanos y empresas que opten por instalar un equipo solar fotovoltaico para autoabastecerse de energía, con ahorros interesantes en la factura eléctrica".
Así, ha indicado que, "en tiempos de crisis y de pérdida de empleos", la generalización del autoconsumo de energía en España puede ser una "auténtica revolución" en términos socio-económicos, "con la creación de "millares de empresas y de empleo estable (20.000 puestos de trabajos, según estimaciones de la Unión de empresas Fotovolaticas, UNEF)".
Por otro lado, la Agencia Extremeña de la Energía ha señalado que la circular remitida por el Ejecutivo regional distingue tres tipos de instalaciones, la primera de ellas denominada 'aisladas' sin conexión con una red de distribución de electricidad), que puede corresponderse con el caso de una vivienda rural aislada.
Además, se encuentran las viviendas 'asistidas con conexión a la red e instalación solar fotovoltacia, que serías el caso de una vivienda residencial urbana que utiliza preferentemente la energía renovable, nunca simultáneamente con la red pública de suministro. Finalmente, están las instalaciones generadoras interconectadas, para autoconsumo total o parcial, en el caso de que 'venda' el excedente, percibiendo la correspondiente retribución.
 
Fuente: europapress

Bilbao y Oviedo, entre los consistorios con mayor nivel de transparencia


Los ayuntamientos de Alcobendas, Bilbao, Gandía, Gijón, Oviedo, Ponferrada, San Cugat del Vallés y Torrent son los que presentan un mayor nivel de transparencia en España, mientras que Ciudad Real y Teruel son los que menos, según demuestra el Índice de Transparencia de los Ayuntamientos (ITA) de 2012 presentado este miércoles por la organización Transparencia Internacional España.

De este modo, de los 110 mayores ayuntamientos analizados, son ocho los que han obtenido la máxima puntuación posible al cumplir perfectamente con los 80 indicadores que, según la organización, determinan su nivel de transparencia.

Dichos indicadores se dividen en seis áreas que miden la información que ofrecen a los ciudadanos sobre la corporación municipal, las relaciones con la sociedad, la transparencia económico-financiera, en las contrataciones de servicios y en materia de urbanismo y obras públicas, y por último, su cumplimiento de los requisitos que establecerá la futura Ley de Transparencia.

Según TI-España, el número de ayuntamientos que han obtenido un sobresaliente en transparencia ha ido aumentado desde el primer ITA, publicado en 2008, en el que únicamente Bilbao consiguió una puntuación superior a los 90 puntos.

Así, en esta ocasión, han sido 33 las corporaciones locales que han alcanzado el sobresaliente y entre los que se encuentran, además de los ocho ayuntamientos ganadores, ciudades como Burgos, Albacete, Murcia, Madrid, Málaga, Pamplona, Soria o León.
Ligera mejora

Todo ello ha propiciado, tal y como ha destacado el presidente de TI-España y catedrático de la Universidad Autónoma de Madrid, Jesús Lizcano, que las puntuaciones medias alcanzadas por el conjunto de los Ayuntamientos evaluados en esta cuarta edición del informe hayan sido ligeramente más altas que en años anteriores, situándose esta vez 70,9 puntos sobre 100, frente al 70,2 alcanzado en 2010.

A pesar de esta "ligera" mejora, han sido 23 los ayuntamientos analizados que han suspendido al obtener menos de 50 puntos, y entre los que se encuentran, más cerca del aprobado, ciudades como Ávila, Córdoba, Leganés o Toledo. La puntuación más baja la han obtenido Huelva y Talavera de la Reina con un 2, Telde con un 17,5, Teruel con un 16,3 y Ciudad Real con un 15 sobre 100.

En la parte media de la tabla, con puntuaciones que oscilan entre el 88,8 y el 60, podemos encontrar ciudad como Barcelona, Las Palmas de Gran Canaria, Lérida, Palencia, Huesca, Logroño, Segovia, Lugo, Vitoria, Zaragoza, Santander, A Coruña, Girona, Cádiz, Palma de Mallorca, Valladolid, Tarragona, Vigo o Cuenca, de mayor a menor puntuación. El aprobado raspado ha sido para ciudades como Sevilla, Alicante o Salamanca.
Asturias, País Vasco y Navarra, las más transparentes

Por comunidades autónomas, son Asturias, con un 98,8, País Vasco, con un 94,3 y Navarra, con un 93,8, las que han obtenido una mayor puntuación media, siendo Extremadura, con un 32,5, Castilla-La Mancha, con un 48,8 y Andalucía, con un 56,7, las menos transparentes, según el informe.

Teniendo en cuenta el género del alcalde, los municipios gobernados por hombres reciben una nota superior en transparencia frente a los regidos por mujeres (71,4 frente al 69,1). Asimismo, los ayuntamientos grandes son los que mejor puntuación sacan (77,4), en comparación con los medianos (68,8) y los pequeños (68,3). Además, las 50 capitales de provincia han conseguido menos puntuación (67,2) que las otras 60 ciudades analizadas que no lo son (74).

Por otra parte, cabe destacar el incremento que ha protagonizado el índice que mide la transparencia económico financiera, pues la puntuación media de los 110 ayuntamientos analizados ha aumentado más de 7 puntos, pasando de 63,8 en 2010 a 71,2 en 2012.

La puntación media más baja, un 57,4 sobre 100, le ha correspondido al área de indicadores relativa a la nueva Ley de Transparencia que se ha comenzado a analizar en esta cuarta edición por primera vez, para determinar la preparación de las corporaciones locales ante los requisitos que establecerá la futura ley, que en estos momentos está siendo tramitada en el Congreso.

Así 48 de los 110 ayuntamientos analizados han suspendido este área, obteniendo Cáceres, Huelva y Teruel una puntuación de 0 sobre 100. Liderando el ránking en este aspecto se encuentran, con una nota de matrícula de honor (100), Alcobendas, Bilbao, Gandia, Getxo, Gijón, Oviedo, Ponferrada, San Cugat del Vallés y Torrent.

Expertos en transparencia comienzan a desfilar mañana por el Congreso para ilustrar a los diputados sobre la futura ley

Dado que enero es un mes inhábil a efectos parlamentarios, el presidente del Congreso, Jesús Posada, ha habilitado a la Comisión Constitucional para que pueda empezar a recibir a los comparecientes la próxima semana.

En esa primera sesión, los ponentes escucharán a tres expertos que han sido solicitados tanto por el PP como por el PSOE. El primero en comparecer, a las diez de mañana del miércoles, será el presidente de la Agencia de Protección de Datos, José Luis Rodríguez.

Después tomarán el testigo dos representantes de la organización no gubernamental Transparencia Internacional, encargada de combatir la corrupción; el abogado Antonio Garrigues Walker y su presidente, Jesús Lizcano, catedrático de la Universidad Autónoma de Madrid.

El resto de comparecencias, que aún están pendientes de definir, se celebrarán a lo largo del mes de febrero y, entre ellas, podría incluirse la del presidente del Centro de Estudios Políticos y Constitucionales (CEPC), Benigno Pendás, y al profesor de Derecho Administrativo de la Universidad de Sevilla Emilio Guichot, han indicado las fuentes consultadas.

ENMIENDAS PARCIALES

Estas comparecencias condicionan el plazo para la presentación de las enmiendas parciales a la Ley de Transparencia que, en principio se ha fijado para el 5 de febrero.

Desde que se abriera el pasado mes de septiembre, este plazo se ha ido ampliando semanalmente con el objetivo de dar tiempo a los grupos parlamentarios para estudiar con calma la norma e intentar alcanzar el máximo consenso posible.

De hecho, el Gobierno empezó recabando opiniones desde el primer momento. Así, antes de que el Consejo de Ministros aprobara el proyecto de ley --el pasado 27 de julio-- se impulsó en abril la creación de una comisión de expertos en el Centro de Estudios Políticos y Constitucionales para hacer aportaciones al texto, que en aquel momento aún estaba en fase de elaboración.

También en la pasada primavera, la vicepresidenta del Gobierno, Soraya Sáenz de Santamaría, abrió la norma a un trámite de audiencia pública para que los ciudadanos pudieran realizar sugerencias y críticas a la ley. Algunas de ellas se incorporaron pero no la petición para que la Casa del Rey se sometiera también a la Ley de Transparencia, como reclamaban algunos ciudadanos y colectivos.

Big Data y política

Por Antoni Gutiérrez-Rubí

Durante la campaña electoral, Barack Obama sorprendió, en reiteradas ocasiones, con alusiones directas al incremento de profesores de matemáticas (estadísticos, analistas de datos…) en el sistema de educación norteamericano como garantía para la competitividad y la innovación en la economía.

Sin embargo, su defensa de estas profesiones venía de lejos. No era una intuición, era una convicción. En febrero de 2011, un año antes de que comenzaran las campañas (con las primarias de fondo), el presidente Obama presentó su propuesta de presupuesto en el que la cifra asignada al área de educación era de las pocas donde se veía un aumento. El Presidente exigía que un total de 77,4 mil millones de dólares fueran invertidos en reformas dirigidas a los temas de ciencia, tecnología, ingeniería y matemáticas. Para algunos, este apoyo a la educación era tan solo una demostración de su adhesión a políticas sociales asistencialistas, pero estaban equivocados. Obama entendía, como pocos, la necesidad de reactivar la economía del país a través de un fuerte y decidido impulso tecnológico y una cultura científica basada en las matemáticas como estímulo para la creatividad.
La fe y la lealtad de Obama en los matemáticos, ingenieros e informáticos fueron cruciales en su defensa y argumentación sobre cómo conseguirlo. Para algunos era inaudito que el presidente de los Estados Unidos hablara de la necesidad de tener y formar a más profesores, más matemáticos y más ingenieros en un momento en el que la tasa de desempleo no bajaba del 8%.
 
“Había más imaginación en la cabeza de Arquímedes que en la de Homero”. Voltaire
 
La Cueva
 
Un día después de su victoria electoral, Obama nos mostró su “secreto”. Solo un medio de comunicación, TIME Magazine (que ha vuelto a conceder al Presidente el título de “personaje del año”, como ya hiciera en 2008), conocía hasta ese momento la que había sido su arma secreta en la consecución de los votos electorales clave. El miércoles 7 de noviembre, la revista estadounidense publicó el artículo que revelaba las interioridades de La Cueva.
La Cueva era una sala secreta del cuartel general de campaña en Chicago donde se ponía en marcha toda la maquinaria cibernética que consiguió el método de análisis, prospectiva, simulación y estrategia que garantizó su victoria. Como en la película El club de la lucha, existían unas reglas y las tres primeras tenían que ver con mantener en silencio su existencia.
Durante muchos meses, un equipo de informáticos y matemáticos permanecieron encerrados en un recinto aislado al que solo su jefe de campaña, Jim Messina, tenía acceso y conocimiento sobre las actividades que allí se realizaban.
La campaña de Obama logró construir “la mayor maquinaria política en los EEUU, con delegaciones establecidas durante más de un año en los Estados decisivos y apuntalada por herramientas digitales pioneras” que jamás se habían visto. Ya no se trataba de conseguir información, ni voluntarios, sino de aprovechar la información de la mejor manera posible. Ningún dato sobraba y todo era relevante, desde las costumbres del día a día de los votantes hasta dónde iban de vacaciones los indecisos. Todo ello iba alimentando una gigante bóveda de datos.
 
El método
 
Un gran big data electoral (respondiendo al principio de las “3V”: alta velocidad, alta variabilidad, alto volumen) fue gestionado para identificar patrones de comportamiento e hipótesis de respuesta a los estímulos, la acción y la comunicación política. Datos “físicos” (datos públicos vinculados a la identidad, el geoposicionamiento, las condiciones socioeconómicas o territoriales y el comportamiento electoral), a los que se añadieron datos de “consumo” (adquisiciones, subscripciones, donaciones, aportaciones…), más datos de “conversaciones” (gracias a la minería de datos de las redes sociales) y, finalmente, datos “experimentales” de la acción política en la comunicación digital o en la campaña de tierra (puerta a puerta, call centers…).
Todo ello permitió la gestión de información segmentada en decenas de criterios sobre los votantes, sus gustos y su modo de vida, demostrando que el ganador sería quien más compartiera con ellos, afinidades y preocupaciones. Esto, finalmente, fue lo que ayudó al equipo de Obama a diseñar un mensaje específico, centrado y dirigido a cierto segmento de la población, con un mejor y mayor control.
El proceso fue largo y arduo. Durante 18 meses, el equipo de La Cueva se dedicó a unificar todas las bases de datos que habían empleado los diversos equipos de campaña de Obama en 2008. El resultado fue una gran base de datos que incluía desde listas de donantes a datos recogidos por encuestadores y voluntarios -que habían ido puerta a puerta durante meses buscando el voto-, o recopilados a través de las redes sociales. Esos datos fueron cruzados, comparados y verificados continuamente hasta el último minuto de campaña y hasta el último detalle relacionado con el votante.
 
“Las matemáticas poseen no solo la verdad, sino cierta belleza suprema. Una belleza fría y austera, como la de una escultura”. Bertrand Russell
 
Una vez contaban con esa artillería, los técnicos comenzaban a testear perfiles de decenas de millones de electores con programas informáticos de predicción sobre distintas reacciones y motivaciones que podrían llevar a una persona a votar por Obama. En ese punto, el género, la edad, el nombre y la raza se convertían solo en un primer umbral de la información; los analistas debían conocer, también, el tipo de series de televisión que veían en su tiempo libre, o los medios a través de los cuales compartían información con sus amigos; es decir, actitudes, gustos y disgustos de su vida en general.
Y aquí entró en juego Facebook. A través de esta red social, mediante la aplicación Are you in, el votante podía inscribirse, ya fuera para ayudar, para ser voluntario o simplemente para informarse; daba igual, lo importante era que, al conectarse con Facebook, el usuario daba acceso directo al equipo de Obama no solo a su perfil sino al perfil de todos sus amigos en esa red social. Esto terminó por convertir la gran cantidad de datos en un alud gigante de información sobre millones y millones de personas.
Controlar y saber manejar esta información era el mayor reto. Pero una vez más su ejército de nerds encerrados en el cuartel de La Cueva lograron sacar el mejor provecho a cada dato, a cada nombre y a cada Estado, de tal manera que cada nombre y cada dato se convirtieron -potencialmente- en un voto.
 
 
El rival
 
El equipo de Obama no descubrió nada, solo se adaptó mejor. Mitt Romney y su equipo usaban una, hasta entonces, buena base de datos denominada ORCA, que alimentaban con los datos que iban consiguiendo en campaña y que tenía como principal objetivo conseguir que el día de las elecciones sus simpatizantes fueran a votar. Sin embargo, no funcionó del todo y muchos datos se perdieron. No era tan buena, ni tan actualizada, ni conseguía encontrar las relaciones entre los activistas que sí consiguió la herramienta de Obama.
El equipo del Presidente sí innovó: de las redes sociales a la estrategia de datos. Como indicaba David Axelrod respecto al cambio de herramientas online: “En 2008, este tipo de campaña usaba la mejor tecnología posible. Pero estamos a años luz de donde estábamos en 2008. Hemos tenido que reinventarnos y pensar en todas las herramientas que estaban disponibles para nosotros -que proporcionan datos más ricos, más medios quirúrgicos para hablar con los votantes. Se trata de invertir en personas -son casi mayoritariamente jóvenes- que entienden dónde va la tecnología y cuál será su potencial en el año 2016 en comunicaciones, para apuntar al blanco, para la minería de datos, para conseguir la mayor precisión posible en términos de persuasión y movilización. […] Sabemos mucho más sobre el electorado que en 2008. Podíamos hacer juicios más precisos sobre las actitudes de los votantes, sobre lo que era importante para ellos individualmente, sobre quién iba participar y quién no era probable que participara. Así que teníamos gran confianza en nuestros datos. Recibí informes cada noche”.
 
El horizonte
 
No se puede hablar de Big Data sin hacer referencia a Nate Silver, el estadístico que revolucionó las predicciones electorales de los medios de comunicación y las empresas de sondeos y encuestas con un método basado en la estadística y la probabilidad y no en la medición e interpretación. La innovación real en las pasadas elecciones fue la relevancia de los modelos estadísticos por encima de las apreciaciones de los pundits (tertulianos de toda la vida) sobre el desarrollo de las elecciones.
Su método era simple, pero complejo al mismo tiempo: 1. Hacía la suma de muchas (muchas!) encuestas. 2. Sacaba un promedio, no un promedio simple ya que tenía en cuenta tres variables: a. Momento de la publicación de la encuesta, b. Margen de error, c. Calidad (el medio que la publicaba, si históricamente había acertado o no…). 3. Estudiaba cada Estado.  No se centraba en las encuestas de intención de voto a nivel nacional sino de Estado por Estado. Para ello también se tenía en cuenta la elección de senadores, la participación histórica, la ventaja del candidato, los factores demográficos… todo a través de una regresión lineal. 4. Finalmente, esos datos se introducían a modo de algoritmo en un software que ofrecía los resultados finales.
Las disciplinas y profesiones estratégicas para la gestión eficiente de la política y de las campañas electorales van a padecer un vuelco: de las ciencias sociales (sociólogos, periodistas, politólogos, asesores de comunicación…) a las ciencias exactas (matemáticos, estadísticos, analistas de datos, visualizadores gráficos).
 
 
España
 
Nuestro país (y nuestra política) tiene un gran déficit en cultura matemática. Hay buenos profesionales, pero no hay un reconocimiento a la profesión y nuestra arquitectura de datos públicos disponibles es muy baja en relación a la media europea. No es extraño que seamos uno de los poquísimos países que no tiene -todavía- legislación sobre la transparencia y que el Open Data y el Open Government estén muy retrasados en su desarrollo.  Además, en España, el reto es doble: la producción de datos brutos y el know how para su análisis. No se trata solo de producir los datos sino de saber analizarlos (cruzarlos, ponderarlos) y convertirlos en información útil para su reconversión en votos. Cada detalle cuenta. Convertir los datos en comportamientos es la clave, para comprender el fondo de los votantes: “Sin matemáticas no se penetra hasta el fondo de la filosofía; sin filosofía no se llega al fondo de las matemáticas; sin las dos no se ve el fondo de nada”.
(Bordas-Desmoulin)
 

Sandbag, transparencia aplicada al medio ambiente

Sabemos que existe un mercado de emisiones de CO2 donde las diferentes empresas reciben un límite de derechos de emisión. Aquellos derechos de emisión no gastados, pueden venderse. De esta manera se pretende fomentar que cada vez se vayan reduciendo las emisiones de CO2 a la atmósfera y así paliar el calentamiento global. En este juego participan las empresas y los diferentes gobiernos creando un marco legal.
 
Sandbag es una compañía británica que permite que todo aquel ciudadano que lo desee, entre en el juego mediante el acceso a datos relativos a las emisiones de diferentes industrias en toda Europa. Así, cualquiera puede evaluar la trayectoria de las emisiones de una empresa de una manera sencilla, sin necesidad de ser un experto en la materia.
 
Podemos diferenciar aquellas industrias cuyas emisiones fueron superiores a las asignadas y al revés. Haciendo clic en cualquiera de ellas aparece un globo donde se aprecia la gráfica de emisiones desde el 2005 y si se han incrementado o se han disminuído en el último año. Un detalle importante es que también aparecen las acciones que esa industria ha tomado para compensar o minimizar dichas emisiones.

Esta aplicación obtuvo el segundo premio en el opendata challenge, bajo el apartado de mejor visualización.
 
Este es un ejemplo de cómo la transparencia y el acceso a datos puede resultar en un fortalecimiento institucional, ya sea una administración pública o una empresa privada. La información mostrada hace que las industrias que se esfuercen por reducir sus emisiones se muestren  realmente comprometidas con el impacto que su actividad tiene sobre el cambio climático y la calidad del aire que respiramos.