Acerca de GeoEcon

GeoEcon es una plataforma WebGIS, actualmente en versión beta, que permite la visualización interactiva y el análisis comparativo de estadísticas homologadas a partir de datos armonizados a nivel micro-territorial según las recomendaciones del Grupo de Trabajo sobre Información Geoespacial (WGGI) del IAEG-SDG y del UN Global Pulse sobre big data e inteligencia artificial.

Se trata de una herramienta de acceso centralizado a datos e información (DIAS), amigable y operativa, para la toma de decisiones/acciones públicas y privadas orientadas al aprovechamiento sustentable de los recursos materiales y humanos locales en acciones eficientes e incluyentes que promuevan el desarrollo productivo armónico e integrado de las diferentes regiones de LAC

Actualmente, la plataforma permite el acceso y la visualización de datos armonizados e indicadores homologados sectorialmente de 15.000 municipios de LAC.

PAÍSES: Argentina, Brasil, Chile, Colombia, Costa Rica, Ecuador, México, Paraguay, Perú y Uruguay.

TEMÁTICAS: Economía, Educación, Demografía Empresarial, Demografía, Infraestructura, Medioambiente, Político-electoral y Directorios.

ORGANIZACIÓN TERRITORIAL: Niveles jurídico-administrativos, Distritos productivos, Territorios gemelos o elaboradas por el usuario.

SECTORES DE ACTIVIDAD: Divisiones CIIU Rev.4 y reagrupamientos en base a Knowledge (High-technology and knowledge-based services) y Bienes y Servicios Transables (Central Product Classification - CPC 2.1) de Naciones Unidas, y Turismo según la Organización Mundial de Turismo (UNWTO).   


El enfoque metodológico-estadístico es específicamente espacial, es decir, que los indicadores estadísticos se desarrollan para datos geográficos y el espacio (proximidad, área, conectividad y otras relaciones espaciales) es contemplado directamente en las operaciones matemáticas. Los datos geográficos no son independientes y poseen una correlación con los datos adyacentes.

La armonización de los datos y el desarrollo de indicadores homologados internacionalmente es realizada a partir de la implementación de algoritmos y modelos estadísticos espaciales de clustering, bliclusterig, espacio-temporales y de small area estimations (SAE), entre otros, en un entorno de big data y de complejidad de cálculo, ya sea como resultado del uso de una búsqueda exhaustiva o de la necesidad de realizar pruebas de significación estadística, que requiere capacidades computacionales de alto rendimiento.

Fue creada por un equipo de estadísticos y economistas de la Fundación Observatorio PyME (FOP), la Università di Bologna y la UCLouvain de Bélgica, junto con un grupo de computadores científicos (desarrolladores full stack) egresados de la Facultad de Ciencias Exactas de la UBA.

El apoyo de la Fundación EU-LAC, a través de los gobiernos de España e Italia y de los aportes propios de las organizaciones promotoras (Fundación Observatorio PyME, Università di Bologna, Universidades e Institutos de Estadística de los diferentes países de LAC), han permitido la creación de esta primera versión de acceso resultante de los avances presentados en seminarios-talleres realizados en Buenos Aires (2014), Madrid (2015), Roma y Washington (2019) y París (2020)

El desarrollo de esta plataforma se basa en tecnologías y estándares (formatos y protocolos) de código abierto recientes: utiliza Odoo como portal de ingreso al sistema para el registro de usuarios y reportes de mapas, integrando dentro de éste una aplicación implementada con el sistema OpenLayers y Cesium 3D para el manejo de múltiples capas de datos geográficos, y PHP, Javascript y D3.js para las interfaces de búsqueda y generación de reportes estadísticos. API de acceso.

Contiene a su vez una serie de scripts y herramientas que se crearon específicamente para brindar servicios de teselas vectoriales (vector tiling), renderización de formatos geojson a svg, optimización de los datos geográficos y creación de archivos MBtiles.

Todas estas operaciones son ejecutadas automáticamente por la plataforma con la idea de reducir el mantenimiento y mejorar la escalabilidad.

Los algoritmos e indicadores fueron programados en R y Python y ejecutados en servidores de cloud computing que cuentan con hardware de aceleración de procesos complejos y masivos.