230 research outputs found
Comparison of Gridded DEMs by Buffering
This research was partially funded by the research project "Functional Quality in Digital Elevation Models in Engineering" (https://coello.ujaen.es/investigacion/web_giic/funquality4 dem/, accessed on 28 July 2021) of the State Research Agency. PID2019-106195RB-I00/AEI/10.13039/ 501100011033.Comparing two digital elevation models (DEMs), S1 (reference) and S2 (product), in order
to get the S2 quality, has usually been performed on sampled points. However, it seems more natural,
as we propose, comparing both DEMs using 2.5D surfaces: applying a buffer to S1 (single buffer
method, SBM) or to both S1 and S2 (double buffer method, DBM). The SBM and DBM approaches
have been used in lines accuracy assessment and, in this paper, we generalize them to a DEM surface,
so that more area of the S2 surface (in the case of the SBM), or the area and volume (in the case of
the DBM) that are involved, more similarly are S1 and S2. The results obtained show that across
both methods, SBM recognizes the presence of outliers and vertical bias while DBM allows a richer
and more complex analysis based on voxel intersection. Both methods facilitate creating observed
distribution functions that eliminate the need for the hypothesis of normality on discrepancies and
allow the application of quality control techniques based on proportions. We consider that the SBM
is more suitable when the S1 accuracy is much greater than that of S2 and DBM is preferred when the
accuracy of S1 and S2 are approximately equal.research project "Functional Quality in Digital Elevation Models in Engineering" of the State Research Agency PID2019-106195RB-I00/AEI/10.13039/50110001103
El alto transporte convectivo mejora los parámetros de microinflamación y disfunción endotelial independientemente de la técnica empleada
Mid-dilution (MID) es una técnica de hemodiafiltración en línea que combina las
ventajas de las técnicas de predilución y postdilución. En este estudio se
examinaron los efectos de diferentes técnicas de hemodiafiltración en línea sobre
la microinflamación y el daño reparación endotelial. La hipótesis que se planteó
fue evaluar si el empleo de una técnica como mid-dilution, que emplea el doble de
flujo de sustitución que hemodiafiltración en línea postdilución convencional,
podía mejorar aún más los datos obtenidos con esta técnica ya descritos en la
bibliografía.
Se diseñó un estudio prospectivo y cruzado, en el que pacientes con enfermedad
renal crónica en hemodiálisis se dializaron en 6 periodos diferentes de 8 semanas
cada uno. Fueron divididos en dos grupos: Grupo 1: Hemodiálisis de alto flujo
(HD-HF)//MID//Hemodiafiltración en línea postdilución (HDF-OL)//MID//HDFOL//
HD-HF. Grupo 2: HD-HF//HDF-OL//MID//HDF-OL//MID//HD-HF. Se
emplearon técnicas de citometría de flujo para medir los monocitos CD14+CD16+
como marcador de inflamación, y las micropartículas endoteliales apoptóticas
(EMPs) y las células progenitoras endoteliales (EPCs) como marcadores de daño
reparación endotelial.
Los resultados obtenidos pusieron de manifiesto que los pacientes tratados con
HD-HF presentaban un marcado estado inflamatorio crónico. El alto transporte
convectivo, independientemente de la técnica empleada (MID o HDF-OL),
mejoró los parámetros de microinflamación y de daño reparación endotelial al
compararlas con HD-HF, sin encontrar diferencias entre ambas técnicas
convectivas. En comparación con la población de sujetos sanos la mejora obtenida
con estas técnicas no fue suficiente para normalizar los valores.
Estos resultados permiten concluir que la hemodiafiltración en línea de alto
transporte convectivo mejora el estado microinflamatorio y el daño reparación endotelial en estos pacientes independientemente de la técnica empleada.Mid-dilution (MID) is an on-line hemodiafiltration technique which combines the
advantages of pre-dilution and post-dilution modalities. In this study, we
examined the effects of different on-line hemodiafiltration techniques on
microinflammation and endothelial damage-repair. We hypothesize whether the
use of a technique such as mid-dilution with twice flow replacement that postdilution
on-line hemodiafiltration could further improve the data obtained with
this technique and described in the literature.
The study was designed as a prospective crossover study. Patients with renal
chronic failure in hemodialysis were dialyzed over 6 separate 8 week periods.
They were divided into two groups: Group 1: High permeability hemodialysis
(HF-HD)//MID// Post- dilution on-line hemodiafiltration (OL-HDF)//MID//OLHDF//
HF-HD. Group 2: HF-HD//OL-HDF//MID//OL-HDF//MID//HF-HD. Flow
cytometry was used to measure CD14+CD16+ monocytes (microinflammation),
apoptotic endothelial microparticles (EMPs) as endothelial damage parameter, and
endothelial progenitor cells (EPCs) as endothelial repair markers.
The results showed that patients treated by hemodialysis with HF-HD showed a
marked chronic inflammatory state. High convective transport, independent of the
technique used (OL- HDF or MID), improved microinflammatory parameters and
the endothelial damage- repair balance compared to HF-HD, with no differences
found between the two modalities. In comparison with the population of healthy
subjects, the improvement achieved by these techniques was insufficiently strong
to attain normal values.
These results lead us to conclude that the on-line hemodiafiltration with high
convective transport improves the microinflammatory state and the endothelial
damage-repair of these patients independently of the technique used
La construcción descentralizada de datos espaciales: riesgos para la calidad de la información geográfica
En este trabajo se define en qué consiste un marco de «construcción descentralizada» de datos espaciales, el cuál presenta matices diferenciadores respecto a lo que se ha venido denominando «producción descentralizada». Para entender lo que pueden suponer los riesgos de la mala calidad, primeramente, se refuerza la idea de la importancia de los datos espaciales en la toma de decisiones. Posteriormente se identifican y presentan los que entende-mos que, al día de hoy, son los principales retos: producción (comprometerse en mucho), acceso (permitir accesos de calidad), interoperabilidad (posibilitar la utilización y uso legal), metadatos (describir bien los productos), trazabilidad y metacalidad (mantener el linaje e información so-bre la calidad de la calidad) y la preservación (asegurar del uso futuro). El trabajo acaba con unas breves conclusiones en las que se identifican las principales líneas de trabajo (normalización, formación, liderazgo, etc.) para evitar estos riesgo
Quality of metadata in open data portals
During the last decade, numerous governmental, educational or cultural institutions have launched Open Data initiatives that have facilitated the access to large volumes of datasets on the web. The main way to disseminate this availability of data has been the deployment of Open Data catalogs exposing metadata of these datasets, which are easily indexed by web search engines. Open Source platforms have facilitated enormously the labor of institutions involved in Open Data initiatives, making the setup of Open Data portals almost a trivial task. However, few approaches have analyzed how precisely metadata describes the associated datasets. Taking into account the existing approaches for analyzing the quality of metadata in the Open Data context and other related domains, this work contributes to the state of the art by extending an ISO 19157 based method for checking the quality of geographic metadata to the context of Open Data metadata. Focusing on metadata models compliant with the Data Catalog Vocabulary proposed by W3C, the proposed extended method has been applied for the evaluation of the Open Data catalog of the Spanish Government. The results have been also compared with those obtained by the Metadata Quality Assessment methodology proposed at the European Data Portal
A method for checking the quality of geographic metadata based on ISO 19157
The authors also wish to express their gratitude to National Center of Geographic Information (CNIG) of Spain for providing the corpus (dated on September 2nd 2016) used to test the methodology, and to the experts that contributed to the manual evaluation of some quality elements.With recent advances in remote sensing, location-based services and other related technologies, the production of geospatial information has exponentially increased in the last decades. Furthermore, to facilitate discovery and efficient access to such information, spatial data infrastructures were promoted and standardized, with a consideration that metadata are essential to describing data and services. Standardization bodies such as the International Organization for Standardization have defined well-known metadata models such as ISO 19115. However, current metadata assets exhibit heterogeneous quality levels because they are created by different producers with different perspectives. To address quality-related concerns, several initiatives attempted to define a common framework and test the suitability of metadata through automatic controls. Nevertheless, these controls are focused on interoperability by testing the format of metadata and a set of controlled elements. In this paper, we propose a methodology of testing the quality of metadata by considering aspects other than interoperability. The proposal adapts ISO 19157 to the metadata case and has been applied to a corpus of the Spanish Spatial Data Infrastructure. The results demonstrate that our quality check helps determine different types of errors for all metadata elements and can be almost completely automated to enhance the significance of metadata.Spanish Government (project TIN2017-88002-R), Regional Government of Aragon (Spain) and the European Social Fund (code T59_17R) and the Regional Government of Andalusia (Spain) for the financial support since 1997 to the research group (Ingeniería Cartográfica) with code PAIDI-TEP-164
Minimum penalized φ-divergence estimation under model misspecification
This paper focuses on the consequences of assuming a wrong model for multinomial data when using minimum penalized φ-divergence, also known as minimum penalized disparity estimators, to estimate the model parameters. These estimators are shown to converge to a well-defined limit. An application of the results obtained shows that a parametric bootstrap
consistently estimates the null distribution of a certain class of test statistics for model misspecification detection. An illustrative application to the accuracy assessment of the thematic quality in a global land cover map is included.Ministerio de Economía y Competitivida
Núcleos espaciados: algoritmo para la determinación de un eje medio a partir de multitrazas GNSS 3D
La Información Geográfica Voluntaria (IGV) supone un cambio radical en la obtención y disponibilidad de Información Geográfica. La aportación de millones de usuarios de esta información proporciona un volumen de datos que, usados de forma correcta, es una fuente de un gran valor. En este trabajo se presenta un proceso semiautomático que permite trabajar con este tipo de información, el algoritmo “Núcleos espaciados”. Este algoritmo permite la obtención de un eje medio a partir de un conjunto de multitrazas GNSS 3D tomadas sobre un tramo de carretera. La eficacia del algoritmo ha sido evaluada con un control de calidad posicional del eje obtenido mediante el método de control posicional por elementos lineales de las distancias medias.Esta investigación se ha realizado dentro del proyecto de investigación “Evaluación 3D de elementos lineales de información geográfica (E3DLING)” del Ministerio de Economía y competitividad (BIA2011-23271). Igualmente, se agradece a la Junta de Andalucía la financiación económica del Grupo de Investigación Ingeniería Cartográfica (PAIDI-TEP-164) desde 1997 hasta la fecha
Tratamiento de multitrazas GNSS 3D para la obtención de ejes medios
El uso de los sistemas de navegación se ha difundido mucho y la explotación de sus datos es compleja debido tanto al volumen como a su variabilidad. Este trabajo de revisión presenta una definición de los elementos (trazas) y un análisis de las fuentes de variabilidad, así como los criterios usuales de filtrado de los datos originales. Otro aspecto presentado son los atípicos, éstos se definen y clasifican para el caso de trazas GNSS. La obtención del eje medio se aborda en dos pasos, primero se presentan algoritmos que, a partir de dos polilíneas 3D permiten obtener una solución media y, posteriormente, se presentan otras opciones que permiten obtener una solución de eje medio a partir de un conjunto de trazas.Este trabajo se ha realizado dentro del proyecto de investigación “Evaluación 3D de elementos lineales de información geográfica” del Ministerio de Ciencia e Innovación (BIA2011-23271) cofinanciado por el Fondo Europeo de Desarrollo Regional
- …