50 research outputs found

    Medici贸n de la representatividad utilizando principios de la matriz de cobertura

    Get PDF
    La representatividad es una caracter铆stica importante de la calidad de los datos en procesos de ciencia de datos; se dice que una muestra de datos es representativa cuando refleja a un grupo m谩s grande con la mayor precisi贸n posible. Tener bajos 铆ndices de representatividad en los datos puede conducir a la generaci贸n de modelos sesgados, por tanto, este estudio muestra los elementos que conforman un nuevo modelo para medir la representatividad utilizando un elemento de prueba de objetos matem谩ticos de matrices de cobertura llamado "Matriz P". Para probar el modelo se propuso un experimento donde se toma un conjunto de datos y se divide en subconjuntos de datos de entrenamiento y prueba utilizando dos estrategias de muestreo: Aleatorio y Estratificado, finalmente, se comparan los valores de representatividad. Si la divisi贸n de datos es adecuada, las dos estrategias de muestreo deben presentar 铆ndices de representatividad similares. El modelo se implement贸 en un software prototipo usando tecnolog铆as Python (para procesamiento de datos) y Vue (para visualizaci贸n de datos); esta versi贸n solo permite analizar conjuntos de datos binarios (por ahora). Para probar el modelo, se ajust贸 el conjunto de datos "Wines" (UC Irvine Machine Learning Repository). La conclusi贸n es que ambas estrategias de muestreo generan resultados de representatividad similares para este conjunto de datos. Aunque este resultado es predecible, est谩 claro que la representatividad adecuada de los datos es importante al generar subconjuntos de conjuntos de datos de prueba y entrenamiento, por lo tanto, como trabajo futuro, planeamos extender el modelo a datos categ贸ricos y explorar conjuntos de datos m谩s complejos

    Documenting and implementing DevOps good practices with test automation and continuous deployment tools through software refinement

    Get PDF
    The accelerated pace of life of companies in Colombia and the world, entails the need to obtain software developments with the highest quality, in the shortest possible time and with minimal reprocessing after it is put into production. Therefore, the use of good software development practices and their automation through tools is no longer a luxury for development teams today, but part of their way of working. Unfortunately, in Colombia many of these helps and forms of work are not widely used. This paper presents the documentation and implementation of preventive quality tools and good practices for software development that allow code versioning, continuous integration, automation of functional tests, static code analysis and continuous deployment. Objective: Present the good practices implemented in the Smart Campus Ecosystem case study for software development. Methodology or method: Good practices for software development based on XP and DevOps are reviewed. A set of tools is selected for implementation that has a direct impact on the quality of software development. These tools are used in the UNIAJC Smart campus ecosystem case study. The results of the implementation are documented in this article. Results: The preventive quality model is exposed, put on test and the results are documented. Conclusions: The preventive quality model helps to increase the results of quality assurance through the set of tools that provide development teams with key information for refinement and refactoring of source code within development runtime and no later than this stage

    Modelo de un meta-buscador web sem谩ntico basado en una taxonom铆a general de conocimiento, una ontolog铆a de dominio general, ontolog铆as espec铆ficas y perfil de usuario

    Get PDF
    La b煤squeda web en los 煤ltimos a帽os se ha convertido en una de las 谩reas de investigaci贸n m谩s importantes delmundo, debido entre otras cosas: al crecimiento acelerado de las fuentes de informaci贸n, a la necesidad de contar coninformaci贸n m谩s relevante a los requerimientos espec铆ficos de cada usuario, a la exploraci贸n de menores tiempos deb煤squeda y a la falta de usar la sem谩ntica de los t茅rminos implicados en las consultas. En este art铆culo se presentael modelo de un meta-buscador (usa los recursos indexados por Google, Yahoo! y Bing) web sem谩ntico llamadoXGhobi, que incorpora una taxonom铆a general de conocimiento, una ontolog铆a de dominio general (WordNet), unconjunto de ontolog铆as de dominio espec铆fico y el perfil de los usuarios para mejorar la relevancia de los documentosrecuperados tanto en ingl茅s como en espa帽ol. Se describe en detalle los componentes del meta-buscador, algunasinterfaces de usuario y los resultados de su evaluaci贸n. La evaluaci贸n del sistema muestra la precisi贸n obtenida enpruebas realizadas con usuarios.Web search has become one of the most important fields of research around the world. They are many reasonsincluding: the fast-growing nature of information sources; the search necessity for information closer to specificuser requirements; the need to reduce search time; and the desire to take into account the semantics of terms usedwhen doing search queries. This paper shows a semantic meta-web search model called XGhobi which uses indexedresources by Google, Yahoo! and Bing. The XGhobi engine combines a general taxonomy of knowledge, a generaldomain ontology 鈥揥ordNet-, a set of specific domain ontologies, and user profile management to improve therelevance of recovered documents in both English and Spanish. A detailed description of the meta-web searchengine鈥檚 components, some user interfaces and its results and its assessments are shown. The assessment covers theobtained precision on tests done by users

    Model of a semantic web meta-browser based on a general knowledge taxonomy, a general domain ontology, specific ontologies and user profile

    Get PDF
    Web search has become one of the most important fields of research around the world. They are many reasonsincluding: the fast-growing nature of information sources; the search necessity for information closer to specificuser requirements; the need to reduce search time; and the desire to take into account the semantics of terms usedwhen doing search queries. This paper shows a semantic meta-web search model called XGhobi which uses indexedresources by Google, Yahoo! and Bing. The XGhobi engine combines a general taxonomy of knowledge, a generaldomain ontology 鈥揥ordNet-, a set of specific domain ontologies, and user profile management to improve therelevance of recovered documents in both English and Spanish. A detailed description of the meta-web searchengine鈥檚 components, some user interfaces and its results and its assessments are shown. The assessment covers theobtained precision on tests done by users.La b煤squeda web en los 煤ltimos a帽os se ha convertido en una de las 谩reas de investigaci贸n m谩s importantes delmundo, debido entre otras cosas: al crecimiento acelerado de las fuentes de informaci贸n, a la necesidad de contar coninformaci贸n m谩s relevante a los requerimientos espec铆ficos de cada usuario, a la exploraci贸n de menores tiempos deb煤squeda y a la falta de usar la sem谩ntica de los t茅rminos implicados en las consultas. En este art铆culo se presentael modelo de un meta-buscador (usa los recursos indexados por Google, Yahoo! y Bing) web sem谩ntico llamadoXGhobi, que incorpora una taxonom铆a general de conocimiento, una ontolog铆a de dominio general (WordNet), unconjunto de ontolog铆as de dominio espec铆fico y el perfil de los usuarios para mejorar la relevancia de los documentosrecuperados tanto en ingl茅s como en espa帽ol. Se describe en detalle los componentes del meta-buscador, algunasinterfaces de usuario y los resultados de su evaluaci贸n. La evaluaci贸n del sistema muestra la precisi贸n obtenida enpruebas realizadas con usuarios

    Sirba 1.0 information system for ballistic recognition based on the vulger calls found in scenes of crimes

    Get PDF
      The bullet casings found at crime scenes, are key to start investigations to clarify the facts. A weapon fring a projectile, leaving a set of marks on the cartridges, many of them in his shorts. In this paper we present an algorithm based on a 2D image taken from a bullet casings shorts, use processing techniques and image analysis to obtain some of these characteristic marks left by the weapon, then, based on a database that records the bullet casings found previously in other crime scenes and the K-nn algorithm used to relate the bullet casings with previously registered weapons or with other cartridges found in other scenes. To determine the importance of each characteristic marks, we design a genetic algorithm to further defne the optimal number of neighbors. An experiment was conducted with 15 weapons fred 10 or 30 times each obtained promising results. Las vainillas encontradas en las escenas de cr铆menes, son pieza clave para iniciar las investigaciones que esclarecen los hechos. Un arma al disparar un proyectil, deja un conjunto de marcas impresas en las vainillas, muchas de ellas en su culote. En 茅ste art铆culo se presenta un algoritmo que partiendo de una imagen 2D, tomada del culote de una vainilla, utiliza t茅cnicas de procesamiento y an谩lisis de im谩genes para obtener algunas de dichas marcas caracter铆sticas que deja el arma, luego, basado en una base de datos que registra las vainillas encontradas previamente en otras escenas de cr铆menes y el algoritmo K-nn permite relacionar la vainilla con armas previamente registradas o con otras vainillas encontradas en otras escenas. Para determinar la importancia de cada caracter铆stica, se dise帽o un algoritmo gen茅tico que adem谩s defne el n煤mero de vecinos 贸ptimo. Se realiz贸 un experimento con 15 armas disparadas 10 o 30 veces cada una, obteniendo resultados promisorios.  &nbsp

    Web search model based on user context information and collaborative filtering techniques

    Get PDF
    A pesar del continuo desarrollo que han tenido los buscadores Web modernos, estos a煤n no satisfacen a cabalidad las necesidades de los usuarios, siendo la relevancia de los documentos recuperados uno de los principales aspectos que afectan la calidad de b煤squeda. En este art铆culo se propone un modelo de meta buscador Web que integra el filtrado colaborativo (basado en 铆tems) con la propuesta de Massimo Melucci, que se basa en proyectores sobre planos que se originan en la informaci贸n del contexto del usuario. El modelo fue implementado en un meta buscador Web que recupera documentos de buscadores tradicionales como Google y Bing, donde se muestran los resultados por medio de una lista de documentos ordenados por relevancia, basado en la informaci贸n del contexto del usuario y en la retroalimentaci贸n colaborativa de la comunidad. El modelo propuesto se constituye en un aporte para el 谩rea de recuperaci贸n de informaci贸n, dado que muestra promisorios resultados en pruebas realizadas sobre colecciones cerradas y con usuarios.Despite the continuous development modern Web browsers have had, they have not fulfilled user needs, and the retrieved documents relevance is one of the main issues affecting the search quality. The proposed web search meta model engine integrates Web search collaborative filtering (based on items) to Massimo Melucci鈥檚 proposal that is based on projectors on plans that came in the user context information. The obtained model was implemented in a meta search site that retrieves documents from traditional search engines like Google and Bing. It presents the results to the user through a list of documents sorted by relevance based on information from the user鈥檚 context and the collaborative community feedback. The proposed model constitutes a contribution to the field of information retrieval, since it shows promising results in both closed collections and open collections tests

    Computer supported cooperative learning based on the jigsaw method

    Get PDF
    Actualmente, la educaci贸n en l铆nea ha ganado mucha importancia como apoyo a la educaci贸n tradicional (aprendizaje mixto) y a distancia. Las t茅cnicas que m谩s se usan en estos ambientes se basan en el aprendizaje aut贸nomo (individualista), competitivo, y en algunos casos, en aprendizaje colaborativo (usando salas de discusi贸n, foros, intercambio de archivos, entre otros). Por otra parte, se ha comprobado que el desempe帽o acad茅mico y el desarrollo de las habilidades sociales de los individuos que aprenden en situaciones cooperativas son mejores que cuando lo hacen en situaciones individualistas y competitivas. Es por esta raz贸n que resulta importante desarrollar servicios computacionales basados en m茅todos "reales" de aprendizaje cooperativo (cuyos buenos resultados en la educaci贸n tradicional ya han sido comprobados), para, posteriormente, realizar experimentos que validen el uso de esos servicios, observando como los estudiantes adquieren los conocimientos y desarrollan sus habilidades acad茅mico-sociales. Esta investigaci贸n seleccion贸 el m茅todo Jigsaw para realizar dicha validaci贸n, presentando las fases que ayudan al desarrollo de una actividad cooperativa basada en este m茅todo, un ambiente computacional que soporta estas actividades y los resultados de tres experimentos.At the present time, on-line education has gained a lot of importance like support to the traditional education (blended learning) and the education at a distance. The techniques more used in these environments are based on autonomous learning (individualist), competitive, and in some cases, in collaborative learning (using chats, forums, files interchange, among other). On the other hand, it has been proved that the academic acting and the development of the social abilities of the individuals that they learn in cooperative situations are better than when they are made in individualistic and competitive situations. It's for this reason that it is important to develop computer services based on real methods of cooperative learning (whose best results in the traditional education have already been proven), later, it's necessary to make experiments that validate the use of those services, observing how the students acquire the knowledge and develop their academic-social abilities. This investigation selected the Jigsaw method to carry out this validation, showing the phases that help to the development of a cooperative activity based on this method, a computer environment that supports these activities and the results of three experiments

    Web search model based on user context information and collaborative filtering techniques

    Get PDF
    A pesar del continuo desarrollo que han tenido los buscadores Web modernos, estos a煤n no satisfacen a cabalidad las necesidades de los usuarios, siendo la relevancia de los documentos recuperados uno de los principales aspectos que afectan la calidad de b煤squeda. En este art铆culo se propone un modelo de meta buscador Web que integra el filtrado colaborativo (basado en 铆tems) con la propuesta de Massimo Melucci, que se basa en proyectores sobre planos que se originan en la informaci贸n del contexto del usuario. El modelo fue implementado en un meta buscador Web que recupera documentos de buscadores tradicionales como Google y Bing, donde se muestran los resultados por medio de una lista de documentos ordenados por relevancia, basado en la informaci贸n del contexto del usuario y en la retroalimentaci贸n colaborativa de la comunidad. El modelo propuesto se constituye en un aporte para el 谩rea de recuperaci贸n de informaci贸n, dado que muestra promisorios resultados en pruebas realizadas sobre colecciones cerradas y con usuarios.Despite the continuous development modern Web browsers have had, they have not fulfilled user needs, and the retrieved documents relevance is one of the main issues affecting the search quality. The proposed web search meta model engine integrates Web search collaborative filtering (based on items) to Massimo Melucci鈥檚 proposal that is based on projectors on plans that came in the user context information. The obtained model was implemented in a meta search site that retrieves documents from traditional search engines like Google and Bing. It presents the results to the user through a list of documents sorted by relevance based on information from the user鈥檚 context and the collaborative community feedback. The proposed model constitutes a contribution to the field of information retrieval, since it shows promising results in both closed collections and open collections tests

    Collaborative exercise and structured programming

    Get PDF
    Los conceptos y las habilidades relacionadas con las construcciones fundamentales de programaci贸n (variables, tipos, expresiones, asignaci贸n, entrada y salida simple y estructuras de control condicional y de iteraci贸n) son un componente clave en la formaci贸n de los futuros ingenieros de sistemas. Teniendo en cuenta que en muchas universidades colombianas, los resultados obtenidos en las asignaturas que manejan estos conceptos no son los adecuados, se estableci贸 un proceso de aprendizaje basado en la ejercitaci贸n, con el fin de aumentar el nivel acad茅mico de los estudiantes, disminuir la deserci贸n, fomentar la colaboraci贸n y afianzar mejor los conocimientos y las habilidades mencionadas. Este art铆culo presenta un m茅todo de ejercitaci贸n colaborativo que permite construir un algoritmo en grupos de dos a cuatro estudiantes; adem谩s describe una herramienta computacional que soporta el m茅todo, facilitando la interacci贸n, planeaci贸n, ejecuci贸n, monitoreo y an谩lisis de los resultados en cada una de las actividades de ejercitaci贸n. Finalmente, se describe una experimentaci贸n con resultados favorables. Para la definici贸n del m茅todo se analizaron las caracter铆sticas m谩s importantes de los m茅todos de aprendizaje colaborativo que permiten solucionar problemas en distintas disciplinas (libres de contenido), algunos m茅todos no libres de contenido y el  cumplimiento de los cinco elementos b谩sicos del definidos por Johnson & Johnson, entre otros.The concepts and the abilities related with the programming bases (variables, types, expressions, assignment, input/output, conditional control structures among others) are key components in the formation process of the future systems engineers (similar to Similar to BsCS but with an Engineer degrees) . Taking into account that in many colombian universities the obtained results in subjects that deal with these concepts are not adequate, a process of learning based on practice has been established in order to increase the students academic level, decreasing desertion, fostering collaboration and promoting the knowledge and the abilities previously mentioned. This paper presents a collaborative practical method that allows to build an algorithm in groups conformed by two to four students; a computational tool is also described that supports the method, in order to make an appropriated interaction among group members. Finally, experimentation is described with favorable results. In order to define the collaborative activity, there were analyzed the most important characteristics of the traditional collaborative learning methods that allow to solve problems in different disciplines (free of content), some methods not free of content and the execution of the five basic elements of the collaborative learning defined by Johnson & Johnson, among other elements

    Modelo para definir 铆ndices de corrupci贸n en convocatorias de contrataci贸n en Colombia basado en Big Data y procesamiento del lenguaje natural

    Get PDF
    El presente trabajo de investigaci贸n propone un modelo macro que permite detectar diferentes probables delitos o anomal铆as relacionados con corrupci贸n en los procesos de contrataci贸n p煤blica en Colombia. Para ello, el modelo propuesto consta de cinco componentes principales: 1) servicios especializados que buscan identificar situaciones espec铆ficas de probable corrupci贸n (se propusieron tres servicios: detecci贸n de similitud entre documentos, detecci贸n de manipulaci贸n de ofertas y detecci贸n de carteles); 2) servicios transversales que sustentan la transformaci贸n del modelo en una herramienta de software; 3) servicios adicionales que abordan situaciones generales de probable corrupci贸n, en espec铆fico el servicio de alerta ciudadana; 4) relaciones expl铆citas entre servicios; y 5) salida global del modelo. En la experimentaci贸n pr谩ctica, dos de los servicios planteados en esta investigaci贸n fueron puestos a prueba en diversos escenarios. Con los resultados arrojados por algunas de las m茅tricas cl谩sicas del 谩rea, se determin贸 la calidad de la predicci贸n obtenida por los servicios
    corecore