258 research outputs found

    An intelligent alternative approach to the efficient network management

    Get PDF
    Due to the increasing complexity and heterogeneity of networks and services, many efforts have been made to develop intelligent techniques for management. Network intelligent management is a key technology for operating large heterogeneous data transmission networks. This paper presents a proposal for an architecture that integrates management object specifications and the knowledge of expert systems. We present a new approach named Integrated Expert Management, for learning objects based on expert management rules and describe the design and implementation of an integrated intelligent management platform based on OSI and Internet management models. The main contributions of our approach is the integration of both expert system and managed models, so we can make use of them to construct more flexible intelligent management network. The prototype SONAP (Software for Network Assistant and Performance) is accuracy-aware since it can control and manage a network. We have tested our system on real data to the fault diagnostic in a telecommunication system of a power utility. The results validate the model and show a significant improvement with respect to the number of rules and the error rate in others systems

    Integración de inteligencia en la MIB del Modelo OSI para la gestión de redes de telecomunicaciones

    Get PDF
    La Gestión de red se define como el conjunto de actividades dedicadas al control y vigilancia de los recursos existentes en las redes de telecomunicaciones. En los complejos sistemas actuales, es necesario realizar una gestión de la red asistida por un software avanzado. La Inteligencia Artificial se incorpora a la gestión de las redes, con el fin de facilitar labores de administración y control de toda la información que proviene de los recursos gestionados, dando origen a la Gestión Inteligente de las Redes. Este nuevo paradigma, proporciona a los sistemas de gestión de un mayor grado de cohesión con las tecnologías de comunicaciones actuales, a la vez de disponer de todas las posibilidades y ventajas aportadas por la Inteligencia Artificial. Nuestro estudio tiene como objetivo perfeccionar las técnicas actuales de gestión. Para ello se establecen mecanismos que permiten una mayor correlación entre las especificaciones de la red y las aplicaciones que efectúan el tratamiento de la información de gestión. Presentamos una nueva concepción denominada “Gestión Inteligente Integrada” y una extensión del modelo de gestión OSI, que contempla la inclusión del conocimiento de gestión, en las propias especificaciones de los objetos gestionados. Este modelo consigue reunir conceptos que actualmente pertenecen a distintos ámbitos de estudio, la Inteligencia Artificial y la Información de Gestión del sistema. De esta forma se obtiene una solución global, que permite a los administradores de redes utilizar la potencia aportada por la Inteligencia Artificial, en particular de los Sistemas Expertos, de una forma sencilla y transparente

    Evolución geomorfológica del área de Laguna Las Vueltas (Tierra del Fuego, Argentina) durante el Pleistoceno tardío y Holoceno

    Get PDF
    El área de Laguna Las Vueltas (LLV) conserva la morfología de una cuenca hídrica del Pleistoceno tardío que fue inundada durante la transgresión marina del Holoceno medio. Los sedimentos asociados con un paleosuelo datado en 22.582 cal yr AP reflejan la exposición subaérea del área con anterioridad a la transgresión marina. Esta transgresión provocó hacia 7.477 cal yr AP una extensa planicie de marea en la zona baja de la cuenca de la LLV. La subsecuente desvinculación del valle de la LLV con el mar ocurrió a partir del desarrollo de una barrera litoral y una planicie de cordones de playa hacia el este. Este desacople convirtió a la albufera en una laguna somera (pan), donde las subsiguientes fluctuaciones de nivel del agua estuvieron controladas por el clima. Una duna de tipo “lunette” se desarrolló en el área de la antigua albufera, dando lugar a un corredor angosto donde los grupos humanos atraparon, mataron y procesaron guanacos desde al menos 3.402 años cal yr AP. Los cambios en la tasa de sedimentación eólica sugieren un incremento de la aridez en los últimos 500 años.Laguna Las Vueltas (LLV) area retains the morphology of a late Pleistocene watershed that was flooded during a mid-Holocene marine transgression. Sediments associated with a paleosol dated at 22,582 cal yr BP reflect subaerial exposure of the area prior to the submergence during the marine transgression. This transgression produced an extensive tidal flat near the mouth of the former LLV watershed by 7,477 cal yr BP. Subsequent decoupling of the Las Vueltas valley from the sea occurred through the growth of a baymouth barrier and a beach-ridge plain to the east. This decoupling turned the lagoon into a pan environment in which subsequent lake-level fluctuations were controlled by climate. A lunette dune developed at the pans in the former lagoon, providing a narrow corridor where humans trapped, killed and processed guanacos as early as 3,402 cal yr BP. Changes in aeolian sedimentation hint at increased aridity during the past 500 years.Fil: Montes, Alejandro. Consejo Nacional de Investigaciones Científicas y Técnicas. Centro Austral de Investigaciones Científicas; Argentina. Universidad Nacional de Tierra del Fuego; Argentina. Universidad Nacional de la Patagonia "San Juan Bosco"; ArgentinaFil: Santiago, Fernando Carlos. Consejo Nacional de Investigaciones Científicas y Técnicas. Centro Austral de Investigaciones Científicas; ArgentinaFil: Salemme, Monica Cira. Consejo Nacional de Investigaciones Científicas y Técnicas. Centro Austral de Investigaciones Científicas; Argentina. Universidad Nacional de Tierra del Fuego; ArgentinaFil: López, Ramiro. Consejo Nacional de Investigaciones Científicas y Técnicas. Centro Austral de Investigaciones Científicas; Argentin

    Propuesta de alternativas motivacionales para el área de talento humano en las empresas privadas de la ciudad de Medellín

    Get PDF
    En el ámbito empresarial actual encontramos factores motivacionales que afectan directamente la productividad y eficiencia de los empleados para lograr el objetivo de sus cargos. Existen elementos motivadores con el mismo peso o más importantes que la retribución económica y que llevan a una mayor implicación del trabajador en el desarrollo de sus tareas, aún en el contexto económico en el que la estabilidad en el trabajo y la retribución económica tienen un peso muy importante. Con la realización de este estudio sobre algunas de las variables de la motivación laboral que lleva a los trabajadores a realizar su trabajo motivados, se pretende exponer con datos obtenidos a través de grandes teorías que parten desde las ramas de la sicología, sociología y fisiología de grandes exponentes como lo son Maslow con su teoría de las Jerarquías de necesidades, pasando por Herzberg con la teoría bifactorial hasta llegar al estímulo por competencias y recompensas de Chiavenato, unido a experiencias empresariales exitosas que han surgido luego de implementar herramientas motivacionales acompañadas en algunos casos de Coaching, Mentoring y sistemas de recompensa y de desempeño que les ha permitido a estas empresas estar a la vanguardia de lo que requiere el nuevo entorno empresarial, en el cual los negocios son más exigentes y cambiantes y por ello se debe contar con un capital humano con mayores competencias, habilidades y destrezas, que permitan tener una estabilidad importante para todos sus procesos estratégicos, y niveles determinantes de retención, y gran satisfacción laboral para todos sus integrantes. Todo lo anterior, no sólo considerando como hasta ahora la retribución económica como elemento único motivador para que se llegue a la consecución de los objetivos de la empresa por los trabajadores. Hoy en día entonces, las organizaciones han presentado un cambio progresivo a partir del cual se toman en cuenta las acciones e ideas de los empleados que contribuyan a mejorar el trabajo y por ende aumentar la productividad.In the current business environment we find motivational factors that directly affect the productivity and efficiency of the employees to achieve the goal of their positions. There are motivating elements with the same weight or more important than the economic compensation and that lead to greater worker involvement in the development of their tasks, even in the economic context in which stability in the work and the economic compensation have a very important weight. With the accomplishment of this study about some variables of work motivation that leads workers to perform their work motivated, intends to expose with information obtained through big theories that depart from the branches of psychology, sociology and physiology of exponents such as Maslow with his theory of hierarchy of needs, Herzberg theory bifactorial until you reach the stimulus for competitions and rewards of Chiavenato, coupled with successful business experiences that have emerged after implementing motivational tools, accompanied in some cases Coaching, Mentoring and systems of reward and performance which has enabled these companies to be at the forefront of the emerging business environment which requiresing which businesses are more demanding and changing and therefore must be with a human capital with greater powers, skills, and abilities, which allow to have an important stability for all their strategic processes, and determining levels of retention, and great job satisfaction for all its members. All of the above, not only whereas so far the economic compensation as the only motivating element so that it arrives to the achievement of the objectives of the company by the workers Today, organizations have presented a progressive change from which Gehryactions are taken into account and ideas of employees that contribute to improving the work and thus increase productivity

    Real-time 3D PET image with pseudoinverse reconstruction

    Get PDF
    Real-time positron emission tomography (PET) may provide information from first-shot images, enable PET-guided biopsies, and allow awake animal studies. Fully-3D iterative reconstructions yield the best images in PET, but they are too slow for real-time imaging. Analytical methods such as Fourier back projection (FBP) are very fast, but yield images of poor quality with artifacts due to noise or data incompleteness. In this work, an image reconstruction based on the pseudoinverse of the system response matrix (SRM) is presented. w. To implement the pseudoinverse method, the reconstruction problem is separated into two stages. First, the axial part of the SRM is pseudo-inverted (PINV) to rebin the 3D data into 2D datasets. Then, the resulting 2D slices can be reconstructed with analytical methods or by applying the pseudoinverse algorithm again. The proposed two-step PINV reconstruction yielded good-quality images at a rate of several frames per second, compatible with real time applications. Furthermore, extremely fast direct PINV reconstruction of projections of the 3D image collapsed along specific directions can be implemented.Part of the calculations in this work were performed in the “Clúster de Cálculo para Técnicas Físicas” funded in part by UCM and in part by UE Regional Funds. We acknowledge the support from the Spanish Government (FPA2015-65035-P, RTC-2015-3772-2, and RTI2018-095800-A-I00), Comunidad de Madrid (S2013/MIT-3024 TOPUS-CM, B2017/BMD-3888 PRONTO-CM), and European Regional Funds. This work was also supported by the EU’s H2020 under MediNet, a Networking Activity of ENSAR-2 (grant agreement 654002), and by a NIH R01 CA215700-2 grant. The CNIC is supported by the Ministerio de Ciencia, Innovación y Universidades and the Pro CNIC Foundation, and is a Severo Ochoa Center of Excellence (SEV-2015-0505)

    Measuring data‑centre workfows complexity through process mining: the Google cluster case

    Get PDF
    Data centres have become the backbone of large Cloud services and applica-tions, providing virtually unlimited elastic and scalable computational and storage resources. The search for the efficiency and optimisation of resources is one of the current key aspects for large Cloud Service Providers and is becoming more and more challenging, since new computing paradigms such as Internet of Things, Cyber-Physical Systems and Edge Computing are spreading. One of the key aspects to achieve efficiency in data centres consists of the discovery and proper analysis of the data-centre behaviour. In this paper, we present a model to automatically retrieve execution workflows of existing data-centre logs by employing process mining tech-niques. The discovered processes are characterised and analysed according to the understandability and complexity in terms of execution efficiency of data-centre jobs. We finally validate and demonstrate the usability of the proposal by applying the model in a real scenario, that is, the Google Cluster tracesMinisterio de Ciencia y Tecnología RTI2018–094283-B-C33Ministerio de Ciencia y Tecnología RTI2018-098062-A-I00Universidad de Sevilla 2018/0000052

    Big Data: Un nuevo problema computacional

    Get PDF
    El aumento de la capacidad de procesamiento en los computadores permite llevar a cabo tareas que hasta ahora no eran viables: simulación de procesos naturales, almacenamiento de datos geográficos, económicos, multimedia, inteligencia social, etc. Como contrapartida, el volumen de datos que se genera en este tipo de aplicaciones puede llegar a provocar que el coste computacional para su trata miento y análisis, con las herramientas actuales, sea tan alto que vuelva a convertirse en un prob lema inabordable. Este problema es conocido por el término ‘Big Data’. Según afirma IBM en un estudio reciente: “Se pro ducen más de 2,5 quintillones de bytes al día, hasta el punto de que el 90% de los datos del mundo han sido creados durante los 2 últimos años”. De seguir con este ritmo de crecimiento en breve se generará más volumen de datos del que se puede analizar, disminuyendo su utilidad al tiempo que el coste y el riesgo de pérdida de información aumenta. El problema se acrecienta todavía más en aplica ciones con tratamiento de información en tiempo real, donde el valor de los datos reside en la actual idad de los mismos. En este tipo de aplicaciones una gestión y tratamiento eficientes de los datos es de vital importancia. Las dificultades más habituales en el tratamiento radican en la captura, análisis, almacenamiento, búsqueda, compartición, y visualización. Las téc nicas existentes en la actualidad para abordar este problema no son efectivas, por lo que el problema ‘Big Data’ sigue abierto. Este problema tiene una gran repercusión en diver sos ámbitos: redes sociales, aplicaciones de video, dispositivos móviles, webs, laboratorios astrofísi cos, simulación científica, captura de datos de clientes (compañías eléctricas, telefónicas, etc). or tanto, los beneficios potenciales de un trata miento y gestión eficientes de grandes volúmenes de datos, y su gran aplicabilidad sobre múltiples campos, hace que sea un tema muy atractivo, en el que actualmente trabajan numerosas empresas y grupos de investigación. Desde el punto de vista de la investigación es un problema relativamente reciente, por lo que el de sarrollo de soluciones y la bibliografía son todavía escasos en comparación con otros campos. En este artículo se abordarán las técnicas utilizadas ac tualmente y las principales líneas que se siguen pa ra desarrollar soluciones futuras

    Spanish Lymphoma Group (GELTAMO) guidelines for the diagnosis, staging, treatment, and follow-up of diffuse large B-cell lymphoma

    Get PDF
    Diffuse large B-cell lymphoma (DLBCL) accounts for approximately 30% of non-Hodgkin lymphoma (NHL) cases in adult series. DLBCL is characterized by marked clinical and biological heterogeneity, encompassing up to 16 distinct clinicopathological entities. While current treatments are effective in 60% to 70% of patients, those who are resistant to treatment continue to die from this disease. An expert panel performed a systematic review of all data on the diagnosis, prognosis, and treatment of DLBCL published in PubMed, EMBASE and MEDLINE up to December 2017. Recommendations were classified in accordance with the Grading of Recommendations Assessment Development and Evaluation (GRADE) framework, and the proposed recommendations incorporated into practical algorithms. Initial discussions between experts began in March 2016, and a final consensus was reached in November 2017. The final document was reviewed by all authors in February 2018 and by the Scientific Committee of the Spanish Lymphoma Group GELTAMO

    PeneloPET v3.0, an improved multiplatform PET Simulator

    Get PDF
    PeneloPET is a Monte Carlo simulation tool for positron emission tomography based on PENELOPE. It was developed by the Nuclear Physics Group at University Complutense of Madrid and its initial version was released in 2009. In this work, we present PeneloPET v3.0, which is now available precompiled for Microsoft Windows, MacOS and Linux OS. This new release includes improved simulations of the positron range in different materials and an accurate description of the decay cascades for many radioactive nuclei including the most common non-pure positron emitters used in PET. This enables the simulation of PET acquisitions with positron-gamma emitters. This release also includes many different fully-working examples, of both clinical and preclinical scanners, as well as several numerical phantoms. Due to the simplicity of the input the output files, and the installation process, PeneloPET v3.0 can be perfectly used not only for research, but also as an educational tool in class

    Ground-based detection of an extended helium atmosphere in the Saturn-mass exoplanet WASP-69b

    Get PDF
    Hot gas giant exoplanets can lose part of their atmosphere due to strong stellar irradiation, affecting their physical and chemical evolution. Studies of atmospheric escape from exoplanets have mostly relied on space-based observations of the hydrogen Lyman-{\alpha} line in the far ultraviolet which is strongly affected by interstellar absorption. Using ground-based high-resolution spectroscopy we detect excess absorption in the helium triplet at 1083 nm during the transit of the Saturn-mass exoplanet WASP-69b, at a signal-to-noise ratio of 18. We measure line blue shifts of several km/s and post transit absorption, which we interpret as the escape of part of the atmosphere trailing behind the planet in comet-like form. [Additional notes by authors: Furthermore, we provide upper limits for helium signals in the atmospheres of the exoplanets HD 209458b, KELT-9b, and GJ 436b. We investigate the host stars of all planets with detected helium signals and those of the three planets we derive upper limits for. In each case we calculate the X-ray and extreme ultraviolet flux received by these planets. We find that helium is detected in the atmospheres of planets (orbiting the more active stars and) receiving the larger amount of irradiation from their host stars.]Comment: Submitted to Science on 14 March 2018; Accepted by Science on 16 November 2018; Published by Science on 6 December 2018. This is the author's version of the work. It is posted here by permission of the AAAS for personal use. The definitive version was published in Science, on 6 December 2018 - Report: pages 21 (preprint), 4 figures - Supplementary materials: 22 pages, 10 figures, 3 table
    corecore