1,226 research outputs found

    Desarrollo multinivel de la competencia transversal de trabajo en equipo

    Full text link
    [ES] Una de las principales novedades de los estudios de Grado y Postgrado es que el aprendizaje se establece en función de unas competencias que los alumnos deben alcanzar. Estas competencias, aparte de aspectos técnicos, incluyen también elementos genéricos o transversales a todos los estudiantes, independientemente de los estudios cursados. En este artículo exponemos un ejemplo sobre cómo trabajar la competencia transversal de trabajo en equipo de manera más completa que como suele hacerse mediante el clásico trabajo de asignatura. De esta forma, proponemos que los alumnos desarrollen un proyecto común, en el que cada equipo se debe centrar en una parte (o subproyecto) de este proyecto. En el artículo se presentan las diversas coordinaciones horizontales, verticales y en profundidad que surgen con este planteamiento.[EN] One of the main novelties of the Degree and Master’s Degree studies is the fact that the learning process is stablished according to some skills the students must reach. Apart from technical issues, these skills include transverse or generic elements, which are common to all the students, regardless the degree under deployment. In this paper, we present a case about how to develop the teamwork transverse skill in a more complete fashion that the way it uses to be worked with a typical subject assignment. In this manner, we propose the students to develop a global class project, but in which each team must focus on a subproject from this project. In this paper we introduce the horizontal, vertical and deep coordination issues that arises from this approach.Este trabajo ha sido parcialmente financiado por la Escola Tècnica Superior d’Enginyeria Informàtica de la Universitat Politècnica de València y también por el Departament d’Informàtica de Sistemes i Computadors (DISCA) de dicha universidad.Oliver Gil, JS. (2016). Desarrollo multinivel de la competencia transversal de trabajo en equipo. Editorial Universidad de Almería. http://hdl.handle.net/10251/78353

    CAPTURA DE SEÑALES DE AUDIO Y PREPARACIÓN PARA SU COMPRESIÓN

    Full text link
    En este artículo se describe el proceso completo de captura del sonido para poder identificar los elementos clave que posteriormente se emplean a la hora de comprimir una señal de audio. En concreto se definen los parámetros de digitalización fundamentales, como son la frecuencia de muestreo y el número de bits por muestra.Oliver Gil, JS. (2018). CAPTURA DE SEÑALES DE AUDIO Y PREPARACIÓN PARA SU COMPRESIÓN. http://hdl.handle.net/10251/105113DE

    Compresión de audio en calidad voz

    Full text link
    En este artículo se identifican los principales parámetros que definen una señal de audio de calidad voz, para posteriormente pasar a describir las principales técnicas de compresión empleadas con este tipo de señal. Para ello, empezaremos viendo los parámetros que definen típicamente este tipo audio: principalmente la frecuencia de muestreo y el número de bits por muestra empleados en su digitalización. Posteriormente veremos su representación PCM lineal y logarítmica, la codificación PCM diferencial y la DPCM adaptativa. Finalizaremos viendo técnicas específicas para voz llamadas vo-coding.Oliver Gil, JS. (2021). Compresión de audio en calidad voz. http://hdl.handle.net/10251/168361DE

    INTRODUCCIÓN A LA COMPRESIÓN DE INFORMACIÓN MULTIMEDIA

    Full text link
    En este artículo se muestra la conveniencia de usar técnicas de compresión para transmitir o almacenar información multimedia, y después se describen los sistemas de compresión y se clasifican en base a varias taxonomías. Dentro de estas clasificaciones, se describen los codificadores basados en la fuente y aquellos basados en la entropía, concepto que se define y del que se ve un ejemplo.Oliver Gil, JS. (2018). INTRODUCCIÓN A LA COMPRESIÓN DE INFORMACIÓN MULTIMEDIA. http://hdl.handle.net/10251/106347DE

    La norma de codificación logarítmica G.711

    Full text link
    En este artículo se describe la norma ITU G.711 para la codificación logarítmica de audio. Además, explicaremos el proceso de cálculo, y también lo aplicaremos en un ejemplo. Por tanto, comenzaremos repasando la diferencia entre codificación de audio lineal y logarítmica, para pasar a ver las características de la norma G.711, su algoritmo de cálculo y un ejemplo de uso.Oliver Gil, JS. (2021). La norma de codificación logarítmica G.711. Universitat Politècnica de València. http://hdl.handle.net/10251/168222DE

    EL ESTÁNDAR DE COMPRESIÓN DE IMAGEN JPEG

    Full text link
    En este artículo se describe el estándar de compresión JPEG, detallando el algoritmo que implementa el modo de funcionamiento secuencial, al ser este el más utilizado. En concreto veremos qué características tiene el estándar JPEG y qué modos de funcionamiento dispone. Posteriormente nos centraremos en el modo secuencial y describiremos cada uno de los pasos que lo forman.Oliver Gil, JS. (2018). EL ESTÁNDAR DE COMPRESIÓN DE IMAGEN JPEG. http://hdl.handle.net/10251/105096DE

    On the design of fast and efficient wavelet image coders with reduced memory usage

    Full text link
    Image compression is of great importance in multimedia systems and applications because it drastically reduces bandwidth requirements for transmission and memory requirements for storage. Although earlier standards for image compression were based on the Discrete Cosine Transform (DCT), a recently developed mathematical technique, called Discrete Wavelet Transform (DWT), has been found to be more efficient for image coding. Despite improvements in compression efficiency, wavelet image coders significantly increase memory usage and complexity when compared with DCT-based coders. A major reason for the high memory requirements is that the usual algorithm to compute the wavelet transform requires the entire image to be in memory. Although some proposals reduce the memory usage, they present problems that hinder their implementation. In addition, some wavelet image coders, like SPIHT (which has become a benchmark for wavelet coding), always need to hold the entire image in memory. Regarding the complexity of the coders, SPIHT can be considered quite complex because it performs bit-plane coding with multiple image scans. The wavelet-based JPEG 2000 standard is still more complex because it improves coding efficiency through time-consuming methods, such as an iterative optimization algorithm based on the Lagrange multiplier method, and high-order context modeling. In this thesis, we aim to reduce memory usage and complexity in wavelet-based image coding, while preserving compression efficiency. To this end, a run-length encoder and a tree-based wavelet encoder are proposed. In addition, a new algorithm to efficiently compute the wavelet transform is presented. This algorithm achieves low memory consumption using line-by-line processing, and it employs recursion to automatically place the order in which the wavelet transform is computed, solving some synchronization problems that have not been tackled by previous proposals. The proposed encodeOliver Gil, JS. (2006). On the design of fast and efficient wavelet image coders with reduced memory usage [Tesis doctoral no publicada]. Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/1826Palanci

    CAPTURA DE IMÁGENES DIGITALES Y PREPARACIÓN PARA SU COMPRESIÓN

    Full text link
    En este artículo se describe la formación de una imagen desde el punto de vista físico, y cómo se captura y digitaliza, dando lugar a un espacio de color RGB, que será recodificado en YCbCr con un submuestreo 4:2:0. Así lograremos una representación que requiera la mitad de memoria para su almacenamiento, sin apenas distorsión perceptible.Oliver Gil, JS. (2018). CAPTURA DE IMÁGENES DIGITALES Y PREPARACIÓN PARA SU COMPRESIÓN. http://hdl.handle.net/10251/10510

    On the Performance of video quality assessment metrics under different compression and packet llss scenariov

    Get PDF
    [EN] When comparing the performance of video coding approaches, evaluating different commercial video encoders, or measuring the perceived video quality in a wireless environment, Rate/distortion analysis is commonly used, where distortion is usually measured in terms of PSNR values. However, PSNR does not always capture the distortion perceived by a human being. As a consequence, significant efforts have focused on defining an objective video quality metric that is able to assess quality in the same way as a human does. We perform a study of some available objective quality assessment metrics in order to evaluate their behavior in two different scenarios. First, we deal with video sequences compressed by different encoders at different bitrates in order to properly measure the video quality degradation associated with the encoding system. In addition, we evaluate the behavior of the quality metrics when measuring video distortions produced by packet losses in mobile ad hoc network scenarios with variable degrees of network congestion and node mobility. Our purpose is to determine if the analyzed metrics can replace the PSNR while comparing, designing, and evaluating video codec proposals, and, in particular, under video delivery scenarios characterized by bursty and frequent packet losses, such as wireless multihop environments.This research was supported by the Spanish Ministry of Education and Science under Grant no. TIN2011-27543-C0303.S.Martinez-Rach, MO.; Pinol, P.; Lopez, OM.; Perez Malumbres, M.; Oliver Gil, JS.; Tavares De Araujo Cesariny Calafate, CM. (2014). On the Performance of video quality assessment metrics under different compression and packet llss scenariov. Scientific World Journal. 2014:1-18. doi:10.1155/2014/743604S118201

    Juxtaposing BTE and ATE – on the role of the European insurance industry in funding civil litigation

    Get PDF
    One of the ways in which legal services are financed, and indeed shaped, is through private insurance arrangement. Two contrasting types of legal expenses insurance contracts (LEI) seem to dominate in Europe: before the event (BTE) and after the event (ATE) legal expenses insurance. Notwithstanding institutional differences between different legal systems, BTE and ATE insurance arrangements may be instrumental if government policy is geared towards strengthening a market-oriented system of financing access to justice for individuals and business. At the same time, emphasizing the role of a private industry as a keeper of the gates to justice raises issues of accountability and transparency, not readily reconcilable with demands of competition. Moreover, multiple actors (clients, lawyers, courts, insurers) are involved, causing behavioural dynamics which are not easily predicted or influenced. Against this background, this paper looks into BTE and ATE arrangements by analysing the particularities of BTE and ATE arrangements currently available in some European jurisdictions and by painting a picture of their respective markets and legal contexts. This allows for some reflection on the performance of BTE and ATE providers as both financiers and keepers. Two issues emerge from the analysis that are worthy of some further reflection. Firstly, there is the problematic long-term sustainability of some ATE products. Secondly, the challenges faced by policymakers that would like to nudge consumers into voluntarily taking out BTE LEI
    corecore