1,032 research outputs found

    A 10-Gb/s two-dimensional eye-opening monitor in 0.13-μm standard CMOS

    Get PDF
    An eye-opening monitor (EOM) architecture that can capture a two-dimensional (2-D) map of the eye diagram of a high-speed data signal has been developed. Two single-quadrant phase rotators and one digital-to-analog converter (DAC) are used to generate rectangular masks with variable sizes and aspect ratios. Each mask is overlapped with the received eye diagram and the number of signal transitions inside the mask is recorded as error. The combination of rectangular masks with the same error creates error contours that overall provide a 2-D map of the eye. The authors have implemented a prototype circuit in 0.13-μm standard CMOS technology that operates up to 12.5 Gb/s at 1.2-V supply. The EOM maps the input eye to a 2-D error diagram with up to 68-dB mask error dynamic range. The left and right halves of the eyes are monitored separately to capture horizontally asymmetric eyes. The chip consumes 330 mW and operates reliably with supply voltages as low as 1 V at 10 Gb/s. The authors also present a detailed analysis that verifies if the measurements are in good agreement with the expected results

    An FPGA-Based MIMO and Space-Time Processing Platform

    Get PDF
    Faced with the need to develop a research unit capable of up to twelve 20MHz bandwidth channels of real-time, space-time,and MIMO processing, the authors developed the STAR (space-time array research) platform. Analysis indicated that the possibledegree of processing complexity required in the platform was beyond that available from contemporary digital signal processors,and thus a novel approach was required toward the provision of baseband signal processing. This paper follows the analysis andthe consequential development of a flexible FPGA-based processing system. It describes the STAR platform and its use throughseveral novel implementations performed with it. Various pitfalls associated with the implementation of MIMO algorithms in realtime are highlighted, and finally, the development requirements for this FPGA-based solution are given to aid comparison withtraditional DSP development

    Implementation of an Underwater Digital Acoustic Telemetry Reciever

    Get PDF
    This thesis presents the design and software implementation of an underwater acoustic modem receiver. Communication links in underwater environments face several undesired effects. These include multipath signal reflections, intersymbol interference, and channel fading. This receiver design uses a combination of time and spatial diversity inputs combined with an adaptive feedback equalizer to counteract those effects. The design is based on three modules. A front-end module demodulates and Doppler-compensates the incoming data. A channel combiner module receives data from one or more front ends for spatial diversity and combines repeated transmissions for time diversity. The data from each input channel is time aligned and stored in a \u27job\u27 structure. The channel combiner also calculates tap sizes and locations for the feedback equalizer. Completed \u27job\u27 structures from the channel combiner are then sent to an equalizer module. The modules are implemented in C language code written and compiled for Analog Devices SHARC digital signal processors. The hardware consists of several processors that are interconnected via link ports. This allows each module to run on a separate processor. It also allows for multiple instances of certain modules to be run simultaneously to provide real-time operation

    Sparse Filter Design Under a Quadratic Constraint: Low-Complexity Algorithms

    Get PDF
    This paper considers three problems in sparse filter design, the first involving a weighted least-squares constraint on the frequency response, the second a constraint on mean squared error in estimation, and the third a constraint on signal-to-noise ratio in detection. The three problems are unified under a single framework based on sparsity maximization under a quadratic performance constraint. Efficient and exact solutions are developed for specific cases in which the matrix in the quadratic constraint is diagonal, block-diagonal, banded, or has low condition number. For the more difficult general case, a low-complexity algorithm based on backward greedy selection is described with emphasis on its efficient implementation. Examples in wireless channel equalization and minimum-variance distortionless-response beamforming show that the backward selection algorithm yields optimally sparse designs in many instances while also highlighting the benefits of sparse design.Texas Instruments Leadership University Consortium Progra

    Design and Implementation of Belief Propagation Symbol Detectors for Wireless Intersymbol Interference Channels

    Get PDF
    In modern wireless communication systems, intersymbol interference (ISI) introduced by frequency selective fading is one of the major impairments to reliable data communication. In ISI channels, the receiver observes the superposition of multiple delayed reflections of the transmitted signal, which will result errors in the decision device. As the data rate increases, the effect of ISI becomes severe. To combat ISI, equalization is usually required for symbol detectors. The optimal maximum-likelihood sequence estimation (MLSE) based on the Viterbi algorithm (VA) may be used to estimate the transmitted sequence in the presence of the ISI. However, the computational complexity of the MLSE increases exponentially with the length of the channel impulse response (CIR). Even in channels which do not exhibit significant time dispersion, the length of the CIR will effectively increase as the sampling rate goes higher. Thus the optimal MLSE is impractical to implement in the majority of practical wireless applications. This dissertation is devoted to exploring practically implementable symbol detectors with near-optimal performance in wireless ISI channels. Particularly, we focus on the design and implementation of an iterative detector based on the belief propagation (BP) algorithm. The advantage of the BP detector is that its complexity is solely dependent on the number of nonzero coefficients in the CIR, instead of the length of the CIR. We also extend the work of BP detector design for various wireless applications. Firstly, we present a partial response BP (PRBP) symbol detector with near-optimal performance for channels which have long spanning durations but sparse multipath structure. We implement the architecture by cascading an adaptive linear equalizer (LE) with a BP detector. The channel is first partially equalized by the LE to a target impulse response (TIR) with only a few nonzero coefficients remaining. The residual ISI is then canceled by a more sophisticated BP detector. With the cascaded LE-BP structure, the symbol detector is capable to achieve a near-optimal error rate performance with acceptable implementation complexity. Moreover, we present a pipeline high-throughput implementation of the detector for channel length 30 with quadrature phase-shift keying (QPSK) modulation. The detector can achieve a maximum throughput of 206 Mb/s with an estimated core area of 3.162 mm^{2} using 90-nm technology node. At a target frequency of 515 MHz, the dynamic power is about 1.096 W. Secondly, we investigate the performance of aforementioned PRBP detector under a more generic 3G channel rather than the sparse channel. Another suboptimal partial response maximum-likelihood (PRML) detector is considered for comparison. Similar to the PRBP detector, the PRML detector also employs a hybrid two-stage scheme, in order to allow a tradeoff between performance and complexity. In simulations, we consider a slow fading environment and use the ITU-R 3G channel models. From the numerical results, it is shown that in frequency-selective fading wireless channels, the PRBP detector provides superior performance over both the traditional minimum mean squared error linear equalizer (MMSE-LE) and the PRML detector. Due to the effect of colored noise, the PRML detector in fading wireless channels is not as effective as it is in magnetic recording applications. Thirdly, we extend our work to accommodate the application of Advanced Television Systems Committee (ATSC) digital television (DTV) systems. In order to reduce error propagation caused by the traditional decision feedback equalizer (DFE) in DTV receiver, we present an adaptive decision feedback sparsening filter BP (DFSF-BP) detector, which is another form of PRBP detector. Different from the aforementioned LE-BP structure, in the DFSF-BP scheme, the BP detector is followed by a nonlinear filter called DFSF as the partial response equalizer. In the first stage, the DFSF employs a modified feedback filter which leaves the strongest post-cursor ISI taps uncorrected. As a result, a long ISI channel is equalized to a sparse channel having only a small number of nonzero taps. In the second stage, the BP detector is applied to mitigate the residual ISI. Since the channel is typically time-varying and suffers from Doppler fading, the DFSF is adapted using the least mean square (LMS) algorithm, such that the amplitude and the locations of the nonzero taps of the equalized sparse channel appear to be fixed. As such, the channel appears to be static during the second stage of equalization which consists of the BP detector. Simulation results demonstrate that the proposed scheme outperforms the traditional DFE in symbol error rate, under both static channels and dynamic ATSC channels. Finally, we study the symbol detector design for cooperative communications, which have attracted a lot of attention recently for its ability to exploit increased spatial diversity available at distributed antennas on other nodes. A system framework employing non-orthogonal amplify-and-forward half-duplex relays through ISI channels is developed. Based on the system model, we first design and implement an optimal maximum-likelihood detector based on the Viterbi algorithm. As the relay period increases, the effective CIR between the source and the destination becomes long and sparse, which makes the optimal detector impractical to implement. In order to achieve a balance between the computational complexity and performance, several sub-optimal detectors are proposed. We first present a multitrellis Viterbi algorithm (MVA) based detector which decomposes the original trellis into multiple parallel irregular sub-trellises by investigating the dependencies between the received symbols. Although MVA provides near-optimal performance, it is not straightforward to decompose the trellis for arbitrary ISI channels. Next, the decision feedback sequence estimation (DFSE) based detector and BP-based detector are proposed for cooperative ISI channels. Traditionally these two detectors are used with fixed, static channels. In our model, however, the effective channel is periodically time-varying, even when the component channels themselves are static. Consequently, we modify these two detector to account for cooperative ISI channels. Through simulations in frequency selective fading channels, we demonstrate the uncoded performance of the DFSE detector and the BP detector when compared to the optimal MLSE detector. In addition to quantifying the performance of these detectors, we also include an analysis of the implementation complexity as well as a discussion on complexity/performance tradeoffs

    An investigation of potential applications of OP-SAPS: Operational Sampled Analog Processors

    Get PDF
    The application of OP-SAP's (operational sampled analog processors) in pattern recognition system is summarized. Areas investigated include: (1) human face recognition; (2) a high-speed programmable transversal filter system; (3) discrete word (speech) recognition; and (4) a resolution enhancement system

    Multichannel demultiplexer-demodulator

    Get PDF
    One of the critical satellite technologies in a meshed VSAT (very small aperture terminal) satellite communication networks utilizing FDMA (frequency division multiple access) uplinks is a multichannel demultiplexer/demodulator (MCDD). TRW Electronic Systems Group developed a proof-of-concept (POC) MCDD using advanced digital technologies. This POC model demonstrates the capability of demultiplexing and demodulating multiple low to medium data rate FDMA uplinks with potential for expansion to demultiplexing and demodulating hundreds to thousands of narrowband uplinks. The TRW approach uses baseband sampling followed by successive wideband and narrowband channelizers with each channelizer feeding into a multirate, time-shared demodulator. A full-scale MCDD would consist of an 8 bit A/D sampling at 92.16 MHz, four wideband channelizers capable of demultiplexing eight wideband channels, thirty-two narrowband channelizers capable of demultiplexing one wideband signal into 32 narrowband channels, and thirty-two multirate demodulators. The POC model consists of an 8 bit A/D sampling at 23.04 MHz, one wideband channelizer, 16 narrowband channelizers, and three multirate demodulators. The implementation loss of the wideband and narrowband channels is 0.3dB and 0.75dB at 10(exp -7) E(sub b)/N(sub o) respectively

    A web transconding framework base on user behaviour evaluation

    Get PDF
    111 p.La Web está en constante crecimiento y cada vez son mas los servicios que se ofrecendesde la misma. Esto hace que la Web se esté convirtiendo en una herramienta básicapara la vida diaria [Wellman and Haythornthwaite, 2008]. Sin embargo, para que la webalcance su máximo potencial hay que afrontar algunos retos, tales como la diversidad deusuarios y de dispositivos [Shneiderman, 2000]. Cada persona es única y tiene diversashabilidades y preferencias. Además, en muchas ocasiones las necesidades de unapersona pueden ser contrapuestas a las necesidades de otras. Por ejemplo, una personacon ceguera necesita un tipo de página web lineal y sin imágenes, mientras que unapersona con problemas cognitivos necesita una web gráfica con el mínimo texto posible.La accesibilidad a la web se ha centrado principalmente en mejorar métodos dediseño y evaluación (a partir de pautas) que permitan crear nuevas páginas webaccesibles para todos. Sin embargo este enfoque no resuelve el acceso a las páginas queya han sido diseñadas sin tener en cuenta su accesibilidad. Además, dada la diversidadde usuarios y de dispositivos, incluso las páginas accesibles pueden presentar barreras ausuarios concretos utilizando determinados dispositivos.Como alternativa, el transcoding es una técnica que transforma páginas no accesiblesen accesibles de manera automática, sin necesidad de que intervenga el desarrollador dela página en la transformación [Asakawa and Takagi, 2008]. Además, durante elproceso de recodificación es posible aplicar técnicas de adaptación que permitan adaptarla página a las necesidades de los usuarios.Para que las adaptaciones automáticas sean adecuadas, es necesario conocer elpropósito de cada uno de los elementos que aparecen en la página web. Por ejemplo, sise trata de un menú, del contenido principal, o de una tabla, etc. Gracias a las websemántica y a los lenguajes de marcado tales como WAI-ARIA [2016] o HTML5[2016] es posible añadir etiquetas semánticas que permitan realizar las transformacionesadecuadamente.Por otro lado, para poder adaptar el contenido se requiere mucha más información.Por ejemplo, qué elementos pueden causar problemas, aprender cuales son lasestrategias de navegación los usuarios, etc. Existen diferentes maneras adquirir esteconocimiento, que además pueden servir para medir la accesibilidad, tales comoherramientas automáticas, evaluaciones de expertos o las evaluaciones de usuario.Las herramientas automáticas comprueban la accesibilidad o usabilidad en base a lasnormas de accesibilidad estándar, tales como las WCAG 2.0 [2016] sin intervenciónhumana. Pero este tipo de herramientas no pueden comprobar algunos tipo de pautas,por lo que es necesaria la participación de expertos que juzguen su cumplimiento.Por otro lado, en la evaluación llevada a cabo por expertos, el evaluador puede tomardiferentes roles: se puede poner en el papel del usuario, o bien puede evaluar losproblemas más comunes. La eficacia de estos métodos suele depender en gran medidadel conocimiento que tiene el evaluador sobre los usuarios, su contexto, lasherramientas Web, etc.Cuando el factor económico no es un problema, la evaluación con usuarios es lamejor opción. Con este método es posible detectar cuales son los problemas reales delos usuarios: es posible observar las estrategias de interacción de los usuarios y ademásmedir la accesibilidad de las páginas durante el uso. Es importante tener en cuenta queaunque una página sea ¿oficialmente¿ accesible, puede resultar que no lo es paradeterminadas personas, por diferentes causas, tales como necesidades especiales, nivelde experiencia y conocimiento, etc. [Vigo and Harper, 2013].En esta tesis se presenta un marco de trabajo que permite hacer accesibles las páginasweb previamente inaccesibles y, además, adecuarlas a las necesidades de cada persona.Para ello utilizamos técnicas de transcoding basadas en métodos de evaluación delcomportamiento del usuario.A partir del modelo conceptual propuesto, se han diseñado dos componentes: unaherramienta de transcoding, Model Access, y una herramienta para la realización de testremotos con usuarios con discapacidad, RemoTest.La aplicación de Model Access para el transcoding requiere:¿ páginas web que hayan sido marcadas con meta-datos semánticos, para lo quehemos utilizado una extensión desarrollada por nosostros del lenguaje demarcado WAI-ARIA¿ un conjunto de técnicas de adaptación, para lo que hemos hecho una selección apartir de la literatura y de nuestros propios test con usuarios reales.¿ un sistema de razonamiento que permita decidir qué técnicas de adaptaciónaplicar y a qué elementos anotados se pueden aplicar, para lo que hemosdiseñado una ontología específica.¿ un modelo que contenga las características del usuario (restricciones ypreferencias) y del dispositivo que está usando para acceder a la web.A partir de estos elementos, la herramienta de transcoding modifica el código de lapágina original (no accesible) para convertirla en una página accesible y adaptada a losrequisitos de cada usuario específico.RemoTestTanto el diseño de técnicas de adaptación, como la validación de las páginas generadas,o la creación de los modelos requieren la realización de test con usuarios. Para ello se hadesarrollado una herramienta de experimentación remota con participación de personascon discapacidad. Esta herramienta, utiliza el Lenguaje de Especificación Experimental(ESL) y el Lenguaje de Control de la Sesión Experimental (ESCL) que han sidodiseñados y especificados mediante lenguaje de marcado XML.RemoTest es una herramienta para llevar a cabo test de usuario con personas condiscapacidad de manera remota o local. RemoTest provee a los investigadores loselementos necesarios para diseñar, llevar a cabo y analizar experimentos con personascon discapacidad. Algunos de los posibles usos de la herramienta son: la evaluación dela accesibilidad y/o usabilidad de la páginas web, la evaluación de las adaptaciones, elanálisis del comportamiento del usuario, la creación de modelos válidos para elrazonamiento.Para poder llevar a cabo experimentos con personas con discapacidad, es necesariocumplir una serie de requisitos:¿ que las interfaces de la herramienta sean accesibles¿ que los usuario puedan especificar la tecnología de apoyo que usan y sus datosdemográficos¿ que puedan realizar ejercicios de entrenamiento previos a la sesión experimentaly puedan seleccionar las tareasCon estos objetivos en mente, y con la participación durante el desarrollo de personascon discapacidad, se creó RemoTest. La herramienta está compuesta por cuatromódulos, Módulo del Experimentador, Módulo Coordinador, Módulo del Participantey por el Módulo Visor de Resultados.Módulo del ExperimentadorEste módulo ayuda al investigador a diseñar un experimento mediante una interfazgráfica en unos sencillos pasos. Primero se debe especificar el tipo de experimento:Web o cuestionario. En el segundo se definen los estímulos, las tareas así como lasposibles dependencias entre las mismas. Para que tanto los cuestionarios creados comolas páginas de información sean accesibles, la herramienta requiere al investigador queintroduzca los textos o imágenes que sean necesarios.En el tercer paso, se define el procedimiento del experimento, el número de grupos,cual va a ser el orden de las tareas etc. Por último solo queda seleccionar los datos quese quieren recoger y seleccionar los participantes que formarán parte del estudio.Una vez recogida toda la información sobre el diseño del experimento se crea unfichero XML basado en el lenguaje de diseño experimental (ESL) que se envía almódulo coordinador.Módulo CoordinadorEl modulo coordinador cumple las siguientes funciones:¿ guardar los experimentos diseñados¿ crear los estímulos y pantallas de información¿ crear la sesión experimental para cada usuario en el lenguaje de control desesiones experimentales (ESCL)¿ guardar los datos recibidos del módulo participante¿ mantener la base de datos de participantes e investigadoresMódulo del ParticipanteEste módulo es el encargado de interpretar el lenguaje de control de la sesiónexperimental (ESCL) para llevar a cabo la sesión, presentado al participante losestímulos y páginas de información que sean necesarias. Además, el móduloparticipante, recoge los eventos generados por el usuario, como por ejemplo losproducidos por el movimiento del cursor, el teclado o los del propio navegador. Estoseventos son enviados al coordinador para su posterior análisis con el módulo visor deresultados.Módulo Visor de ResultadosEste es el módulo encargado de interpretar y calcular diferentes medidas de los datosrecogidos. La herramienta es capaz de calcular valores tales como la velocidad, ladistancia recorrida o la relación entre la distancia optima al objetivo y la recorrida por elcursor. Por otro lado, también realiza cálculos centrados en la usabilidad de la páginaweb. Como, por ejemplo, el tiempo requerido para realizar la tarea, si el usuario se haperdido navegando mientras realizaba la tarea, así como por qué zonas de la página hapasado el cursor.Para poder extraer medidas fiables del cursor es necesario usar algoritmos quepermitan dilucidar cuándo el usuario ha decidido mover el cursor para seleccionar elobjetivo. Esto es importante, ya que no siempre el usuario mueve el cursor para haceruna selección. Algunas personas mueven el cursor mientras leen, o se entretienen. Unelemento clave de estos algoritmos es diferenciar las pausas causadas por el no uso delratón, de las pausas causadas por las correcciones de la trayectoria del cursor. Laherramienta diseñada por nosotros, al contrario que los trabajos relacionados en laliteratura, calcula un valor para cada usuario con el objetivo de diferenciar los dos tiposde pausa.Model AccessModel Access es un sistema de transcoding que adapta páginas web anotadas medianteuna extensión del lenguaje de marcado WAI-ARIA. El sistema hace uso de unaontología para modelar el usuario, el dispositivo, la tecnología de apoyo, el sistema deanotación y las técnicas de adaptación.La potencia de los sistemas de adaptación depende en gran medida de el número detécnicas de adaptación que son capaces de aplicar. Por ello, se realizó una búsquedaintensiva en la literatura de las técnicas de adaptación que pudieran ayudar a laspersonas con necesidades especiales. Además, también se incluyeron otras técnicas deadaptación que surgieron de las necesidades que detectamos en los experimentosllevados a cabo anteriormente.Model Access está compuesto por cuatro módulos principales: el Módulo dePresentación, que se ejecuta en el cliente del usuario, y el Módulo de Adaptaciones, elMódulo Coordinador y la Base de Conocimiento, que se ejecutan en un servidorEn la figura 1 podemos observar, cómo es el proceso de transformación de unapágina web anotada y otra sin anotar pero con el lenguaje WAI-ARIA ya incluido. Elmódulo de presentación se encarga de recoger la página web a la que quiere ir el usuariopara enviársela al módulo del coordinador. Este consulta en la base de conocimientoqué adaptaciones son aplicables al usuario, el dispositivo, la tecnología de apoyo y lapágina web específicos. Esta información es enviada al módulo de adaptaciones queejecuta las adaptaciones pertinentes.Dado que la lógica de las adaptaciones se encuentra en la base de conocimiento, es muysencillo crear nuevas adaptaciones para nuevos usuarios sin que sea necesario realizarFigure 1. Arquitectura general y funcionamientocambios que en la base de conocimiento.AnotaciónUno de los problemas de los sistemas de transcoding es la necesidad de anotar loselementos de la interfaz para producir adaptaciones adecuadas. Al hacer uso de unaextensión de WAI-ARIA, las páginas que ya incluyen este lenguaje de marcado puedenser adaptadas, ya que un gran número de adaptaciones hace uso de los roles ypropiedades presentes en este lenguaje.Las páginas que no incluyen marcas WAI-ARIA se pueden anotar mediante loselementos (clases e ids) de la CSS de la página. Anotando unos poco elementos de laCSS de una página se puede conseguir la anotación de un sitio web entero, ya que elCSS suele ser común para todo el sitio web.EvaluacionesPara comprobar la utilidad de las herramientas desarrolladas y del modelo conceptual,se llevaron a cabo diferentes evaluaciones.En primer lugar se analizó la accesibilidad de la propia herramienta RemoTest y desu proceso de instalación con 36 personas, de las cuales el 36% tenían problemas demovilidad, el 27% eran ciegas, el 22% tenían baja visión, mientras que el resto no teníaninguna discapacidad.Para poder detectar los problemas que pudieran encontar los usuarios al navegar enla web, se llevaron a cabo dos evaluaciones con la herramienta RemoTest: una conpersonas con baja visión y otra con personas con movilidad reducida.De los resultados obtenidos en estas evaluaciones se crearon nuevas técnicas deadaptación. Además, también se realizaron cambios en la base de conocimiento usadapor Model Acess para adecuarse a las necesidades detectadas.Una vez que se actualizó Model Acess, se llevaron a cabo otras dos evaluaciones conpersonas con baja visión y con personas con movilidad reducida. En la primera de ellasse midió la eficacia de las adaptaciones hechas por Model Access para personas conbaja visión usando un PC. Mientras que en la segunda se pudo comprobar la eficacia delas adaptaciones y el funcionamiento de tres métodos de interacción alternativosdedicados a personas con movilidad reducida usando un dispositivo móvil táctil

    Aviation technology research plan rotary wing program development and evaluation of performance

    Get PDF
    Issued as Progress reports [nos. 1-2], and Final report, Project no. E-16-M08Final report has title: Aviation technology research plan rotary wing program development and evaluation of performanceFinal report has co-author: J.V.R. Prasa
    corecore