92 research outputs found

    Advanced Signal Processing for Pulse-Amplitude Modulation Optical Transmission Systems

    Full text link
    [ES] Los sistemas de transmisión óptica no-coherente se emplean actualmente en las redes ópticas de corto alcance (< 80 km), como son las redes de ámbito metropolitano. La implementación más común en el estado del arte se basa en sistemas que emplean multiplexación por división en longitud de onda (WDM, wavelength division multiplexing) de cuatro longitudes de onda (¿) proporcionando un régimen binario de 100 Gbps (4¿×25 Gbps). En los últimos años, los sistemas de transmisión ópticos no-coherentes están evolucionando desde 100 Gbps a 400 Gbps (4¿×100 Gbps). Dado que este mercado comprende un gran número de sistemas, el coste es un parámetro importante que debe ser lo más bajo posible. El objetivo de esta tesis es investigar distintos aspectos del procesado de señal en general y, específicamente, investigar nuevas técnicas de procesado digital de señal (DSP, digital signal processing) que puedan ser utilizadas en sistemas de transmisión óptica no-coherentes empleando la modulación por amplitud de pulsos (PAM, pulse-amplitude modulation). Para que una técnica DSP sea interesante en el contexto de una red óptica WDM no-coherente, esta debe mitigar de manera efectiva al menos una de las tres limitaciones principales que afectan a estos sistemas: limitaciones de ancho de banda, limitaciones por dispersión cromática (CD), y el ruido. En esta tesis se proponen y examinan una serie de algoritmos cuyo su rendimiento es analizado mediante simulación y experimentalmente en laboratorio: - Feed-forward equalizer (FFE): este es el esquema de ecualización más común que se emplea principalmente en las transmisiones ópticas no-coherentes de alto régimen binario. Puede compensar grandes limitaciones en el ancho de banda. - Estimación de la secuencia de máxima verosimilitud (MLSE): el MLSE es un detector óptimo y, por lo tanto, proporciona las mejores prestaciones en detección cuando se abordan las limitaciones por CD y de ancho de banda. - Conformación geométrica de la constelación: en los esquemas de modulación de intensidad óptica multinivel, la distancia entre los niveles de amplitud puede ajustarse adecuadamente (de manera que no son equidistantes) a fin de aumentar la tolerancia de la señal frente al ruido. - Conformación probabilística: técnica diseñada específicamente para esquemas de modulación multinivel. Esta técnica ajusta la probabilidad de cada nivel de amplitud de modo que se incrementa la tolerancia al ruido óptico. - Señalización de respuesta parcial (PRS, partial signaling response): este es un enfoque basado en DSP donde una interferencia entre símbolos (ISI, inter-symbol interference) controlada es introducida intencionalmente de tal manera que la señal resultante requiere menos ancho de banda. La técnica PRS puede adaptarse para combatir también el efecto de CD. - Pre-énfasis digital (DPE, digital pre-emphasis): esta técnica consiste en aplicar el inverso de la función de transferencia del sistema a la señal en el transmisor, lo que reduce el impacto de las limitaciones de ancho de banda en el receptor. - Modulación con codificación Trellis (TCM, Trellis-coded modulation): esquema de modulación que combina elementos de corrección de errores (FEC, forward error correction) con técnicas de partición en conjuntos y modulación multidimensional para generar una señal más resistente al ruido. - Modulación multidimensional por partición en conjuntos: muy similar a TCM, pero sin ningún elemento FEC. Tiene menos ganancias que TCM en términos de tolerancia al ruido, pero no es tan sensible al ISI. Utilizando estas técnicas, esta tesis demuestra que es posible lograr una transmisión óptica con régimen binario de 100 Gbps/¿ empleando componentes de bajo coste. En esta tesis también demuestra regímenes binarios de más de 200 Gbps, lo que indica que la transmisión óptica no-coherente con modulación PAM puede ser una solución viable y eficiente en coste[CA] Actualment, s'utilitzen sistemes òptics no coherents en xarxes òptiques de curt abast ( < 80 km), com són les xarxes d'àmbit metropolità. La implementació més comuna que podem trobar en l'estat de l'art es correspon amb sistemes emplenant multiplexació per divisió en longitud d'ona (WDM, wavelength division multiplexing) de quatre longituds d'ona (¿) proporcionant un règim binari de 100 Gbps (4¿×25 Gbps). En els últims anys, els sistemes de transmissió òptica no-coherents han evolucionat des de 100 Gbps cap a 400 Gbps (100 Gbps/¿). Atès que el mercat de sistemes de curt abast compren un gran volum de dispositius òptics instal·lats, el cost unitari és molt important i ha de ser el més baix possible. L'objectiu d'aquesta tesi és analitzar aspectes del processament de senyal en general i, específicament, investigar noves tècniques de processament digital de senyal (DSP, digital signal processing) que puguen ser utilitzades en sistemes de transmissió òptica no-coherent que utilitzen la modulació per amplitud d'impulsos (PAM, pulse-amplitude modulation). Per tal que una tècnica DSP es considere interessant per a una xarxa òptica WDM no-coherent, aquesta ha de mitigar efectivament almenys una de les tres principals limitacions que afecten aquests sistemes: limitacions d'ample de banda, limitacions per dispersió cromàtica (CD), i el soroll. En aquesta tesi s'examinen una sèrie d'algoritmes, el seu rendiment s'analitza per simulació i experimentalment en laboratori: - Feed-forward equalizer (FFE): aquest és l'esquema d'equalització més comú i s'utilitza bàsicament en les transmissions òptiques no coherents d'alt règim binari. Pot compensar grans quantitats de limitacions d'ample de banda. - Estimació de la seqüència de probabilitat màxima (MLSE): el MLSE és un detector òptim i, per tant, proporciona el millor rendiment quan es tracta de limitacions d'ample de banda i de CD. - Conformació geomètrica de la constel·lació: en esquemes de modulació òptica d'intensitat multinivell es pot ajustar la distància entre els nivells d'amplitud (de manera que ja no són equidistants) per augmentar la tolerància del senyal al soroll. - Conformació probabilística: una tècnica dissenyada específicament per als esquemes de modulació multinivell; ajusta la probabilitat de cada nivell d'amplitud de manera que augmenta la tolerància al soroll òptic. - Senyalització de resposta parcial (PRS, partial signaling response): és un enfocament basat en DSP on la interferència entre símbols (ISI, inter-symbol interference) controlada s'introdueix intencionalment de manera que el senyal resultant requereix menys ample de banda. La tècnica PRS es pot adaptar per combatre els efectes del CD. - Pre-èmfasi digital (DPE, digital pre-emphasis): aquesta tècnica consisteix a aplicar la inversió de la funció de transferència del sistema a la senyal en el transmissor de manera que es redueix l'impacte de les limitacions d'ample de banda en la senyal en el receptor. - Modulació amb codificació Trellis (TCM, Trellis-coded modulation): esquema de modulació que combina els elements de correcció d'errors avançats (FEC, forward error correction) amb tècniques de partionament de conjunts i modulació multidimensional per generar un senyal més resistent al soroll. - Modulació multidimensional per partició en conjuntes: molt similar a TCM però sense elements FEC. Té guanys menors que TCM en termes de tolerància al soroll, però no és tan sensible a l'ISI. Mitjançant l'ús d'aquestes tècniques, aquesta tesi demostra que és possible aconseguir una transmissió òptica amb un règim binari de 100 Gbps/¿ utilitzant components de baix cost. Esta tesi també demostra règims binaris de més de 200 Gbps, el que indica que la tecnologia no-coherent amb modulació PAM és una solució viable i eficient en cost per a una nova generació de sistemes transceptors òptics WDM funcionant a 800 Gbps (4¿×200 G[EN] Non-coherent optical transmission systems are currently employed in short-reach optical networks (reach shorter than 80 km), like metro networks. The most common implementation in the state-of-the-art is the four wavelength (¿) 100 Gbps (4¿×25 Gbps) wavelength division multiplexing (WDM) transceiver. In recent years non-coherent optical transmissions are evolving from 100 Gbps to 400 Gbps (4¿×100 Gbps). Since in the short-reach market the volume of optical devices being deployed is very large, the cost-per-unit of the devices is very important, and it should be as low as possible. The goal of this thesis is to investigate some general signal processing aspects and, specifically, digital signal processing (DSP) techniques required in non-coherent pulse-amplitude modulation (PAM) optical transmission, and also to investigate novel algorithms which could be applied to this application scenario. In order for a DSP technique to be considered an interesting solution for non-coherent WDM optical networks it has to effectively mitigate at least one of the three main impairments affecting such systems: bandwidth limitations, chromatic dispersion (CD) and noise (in optical or electrical domain). A series of algorithms are proposed and examined in this thesis, and their performance is analyzed by simulation and also experimentally in the laboratory: - Feed-forward equalization (FFE): this is the most common equalizer and it is basically employed in every high-speed non-coherent optical transmission. It can compensate high bandwidth limitations. - Maximum likelihood sequence estimation (MLSE): the MLSE is the optimum detector and thus provides the best performance when it comes to dealing with CD and bandwidth limitations. - Geometrical constellation shaping: in multilevel optical intensity modulation schemes the distance between amplitude levels can be adjusted (such that they are no longer equidistant) in order to increase the signal's tolerance to noise. - Probabilistic shaping: another technique designed specifically for multilevel modulation schemes; it adjusts the probability of each amplitude level such that the tolerance to optical noise is increased. - Partial response signaling (PRS): this is a DSP-based approach where a controlled inter-symbol interference (ISI) is intentionally introduced in such a way that the resulting signal requires less bandwidth. PRS can be customized to also mitigate CD impairment, effectively increasing transmission distances up to three times. - Digital pre-emphasis (DPE): this technique consists in applying the inverse of the transfer function of the system to the signal at the transmitter side which reduces the impact of bandwidth limitations on the signal at the receiver side. - Trellis-coded modulation (TCM): a modulation scheme that combines forward error correction (FEC) elements with set-partitioning techniques and multidimensional modulation to generate a signal that is more resistant to noise. - Multidimensional set-partitioned modulation: very similar with TCM but without any FEC elements. It has lower gains than TCM in terms of noise tolerance but is not so sensitive to ISI. By using the techniques enumerated above, this thesis demonstrates that is possible to achieve 100 Gbps/¿ optical transmission bitrate employing cost-effective components. Even more, bitrates higher than 200 Gbps are also demonstrated, indicating that non-coherent PAM is a viable cost-effective solution for next-generation 800 Gbps (4¿×200 Gbps) WDM transceivers.Prodaniuc, C. (2019). Advanced Signal Processing for Pulse-Amplitude Modulation Optical Transmission Systems [Tesis doctoral no publicada]. Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/117315TESI

    Proceedings of the Fifth International Mobile Satellite Conference 1997

    Get PDF
    Satellite-based mobile communications systems provide voice and data communications to users over a vast geographic area. The users may communicate via mobile or hand-held terminals, which may also provide access to terrestrial communications services. While previous International Mobile Satellite Conferences have concentrated on technical advances and the increasing worldwide commercial activities, this conference focuses on the next generation of mobile satellite services. The approximately 80 papers included here cover sessions in the following areas: networking and protocols; code division multiple access technologies; demand, economics and technology issues; current and planned systems; propagation; terminal technology; modulation and coding advances; spacecraft technology; advanced systems; and applications and experiments

    Applications in Electronics Pervading Industry, Environment and Society

    Get PDF
    This book features the manuscripts accepted for the Special Issue “Applications in Electronics Pervading Industry, Environment and Society—Sensing Systems and Pervasive Intelligence” of the MDPI journal Sensors. Most of the papers come from a selection of the best papers of the 2019 edition of the “Applications in Electronics Pervading Industry, Environment and Society” (APPLEPIES) Conference, which was held in November 2019. All these papers have been significantly enhanced with novel experimental results. The papers give an overview of the trends in research and development activities concerning the pervasive application of electronics in industry, the environment, and society. The focus of these papers is on cyber physical systems (CPS), with research proposals for new sensor acquisition and ADC (analog to digital converter) methods, high-speed communication systems, cybersecurity, big data management, and data processing including emerging machine learning techniques. Physical implementation aspects are discussed as well as the trade-off found between functional performance and hardware/system costs

    Energy-efficient diversity combining for different access schemes in a multi-path dispersive channel

    Get PDF
    Dissertação para obtenção do Grau de Doutor em Engenharia Electrotécnica e ComputadoresThe forthcoming generation of mobile communications, 5G, will settle a new standard for a larger bandwidth and better Quality of Service (QoS). With the exploding growth rate of user generated data, wireless standards must cope with this growth and at the same time be energy efficient to avoid depleting the batteries of wireless devices. Besides these issues, in a broadband wireless setting QoS can be severely affected from a multipath dispersive channel and therefore be energy demanding. Cross-layered architectures are a good choice to enhance the overall performance of a wireless system. Examples of cross-layered Physical (PHY) - Medium Access Control (MAC) architectures are type-II Diversity Combining (DC) Hybrid-ARQ (H-ARQ) and Multi-user Detection (MUD) schemes. Cross-layered type-II DC H-ARQ schemes reuse failed packet transmissions to enhance data reception on posterior retransmissions; MUD schemes reuse data information from previously collided packets on posterior retransmissions to enhance data reception. For a multipath dispersive channel, a PHY layer analytical model is proposed for Single-Carrier with Frequency Domain Equalization (SC-FDE) that supports DC H-ARQ and MUD. Based on this analytical model, three PHY-MAC protocols are proposed. A crosslayered Time Division Multiple Access (TDMA) scheme that uses DC H-ARQ is modeled and its performance is studied in this document; the performance analysis shows that the scheme performs better with DC and achieves a better energy efficiency at the cost of a higher delay. A novel cross-layered prefix-assisted Direct-Sequence Code Division Multiple Access (DS-CDMA) scheme is proposed and modeled in this document, it uses principles of DC and MUD. This protocol performs better by means of additional retransmissions, achieving better energy efficiency, at the cost of higher redundancy from a code spreading gain. Finally, a novel cross-layered protocol H-ARQ Network Division Multiple Access (H-NDMA) is proposed and modeled, where the combination of DC H-ARQ and MUD is used with the intent of maximizing the system capacity with a lower delay; system results show that the proposed scheme achieves better energy efficiency and a better performance at the cost of a higher number of retransmissions. A comparison of the three cross-layered protocols is made, using the PHY analytical model, under normalized conditions using the same amount of maximum redundancy. Results show that the H-NDMA protocol, in general, obtains the best results, achieving a good performance and a good energy efficiency for a high channel load and low Signal-to-Noise Ratio (SNR). TDMA with DC H-ARQ achieves the best energy efficiency, although presenting the worst delay. Prefix-assisted DS-CDMA in the other hand shows good delay results but presents the worst throughput and energy efficiency

    Signal Processing and Learning for Next Generation Multiple Access in 6G

    Full text link
    Wireless communication systems to date primarily rely on the orthogonality of resources to facilitate the design and implementation, from user access to data transmission. Emerging applications and scenarios in the sixth generation (6G) wireless systems will require massive connectivity and transmission of a deluge of data, which calls for more flexibility in the design concept that goes beyond orthogonality. Furthermore, recent advances in signal processing and learning have attracted considerable attention, as they provide promising approaches to various complex and previously intractable problems of signal processing in many fields. This article provides an overview of research efforts to date in the field of signal processing and learning for next-generation multiple access, with an emphasis on massive random access and non-orthogonal multiple access. The promising interplay with new technologies and the challenges in learning-based NGMA are discussed

    Técnicas para melhorar a eficiência do sensoriamento colaborativo em redes 5G para áreas remotas

    Get PDF
    Dissertação (mestrado)—Universidade de Brasília, Instituto de Ciências Exatas, Departamento de Ciência da Computação, 2020.A revolução dos smartphones em 2007 iniciou a um processo de crescimento exponencial da demanda por serviços de telefonia móvel. O aumento da demanda sem contrapartida da oferta, dependente do espectro disponível provoca uma queda na qualidade dos serviços prestados. As técnicas que usam Rádios cognitivos e acesso dinâmico ao espectro são con- sideradas fundamentais para otimizar a utilização do espectro e aumentar a quantidade de banda disponível para as redes 5G, ao permitir acesso oportunístico ao espectro licenciado ocioso. Diversos estudos apontam a subutilização de bandas, especialmente longe das grandes cidades, em que há menor demanda e menor incentivo econômico para a instalação de infraestrutura por parte das operadoras. Esse comportamento é incentivado devido ao processo de licenciamento de bandas em blocos e alocação estática do espectro, em que uma operadora licencia uma banda e junto a ela fica encarregada por dar cobertura a uma área atrelada à licença, enquanto pequenas operadoras locais ficam completamente de fora dos leilões e são impedidas de competir neste mercado. O acesso dinâmico ao espectro depende de informações que garantam a identificação de transmissões no canal candidato, afim de se reduzir interferência ao detentor da licença do canal. Algumas das técnicas mais comuns para se detectar a ocupação do canal via senso- riamento do espectro são carrier-sense e detecção de energia, dependendo da largura do canal. O sensoriamento colaborativo melhora a capacidade de detecção de uso do canal quando comparado com o sensoriamento individual, visto que diversifica geograficamente a informação disponível para análise. A qualidade do sensoriamento colaborativo depende não só dos sensoriamentos individuais recebidos, mais também da técnica que consolida ou executa a fusão desses resultados. Existem diversos algoritmos de fusão, cada um com vantagens e desvantagens. Algumas das técnicas de fusão clássicas são baseadas em votação k-em-n, em que k sensoriamentos indicando ocupação do canal resultam em uma fusão indicando ocupação do canal. A fusão 1-em-N, OU lógico, resulta em um número alto de falsos positivos, detectando ocupação do canal mesmo quando está desocupado, enquanto minimiza falsos negativos e a não detecção do canal de fato ocupado. Por fim, é parte do ciclo de sensoriamento colaborativo filtrar sensoriamentos de usuários maliciosos que desejam perturbar não só o resultado do sensoriamento colab- orativo como o funcionamento da rede. No caso de uma fusão simples como OU lógico, um único nó malicioso é capaz de inviabilizar por completo o uso oportunístico do es- pectro ao transmitir resultados falsos indicando que o canal está ocupado quando de fato está livre. Diante essa problemática, neste trabalho são propostas duas técnicas para melhorar os resultados do sensoriamento colaborativo, a saber : (1) uma técnica baseada em cadeias de Markov que aplicada aos resultados de sensoriamentos individuais, reduz falsos positivos e falsos negativos, além de reduzir o envio de mensagens de controle ; (2) uma técnica baseada na média harmônica para filtragem de resultados de sensoriamentos individuais recebidos, descartando sensoriamentos de nós mais distantes das fontes de interferência, protegendo de ataques Bizantinos. Ambas as técnicas são avaliadas em cenários de 5G na área rural, em que encontra-se a maior porção de bandas do espectro subutilizadas, candidatas ao acesso oportunístico. A fim de permitir a avaliação das técnicas propostas, foram realizadas diversas alter- ações para o modelo de pilha de rede LTE implementado no simulador de redes a nível de sistemas ns-3. As alterações incluem os procedimentos de sensoriamento do espectro individual feito pelos dispositivos de usuários (UEs), a transmissão dos resultados para o ponto de acesso (eNodeB), a fusão dos resultados recebidos e utilização do resultado de fusão no escalonamento de recursos para os dispositivos. Os sensoriamentos individu- ais são obtidos a partir de curvas de probabilidade de detecção e probabilidade de falsos positivos feitos através de medições em experimentos ou através de simulações a nível de camada física-enlace. As curvas são carregadas durante a configuração inicial da simu- lação, sendo interpoladas conforme necessário. As curvas podem ser tanto baseadas em distância euclidiana quanto em relação sinal ruído e interferência (SINR). O sensoria- mento individual consiste em utilizar a probabilidade de detecção relacionada a um dado valor de SNR ou de distância euclidiana é utilizada para gerar uma amostra aleatória a partir de um gerador com distribuição de Bernoulli. O procedimento se repete a cada 1 milissegundo no ciclo padrão de indicação do subquadro LTE. A técnica baseada em cadeias de Markov se baseia em um Teorema Central do Limite, em que a média de um certo número de amostras uniformemente distribuídas tende a se aproximar ou ao valor real da distribuição de probabilidade fonte ou ao valor central da distribuição. Em outras palavras, ao amostrar uniformemente uma distribuição de- sconhecida com número suficiente de amostras, encontra-se uma boa aproximação para o valor real que é procurado. Este princípio é aplicado para o sensoriamento individual do espectro, em que o valor do último sensoriamento é comparado com o resultado atual, e quando idêntico aumenta o grau de certeza de que este resultado é de fato o real. Quando os resultados diferem, o grau de certeza é perdido. Quando um dado limiar de certeza é ultrapassado, o resultado do sensoriamento que é de fato transmitido para o eNodeB é substituído pelo valor do último sensoriamento. A modelagem deste processo estocástico binomial é feita baseado no lançamento de N moedas, em que apenas o caso em que N resultados iguais consecutivos levam à troca do valor transmitido, sendo facilmente modelado como uma cadeia de Markov de N − 1 estados. Já a técnica baseada em média harmônica se baseia no fato de que as estações próx- imas das fontes de interferência são mais confiáveis que estações distantes, baseando-se nas curvas de probabilidade de detecção. Com isto, é necessário eliminar os resultados de sensoriamentos informados por usuários maliciosos com alguma informação adicional que sirva de prova que seu sensoriamento reportado é falso. Uma das maneiras de se mitigar informações falsas é utilizando a média harmônica dos CQIs reportados, permitindo iden- tificar UEs mais afetados pela fonte de interferência e descartar todos os resultados por UEs pouco afetadas, mais afastadas da fonte. Para poder se confiar no CQI reportado pelos UEs, é necessário medir a quantidade de retransmissões feitas para cada uma delas. Uma taxa de retransmissões próxima de 10% indica um CQI adequado, enquanto taxas próximas de 0% indicam CQI reportado abaixo do real e taxas acima de 10% indicam CQI reportado acima do real. O limiar de retransmissões é definido nos padrões 3GPP. A avaliação das propostas foi feita em duas partes: primeira parte com a validação do modelo proposto para o sensoriamento colaborativo no modelo do padrão LTE do simulador, e a segunda parte avaliando o desempenho das técnicas propostas. Durante a validação, foi confirmado o comportamento esperado do sensoriamento colaborativo (sensoriamentos individuais, transmissão dos resultados e fusões) em termos de taxas de falsos positivos e taxas de falsos negativos quando comparado com os modelos matemáticos. Na avaliação do desempenho das técnicas propostas foram avaliadas acurácia, taxas de falso positivos e taxas de falsos negativos. Em ambos os casos, foram utilizados cenários inspirados em zonas rurais, com: baixo número de nós (10, 20, 50, 100); uma célula com 50 quilômetros de raio; canal de 20 MHz na banda 5 com portadora em 870 MHz; eNodeB transmitindo à 53 dBm; UEs transmitindo à 23 dBm; eNodeB e UEs com antenas com 9 dBi de ganho; detentor da licença do canal (PU) transmitindo à 40 dBm ou 35 dBm; um PU por subcanal de 5 MHz; algoritmos de fusão simples. O cenário de validação foi pouco realístico, com UEs dispersas ao longo de um certo raio fixo de distância do PU, garantindo uma mesma probabilidade de detecção para todos os UEs. Os cenários de avaliação das técnicas foram separados em dois conjuntos, um menos realístico com dispersão aleatória pela célula, outro mais realístico com dispersão aleatória dos PUs pela célula e dispersão aleatória de grupos de UEs pela célula, formando clusters de UESs Os resultados mostram que as técnicas propostas aumentam a acurácia em relação à técnica clássica de fusão de resultados do sensoriamento colaborativo (fusão OU lógico, ou 1-em-N), reduzindo falsos positivos em até 790 vezes, de 63.23% para 0.08% no cenário com dispersão aleatória dos UEs e sem atacantes. Neste mesmo cenário houve um aumento de 0% para 0.47% do número de falsos negativos, sem impactar severamente o detentor da licença do canal. Nos cenários com atacantes, todas as fusões simples apresentam resultados ruins, com ou sem a técnica das cadeias de Markov, até 100% de falsos positivos, inviabilizando o acesso oportunístico. Já a técnica da média harmônica apresenta bom grau de proteção contra atacantes, em especial nos cenários com mais dispositivos. Sem a técnica baseada em Markov e no cenário com 100 UEs, dos quais 10 atacantes, conseguiu reduzir falsos positivos da fusão OU de 100% para 60%, sem aumentar significativamente o número de falsos negativos. Quando as duas técnicas são combinadas, o número de falsos positivos cai para 5% enquanto falsos negativos sobem para 18%. Nos cenários com menos UEs e com clusters, falsos negativos são consistentemente mais altos, porém superiores às fusões 2-em-N, 3-em-N e E utilizando a técnica de Markov no cenário sem atacantes. Em todos os cenários, a técnica baseada em cadeias de Markov também reduziu a taxa média de notificação dos quadros em 2 ordens de grandeza, economizando banda do canal de controle licenciado. Esses resultados permitem concluir que ambas as técnicas são efetivas para o cenário rural para a qual foram propostas. Também se depreende que o número de estados da cadeia de Markov e da técnica da média harmônica podem ser alterados para se trocar alcance da detecção por certeza da detecção e nível de proteção contra atacantes por falsos negativos, respectivamente. Como trabalhos futuros, cabem a adaptação da técnica para: incluir cenários urbanos, mais densos, utilizando técnicas de amostragem; utilização de técnicas de localização (e.g. Time-of-Arrival, Angle-of-Arrival) para segmentação da célula em setores; melhorar a técnica da média harmônica para reduzir falsos negativos mantendo o mesmo nível de proteção contra atacantes.The smartphone revolution of 2007 started an exponential demand growth of mobile con- nectivity. The ever increasing demand requires an increase in supply, which is depends in the amount of available spectrum. The amount of available spectrum however is limited, curving supply growth and reducing the quality of services perceived by the users. Cogni- tive radio and dynamic spectrum access are essential to increase the spectrum utilization and amount of available bandwidth in 5G networks, by opportunistically accessing unused licensed spectrum. The dynamic spectrum access depends on channel information that guarantees the detection of transmissions in the candidate channel, as a means of reducing interference to the channel licensee. The collaborative spectrum sensing increases the channel usage detection capacity when compared to individual spectrum sensing, as there is more geographically diverse information for analysis and decision-making. The quality of the collaborative sensing depends not only on the individual sensing that feeds information into it, but also on the technique that fuses those results into the final sensing result. Two techniques to improve the collaborative spectrum sensing results are proposed in this dissertation: (1) a technique based in Markov chains to smooth consecutive individual spectrum sensing results, reducing both false positives and false negatives, while enabling the reduction of sensing reports by skipping sensing reports with the same results; (2) a technique based in the harmonic mean of the channel quality indicator, used to filter the received individual spectrum sensing, discarding nodes far from the source of interference, mitigating against Byzantine attacks. Both techniques are evaluated in rural 5G scenarios, which are the best place to use opportunistic access due to the amount of unutilized and underused spectrum bands. In order to evaluate the proposed techniques, a set of modifications to the LTE net- work stack model of the ns-3 system-level simulator is proposed. The modifications include a complete collaborative sensing cycle, including: the individual spectrum sensing pro- cedure, performed by user equipment’s (UEs); the transmission of control messages to the access point (eNodeB), the fusion of the received results and utilization of the free spectrum for the UEs. The individual spectrum sensing is performed by interpolating probability of detection curves and false positive probability, which are produced either by experimental measurements or by link-layer simulations. The evaluation of the proposals was made in two parts: first part focusing on the validating the collaborative spectrum sensing cycle implementation and integration to the LTE model; second part focusing on the performance of the proposed techniques. The collaborative spectrum sensing cycle (individual sensing, sensing report and fusion) was validated and closely follows the mathematical model. The evaluation of the techniques included accuracy of the fused result, false positive and false negative rates. The results show the techniques are effective in increasing the accuracy of the collab- orative sensing when compared to the standalone classic fusion techniques (OR fusion, or 1-out-of-n). There were reductions in false positives rates of up to 790 times, from 63.23% to 0.08% in the scenario with randomized dispersion of UEs across the cell and without attackers. In the same scenario, the false negatives increased from 0% to 0.47%, which does not severely impact the licensee with interference. All classic fusions behave very poorly in scenarios with attackers, with and without the Markov chain technique. False positive rates soar to as high as 100%, making the opportunistic access impossible. The harmonic mean-based technique reduces the false positives, providing good protec- tion against attackers especially in scenarios with more UEs. The harmonic mean alone reduced false positives for the OR fusion from 100% to 60% without significantly impact- ing false negatives in the scenario with 100 UEs and 10 attackers. When both techniques are used together, the rate of false positives fall to 5% while false negatives increase to 18%. Scenarios with less UEs and distributed in clusters tend to have higher false negative rates when both techniques are used, but false positives are consistently lower than other classical fusions (e.g. 2-out-of-N, 3-out-of-N and AND). The Markov chain technique effectively reduced the sensing report rate by 2 orders of magnitude, saving up scarce control bandwidth. These results allow us to conclude that the both techniques are effective for the rural scenario they were proposed

    Who is pulling the strings? : technology and regulatory risks at the services provided by credit fintechs in the light of the actor-network theory

    Get PDF
    Orientadora: Prof. Dra. Ana Paula Mussi Szabo Cherobim.Tese (doutorado) - Universidade Federal do Paraná, Setor de Ciências Sociais Aplicadas, Programa de Pós-Graduação em Administração. Defesa : Curitiba, 13/05/2022Inclui referências: p. 149-160Resumo: As FinTech de Credito têm sido objeto de atenção dos Reguladores Brasileiros pelo seu potencial disruptivo: viabilizam rápido acesso a crédito ou a serviços de financiamento. Nessa relação, entra em cena a dualidade entre tecnologia e regulação, respondendo por conexões que usualmente não estão previstas nas análises. Este estudo analisa como a relação entre o Banco Central do Brasil e as FinTechs de Credito atua nos aspectos de risco, considerando a relação entre tecnologia e regulação. O suporte teórico se baseia na Teoria Ator-Rede, que afirma que entidades não humanas (por exemplo, sistemas de informação e regulamentos) podem ser atores que criam agência. Portanto, eles devem ser levados em consideração para a análise. Essa abordagem permitiu estabelecer a cadeia de conexões entre os diferentes atores, levando assim a avanços tanto para a teoria quanto para a prática, uma vez que se destacou o que explica a o funcionamento (ou não) dessa relação.Abstract: Credit FinTechs have been the object of attention from Brazilian Regulators for their disruptive potential: they enable quick access to credit or financing services. In this relationship, the duality between technology and regulation comes into play, accounting for connections that are usually not foreseen in the analyses. This study analyzes how the relationship between the Central Bank of Brazil and Credit FinTechs acts in the aspects of risk, considering the relationship between technology and regulation. The theoretical approach is based on the Actor- Network Theory, stating that non-human entities (eg. information systems and regulations) can be actors that create agency. Therefore, they must be taken into account for analysis. This approach allowed the chain of connections to be determined between different actors, thus leading to advances both in theory and in practice since what explains the functioning (or not) of this relationship was highlighted

    Application of very high-resolution satellite imagery to identify individual tree crowns

    Get PDF
    Num contexto de crescentes mudanças mundiais, as áreas florestais tem sido alvo de pressões e intervenções antrópicas, como alterações climáticas, urbanização e crescimento demográfico, que continuam a provocar desflorestação e a degradação florestal a um ritmo alarmante. Por um lado, várias partes do mundo estão a ser vítimas de tendências acentuadas de desflorestação, grande parte das quais em florestas primárias de elevado valor para a conservação da biodiversidade e a regulação de serviços naturais essenciais. Por outro lado, em outras regiões, nomeadamente na Europa, a reflorestação está a ser promovida, precisamente como medida de apoio aos serviços e recursos naturais fornecidos pelas florestas. Neste contexto, é imperativo estabelecer a capacidade de, regularmente, monitorizar recursos e ecossistemas florestais. Por esta razão, a deteção remota tem se destacado como uma das poucas formas de monitorização, capaz de realizar observações contínuas e frequentes em diferentes escalas temporais e espaciais. No entanto, a eficácia destes métodos depende em grande parte da acessibilidade de amostras para treinar e definir o modelo. Se fosse possível reutilizar amostras de imagens previamente processadas para utilização em diferentes contextos ou períodos de tempo, o trabalho associado à recolha de novas amostras seria significativamente reduzido. No contexto da classificação de imagens, a transferibilidade de conhecimento tem este mesmo objetivo, adaptando um modelo treinado numa tarefa original para fazer previsões numa nova tarefa. Neste contexto, os principais objetivos deste trabalho consistem em: (1) avaliar a capacidade de algoritmos computacionais para a deteção de copas de árvores utilizando imagens de satélite de muito alta resolução; (2) determinar quais elementos das imagens maximizam a qualidade, fiabilidade e robustez dos resultados da classificação; (3) testar os algoritmos desenvolvidos com imagens de diferentes períodos de tempo e de diferentes regiões, de modo a avaliar a sua transferibilidade em termos de diferentes características temporais e espaciais. De maneira a alcançar estes objetivos, recorremos a uma base de imagens do satélite Pleiades, com 0,5 metros de resolução, na quais realizamos correção atmosférica e pan-sharpening. No âmbito deste projeto, foram analisadas dez áreas de interesse, de nove imagens. A maioria (quatro) dos locais situava-se em Espanha e dois em Portugal. Para executar os algoritmos de classificação, foi selecionada uma área de interesse para cada imagem, exceto em Salamanca, na qual foram selecionadas duas, com solo e vegetação diferentes, para testar a resposta do classificador. Na maioria dos locais, as árvores encontram-se num padrão regular, com muitas delas a possuírem copas pequenas (cerca de 1,0 m de diâmetro), enquanto outras eram mais maduras, com diâmetro de copa de aproximadamente 6-8 m. Num par de parcelas, as árvores não se encontravam num padrão regular, mas estavam dispersas. Durante as fases de teste, utilizando um custom API no ambiente QGIS, recorremos a dois métodos de classificação distintos, um supervisionado (Random Forest) e outro não supervisionado (Mosaic Clustering). O método Random Forest recorre a múltiplas árvores de decisão individuais, treinadas num subconjunto aleatório de dados de treino, em vez do conjunto de dados original. Por área de interesse, cerca de 200 a 300 destas amostras de treino foram recolhidas para construir o modelo, que foi depois aplicado a áreas independentes não envolvidas no treino. O método Mosaic Clustering divide a área de interesse em pequenas parcelas, de extensão definida pelo utilizador. Posteriormente, o algoritmo limitava-se a atribuir células a um de dois grupos, representando árvores e não árvores, com base em valores de reflectância semelhantes de cada banda e caraterística. Depois de cobrir toda a imagem, produz a classificação final. Adicionalmente, nas primeiras fases de teste, adicionamos nova informação aos algoritmos através de elementos como o NDVI, Circular Convolution, Adaptive Thresholding e medidas texturais. Numa última fase de teste, procurámos compreender qual seria a capacidade de transferibilidade do algoritmo, treinando e aplicando modelos em imagens com características diferentes. Adotámos, como primeiro passo, um método simplificado de transferibilidade de conhecimento não supervisionado, procurando perceber quais as principais falhas que advêm da não adaptação dos conjuntos de dados aos domínios em causa, de modo a, no futuro do projeto, decidir melhor quais os métodos estabelecidos de transferibilidade e adaptação de domínio a utilizar. Para testar a transferibilidade dos algoritmos, começámos por treinar os modelos em uma imagem de cada vez, utilizando todas as diferentes combinações de informação, e depois efetuámos a classificação, utilizando cada modelo individual, em todas as restantes imagens. De seguida, treinámos os modelos em todas as imagens ao mesmo tempo, exceto na que foi utilizada para o teste. Para realizar métodos de validação, dependemos de duas abordagens diferentes, uma estatística e uma qualitativa. A abordagem estatística envolve a utilização de amostras de validação. Mais concretamente, em cada imagem, 10% das amostras realizadas foram escolhidas aleatoriamente para servirem de amostras de validação. A abordagem qualitativa procura compreender melhor o significado prático dos resultados estatísticos e o impacto da inclusão de nova informação em elementos como o número de árvores detetadas e o tipo de problemas de classificação, encontrados em cada área de interesse. No que respeita ao primeiro objetivo, contámos manualmente o número de polígonos que foram identificados como copas de árvores, para cada combinação de informação, em cada imagem, e procedemos à comparação desses resultados com os resultados estatísticos recolhidos anteriormente. Para o segundo objetivo, avaliámos os principais problemas que se destacaram nos resultados da classificação, sendo estes (1) polígonos mal classificados; (2) árvores misturadas; (3) polígonos fragmentados. Foi utilizada uma abordagem de validação adicional nos testes de transferibilidade, baseada num algoritmo de árvore de decisão individual e superficial. Este algoritmo baseou-se no algoritmo anteriormente utilizado em todas as fases de teste, com a principal diferença de que se baseava apenas numa única árvore de decisão em vez de um conjunto de árvores. Esta abordagem permitiu-nos estimar as decisões que o algoritmo Random Forest estava a tomar e, com essa informação, comparar os limiares das classes definidos por cada modelo de treino com a distribuição de valores da informação das árvores detetadas na imagem prevista. Em primeiro lugar, os resultados mostram que o algoritmo é capaz de realizar deteção de copas de árvores, utilizando imagens de satélite de muito alta resolução. Além disso, também é possível estabelecer que a inclusão de informação adicional tem um impacto na melhoria dos resultados estatísticos, no número de copas de árvores detetados, e na redução dos problemas de classificação encontrados. Em segundo lugar, foi possível identificar a Circular Convolution e as medidas texturais como os dois elementos que mais impacto positivo tiveram nos resultados de classificação, enquanto o NDVI e o Adaptive Thresholding são as que menos melhoraram os resultados. Em terceiro lugar, verificámos que os algoritmos testados ainda não são capazes de ser aplicados num contexto de transferibilidade. A fim de cumprir os objectivos do projeto Life Terra, e resolver as questões acima mencionadas, três abordagens complementares podem ser adoptadas. Em primeiro lugar, alargar o conjunto de dados de treino incluindo novas informações de diferentes contextos geográficos garantiria que o modelo esteja apto a atuar em todos os locais possíveis. Em segundo lugar, e a fim de garantir que o algoritmo seja capaz de lidar com uma maior extensão geográfica e, subsequentemente, uma maior quantidade de informação de treino, pode-se justificar uma transição para Convoluted Neural Networks. Por último, a aplicação de métodos de adaptação ao domínio pode encurtar as lacunas entre os domínios de destino e de origem, assegurando que a informação pré-existente seja o mais semelhante possível, apesar das grandes diferenças que podem ocorrer entre os locais de plantação no âmbito do projeto Life Terra. Em resumo, este estudo permitiu melhorar a nossa compreensão da capacidade do algoritmo para efetuar a deteção de copas de árvores, dos fatores que influenciam o seu desempenho, e da sua capacidade para efetuar classificações de transferibilidade. Os seus resultados servirão de orientação para uma primeira versão de implementação a ser emitida para o projeto Life Terra que pretende fornecer aos utilizadores e gestores de ecossistemas informações detalhadas sobre as árvores que plantaram ou adotaram.While various parts of the world are witnessing deforestation trends in primary forests of high value for biodiversity conservation and regulation of essential natural services, other regions, particularly in Europe, are actively promoting reforestation and ecosystem restoration activities. For this reason, dynamic monitoring of forest areas has become an important part of resource management and ecosystem maintenance, largely reliant on remote sensing methods to efficiently oversee forested areas on a timely and consistent basis. The main objectives of this work consist of: (1) evaluating the capability of computational algorithms for tree crown detection using very-high resolution satellite images; (2) determining what features of the images maximise the quality, reliability and robustness of classification outputs; (3) testing the developed algorithms with images from different time periods and different regions, in order to assess their transferability in terms of different temporal and spatial characteristics. In order to achieve this, we used a set of images from the Pleiades Satellite, in which atmospheric corrections and pan-sharpening approaches were performed. Two classification methods were tested, namely the k-means, a non-supervised clustering algorithm, and random forest, a supervised classification algorithm. Results show that the Mosaic Clustering and, specifically, the Random Forest algorithms are promising approaches for tree crown detection, with the addition of new features positively impacting tree crown detection results. Moreover, the results show that the algorithm is not yet capable of performing consistent transferability classifications, due to the domain gaps between sites. In summary, this study was able to improve our understanding of the algorithm's capability to perform tree crown detection, of which factors impact its performance, and of its ability to perform transferability classifications. Its results will serve as a guideline for a first implementation version to be issued for the Life Terra project
    corecore