5 research outputs found

    Codage de parole par transformée pour le développement de codeurs parole-audio unifiés

    Get PDF
    La compression de tous les types de signaux audio (parole et audio) constitue un vaste domaine de recherche, car il tente de répondre à de nombreuses et différentes demandes provenant de l’industrie. Actuellement, l’industrie de la téléphonie mobile possède de nombreuses requêtes au niveau de la compression de signaux audio à faible débit (sous les 32 kbit/s). Dans cette plage de débit, deux modèles sont nécessaires pour compresser tous les types de signaux audio : les codecs temporels s’utilisent pour la compression des signaux de parole et les codecs fréquentiels (par transformée) plus généraux s’utilisent pour la compression des signaux audio tels que la musique. Les téléphones intelligents et les tablettes numériques représentent des exemples d’appareils qui doivent intégrer deux codecs différents. Idéalement, ces appareils devraient intégrer un codec unique qui compresse tous les types de signaux audio. Cependant, l’unique moyen actuel d’obtenir un «codec universel» consiste en un «codec hybride universel». Les codecs hybrides universels intègrent au moins deux modèles de codage et un classificateur, qui sélectionne le modèle à exécuter selon le signal à traiter. Ces codecs ne représentent donc pas véritablement des codecs unifiés. De plus, avec l’utilisation d’un classificateur, les codecs hybrides introduisent également la possibilité d’erreurs de classification durant l’analyse. Ces codecs hybrides ont également tendance à être plus complexes puisqu’ils doivent gérer les différents modèles de codage. Après plus de trente ans de recherche, il existe toujours une distinction entre les approches utilisées pour la compression des signaux de parole et celles utilisées pour les signaux audio. Les codecs temporels se basent sur un modèle de production de la parole tandis que les codecs fréquentiels utilisent un modèle de perception auditive pour les signaux audio. Cette thèse propose des contributions dans l’élaboration d’un modèle de codage audio universel et véritablement unifié. Ces contributions se présentent dans cette thèse par un modèle d’analyse-synthèse de type harmonique-plus-bruit pour les signaux de parole qui fonctionne entièrement dans le domaine fréquentiel. Cette thèse démontre qu’il est possible d’obtenir un signal de parole de qualité perceptuelle transparente sans nécessairement suivre l’évolution de la forme d’onde du signal original. De plus, cette thèse propose également une version quantifiée du modèle d’analyse-synthèse et démontre qu’il est possible d’obtenir un signal de synthèse de bonne qualité pour des débits autour de 24 kbit/s et de 30 kbit/s. Lors des tests subjectifs MOS, le modèle se situe dans la même catégorie de qualité que la norme G.722.2 (AMR-WB) de l’institut UIT pour un débit autour de 24 kbit/s. Le modèle possède l’avantage de fonctionner entièrement dans le domaine fréquentiel et démontre ainsi les possibilités d’un codec réellement universel puisque traditionnellement le domaine des fréquences était réservé aux signaux audio autres que les signaux de parole

    Évaluation subjective de la qualité (proposition d'un système de référence pour les codecs en bande élargie)

    Get PDF
    L'évolution des systèmes de télécommunications conduit à la conception de codecs de la parole et du son de plus en plus sophistiqués, accroissant ainsi la concurrence de l'industrie de l'audio et accordant une importance grandissante à la qualité de service. Si l'évaluation de la qualité des codecs peut s'opérer suivant des mesures objectives ou subjectives, les secondes restent les plus fiables dans la mesure où la qualité perçue par les utilisateurs est intrinsèquement subjective. Toutefois, les tests subjectifs requièrent des signaux d'ancrage, i.e. des signaux artificiels visant la reproduction des défauts perceptifs des codecs de sorte que les dégradations provoquées soient aisément contrôlables. Le système de référence actuellement normalisé par l'Union Internationale des Télécommunications est le MNRU (Modulated Noise Reference Unit) qui simule le bruit de quantification introduit par les premiers codecs en forme d'onde. L'évolution de la technologie rend aujourd'hui ce système obsolète, et il s'agit donc de concevoir un nouveau système d'ancrage plus adapté aux codecs actuels. En considérant la qualité audio comme un objet multidimensionnel, nous avons mis en évidence un espace perceptif à quatre dimensions, et ce à partir de deux approches de réduction de dimensionnalité, l'AFM (Analyse Factorielle Multiple) et la MDS 3 voies (MultiDimensional Scaling). A partir des quatre dimensions identifiées Réduction de la largeur de bande , Bruit de fond , Écho/Réverbération et Distorsion de la parole , nous avons modélisé puis validé les signaux d'ancrage des trois premières dimensions et proposé deux modèles de signaux d'ancrage pour la quatrième.The evolution of technology led to the design of very sophisticated speech and audio codecs. Accordingly, the competition in audio devices manufacturing has increased and today the quality of service becomes crucial for telecommunications operators. Quality of codecs is assessed through objective and subjective measures, the second ones being the most reliable since the quality perceived by users is inherently subjective. Nevertheless, subjective tests require anchor signals corresponding to artificial signals, which reproduce the perceptual impairments of codecs in such a manner that the amount of degradation can be easily controlled. The reference system currently standardized by the International Telecommunication Union is the Modulated Noise Reference Unit (MNRU), which simulates the quantization noise of the first generation of waveform codecs. Due to the evolution of codecs, the MNRU system became obsolete and researchers aim at designing a new reference system of anchor signals more suited to current codecs. Assuming that speech and audio quality is multidimensional, we first identified four perceptual dimensions using two dimensionality reduction techniques the MFA (Multiple Factor Analysis) and the 3 way MDS (MultiDimensional Scaling). From the identified dimensions, namely Bandwidth limitation , Background noise , Echo/Reverberation and Speech distortion , we succeeded in modeling and validating anchor signals for three of them and we suggested two models of anchor signals for the last one.RENNES1-Bibl. électronique (352382106) / SudocSudocFranceF

    Nouvelles techniques de quantification vectorielle algébrique basées sur le codage de Voronoi : application au codage AMR-WB+

    Get PDF
    L'objet de cette thèse est l'étude de la quantification (vectorielle) par réseau de points et de son application au modèle de codage audio ACELP/TCX multi-mode. Le modèle ACELP/TCX constitue une solution possible au problème du codage audio universel---par codage universel, on entend la représentation unifiée de bonne qualité des signaux de parole et de musique à différents débits et fréquences d'échantillonnage. On considère ici comme applications la quantification des coefficients de prédiction linéaire et surtout le codage par transformée au sein du modèle TCX; l'application au codage TCX a un fort intérêt pratique, car le modèle TCX conditionne en grande partie le caractère universel du codage ACELP/TCX. La quantification par réseau de points est une technique de quantification par contrainte, exploitant la structure linéaire des réseaux réguliers. Elle a toujours été considérée, par rapport à la quantification vectorielle non structurée, comme une technique prometteuse du fait de sa complexité réduite (en stockage et quantité de calculs). On montre ici qu'elle possède d'autres avantages importants: elle rend possible la construction de codes efficaces en dimension relativement élevée et à débit arbitrairement élevé, adaptés au codage multi-débit (par transformée ou autre); en outre, elle permet de ramener la distorsion à la seule erreur granulaire au prix d'un codage à débit variable. Plusieurs techniques de quantification par réseau de points sont présentées dans cette thèse. Elles sont toutes élaborées à partir du codage de Voronoï. Le codage de Voronoï quasi-ellipsoïdal est adapté au codage d'une source gaussienne vectorielle dans le contexte du codage paramétrique de coefficients de prédiction linéaire à l'aide d'un modèle de mélange gaussien. La quantification vectorielle multi-débit par extension de Voronoï ou par codage de Voronoï à troncature adaptative est adaptée au codage audio par transformée multi-débit. L'application de la quantification vectorielle multi-débit au codage TCX est plus particulièrement étudiée. Une nouvelle technique de codage algébrique de la cible TCX est ainsi conçue à partir du principe d'allocation des bits par remplissage inverse des eaux

    Mutations du livre à l\u27heure de l\u27internet (Les)

    Get PDF
    Un ouvrage de synthèse de 1971 à nos jours, basé sur le suivi de l\u27actualité francophone et internationale, et issu des multiples liens tissés sur la toile avec nombre de professionnels du livre depuis 1998. L’internet et les technologies numériques bouleversent le monde du livre. Imprimé sous de multiples formes depuis plus de cinq siècles, le livre se convertit. Si le livre imprimé a toujours sa place, d’autres supports se développent, et les habitudes de travail changent. On voit apparaître les textes électroniques, les bibliothèques numériques, les librairies en ligne, les éditeurs électroniques, les encyclopédies en ligne, les oeuvres hypermédias, les logiciels de lecture et les appareils de lecture dédiés. Le web devient une vaste encyclopédie et le patrimoine mondial est en cours de numérisation. Le papier électronique est pour bientôt. Basé sur le suivi de l’actualité et sur une centaine d’entretiens, ce livre tente de faire le tour de la question. Il est complété par une chronologie détaillée et une liste de sites web
    corecore