8 research outputs found

    Reconnaissance Biométrique par Fusion Multimodale de Visages

    Get PDF
    Biometric systems are considered to be one of the most effective methods of protecting and securing private or public life against all types of theft. Facial recognition is one of the most widely used methods, not because it is the most efficient and reliable, but rather because it is natural and non-intrusive and relatively accepted compared to other biometrics such as fingerprint and iris. The goal of developing biometric applications, such as facial recognition, has recently become important in smart cities. Over the past decades, many techniques, the applications of which include videoconferencing systems, facial reconstruction, security, etc. proposed to recognize a face in a 2D or 3D image. Generally, the change in lighting, variations in pose and facial expressions make 2D facial recognition less than reliable. However, 3D models may be able to overcome these constraints, except that most 3D facial recognition methods still treat the human face as a rigid object. This means that these methods are not able to handle facial expressions. In this thesis, we propose a new approach for automatic face verification by encoding the local information of 2D and 3D facial images as a high order tensor. First, the histograms of two local multiscale descriptors (LPQ and BSIF) are used to characterize both 2D and 3D facial images. Next, a tensor-based facial representation is designed to combine all the features extracted from 2D and 3D faces. Moreover, to improve the discrimination of the proposed tensor face representation, we used two multilinear subspace methods (MWPCA and MDA combined with WCCN). In addition, the WCCN technique is applied to face tensors to reduce the effect of intra-class directions using a normalization transform, as well as to improve the discriminating power of MDA. Our experiments were carried out on the three largest databases: FRGC v2.0, Bosphorus and CASIA 3D under different facial expressions, variations in pose and occlusions. The experimental results have shown the superiority of the proposed approach in terms of verification rate compared to the recent state-of-the-art method

    Annotation sémantique 2D/3D d'images spatialisées pour la documentation et l'analyse d'objets patrimoniaux

    Get PDF
    In the field of architecture and historic preservation , the information and communication technologies enable the acquisition of large amounts of data introducing analysis media for different purposes and at different levels of details ( photographs, point cloud, scientific imaging, ...). The organization and the structure of these resources is now a major problem for the description, the analysis and the understanding of cultural heritage objects. However the existing solutions in semantic annotations on images or on 3D model are insufficient, especially in the linking of different analysis media.This thesis proposes an approach for conducting annotations on different two-dimensional media while allowing the propagation of these annotations between different representations (2D or 3D) of the object. The objective is to identify solutions to correlate (from a spatial, temporal and semantic point of view) sets of annotations within sets of images. Thus, the system is based on the principle of data spatialization for establishing a relationship between the 3D representations, incorporating all the geometric complexity of the object and therefore to the metric information extraction, and 2D representations of object. The approach seeks to the establishment of an information continuity from the image acquisition to the construction of 3D representations semantically enhanced by incorporating multi-media and multi-temporal aspects. This work resulted in the definition and the development of a set of software modules that can be used by specialists of conservation of architectural heritage as by the general public.Dans le domaine de l’architecture et de la conservation du patrimoine historique, les technologies de l’information et de la communication permettent l’acquisition de grandes quantités de données introduisant des supports d’analyses pour différentes finalités et à différents niveaux de détails (photographies, nuages de points, imagerie scientifique, …). L’organisation et la structuration de ces ressources est aujourd’hui un problème majeur pour la description, l’analyse et la compréhension d’objets patrimoniaux. Cependant les solutions existantes d’annotations sémantiques d’images ou de modèle 3D se révèlent insuffisantes notamment sur l’aspect de mise en relation des différents supports d’analyse.Cette thèse propose une approche permettant de conduire des annotations sur les différents supports bidimensionnels tout en permettant la propagation de ces annotations entre les différentes représentations (2D ou 3D) de l’objet. L’objectif est d’identifier des solutions pour corréler (d’un point de vue spatial, temporel et sémantique) des jeux d’annotations au sein d’un jeu d’images. Ainsi le système repose sur le principe de spatialisation des données permettant d’établir une relation entre les représentations 3D, intégrant toute la complexité géométrique de l’objet et par conséquent permettant l’extraction d’informations métriques, et les représentations 2D de l’objet. L’approche cherche donc à la mise en place d’une continuité informationnelle depuis l’acquisition d’images jusqu’à la construction de représentations 3D sémantiquement enrichies en intégrant des aspects multi-supports et multi-temporels. Ce travail a abouti à la définition et le développement d’un ensemble de modules informatiques pouvant être utilisés par des spécialistes de la conservation d’un patrimoine architectural comme par le grand public

    Contribution à l'analyse de la dynamique des écritures anciennes pour l'aide à l'expertise paléographique

    Get PDF
    Mes travaux de thèse s inscrivent dans le cadre du projet ANR GRAPHEM1 (Graphemebased Retrieval and Analysis for PaleograpHic Expertise of Middle Age Manuscripts). Ilsprésentent une contribution méthodologique applicable à l'analyse automatique des écrituresanciennes pour assister les experts en paléographie dans le délicat travail d étude et dedéchiffrage des écritures.L objectif principal est de contribuer à une instrumetation du corpus des manuscritsmédiévaux détenus par l Institut de Recherche en Histoire des Textes (IRHT Paris) en aidantles paléographes spécialisés dans ce domaine dans leur travail de compréhension de l évolutiondes formes de l écriture par la mise en place de méthodes efficaces d accès au contenu desmanuscrits reposant sur une analyse fine des formes décrites sous la formes de petits fragments(les graphèmes). Dans mes travaux de doctorats, j ai choisi d étudier la dynamique del élément le plus basique de l écriture appelé le ductus2 et qui d après les paléographes apportebeaucoup d informations sur le style d écriture et l époque d élaboration du manuscrit.Mes contributions majeures se situent à deux niveaux : une première étape de prétraitementdes images fortement dégradées assurant une décomposition optimale des formes en graphèmescontenant l information du ductus. Pour cette étape de décomposition des manuscrits, nousavons procédé à la mise en place d une méthodologie complète de suivi de traits à partir del extraction d un squelette obtenu à partir de procédures de rehaussement de contraste et dediffusion de gradients. Le suivi complet du tracé a été obtenu à partir de l application des règlesfondamentales d exécution des traits d écriture, enseignées aux copistes du Moyen Age. Il s agitd information de dynamique de formation des traits portant essentiellement sur des indicationsde directions privilégiées.Dans une seconde étape, nous avons cherché à caractériser ces graphèmes par desdescripteurs de formes visuelles compréhensibles à la fois par les paléographes et lesinformaticiens et garantissant une représentation la plus complète possible de l écriture d unpoint de vue géométrique et morphologique. A partir de cette caractérisation, nous avonsproposé une approche de clustering assurant un regroupement des graphèmes en classeshomogènes par l utilisation d un algorithme de classification non-supervisé basée sur lacoloration de graphe. Le résultat du clustering des graphèmes a conduit à la formation dedictionnaires de formes caractérisant de manière individuelle et discriminante chaque manuscrittraité. Nous avons également étudié la puissance discriminatoire de ces descripteurs afin d obtenir la meilleure représentation d un manuscrit en dictionnaire de formes. Cette étude a étéfaite en exploitant les algorithmes génétiques par leur capacité à produire de bonne sélection decaractéristiques.L ensemble de ces contributions a été testé à partir d une application CBIR sur trois bases demanuscrits dont deux médiévales (manuscrits de la base d Oxford et manuscrits de l IRHT, baseprincipale du projet), et une base comprenant de manuscrits contemporains utilisée lors de lacompétition d identification de scripteurs d ICDAR 2011. L exploitation de notre méthode dedescription et de classification a été faite sur une base contemporaine afin de positionner notrecontribution par rapport aux autres travaux relevant du domaine de l identification d écritures etétudier son pouvoir de généralisation à d autres types de documents. Les résultats trèsencourageants que nous avons obtenus sur les bases médiévales et la base contemporaine, ontmontré la robustesse de notre approche aux variations de formes et de styles et son caractèrerésolument généralisable à tout type de documents écrits.My thesis work is part of the ANR GRAPHEM Project (Grapheme based Retrieval andAnalysis for Expertise paleographic Manuscripts of Middle Age). It represents a methodologicalcontribution applicable to the automatic analysis of ancient writings to assist the experts inpaleography in the delicate work of the studying and deciphering the writing.The main objective is to contribute to an instrumentation of the corpus of medievalmanuscripts held by Institut de Recherche en Histoire de Textes (IRHT-Paris), by helping thepaleographers specialized in this field in their work of understanding the evolution of forms inthe writing, with the establishment of effective methods to access the contents of manuscriptsbased on a fine analysis of the forms described in the form of small fragments (graphemes). Inmy PhD work, I chose to study the dynamic of the most basic element of the writing called theductus and which according to the paleographers, brings a lot of information on the style ofwriting and the era of the elaboration of the manuscript.My major contribution is situated at two levels: a first step of preprocessing of severelydegraded images to ensure an optimal decomposition of the forms into graphemes containingthe ductus information. For this decomposition step of manuscripts, we have proceeded to theestablishment of a complete methodology for the tracings of strokes by the extraction of theskeleton obtained from the contrast enhancement and the diffusion of the gradient procedures.The complete tracking of the strokes was obtained from the application of fundamentalexecution rules of the strokes taught to the scribes of the Middle Ages. It is related to thedynamic information of the formation of strokes focusing essentially on indications of theprivileged directions.In a second step, we have tried to characterize the graphemes by visual shape descriptorsunderstandable by both the computer scientists and the paleographers and thus unsuring themost complete possible representation of the wrting from a geometrical and morphological pointof view. From this characterization, we have have proposed a clustering approach insuring agrouping of graphemes into homogeneous classes by using a non-supervised classificationalgorithm based on the graph coloring. The result of the clustering of graphemes led to theformation of a codebook characterizing in an individual and discriminating way each processedmanuscript. We have also studied the discriminating power of the descriptors in order to obtaina better representation of a manuscript into a codebook. This study was done by exploiting thegenetic algorithms by their ability to produce a good feature selection.The set of the contributions was tested from a CBIR application on three databases ofmanuscripts including two medieval databases (manuscripts from the Oxford and IRHTdatabases), and database of containing contemporary manuscripts used in the writersidentification contest of ICDAR 2011. The exploitation of our description and classificationmethod was applied on a cotemporary database in order to position our contribution withrespect to other relevant works in the writrings identification domain and study itsgeneralization power to other types of manuscripts. The very encouraging results that weobtained on the medieval and contemporary databases, showed the robustness of our approachto the variations of the shapes and styles and its resolutely generalized character to all types ofhandwritten documents.PARIS5-Bibliotheque electronique (751069902) / SudocSudocFranceF

    Identification automatisée des espèces d'arbres dans des scans laser 3D réalisés en forêt

    Get PDF
    The objective of the thesis is the automatic recognition of tree species from Terrestrial LiDAR data. This information is essential for forest inventory. As an answer, we propose different recognition methods based on the 3D geometric texture of the bark.These methods use the following processing steps: a preprocessing step, a segmentation step, a feature extraction step and a final classification step. They are based on the 3D data or on depth images built from 3D point clouds of tree trunks using a reference surface.We have investigated and tested several segmentation approaches on depth images representing the geometric texture of the bark. These approaches have the disadvantages of over segmentation and are quite sensitive to noises. For this reason, we propose a new 3D point cloud segmentation approach inspired by the watershed technique that we have called «Burst Wind Segmentation». Our approach succeed in extracting in most cases the characteristic scars that are next compared to those stored in a dictionary («ScarBook») in order to determine the tree species.A large variety of characteristics is extracted from the regions segmented by the different methods proposed. These characteristics are the roughness, the global shape of the segmented regions, the saliency and the curvature of the contour, the distribution of the contour points, the distribution of the shape according to the different orientations.Finally, for the classification of the visual characteristics, the Random Forest method by Leo Breiman and Adèle Cutler is used in a two steps approach: selection of the most important variables and cross classification with the selected variables.The bark of the tree changes with the trunk diameter. We have thus studied different natural variability criteria and we have tested our approaches on a test set that includes this variability. The accuracy rate is over 96% for all the proposed segmentation approaches but the best result is obtained with the «Burst Wind Segmentation» one due to the fact that this approach can better extract the scars, it uses a dictionary of scars for recognition, and it has been evaluated on a greater variety of shapes, curvatures, saliency and roughness.L’objectif de ces travaux de thèse est la reconnaissance automatique des espèces d’arbres à partir de scans laser terrestres, information indispensable en inventaire forestier. Pour y répondre, nous proposons différentes méthodes de reconnaissance d’espèce basées sur la texture géométrique 3D des écorces.Ces différentes méthodes utilisent la séquence de traitement suivante : une étape de prétraitement, une étape de segmentation, une étape d’extraction des caractéristiques et une dernière étape de classification. Elles sont fondées sur les données 3D ou bien sur des images de profondeur extraites à partir des nuages de points 3D des troncs d’arbres en utilisant une surface de référence.Nous avons étudié et testé différentes approches de segmentation sur des images de profondeur représentant la texture géométrique de l'écorce. Ces approches posent des problèmes de sur-Segmentation et d'introduction de bruit. Pour cette raison, nous proposons une nouvelle approche de segmentation des nuages de points 3D : « Burst Wind Segmentation », inspirée des lignes de partage des eaux. Cette dernière réussit, dans la majorité des cas, à extraire des cicatrices caractéristiques qui sont ensuite comparées à un dictionnaire des cicatrices (« ScarBook ») pour discriminer les espèces d’arbres.Une grande variété de caractéristiques est extraite à partir des régions segmentées par les différentes méthodes proposées. Ces caractéristiques représentent le niveau de rugosité, la forme globale des régions segmentées, la saillance et la courbure du contour, la distribution des points de contour, la distribution de la forme selon différents angles,...Enfin, pour la classification des caractéristiques visuelles, les forêts aléatoires (Random Forest) de Leo Breiman et Adèle Cutler sont utilisées dans une approche à deux étapes : sélection des variables importantes, puis classification croisée avec les variables retenues, seulement.L’écorce de l’arbre change avec l'accroissement en diamètre ; nous avons donc étudié différents critères de variabilité naturelle et nous avons testé nos approches sur une base qui présente cette variabilité. Le taux de bonne classification dépasse 96% dans toutes les approches de segmentation proposées mais les meilleurs résultats sont atteints avec la nouvelle approche de segmentation « Burst Wind Segmentation » étant donné que cette approche réussit mieux à extraire les cicatrices, utilise un dictionnaire de cicatrices et a été évaluée sur une plus grande variété de caractéristiques de forme, de courbure, de saillance et de rugosité

    Vision artificielle pour les non-voyants : une approche bio-inspirée pour la reconnaissance de formes

    Get PDF
    More than 315 million people worldwide suffer from visual impairments, with several studies suggesting that this number will double by 2030 due to the ageing of the population. To compensate for the loss of sight the current approaches consist of either specific aids designed to answer particular needs or generic systems such as neuroprostheses and sensory substitution devices. These holistic approaches, which try to restore vision as a whole, have been shown to be very inefficient in real life situations given the low resolution of output interfaces. To overcome these obstacles we propose the use of artificial vision in order to pre-process visual scenes and provide the user with relevant information. We have validated this approach through the development of a novel assistive device for the blind called Navig. Through shape recognition and spatialized sounds synthesis, this system allows users to locate and grab objects of interest. It also features navigational aids based on a new positioning method combining GPS, inertial sensors and the visual detection of geolocalized landmarks. To enhance the performance of the visual module we further developed, as part of this thesis, a bio-inspired pattern recognition algorithm which uses latency-based coding of visual information, oriented edge representations and a cascaded architecture combining detection at different resolutions.La déficience visuelle touche aujourd’hui plus de 315 millions de personnes à travers le monde, un chiffre qui pourrait doubler d’ici à 2030 du fait du vieillissement de la population. Les deux grandes approches existantes pour compenser la perte de vision sont les aides spécifiques, répondant à un besoin identifié, et les systèmes génériques tels que les neuroprothèses ou les systèmes de substitution sensorielle. Ces approches holistiques, tentant de restituer l’ensemble de l’information visuelle, s’avèrent inadaptées de par la trop faible résolution des interfaces de sortie, rendant ces systèmes inutilisables dans la vie quotidienne. Face à ce constat, nous proposons dans cette thèse une démarche alternative, consistant à intégrer des méthodes de vision artificielle, afin de prétraiter la scène visuelle, et de ne restituer au non-voyant que les informations extraites pertinentes. Pour valider cette approche, nous présenterons le développement d’un système de suppléance baptisé Navig. Grâce à la reconnaissance de formes et à la synthèse de sons spatialisés, il permet à l’utilisateur de localiser des objets d’intérêt. Il offre également des fonctions de navigation, basées sur une nouvelle méthode de positionnement combinant GPS, données inertielles, et détections de cibles visuelles géolocalisées. Afin d’améliorer les performances du module de vision artificielle, nous proposerons également dans cette thèse un nouvel algorithme de reconnaissance de formes bio-inspiré, reposant sur un codage de l’information visuelle par latence, sur des représentations sous forme d’arêtes orientées, et sur une architecture en cascade combinant des détections à différentes résolutions

    Traitement des configurations spatiales dans le cortex visuel chez le primate non-humain

    Get PDF
    Le traitement des configurations spatiales est un mécanisme qui intervient en permanence au sein du cortex visuel. Dans ce monde emplit de régularités qui est le nôtre, il tient une place prépondérante dans l'analyse des objets de notre environnement en nous permettant d'établir des relations spatiales entre des ensembles d'éléments pour aboutir à une perception globale. Si certaines caractéristiques de ces mécanismes ont été étudiés chez les primate humain et non-humain, les observations issues de ces études ont été majoritairement portées par des approches différentes dont les méthodes non-invasives en neuroimagerie sont privilégiées chez l'humain et les méthodes plus invasives tel que l'électrophysiologie sont favorisées chez le singe. Bien qu'elles soient un support critique dans la compréhension des mécanismes neuronaux, les connaissances issues d'enregistrements unitaires chez le singe ne peuvent être transposées à l'humain qu'une fois l'identification d'homologies et de différences fonctionnelles établie à partir des mêmes approches expérimentales. Pour ce faire, nous proposons dans cette thèse de répondre aux besoins d'études comparatives entre les deux espèces dans le cadre du traitement visuel des configurations spatiales portant sur le traitement de la symétrie et le traitement configural des visages par une approche en IRMf. Une première étude menée en collaboration avec des chercheurs de l'Université de Stanford nous a permis d'étudier les réponses à des stimuli texturaux englobant des motifs de symétrie chez le macaque. Nous avons pu mettre en évidence (1) un réseau cortical de traitement de la symétrie par rotation similaire entre les primates humains et non-humains, (2) des réponses augmentant de manière paramétrique avec l'ordre de symétrie présenté (n rotations) (3) un réseau similaire de traitement de la symétrie par rotation et par réflexion chez le macaque (4) des réponses plus fortes pour des motifs symétriques à deux axes (horizontale et verticale) plutôt qu'un seul axe (horizontal). Nous avons ainsi observé que les réponses à la symétrie chez le macaque débutaient au-delà de V1, dans un réseau comprenant les aires V2, V3, V3A, V4 semblablement à l'humain mais également des réponses paramétriques à l'ordre de symétrie par rotation dans les aires V3, V4 et PITd tout comme reporté chez les sujets humains. En somme, l'ensemble de ces résultats ont mis en évidence le réseau cortical du traitement de la symétrie jusqu'alors jamais observé chez le macaque, supporté par des aires visuelles homologues à celles de l'humain. Ces résultats ouvrent de nouvelles pistes quant à la compréhension des mécanismes neuronaux unitaires par des approches plus invasives chez le singe, tout particulièrement dans l'aire V3 qui semble jouer un rôle important dans le traitement sophistiqué des paramètres de configurations spatiales. La secondé étude de ce projet de thèse visait à étudier les mécanismes de reconnaissance de l'identité faciale chez le singe à travers l'orientation configurale des visages porté par l'objectif de réaliser une comparaison inter-espèces du traitement holistique des visages. S'il est largement admis que l'humain est un expert de l'identification des visages dont les mécanismes dépendent de l'orientation dans laquelle ils sont présentés, les résultats sont bien plus contradictoires chez le singe. Pour résoudre ces contradictions, nous avons mis en place un protocole innovant visant à mesurer l'effet d'inversion chez les deux espèces qui ne nécessitait ni entrainement ni tâche comportementale. Cette étude menée en collaboration avec B. Rossion demeure en cours d'acquisition. Néanmoins, les données pourraient fournir des preuves de mécanismes fonctionnels distincts entre celles-ci, appelant à une potentielle réévaluation de l'utilisation du macaque dans l'étude et la compréhension des processus de reconnaissance de l'identité faciale chez l'humain.The processing of spatial configurations is a mechanism that constantly intervenes within the visual cortex. In this world full of regularities that are ours, it holds a prominent place in the analysis of objects in our environment, allowing us to establish spatial relationships between sets of elements to reach a global perception. While characteristics of these mechanisms have been studied in human and non-human primates, the resulting observations depend on different methodologies. In human studies, non-invasive neuroimaging methods are privileged, while more invasive technics (i.e electrophysiology) are favored in monkeys. Despite being critical in understanding neuronal mechanisms, outcomes from unit recordings in monkeys can only be transposed to humans once the identification of functional homologies and differences are established from the same experimental approaches. Tn this thesis, we propose to meet the needs of comparative studies between the two species within the visual treatment of spatial configurations framework relating to the processing of symmetry and the configural processing of faces by an fMRI approach. A first study conducted in collaboration with researchers at Stanford University allows us to investigate the responses to textural stimuli encompassing patterns of symmetry in the macaque brain. The study demonstrates (1) a similar cortical rotational symmetry processing network between human and non-human primates (2) responses increasing parametrically with the order of symmetry presented (n rotations) (3) a similar network for processing of rotational and reflection symmetry in the macaque (4) stronger responses for symmetrical patterns with two axes (horizontal and vertical) rather than a single axis (horizontal). We also observe that the responses to symmetry in the macaque begin beyond V1, in a network comprising the areas V2, V3, V3A, V4 similar to humans but also parametric responses to the order of rotation in symmetry in areas V3, V4, and PITd as reported in human subjects. Overall, all of these results highlight the cortical network of symmetry processing never observed in macaques so far, supported by visual areas homologous to those of humans. These results open up new possibilities for the understanding of unitary neuronal mechanisms by more invasive approaches in monkeys, especially in the V3 area which seems to play an important role in the sophisticated processing of spatial configuration parameters. The second study of this thesis project aims to investigate the mechanisms of facial identity recognition in monkeys through the configural orientation of faces, and carry out an interspecies comparison of holistic facial processing. It is widely accepted that humans are experts at identifying faces whose mechanisms depend on the orientation in which they are presented. However, results are much more contradictory in the monkey. To resolve these contradictions, we implement an innovative protocol to measure the face inversion effect in the two species that require no training or behavioral tasks. This study, conducted in collaboration with B. Rossion, is still in progress. Nonetheless, the futur data could provide evidence of distinct functional mechanisms between human and non-human species, calling for a potential reassessment of the use of the macaque in the study and understanding of facial identity recognition processes in humans

    L'AIS : une donnée pour l'analyse des activités en mer

    Get PDF
    4 pages, session "Mer et littoral"International audienceCette contribution présente des éléments méthodologiques pour la description des activités humaines en mer dans une perspective d'aide à la gestion. Différentes procédures, combinant l'exploitation de bases de données spatio-temporelles issue de données AIS archivées à des analyses spatiales au sein d'un SIG, sont testées afin de caractériser le transport maritime en Mer d'Iroise (Bretagne, France) sur les plans spatiaux, temporels et quantitatifs au cours d'une année

    Une approche logicielle du traitement de la dyslexie : étude de modèles et applications

    Get PDF
    Neuropsychological disorders are widespread and generate real public health problems. In particular in our modern society, where written communication is ubiquitous, dyslexia can be extremely disabling. Nevertheless we can note that the diagnosis and remediation of this pathology are fastidious and lack of standardization. Unfortunately it seems inherent to the clinical characterization of dyslexia by exclusion, to the multitude of different practitioners involved in such treatment and to the lack of objectivity of some existing methods. In this respect, we decided to investigate the possibilities offered by modern computing to overcome these barriers. Indeed we have assumed that the democratization of computer systems and their computing power could make of them a perfect tool to alleviate the difficulties encountered in the treatment of dyslexia. This research has led us to study the techniques software as well as hardware, which can conduct to the development of an inexpensive and scalable system able to attend a beneficial and progressive changing of practices in this pathology field. With this project we put ourselves definitely in an innovative stream serving quality of care and aid provided to people with disabilities. Our work has been identifying different improvement areas that the use of computers enables. Then each of these areas could then be the subject of extensive research, modeling and prototype developments. We also considered the methodology for designing this kind of system as a whole. In particular our thoughts and these accomplishments have allowed us to define a software framework suitable for implementing a software platform that we called the PAMMA. This platform should theoretically have access to all the tools required for the flexible and efficient development of medical applications integrating business processes. In this way it is expected that this system allows the development of applications for caring dyslexic patients thus leading to a faster and more accurate diagnosis and a more appropriate and effective remediation. Of our innovation efforts emerge encouraging perspectives. However such initiatives can only be achieved within multidisciplinary collaborations with many functional, technical and financial means. Creating such a consortium seems to be the next required step to get a funding necessary for realizing a first functional prototype of the PAMMA, as well as its first applications. Some clinical studies may be conducted to prove undoubtedly the effectiveness of such an approach for treating dyslexia and eventually other neuropsychological disorders.Les troubles neuropsychologiques sont très répandus et posent de réels problèmes de santé publique. En particulier, dans notre société moderne où la communication écrite est omniprésente, la dyslexie peut s’avérer excessivement handicapante. On remarque néanmoins que le diagnostic et la remédiation de cette pathologie restent délicats et manquent d’uniformisation. Ceci semble malheureusement inhérent à la caractérisation clinique par exclusion de la dyslexie, à la multitude de praticiens différents impliqués dans une telle prise en charge ainsi qu’au manque d’objectivité de certaines méthodes existantes. A ce titre, nous avons décidé d’investiguer les possibilités offertes par l’informatique actuelle pour surmonter ces barrières. Effectivement, nous avons supposé que la démocratisation des systèmes informatiques et leur puissance de calcul pourraient en faire un outil de choix pour pallier les difficultés rencontrées lors de la prise en charge de la dyslexie. Cette recherche nous a ainsi mené à étudier les techniques, aussi bien logicielles que matérielles, pouvant conduire au développement d’un système bon marché et évolutif qui serait capable d’assister un changement bénéfique et progressif des pratiques qui entourent cette pathologie. Avec ce projet, nous nous plaçons définitivement dans un courant innovant au service de la qualité des soins et des aides apportées aux personnes souffrant d’un handicap. Notre travail a ainsi consisté à identifier différents axes d’amélioration que l’utilisation de l’outil informatique rend possible. Chacun de ces axes a alors pu faire l’objet de recherches exhaustives, de modélisations et de développements de prototypes. Nous avons également réfléchi à la méthodologie à mettre en œuvre pour concevoir un tel système dans sa globalité. En particulier, nos réflexions et ces différents accomplissements nous ont permis de définir un framework logiciel propice à l’implémentation d’une plate-forme logicielle que nous avons appelée la PAMMA. Cette plate-forme devrait théoriquement pouvoir disposer de tous les outils permettant le développement souple et efficace d’applications médicales intégrant des processus métiers. Il est ainsi attendu de ce système qu’il permette le développement d’applications, pour la prise en charges des patients dyslexiques, conduisant à un diagnostic plus rapide et plus précis ainsi qu’à une remédiation plus adaptée et plus efficace. De notre effort d’innovation ressortent des perspectives encourageantes. Cependant, ce type d’initiative ne peut se concrétiser qu’autour de collaborations pluridisciplinaires disposant de nombreux moyens fonctionnels, techniques et financiers. La constitution d’un tel consortium semble donc être la prochaine étape nécessaire à l’obtention des financements pour réaliser un premier prototype fonctionnel de la PAMMA, ainsi que de premières applications. Des études cliniques pourront être alors menées pour prouver indubitablement l’efficacité d’une telle approche dans le cadre de la prise en charge de la dyslexie, ainsi qu’éventuellement d’autres troubles neuropsychologiques
    corecore