61 research outputs found

    Diffuse pattern learning with Fuzzy ARTMAP and PASS

    Get PDF
    Fuzzy ARTMAP is compared to a classifier system (CS) called PASS (predictive adaptive sequential system). Previously reported results in a benchmark classification task suggest that Fuzzy ARTMAP systems perform better and are more parsimonious than systems based on the CS architecture. The tasks considered here differ from ordinary classificatory tasks in the amount of output uncertainty associated with input categories. To be successful, learning systems must identify not only correct input categories, but also the most likely outputs for those categories. Performance under various types of diffuse patterns is investigated using a simulated scenario

    Probabilistic and fuzzy reasoning in simple learning classifier systems

    Get PDF
    This paper is concerned with the general stimulus-response problem as addressed by a variety of simple learning c1assifier systems (CSs). We suggest a theoretical model from which the assessment of uncertainty emerges as primary concern. A number of representation schemes borrowing from fuzzy logic theory are reviewed, and sorne connections with a well-known neural architecture revisited. In pursuit of the uncertainty measuring goal, usage of explicit probability distributions in the action part of c1assifiers is advocated. Sorne ideas supporting the design of a hybrid system incorpo'rating bayesian learning on top of the CS basic algorithm are sketched

    Texture Segregation By Visual Cortex: Perceptual Grouping, Attention, and Learning

    Get PDF
    A neural model is proposed of how laminar interactions in the visual cortex may learn and recognize object texture and form boundaries. The model brings together five interacting processes: region-based texture classification, contour-based boundary grouping, surface filling-in, spatial attention, and object attention. The model shows how form boundaries can determine regions in which surface filling-in occurs; how surface filling-in interacts with spatial attention to generate a form-fitting distribution of spatial attention, or attentional shroud; how the strongest shroud can inhibit weaker shrouds; and how the winning shroud regulates learning of texture categories, and thus the allocation of object attention. The model can discriminate abutted textures with blurred boundaries and is sensitive to texture boundary attributes like discontinuities in orientation and texture flow curvature as well as to relative orientations of texture elements. The model quantitatively fits a large set of human psychophysical data on orientation-based textures. Object boundar output of the model is compared to computer vision algorithms using a set of human segmented photographic images. The model classifies textures and suppresses noise using a multiple scale oriented filterbank and a distributed Adaptive Resonance Theory (dART) classifier. The matched signal between the bottom-up texture inputs and top-down learned texture categories is utilized by oriented competitive and cooperative grouping processes to generate texture boundaries that control surface filling-in and spatial attention. Topdown modulatory attentional feedback from boundary and surface representations to early filtering stages results in enhanced texture boundaries and more efficient learning of texture within attended surface regions. Surface-based attention also provides a self-supervising training signal for learning new textures. Importance of the surface-based attentional feedback in texture learning and classification is tested using a set of textured images from the Brodatz micro-texture album. Benchmark studies vary from 95.1% to 98.6% with attention, and from 90.6% to 93.2% without attention.Air Force Office of Scientific Research (F49620-01-1-0397, F49620-01-1-0423); National Science Foundation (SBE-0354378); Office of Naval Research (N00014-01-1-0624

    Unsupervised and Supervised Fuzzy Neural Network Architecture, with Applications in Machine Vision Fuzzy Object Recognition and Inspection

    Get PDF
    Mechanical Engineerin

    Improvement of ms based e-nose performances by incorporation of chromatographic retention time as a new data dimension

    Get PDF
    Mejora del rendimiento de la nariz electrónica basada en espectrometría de masas mediante la incorporación del tiempo de retención cromatografico como una nueva dimensión de datosLa importancia del sentido de olor en la naturaleza y en la sociedad humana queda latente con el gran interés que se muestra en el análisis del olor y el gusto en la industria alimentaria. Aunque las aéreas mas interesadas son las de la alimentación y bebida, también se ha mostrado la necesitad para esta tecnología en otros campos como en el de la cosmética. Lamentablemente, el uso de los paneles sensoriales humanos o paneles caninos son costosos, propensos al cansancio, subjetivos, poco fiables e inadecuados para cuantificar, mientras que el análisis de laboratorio, a pesar de la precisión, imparcialidad y capacidad cuantitativa, necesita una labor intensa, con personal especializado y requiere de mucho tiempo. Debido a estos inconvenientes el concepto de olfato artificial generó un gran interés en entornos industriales.El término "nariz electrónica" se asocia con una serie de sensores de gases químicos, con una amplia superposición de selectividad para las mediciones de compuestos volátiles en combinación con los instrumentos informáticos de análisis de datos. La nariz electrónica se utiliza para proporcionar una información comparativa en vez de una cualitativa en un análisis, y porque la interpretación puede ser automatizada, el dispositivo es adecuado para el control de calidad y análisis. A pesar de algunos logros prometedores, los sensores de estado sólido de gas no han cumplido con sus expectativas. La baja sensibilidad y selectividad, la corta vida del sensor, la calibración difícil y los problemas de deriva han demostrado serias limitaciones. En un esfuerzo para mejorar los inconvenientes de los sensores de estado sólido, se han adoptado nuevos enfoques, utilizando diferentes sensores para la nariz electrónica. Sistemas de sensores ópticos, la espectrometría de movilidad iónica y la espectrometría infrarroja son ejemplos de técnicas que han sido probadas.Las narices electrónicas basadas en la espectrometría de masas (MS) aparecieron por primera vez en 1998 [B. Dittmann, S. y G. Nitz Horner. Adv. Food Sci. 20 (1998), p. 115], y representan un salto importante en la sensibilidad, retando a la nariz electrónica basada en sensores químicos. Este nuevo enfoque del concepto de una nariz electrónica usa sensores virtuales en forma de proporciones m/z. Una huella digital compleja y muy reproducible se obtiene en forma de un espectro de masas, que se procesa mediante algoritmos de reconocimiento de patrones para la clasificación y cuantificación. A pesar de que la nariz electrónica basada en la espectrometría de masas supera a la nariz electrónica clásica de sensores de estado sólido en muchos aspectos, su uso se limita actualmente a la instrumentación de laboratorio de escritorio. La falta de portabilidad no representará necesariamente un problema en el futuro, dado que espectrómetros de masas en miniatura se han fabricado ya en una fase de prototipado.Un inconveniente más crítico de la nariz electrónica basada en MS consiste en la manera en la que se analizan las muestras. La fragmentación simultánea de mezclas complejas de isómeros pueden producir resultados muy similares a raíz de este enfoque. Una nariz electrónica mejor sería la que combina la sensibilidad y el poder de identificación del detector de masas con la capacidad de separación de la cromatografía de gases. El principal inconveniente de este enfoque es de nuevo el coste y la falta de portabilidad de los equipos. Además de los problemas anteriores con la espectrometría de masas, el análisis de cromatografía de gases requiere mucho tiempo de medida.Para abordar estas cuestiones, se han reportado miniaturizaciones en cromatografía capilar de gases (GC) que hacen posible el GC-en-un-chip, CG-rápido y CG-flash que hacen uso de columnas cortas, reduciendo el tiempo de análisis a los tiempos de elución como segundos y, en algunos casos, se han comercializado. La miniaturización de la espectrometría de masas y cromatografía de gases tiene un gran potencial para mejorar el rendimiento, la utilidad y la accesibilidad de la nueva generación de narices electrónicas.Esta tesis se dedica al estudio y a la evaluación del enfoque del GC-MS para la nariz electrónica como un paso anterior al desarrollo de las tecnologías mencionadas anteriormente. El objetivo principal de la tesis es de estudiar si el tiempo de retención de una separación de cromatografía puede mejorar el rendimiento de la nariz electrónica basada en MS, mostrando que la adición de una tercera dimensión trae más información, ayudando a la clasificación de las pruebas. Esto se puede hacer de dos maneras: · comparando el análisis de datos de dos vías de espectrometría de masas con análisis de datos de dos vías de matrices desplegadas y concatenadas para los datos de tres vías y · comparando el análisis de datos de dos vías del espectrometría de masas con el análisis de datos de tres vías para el conjunto de datos tridimensionales.Desde el punto de vista de cromatografía, la meta será la de optimizar el método cromatográfico con el fin de reducir el tiempo de análisis a un mínimo sin dejar de tener resultados aceptables.Un paso importante en el análisis de datos multivariados de vías múltiples es el preprocesamiento de datos. Debido a este objetivo, el último objetivo será el de determinar qué técnicas de preprocesamiento son las mejores para y el análisis de dos y tres vías de datos.Con el fin de alcanzar los objetivos propuestos se crearon dos grupos de datos. El primero consiste en las mezclas de nueve isómeros de dimetilfenol y etilfenol. La razón de esta elección fue la similitud de los espectros de masas entre sí. De esta manera la nariz electrónica basada en espectrometría de masas sería retada por el conjunto de datos. También teniendo en cuenta el tiempo de retención de los nueve isómeros solos, las soluciones se hicieron, como si el conjunto de datos demostraría el reto si se usaría sólo el tiempo de retención. Por tanto, este conjunto de datos "artificiales" sostiene nuestras esperanzas en mostrar las mejoras de la utilización de ambas dimensiones, la MS (espectros de masas) y la GC (tiempo de retención).Veinte clases, representando las soluciones de los nueve isómeros se midieron en diez repeticiones cada una, por tres métodos cromatográficos, dando un total de 600 mediciones. Los métodos cromatográficos fueron diseñados para dar un cromatograma resuelto por completo, un pico coeluido y una situación intermediaria con un cromatograma resuelto parcialmente. Los datos fueron registrados en una matriz de tres dimensiones con las siguientes direcciones: (muestras medidas) x (proporción m/z) x (tiempo de retención). Por "colapsar" los ejes X e Y del tiempo de retención cromatográfica y los fragmentos m/z, respectivamente, se obtuvieron dos matrices que representan los espectros de masa regular y el cromatograma de iones totales, respectivamente. Estos enfoques sueltan la información traída por la tercera dimensión y el despliegue por lo que la matriz original 3D y la concatenación de las TIC y el espectro de masa media se han tenido en consideración como una forma de preservar la información adicional de la tercera dimensión en una matriz de dos dimensiones.Los datos fueron tratados mediante la alineación de picos, con una media de centrado y la normalización por la altura máxima y el área del pico, los instrumentos de pre-procesamiento que también fueron evaluados por sus logros.Para el análisis de datos de dos vías fueron utilizados el PCA, PLS-DA y fuzzyARTMAP. La agrupación de PCA y PARAFAC fueron evaluados por la relación intervariedad - intravariedad, mientras que los resultados mediante fuzzy ARTMAP fueron dados como el éxito de la las tasas de clasificación en porcentajes.Cuando PCA y PARAFAC se utilizaron, como era de esperar, el método de cromatografía resuelto (método 1) dio los mejores resultados globales, donde los algoritmos 2D funcionan mejor, mientras que en un caso más complicado (picos más coeluidos del método 3) pierden eficacia frente a métodos 3D.En el caso de PLS-DA y n-PLS, aunque los resultados no son tan concluyentes como los resultados del PCA y PARAFAC, tratándose de las diferencias mínimas, el modelo de vías múltiples PLS-DA ofrece un porcentaje de éxito en la predicción de ambos conjuntos de datos. También se recomienda el n-PLS en vez de utilizar datos desplegados y concatenados, ya que construye un modelo más parsimonioso.Para el análisis fuzzyARTMAP, la estrategia de votación empleada ha demostrado que al usar los espectros de masa media y la información del cromatograma de iones totales juntos se obtienen resultados más consistentes.En el segundo conjunto de datos se aborda el problema de la adulteración del aceite de oliva extra virgen con aceite de avellana, que debido a las similitudes entre los dos aceites es una de las más difíciles de detectar. Cuatro aceites extra virgen de oliva y dos aceites de avellana se midieron puros y en mezclas de 30%, 10%, 5% y 2% con los mismos objetivos mostrando que la adición de la extra dimensión mejora los resultados. Se han hechos cinco repeticiones para cada preparación, dando un total de 190 muestras: 4 aceites puros de oliva, 2 aceites puros de avellana y 32 adulteraciones de aceite de avellana en aceite de oliva, dando un total de 38 clases. Dos métodos cromatográficos fueron utilizados. El primero estaba dirigido a una completa separación de los componentes del aceite de oliva y empleó una separación con temperatura programable, mientras que el objetivo del segundo método fue un pico coeluido, por lo tanto fue contratada una temperatura constante de separación. Los datos fueron analizados por medio de la PCA, PARAFAC, PLS-DA y PLS-n.Como en el conjunto "artificial" de datos, el PCA y PARAFAC se analizaron por medio de la capacidad de clusterización, que mostró que los mejores resultados se obtienen con los datos desplegados seguido por los datos 3D tratados con el PARAFAC.Desde el punto de vista de optimización de la columna, los logros obtenidos por la columna corta está por debajo del enfoque de la columna larga, pero este caso demuestra una vez más que la adición de los incrementos de tercera dimensión mejoran la nariz electrónica basada en MS.Para el PLS-DA y n-PLS se evaluaron las tasas de éxito comparativamente, tanto para las corridas cromatográficas largas como para las cortas. Mientras que para la columna larga el mejor rendimiento es para los datos del cromatograma de iones totales (TIC), la columna corta muestra mejor rendimiento para los datos concatenados de los espectros de masa media y TIC. Además, la predicción de las tasas de éxito son las mismas para los datos TIC de columna larga como para los datos concatenados de la columna corta. Este caso es muy interesante porque demuestra que el enfoque PLS de la tercera dimensión mejora los resultados y, por otra parte, mediante el uso de la columna corta el tiempo de análisis se acorta considerablemente.Se esperan ciertos logros de la nariz electrónica. Por el momento, ninguno de esos enfoques se acercó lo suficiente para producir una respuesta positiva en los mercados. Los sensores de estado sólido tienen inconvenientes casi imposibles de superar. La nariz electrónica basada en espectrometría de masas tiene una falta de portabilidad y a veces sus logros son insuficientes, y el aparato del cromatógrafo de gases-espectrómetro de masas sufre problemas de portabilidad igual que espectrómetro de masas y toma mucho tiempo. El desarrollo de potentes algoritmos matemáticos durante los últimos años, junto con los avances en la miniaturización, tanto para MS y GC y mostrar cromatografía rápida cierta esperanza de una nariz electrónica mucho mejor.A través de este trabajo podemos afirmar que la adición del tiempo de retención cromatográfica como una dimensión extra aporta una ventaja sobre las actuales tecnologías de la nariz electrónica. Mientras que para los cromatogramas totalmente resueltos no se logran mejoras o la ganancia es mínima, sobre todo en la predicción, para una columna corta la información adicional mejora los resultados, en algunos casos, hacerlos tan bien como cuando una larga columna se utiliza. Esto es muy importante ya que las mediciones en un cromatógrafo de gases - espectrometro de masas se pueden optimizar para tramos muy cortos, una característica muy importante para una nariz electrónica. Esto permitiría el diseño de un instrumento de mayor rendimiento, adecuado para el control de calidad en líneas de productos

    Image analysis for diagnostic support in biomedicine: neuromuscular diseases and pigmented lesions

    Get PDF
    Tesis descargada desde TESEOEsta tesis presenta dos sistemas implementados mediante técnicas de procesamiento de imagen, para ayuda al diagnóstico de enfermedades neuromusculares a partir de imágenes de microscopía de fluorescencia y análisis de lesiones pigmentadas a partir de imágenes dermoscópicas. El diagnóstico de enfermedades neuromusculares se basa en la evaluación visual de las biopsias musculares por parte del patólogo especialista, lo que conlleva una carga subjetiva. El primer sistema propuesto en esta tesis analiza objetivamente las biopsias musculares y las clasifica en distrofias, atrofias neurógenas o control (sin enfermedad) a través de imágenes de microscopía de fluorescencia. Su implementación reúne los elementos propios de un sistema de ayuda al diagnóstico asistido por ordenador: segmentación, extracción de características, selección de características y clasificación. El procedimiento comienza con una segmentación precisa de las fibras musculares usando morfología matemática y una transformada Watershed. A continuación, se lleva a cabo un paso de extracción de características, en el cual reside la principal contribución del sistema, ya que no solo se extraen aquellas que los patólogos tienen en cuenta para diagnosticar sino características que se escapan de la visión humana. Estas nuevas características se extraen suponiendo que la estructura de la biopsia se comporta como un grafo, en el que los nodos se corresponden con las fibras musculares, y dos nodos están conectados si dos fibras son adyacentes. Para estudiar la efectividad que estos dos conjuntos presentan en la categorización de las biopsias, se realiza una selección de características y una clasi- ficación empleando una red neuronal Fuzzy ARTMAP. El procedimiento concluye con una estimación de la severidad de las biopsias con patrón distrófico. Esta caracterización se realiza mediante un análisis de componentes principales. Para la validación del sistema se ha empleado una base de datos compuesta por 91 imágenes de biopsias musculares, de las cuales 71 se consideran imágenes de entrenamiento y 20 imágenes de prueba. Se consigue una elevada tasa de aciertos de clasificacion y se llega a la importante conclusión de que las nuevas características estructurales que no pueden ser detectadas por inspección visual mejoran la identificación de biopsias afectadas por atrofia neurógena. La segunda parte de la tesis presenta un sistema de clasificación de lesiones pigmentadas. Primero se propone un algoritmo de segmentación de imágenes en color para ais lar la lesión de la piel circundante. Su desarrollo se centra en conseguir un algoritmo relacionado con las diferencias color percibidas por el ojo humano. Consiguiendo así, no solo un método de segmentación de lesiones pigmentadas sino un algoritmo de segmentación de propósito general. El método de segmentación propuesto se basa en un gradiente para imágenes en color integrado en una técnica de level set para detección de bordes. La elección del gradiente se derivada a partir de un análisis de tres gradientes de color implementados en el espacio de color uniforme CIE L∗a∗b∗ y basados en las ecuaciones de diferencia de color desarrolladas por la comisión internacional de iluminación (CIELAB, CIE94 y CIEDE2000). El principal objetivo de este análisis es estudiar cómo estas ecuaciones afectan en la estimación de los gradientes en términos de correlación con la percepción visual del color. Una técnica de level-set se aplica sobre estos gradientes consiguiendo así un detector de borde que permite evaluar el rendimiento de dichos gradientes. La validación se lleva a cabo sobre una base de datos compuesta por imágenes sintéticas diseñada para tal fin. Se realizaron tanto medidas cuantitativas como cualitativas. Finalmente, se concluye que el detector de bordes basado en la ecuación de diferencias de color CIE94 presenta la mayor correlación con la percepción visual del color. A partir de entonces, la tesis intenta emular el método de análisis de patrones, la técnica de diagnóstico de lesiones pigmentadas de la piel más empleada por los dermatólogos. Este método trata de identificar patrones específicos, pudiendo ser tanto globales como locales. En esta tesis se presenta una amplia revisión de los métodos algorítmicos, publicados en la literatura, que detectan automáticamente dichos patrones a partir de imágenes dermoscópicas de lesiones pigmentadas. Tras esta revisón se advierte que numerosos trabajos se centran en la detección de patrones locales, pero solo unos pocos abordan la detección de patrones globales. El siguiente paso de esta tesis, por tanto, es la propuesta de diferentes métodos de clasi- ficación de patrones globales. El objetivo es identificar tres patrones: reticular, globular y empedrado (considerado un solo patrón) y homogéneo. Los métodos propuestos se basan en un análisis de textura mediante técnicas de modelado. En primer lugar una imagen demoscópica se modela mediante campos aleatorios de Markov, los parámetros estimados de este modelo se consideran características. A su vez, se supone que la distribución de estas características a lo largo de la lesión sigue diferentes modelos: un modelo gaussiano, un modelo de mezcla de gaussianas o un modelo de bolsa de características. La clasificación se lleva a cabo mediante una recuperación de imágenes basada en diferentes métricas de distancia. Para validar los métodos se emplea un conjunto significativo de imágenes dermatológicas, concluyendo que el modelo basado en mezcla de gaussianas proporciona la mejor tasa de clasificación. Además, se incluye una evaluación adicional en la que se clasifican melanomas con patrón multicomponente obteniendo resultados prometedores. Finalmente, se presenta una discusión sobre los hallazgos y conclusiones más relevantes extraídas de esta tesis, así como las líneas futuras que se derivan de este trabajo.Premio Extraordinario de Doctorado U

    Visual analytics for relationships in scientific data

    Get PDF
    Domain scientists hope to address grand scientific challenges by exploring the abundance of data generated and made available through modern high-throughput techniques. Typical scientific investigations can make use of novel visualization tools that enable dynamic formulation and fine-tuning of hypotheses to aid the process of evaluating sensitivity of key parameters. These general tools should be applicable to many disciplines: allowing biologists to develop an intuitive understanding of the structure of coexpression networks and discover genes that reside in critical positions of biological pathways, intelligence analysts to decompose social networks, and climate scientists to model extrapolate future climate conditions. By using a graph as a universal data representation of correlation, our novel visualization tool employs several techniques that when used in an integrated manner provide innovative analytical capabilities. Our tool integrates techniques such as graph layout, qualitative subgraph extraction through a novel 2D user interface, quantitative subgraph extraction using graph-theoretic algorithms or by querying an optimized B-tree, dynamic level-of-detail graph abstraction, and template-based fuzzy classification using neural networks. We demonstrate our system using real-world workflows from several large-scale studies. Parallel coordinates has proven to be a scalable visualization and navigation framework for multivariate data. However, when data with thousands of variables are at hand, we do not have a comprehensive solution to select the right set of variables and order them to uncover important or potentially insightful patterns. We present algorithms to rank axes based upon the importance of bivariate relationships among the variables and showcase the efficacy of the proposed system by demonstrating autonomous detection of patterns in a modern large-scale dataset of time-varying climate simulation

    A hybrid electronic nose system for monitoring the quality of potable water

    Get PDF
    This PhD thesis reports on the potential application of an electronic nose to analysing the quality of potable water. The enrichment of water by toxic cyanobacteria is fast becoming a severe problem in the quality of water and a common source of environmental odour pollution. Thus, of particular interest is the classification and early warning of toxic cyanobacteria in water. This research reports upon the first attempt to identify electronically cyanobacteria in water. The measurement system comprises a Cellfacts instrument and a Warwick e-nose specially constructed for the testing of the cyanobacteria in water. The Warwick e- nose employed an array of six commercial odour sensors and was set-up to monitor not only the different strains, but also the growth phases, of cyanobacteria. A series of experiments was carried out to analyse the nature of two closely related strains of cyanobacteria, Microcystis aeruginosa PCC 7806 which produces a toxin and PCC 7941 that does not. Several pre-processing techniques were explored in order to remove the noise factor associated with running the electronic nose in ambient air, and the normalised fractional difference method was found to give the best PCA plot. Three supervised neural networks, MLP, LVQ and Fuzzy ARTMAP, were used and compared for the classification of both two strains and four different growth phases of cyanobacteria (lag, growth, stationary and late stationary). The optimal MLP network was found to classify correctly 97.1 % of unknown non-toxic and 100 % of unknown toxic cyanobacteria. The optimal LVQ and Fuzzy ARTMAP algorithms were able to classify 100% of both strains of cyanobacteria. The accuracy of MLP, LVQ and Fuzzy ARTMAP algorithms with 4 different growth phases of toxic cyanobacteria was 92.3 %, 95.1 % and 92.3 %, respectively. A hybrid e-nose system based on 6 MOS, 6 CP, 2 temperature sensors, 1 humidity sensor and 2 flow sensors was finally developed. Using the hybrid system, data were gathered on six different cyanobacteria cultures for the classification of growth phase. The hybrid resistive nose showed high resolving power to discriminate six growth stages as well as three growth phases. Even though time did not permit many series of the continuous monitoring, because of the relatively long life span (30-40 days) of cyanobacteria, improved results indicate the use of a hybrid nose. The HP 4440 chemical sensor was also used for the discrimination of six different cyanobacteria samples and the comparison with the electronic nose. The hybrid resistive nose based on 6 MOS and 6 CP showed a better resolving power to discriminate six growth stages as well as three growth phases than the HP 4440 chemical sensor. Although the mass analyser detects individual volatile chemicals accurately, it proves no indication of whether the volatile is an odour. The results demonstrate that it is possible to apply the e-nose system for monitoring the quality of potable water. It would be expected that the hybrid e-nose could be applicable to a large number of applications in health and safety with a greater flexibility

    Novel control of a high performance rotary wood planing machine

    Get PDF
    Rotary planing, and moulding, machining operations have been employed within the woodworking industry for a number of years. Due to the rotational nature of the machining process, cuttermarks, in the form of waves, are created on the machined timber surface. It is the nature of these cuttermarks that determine the surface quality of the machined timber. It has been established that cutting tool inaccuracies and vibrations are a prime factor in the form of the cuttermarks on the timber surface. A principal aim of this thesis is to create a control architecture that is suitable for the adaptive operation of a wood planing machine in order to improve the surface quality of the machined timber. In order to improve the surface quality, a thorough understanding of the principals of wood planing is required. These principals are stated within this thesis and the ability to manipulate the rotary wood planing process, in order to achieve a higher surface quality, is shown. An existing test rig facility is utilised within this thesis, however upgrades to facilitate higher cutting and feed speeds, as well as possible future implementations such as extended cutting regimes, the test rig has been modified and enlarged. This test rig allows for the dynamic positioning of the centre of rotation of the cutterhead during a cutting operation through the use of piezo electric actuators, with a displacement range of ±15μm. A new controller for the system has been generated. Within this controller are a number of tuneable parameters. It was found that these parameters were dependant on a high number external factors, such as operating speeds and run‐out of the cutting knives. A novel approach to the generation of these parameters has been developed and implemented within the overall system. Both cutterhead inaccuracies and vibrations can be overcome, to some degree, by the vertical displacement of the cutterhead. However a crucial information element is not known, the particular displacement profile. Therefore a novel approach, consisting of a subtle change to the displacement profile and then a pattern matching approach, has been implemented onto the test rig. Within the pattern matching approach the surface profiles are simplified to a basic form. This basic form allows for a much simplified approach to the pattern matching whilst producing a result suitable for the subtle change approach. In order to compress the data levels a Principal Component Analysis was performed on the measured surface data. Patterns were found to be present in the resultant data matrix and so investigations into defect classification techniques have been carried out using both K‐Nearest Neighbour techniques and Neural Networks. The application of these novel approaches has yielded a higher system performance, for no additional cost to the mechanical components of the wood planing machine, both in terms of wood throughput and machined timber surface quality

    Incremental learning on trajectory clustering

    Get PDF
    Scene understanding corresponds to the real time process of perceiving, analysing and elaborating an interpretation of a 3D dynamic scene observed through a network of cameras. The whole challenge consists in managing this huge amount of information and in structuring all the knowledge. On-line Clustering is an efficient manner to process such huge amounts of data. On-line processing is indeed an important capability required to perform monitoring and behaviour analysis on a long-term basis. In this paper we show how a simple clustering algorithm can be tuned to perform on-line. The system works by finding the main trajectory patterns of people in the video. We present results obtained on real videos corresponding to the monitoring of the Toulouse airport in France
    corecore