24 research outputs found

    Основные подходы к моделированию движения пешеходных потоков

    Get PDF
    The author considers two approaches to modeling and analysis of pedestrian behavior in typical urban environment. One approach is based on civil engineering, the other one is focused on urban geography. Those two approaches are described by four models of pedestrian behavior, which are described respectively by physical and mathematical terms, by multi-agent, cellular automata, and queuing theory. A description of each of them is given, the specifics of the application are described, and examples of models implementation in software products are provided.Автором рассматриваются два подхода к моделированию и анализу поведения пешеходов в типичной городской среде: в основе одного гражданский инжиниринг, а другого - урбанистическая география. При этом фигурируют четыре типа моделей поведения пешеходов - физико-математические и многоагентные, в виде клеточных автоматов и построенные на теории массового обслуживания. Дается описание каждой из них, рассказывается о специфике применения, а также приводятся примеры реализации моделей в программных продуктах

    A review of wildland fire spread modelling, 1990-present 3: Mathematical analogues and simulation models

    Full text link
    In recent years, advances in computational power and spatial data analysis (GIS, remote sensing, etc) have led to an increase in attempts to model the spread and behvaiour of wildland fires across the landscape. This series of review papers endeavours to critically and comprehensively review all types of surface fire spread models developed since 1990. This paper reviews models of a simulation or mathematical analogue nature. Most simulation models are implementations of existing empirical or quasi-empirical models and their primary function is to convert these generally one dimensional models to two dimensions and then propagate a fire perimeter across a modelled landscape. Mathematical analogue models are those that are based on some mathematical conceit (rather than a physical representation of fire spread) that coincidentally simulates the spread of fire. Other papers in the series review models of an physical or quasi-physical nature and empirical or quasi-empirical nature. Many models are extensions or refinements of models developed before 1990. Where this is the case, these models are also discussed but much less comprehensively.Comment: 20 pages + 9 pages references + 1 page figures. Submitted to the International Journal of Wildland Fir

    Clasificación de imágenes de satélite mediante autómatas celulares

    Get PDF
    En primer lugar, a pesar del gran número de algoritmos de clasificación de imágenes de satélite que existe en la actualidad, ninguno es completamente fiable en términos de tasa de acierto. En general, los algoritmos de clasificación funcionan de un modo correcto si las propiedades espectrales de los píxeles determinan adecuadamente las clases, o si las imágenes no presentan ruido adicional. Sin embargo, si existen clases en la imagen de satélite con un alto grado de heterogeneidad, es decir, que agrupan píxeles con diferentes características, y que presentan un amplio abanico espectral (píxeles inciertos), o las imágenes son alteradas con un ruido de tipo impulsivo-gaussiano (píxeles ruidosos), la imagen resultante puede presentar muchas áreas diminutas mal clasificadas. Todos estos problemas provocan una pérdida de la calidad de la tasa de acierto durante el proceso de clasificación. Para solucionar estos problemas, podemos aplicar posteriormente algoritmos contextuales de post-clasificación, que utilizan datos contextuales además de los datos espectrales. Existen muchos algoritmos contextuales de post-clasificación, que utilizan valores promedio o la descripción de texturas, para mejorar los resultados obtenidos por los algoritmos de clasificación espectral. Sin embargo, el inconveniente de su uso consiste en que es necesario aplicar tres algoritmos a lo largo de todo el proceso: un algoritmo de pre-clasificación para eliminar los píxeles ruidosos, el algoritmo de clasificación propiamente dicho y un algoritmo de post-clasificación para mejorar la clasificación de los píxeles inciertos. A veces, como consecuencia de la aplicación de todos estos algoritmos, puede incluso empeorar la tasa de acierto. Por lo tanto, sería interesante disponer de un solo algoritmo que contara con las bondades de los tres procesos anteriormente mencionados, para incrementar la calidad de la tasa de acierto mediante una clasificación espectral-contextual. En segundo lugar, los algoritmos de clasificación de imágenes de satélite clásicos ofrecen resultados demasiado rígidos, ya que cada píxel es etiquetado en su clase correspondiente independientemente del nivel real de cercanía respecto al centro espectral de dicha clase, es decir, no se ofrece un grado de pertenencia. Sólo los algoritmos de clasificación difusa proporcionan dicha información, pero no los clásicos. Sería interesante que un algoritmo ofreciera una clasificación jerárquica dividida en niveles de pertenencia a las clases, para que los analistas expertos pudieran comprobar qué píxeles están más cerca de sus clases y cuáles están más distantes en el espacio de características, con el objetivo de detectar los píxeles más problemáticos. En tercer lugar, los algoritmos de clasificación clásicos no permiten personalizar el funcionamiento para ajustarse a una zona de estudio concreta, o para obtener unos resultados específicos. Sería interesante poder personalizar el proceso de clasificación, para obtener unos u otros resultados dependiendo del objetivo que se quisiera conseguir en cada zona de estudio determinada. Por otro lado, un autómata celular es un modelo matemático que consiste en un conjunto de celdas, normalmente distribuidas en forma de matriz bidimensional, donde cada celda posee un estado, que puede cambiar a lo largo de un número determinado de iteraciones, como consecuencia de la aplicación de un conjunto de reglas a través de una función de transición f, teniendo en cuenta no sólo el estado actual de la celda en cada iteración concreta, sino también el estado de sus celdas vecinas. En los últimos años, los autómatas celulares se han convertido en una potente herramienta que se ha aplicado a numerosos ámbitos científicos. Dentro del ámbito de la teledetección, se han aplicado sobre todo para implementar procesos de simulación en imágenes de satélite, ya que sus propiedades permiten trabajar con este tipo de problemas. No obstante, en el ámbito específico de la clasificación de imágenes de satélite, son escasos los trabajos relacionados con los autómatas celulares, a pesar de las ventajas que pueden llegar a ofrecer. Las tres limitaciones de los algoritmos de clasificación de imágenes de satélite mencionadas anteriormente se pueden resolver mediante las propiedades de los autómatas celulares. La primera limitación se puede superar mediante el uso de la vecindad de cada celda del autómata celular durante el proceso de clasificación, obteniendo una pre-clasificación (para píxeles ruidosos), clasificación y post-clasificación (para píxeles inciertos) agrupados en un solo algoritmo espectral-contextual, pudiendo ajustar además el nivel contextual, usando más o menos vecinos para las celdas. La segunda limitación se puede superar mediante el uso de las iteraciones del autómata celular, como método de división del proceso de clasificación en varios niveles jerárquicos con distinto grado de calidad. La tercera limitación se puede superar mediante el empleo de distintas reglas aplicadas, a través de la función de transición f, para poder personalizar lo máximo posible el proceso de clasificación en cada caso concreto. Esta tesis doctoral se centra en el desarrollo de un nuevo algoritmo de clasificación de imágenes de satélite basado en autómatas celulares, denominado algoritmo ACA (classification Algorithm based on Cellular Automata), que resuelve las tres limitaciones descritas, proporcionando una clasificación con una tasa de acierto mejorada mediante resultados espectrales-contextuales, divididos en niveles de fiabilidad relacionados con el grado de pertenencia de los píxeles a sus clases correspondientes, y con la posibilidad de personalizar el proceso de clasificación. Todas estas mejoras permiten a los analistas expertos disponer de una mayor cantidad de información para mejorar la interpretación de los resultados obtenidos. De este modo, el algoritmo ACA optimiza la funcionalidad de cualquier SIG que lo utilice como base, ya que mejora los resultados de la clasificación en tres niveles: acierto, flexibilidad y personalización.Ministerio de Ciencia e Innovación (MICINN), proyecto TIN2007-61497 Ministerio de Economía y Competitividad (MINECO), proyecto TIN2010-15588 Proyecto de Excelencia de la Junta de Andalucía, P10-TIC-611

    El mundo de las ciencias de la complejidad

    Get PDF
    La situación es verdaderamente apasionante. Mientras que en el mundo llamado real –y entonces se hace referencia a dominios como la política, la economía, los conflictos militares y sociales, por ejemplo–, la percepción natural –digamos: de los medios y la opinión pública– es que el país y el mundo se encuentran en condiciones difíciles; en algunos casos, dramática; y en muchas ocasiones trágica, en el campo del progreso del conocimiento asistimos a una magnífica vitalidad. Esta vitalidad se expresa en la ciencia de punta y, notablemente, en las ciencias de la complejidad. Mientras que la ciencia normal –para volver a la expresión de Kuhn– se encuentra literalmente a la defensiva en numerosos campos, temas y problemas –digamos, a la defensiva con respecto al decurso de los acontecimientos y a las dinámicas del mundo contemporáneo–, en el contexto del estudio de los sistemas complejos adaptativos asistimos a una vitalidad que es prácticamente desconocida para la corriente principal de académicos –independientemente de los niveles en los que trabajan–, de científicos, de administradores de educación y de ciencia y tecnología (por ejemplo rectores, vicerrectores, decanos, directores de departamentos, tomadores de decisión, políticos y gobernantes). La corriente principal del conocimiento (mainstream) desconoce una circunstancia, un proceso, una dinámica que sí es conocida por parte de quienes trabajan e investigan activamente en el campo de las ciencias de la complejidad

    Discrete event front tracking simulator of a physical fire spread model

    Get PDF
    International audienceSimulation of moving interfaces, like a fire front usually requires the resolution of a large scale and detailed domain. Such computing involves the use of supercomputers to process the large amount of data and calculations. This limitation is mainly due to the fact that large scale of space and time is usually split into nodes, cells or matrices, and the solving methods often require small time steps. This paper presents a novel method that enables the simulation of large scale/high resolution systems by focusing on the interface. Unlike the conventional explicit and implicit integration schemes, it is based on the discrete-event approach, which describes time advance in terms of increments of physical quantities rather than discrete time stepping. Space as well is not split into discrete nodes or cells, but we use polygons with real coordinates. The system is described by the behaviour of its interface, and evolves by computing collision events of this interface in the simulation. As this simulation technique is suited for a class of models that can explicitly provide rate of spread for a given configuration, we developed a specific radiation based propagation model of physical wildland fire. Simulations of a real large scale fire performed with an implementation of our method provide very interesting results in less than 30 seconds with a 3 metres resolution with current personal computers

    Aesthetic Automata: Synthesis and Simulation of Aesthetic Behaviour in Cellular Automata

    Get PDF
    This thesis addresses the computational notion of aesthetics in the framework of multistate two-dimensional cellular automata (2D CA). The measure of complexity is a core concept in computational approaches to aesthetics. Shannon's information theory provided an objective measure of complexity, which led to the emergence of various informational theories of aesthetics. However, entropy fails to take into account the spatial characteristics of 2D patterns; these characteristics are fundamental in addressing the aesthetic problem, in general, and of CA-generated patterns, in particular. This thesis proposes two empirically evaluated alternative measures of complexity, taking into account the spatial characteristics of 2D patterns and experimental studies on human aesthetic perception in the visual domain. The measures are extended to robustly quantify the complexity of multi-state 2D CA-generated patterns. The first model, spatial complexity, is based on the probabilistic spatial distribution of homogeneous/heterogeneous neighbouring cells over the lattice of a multi-state 2D cellular automaton. The second model is based on algorithmic information theory (Kolmogorov complexity) which is extended to estimate the complexity of 2D patterns. The spatial complexity measure presents performance advantage over information-theoretic models, specifically in discriminating symmetries and the orientation in CA-generated patterns, enabling more accurate measurement of complexity in relation to aesthetic evaluations of 2D patterns. A series of experimental stimuli with various structural characteristics and levels of complexity were generated by seeding 3-state 2D CA with different initial configurations for psychological experiments. The results of experimentation demonstrate the presence of correlation between spatial complexity measures and aesthetic judgements of experimental stimuli. The same results were obtained for the estimations of Kolmogorov complexity of experimental stimuli

    Veröffentlichungen und Vorträge 2004 der Mitglieder der Fakultät für Informatik

    Get PDF

    Digital control networks for virtual creatures

    Get PDF
    Robot control systems evolved with genetic algorithms traditionally take the form of floating-point neural network models. This thesis proposes that digital control systems, such as quantised neural networks and logical networks, may also be used for the task of robot control. The inspiration for this is the observation that the dynamics of discrete networks may contain cyclic attractors which generate rhythmic behaviour, and that rhythmic behaviour underlies the central pattern generators which drive lowlevel motor activity in the biological world. To investigate this a series of experiments were carried out in a simulated physically realistic 3D world. The performance of evolved controllers was evaluated on two well known control tasks—pole balancing, and locomotion of evolved morphologies. The performance of evolved digital controllers was compared to evolved floating-point neural networks. The results show that the digital implementations are competitive with floating-point designs on both of the benchmark problems. In addition, the first reported evolution from scratch of a biped walker is presented, demonstrating that when all parameters are left open to evolutionary optimisation complex behaviour can result from simple components

    A discrete choice modeling framework for pedestrian walking behavior with application to human tracking in video sequences

    Get PDF
    Intelligent Transportation Systems (ITS) have triggered important research activities in the context of behavioral dynamics. Several new models and simulators for driving and travel behaviors, along with new integrated systems to manage various elements of ITS, have been proposed in the past decades. In this context, less attention has been given to pedestrian modeling and simulation. In 2001, the first international conference on Pedestrian and Evacuation Dynamics took place in Duisburg, Germany, showing the recent, growing interest in pedestrian simulation and modeling in the scientific community. The ability of predicting the movements of pedestrians is valuable indeed in many contexts. Architects are interested in understanding how individuals move into buildings to find out optimality criteria for space design. Transport engineers face the problem of integration of transportation facilities, with particular emphasis on safety issues for pedestrians. Recent tragic events have increased the interest for automatic video surveillance systems, able to monitoring pedestrian flows in public spaces, throwing alarms when abnormal behaviors occur. In this spirit, it is important to define mathematical models based on specific (and context-dependent) behavioral assumptions, tested by means of proper statistical methods. Data collection for pedestrian dynamics is particularly difficult and few models presented in literature have been calibrated and validated on real datasets. Pedestrian behavior can be modelled at various scales. This work addresses the problem of pedestrian walking behavior modeling, interpreting the walking process as a sequence of choices over time. People are assumed to be rational decision makers. They are involved in the process of choosing their next position in the surrounding space, as a function of their kinematic characteristics and reacting to the presence of other individuals. We choose a mathematical framework based on discrete choice analysis, which provides a set of well founded econometric tools to model disaggregate phenomena. The pedestrian model is applied in a computer vision application, namely detection and tracking of pedestrians in video sequences. A methodology to integrate behavioral and image-based information is proposed. The result of this approach is a dynamic detection of the individuals in the video sequence. We do not make a clear cut between detection and tracking, which are rather thought as inter-operating procedures, in order to generate a set of hypothetical pedestrian trajectories, evaluated with the proposed model, exploiting both dynamic and behavioral information. The main advantage applying such methodology is given by the fact that the standard target detection/ recognition step is bypassed, reducing the complexity of the system, with a consistent gain in computational time. On the other hand, the price to pay as a consequence for the simple initialization procedure is the overestimation of the number of targets. In order to reduce the bias in the targets' number estimation, a comparative study between different approaches, based on clustering techniques, is proposed
    corecore