28 research outputs found

    Resistirse al presente: Diseño por exploraciones sintéticas

    Get PDF
    El documento se dividió en tres capítulos: Capítulo I:. Antecedentes y fundamentación conceptual. Capítulo II: Presentación de la metodología. Filosofía y fundamentación del método. Capítulo III: Casos y aplicación tecnológica. Conclusiones. La noción de artefacto es pieza clave para situar la producción de objetos generativos bifurcados entre arte-ciencia y diseño-ingeniería permitiendo desarrollar nuevas hipótesis, modelos y accidentes que pueden verificarse computacionalmente. Los agentes de software representan uno de los sub-dominios más activos de la Inteligencia Artificial. Muchos intentan modelar y reproducir aspectos de la naturaleza humana, aprendizaje y razonamiento en entidades autónomas para la toma de decisiones. Otros realizan exploraciones artísticas para provocar experiencias. El modelado basado en agentes se presenta como una posibilidad para comprender fenómenos emergentes cuyo resultado se posibilita debido a la interacción entre individuos de un sistema. Para evaluar artefactos generativos, se propone sustituir el concepto tradicional de verificación con el concepto de exploración. La idea de confiabilidad sin conseguir resultados óptimos implica un cambio de perspectiva. Sin duda, las herramientas plantean procesos de producción situados. Esto, se deriva de un fuerte dominio sobre los mecanismos técnicos que permiten intensificar sensaciones, y paralelamente, se hace necesario reflexionar sobre los medios que nos rodean. El diseño y su capacidad organizativa hace posible la búsqueda de nuevos modos de hacer las cosas, formas distintas de relacionarse con el mundo.El diseño por exploraciones sintéticas es un espacio que posibilita la producción de artefactos generativos. Ya sea como material físico o conceptual sobre el que actúa la poiesis, aparece una libertad subjetiva para elegir desde lo intencional hasta esferas conceptuales computacionales permitiendo identificar objetos cuyas articulaciones requieren la estructuración de distintas interpretaciones tecnocientíficas. Se asume que los artefactos, con los que se trabaja, dan como resultado la producción de una teoría bifurcada entre arte-ciencia y diseño-ingeniería. Con base en una investigación cualitativa a través de observación y participación, se trabajaron 19 casos de estudios con personalidades del arte digital en México basados en sus trayectorias en diferentes ámbitos de conocimiento y un proceso producido susceptible de ser analizado como modelo formal o digital. El periodo de observación fue de año y medio, de manera continua en conferencias, talleres y salones de clase. A través de la participación se pudieron entender perspectivas individuales y las relaciones que establecen en sus procesos bajo contextos o necesidades específicas. Se propone un mapa de navegación conceptual que sitúa maneras de producir soportados en la fuerza fenomenológica, teoría computacional e inteligencia artificial generativa. En todo caso, se lleva a la práctica el desarrollo de un algoritmo genético cuyo resultado es esfuerzo del marco teórico propuesto en la investigación. Así como, un método para diseñar sistemas dinámicos

    Estudio y análisis comparativo de las actuales técnicas biométricas

    Full text link
    El siguiente Trabajo Fin de Master se divide en tres partes, siempre, alrededor de la identificación biométrica. Esta ciencia aprovecha que existen ciertas características biológicas o conductuales singulares e inalterables, por lo que pueden ser analizados y medidos para crear una huella biométrica. Estas características son difíciles de perder, transferir u olvidar y son perdurables en el tiempo. En la primera de las partes se ofrecerá una visión sobre la importancia histórica de esta ciencia, desde los primeros vestigios humanos, en la zona de Mesopotamia, pasando por los grandes innovadores y precursores de la identificación biométrica, como Bertillon, Galton, Vucetich, etc. auspiciados por una finalidad mayoritariamente criminalística o policiaca, hasta la gran revolución a finales del siglo pasado, en las que técnicas que parecían ciencia ficción se hicieron realidad. En el siguiente apartado se analizaran las 6 principales técnicas que se usan actualmente, realizando una mirada más profunda en los principios naturales, fisiológicos y físicos sobre los que se basan se expondrán las tendencias futuras sobre las que trabajara la industria para el desarrollo de técnicas más seguras, menos invasivas y más transparentes para los usuarios finales. Estas como ha pasado a lo largo de la historia sonaran increíbles, pero una vez más la raza humana conseguirá materializarlas e introducirlas en su día a día. Para finalizar y después de este estudio en detalle, se intentará realizar una comparación y análisis basados en las más importantes características para las técnicas biométricas, fiabilidad, facilidad, usurpación, aceptación y estabilidad, etc. ABSTRACT The following Master's Thesis is divided into three parts, always, about biometric identification. This science fail that certain biological or behavioural characteristics unique and unchangeable, so it can be analysed and measured to create a biometric fingerprint. These features are hard to miss, or forget to transfer and are enduring in time. In the first part a vision of the historical importance of this science are offered, from the earliest human remains in the area of Mesopotamia, to the great innovators and pioneers of biometric identification, such as Bertillon, Galton, Vucetich, etc. . sponsored a largely forensic or detective purpose, until the great revolution in the late nineteenth century, in which techniques that seemed science fiction became reality. The following section will analyse the 6 main techniques currently in use, making a deeper look at the natural, physiological and physical principles on which future trends are based on the industry to work for the development of techniques will be discussed more safer, less invasive and more transparent to end users. Such as has happened throughout history sounded amazing, but once again the human race get materialize and introduce them in their day to day. Finally and after the study in detail, and try to make a comparison based on the most important features for biometric technologies, reliability, ease, alienation, acceptance and stability analysis etc.

    Procedural content generation via machine learning

    Get PDF
    Trabajo de fin de Grado en Grado en desarrollo de videojuegos, Facultad de Informática UCM, Departamento de Sistemas Informáticos y Computación, Curso 2019/2020Durante los últimos años, tanto la inteligencia artificial como el aprendizaje automático, se han convertido en un foco constante de investigación y enseñanza, así como de aprendizaje. Además, cada vez más empresas, ven a estas técnicas como un punto de partida hacia su crecimiento tanto económico como tecnológico, permitiendo a estas, entrar en otros sectores. Por ejemplo, Microsoft, empezó a adentrarse en el mundo de la inteligencia artificial y aprendizaje automático con Kinect, o Google desarrollando un algoritmo capaz de derrotar a los mejores jugadores del mundo de Dota. En otros sectores como en el de la agricultura, la inteligencia artificial está siendo utilizada, para mejorar la eficiencia en cuanto a producción, prediciendo los rendimientos de la cosecha. Además, todo lo comentado anteriormente, nos lo encontramos hoy en día y vivimos con ello, destacando entre otros a asistentes personales como Alexa o Siri. Debido a esto, hemos planteado nuestro trabajo de fin de tal manera, que se nos presenta una oportunidad única de aprender como funcionan los algoritmos de aprendizaje automático e inteligencia artificial, aplicándola al ámbito sobre el que hemos desarrollado nuestros estudios durante los últimos años, los videojuegos, y en concreto a la creación de mapas del videojuego SuperMario. A lo largo de todo el proyecto, investigaremos acerca de cuáles son las mejores técnicas tanto de aprendizaje automático como de inteligencia artificial, así como cuál es la forma más óptima de implementarlas. Desarrollaremos scripts para comprobar su funcionamiento, con la ayuda de diversas librerías entre las que se encuentran Tensorflow o NLTK, así como una aplicación en Unity, la cual nos servirá de base para poder mostrar los mapas que vayan siendo generados. Esta aplicación, permitirá la posibilidad de mostrar los 8 mapas originales de los que disponemos, los cuales han sido realizados a mano, así como crear nuevos mapas, con algunos de los algoritmos investigados e implementados. Estos mapas podrán ser monotema, que resultan a partir de un solo mapa, o multitema, que se crean a partir de la unión de diferentes mapas.During the last years, both the artificial intelligence and machine learning have become in a constant focus of research and teaching, and also of learning. Besides, more and more companies, see these techniques as an starting point to their economical and technological growing, by entering other sectors. For example Microsoft, stepped into in artificial intelligence and machine learning with Kinect, or Google developing an algorithm able to beat the best Dota players all over the world. In other sectors like the agricultural, the artificial intelligence is being used to improve the production efficiency by predicting the crop yields. Also, everything that has been commented above, can be found nowadays in our lifes, highlighting for example, voice assistants such as Alexa or Siri. Because of all of this, we have raised our final degree project as a unique opportunity to learn how the machine learning and artificial intelligence algorithms work, by applying it on what we have been studying during the last years, the video games, and in particular the map generation based on SuperMario. Throughout all the project, we will research about which are the best techniques of machine learning and artificial intelligence, and also which is the best way of implementing them. We will develop scripts in order to check the behaviour, with the help of some libraries such as Tensorflow or NLTK, and also a Unity project, which will serve us as a base to show all the maps that are being generated. This application will give the possibility of showing the first eight original maps, and also creating new ones, with some of the researched and implemented algorithms. These maps will be mono theme, from just one map, or multi theme, created from the join of different maps.Depto. de Sistemas Informáticos y ComputaciónFac. de InformáticaTRUEunpu

    Entorno evolutivo de diseño automático en ingeniería

    Get PDF
    [Resumen] Se ha desarrollado un entorno computacional de diseño automático, modular, escalable e interactivo que permite la integración de las etapas que conforman el proceso de diseño, eliminando al diseñador humano de las fases de búsqueda de soluciones y toma de decisiones y limitando su actuación a la especificación del problema y la evaluación subjetiva de propuestas cuando esto resulte necesario. De este modo, se mejora la creatividad al eliminarse las restricciones ficticias y la limitación en la exploración de posibles soluciones introducidas por el diseñador humano, se hacen los problemas más manejables y se abre la posibilidad de obtener soluciones variadas de mayor calidad. La integración de múltiples simuladores e interfaces de usuario en el entorno posibilita la creación de una macro función de calidad que pondera las evaluaciones técnicas (ingenieros expertos y simuladores) y subjetivas (usuarios finales). Esta selección y ponderación relativa de las aptitudes de cada uno de los simuladores se realizan en función de los criterios existentes expresados en términos del dominio del problema (rendimiento económico, capacidad de producción, etc.) y no del dominio de implementación (consumos eléctricos, parámetros de control, etc.) como ocurre en el diseño tradicional. Al mismo tiempo y para problemas de relativa complejidad, es necesario una elevada potencia de cálculo que requiere una alta escalabilidad del sistema. Se ha desarrollado, para ello, una implementación contemplando su distribución computacional con distintos niveles de granularidad según cada problema en concreto. Debido a su modularidad, el entorno es fácilmente adaptable a los distintos problemas por medio de la introducción de módulos de evaluación y/o la modificación de parámetros en la metodología de búsqueda. Para demostrar la versatilidad del entorno modular se han implementado procesos de diseño de sistemas reales en tre

    Inspección automatizada de superficies homogéneas mediante visión artificial con aportaciones al reconocimiento de formas

    Full text link
    Esta tesis se centra en el ámbito de la inspección visual automatizada de superficies planas y homogéneas. Bajo esta problemática, el trabajo desarrollado se ha centrado en cubrir tres hitos: adquisición de imágenes mediante cámaras de visión, detección de los defectos locales en la superficie a inspeccionar y clasificación de las faltas detectadas. El análisis de estas tres cuestiones caen dentro de las disciplinas de Visión Artificial y Reconocimiento de Formas. En el tema de formación de imágenes digitales, se ha tratado tanto el diseño del sistema de iluminación como cuál debe ser la tecnología a emplear para su adquisición. Respecto al primer objetivo, se presenta una metodología para el diseño del sistema de iluminación uniforme aplicado sobre superficies planas. El planteamiento propuesto se basa en el comportamiento de las superficies a inspeccionar ante la luz y en los modelos de fuentes de iluminación. En cuanto a la tecnología a emplear, dependerá de la calidad de la imagen, de la métrica requerida y de los parámetros específicos de cada proceso de inspección visual. Por estos motivos, se hace necesario presentar los elementos que influyen en la toma de decisión respecto a la tecnología de adquisición, haciéndose referencia a lentes, sensores y tarjetas de adquisiciones, mostrándose las pautas a seguir para la óptima selección de cada uno de ellos. La detección de los defectos locales se ha basado en el tratamiento de la información mediante tres bloques: procesado, detección y post procesado. La etapa de procesado tiene como finalidad el realce de los defectos, la cual ha sido efectuada mediante el diseño de filtros lineales, exponiéndose un novedoso método basado en correlación lineal con variable cualitativa. El bloque de detección se encarga de segmentar las imágenes, aislando los defectos del fondo de la imagen. Los métodos utilizados se basan en el conocimiento de las funciones de densidad de los defectos y del fondo. La última etapa, de las mencionadas, trata de filtrar la información recibida de la anterior etapa con la intención de mejorar los resultados de la detección en su conjunto. Las técnicas empleadas se fundamentan en operaciones de morfología binaria. Para acabar con este apartado, se expone un método de evaluación sobre cuál de las diferentes tácticas propuesta para la detección es la mejor. En cuanto a la catalogación de los defectos, se precisa tanto de la exploración de los datos así como de diseño posterior los clasificadores. Los datos se caracterizan por ser de tipo estático y por tener un universo escaso de muestras para sus construcciones. Se ha trabajado tanto en el análisis de los datos como en clasificadores paramétricos y no paramétricos. Para el primer aspecto, se ha utilizado los mapas auto organizados y se ha decantado un método de Clustering paramétrico, basado en transformaciones Box Cox. Mientras para los clasificadores paramétricos se ha conseguido obtener las expresiones analíticas del error y el sesgo, este último para el caso unidimensional, bajo las suposiciones de dos poblaciones normales enfrentadas. Al finalizar la exposición, se compara los resultados obtenidos con las técnicas tradicionales de clasificación. Por último, la realización física de dos sistemas de inspección visual automatizada, uno para el aluminio colado y el otro para la pasta de papel, han servido de bancada para el trabajo experimental elaborado en el transcurso de la presente tesi

    Una historia analógica de lo digital: del paradigma mecánico al electrónico en lo paramétrico en Arquitectura

    Get PDF
    En las últimas décadas, a partir de la segunda mitad de los años noventa del siglo pasado, se ha hecho indudable en una significada parte de la producción arquitectónica global, un interés categórico por la consideración de los procesos proyectuales de carácter paramétrico. Sus estrategias han pasado a ser utilizadas en los planteamientos de muchos arquitectos, y a partir de éstas se han ampliado los horizontes arquitectónicos creativos e investigadores y se han generado obras muy destacadas. El corpus teórico que sustenta dicho modo de aproximación al proyecto participa de un conjunto de fundamentos interconectados que provienen de las teorías y subteorías de la ciencia de la complejidad, y también de las oportunidades de los nuevos perfeccionamientos informáticos, todo ampliamente estudiado en numerosos programas de investigación en el campo del diseño arquitectónico y urbano y, por tanto, con un extenso relato en múltiples artículos, publicaciones y congresos en distintas partes del mundo. No es éste pues el objeto principal de esta reflexión. A nosotros, desde el convencimiento de la pertinencia de aplicación de lo paramétrico en la arquitectura, su presencia nos interesa por una cuestión distinta; pensando en los inicios, en la consideración hipotética de existencia de otra igualmente ricas historia y teoría paramétrica pre y protodigitales, mucho menos exploradas y que debemos revisar. Esto es, para reivindicar acerca de la memoria paramétrica, sobre su tradición y sensibilidad incluso aun intuida, más allá de dimensiones exclusivamente computacionales, para no confundir su progreso solamente con un mero avance digital. Pues tras hacer una observación general de la producción más reciente, paralelamente a obras sobresalientes, se percibe a veces conflicto en cuanto al aspecto, en consideración abreviada del enorme potencial paramétrico, de fetiche de pura creación asombrosa en una cultura de la retórica de lo recién estrenado, como consecuencia de circunstancias, tal vez, emanadas de actitudes que postergan lo previo, debido a que se escribe una historia paramétrica, en parte al margen de su carácter de intersección, de encrucijada

    Fundamentos de informática

    Get PDF
    El libro que presentamos responde a esta llamada, puesto que se ocupa de algunas de las raíces o fundamentos de la informática. Lo hemos escrito pensando en los estudiantes universitarios de las ramas de informática, así como en los profesionales antes mencionados. Estos últimos encontrarán un texto autocontenido,desprovisto en lo posible del aparato teórico habitual y preocupado permanentemente en la tarea de desarrollar aperturas a cuestiones de la más viva actualidad, como los sistemas borrosos o la complejidad del software, y a cuestiones en las que parece vislumbrarse un futuro. En cuanto a los estudiantes,nuestra experiencia nos dice que, por un cúmulo de circunstancias que no hacen al caso, se ven obligados con frecuencia a estudiar las materias objeto de nuestro libro, tal vez, sí, con mayor extensión y formalismo matemático, pero no siempre bajo condiciones óptimas: apuntes improvisados, textos en lenguas extranjeras, dispersión de estas mismas materias en distintas asignaturas y por tanto fragmentación de su sentido radical (raíces), o desapego del sentido de su aplicación. Sin poner en tela de juicio la necesidad científica del mejor formalismo posible, está constatado que dosis excesivas y exclusivas de esa medicina conducen en el plano educativo a un estéril desánimo de los estudiantes

    Evolución de gramáticas bidimensionales de contexto libre para el diseño de arquitecturas de redes de neuronas artificiales

    No full text
    Uno de los pasos decisivos en la aplicación de Redes de Neuronas Artificiales es el diseño de la arquitectura de la red; sin embargo, el diseño de la arquitectura es una tarea de expertos. Por ello el desarrollo de métodos automáticos de determinación de arquitecturas resulta un campo de gran interés entre los investigadores en redes de neuronas artificiales. Estos métodos utilizan fundamentalmente técnicas de búsqueda, como Algoritmos Genéticos, Enfriamiento Simulado, Estrategias Evolutivas o incluso Técnicas Multiagente. La mayoría de estos métodos se basan en la representación directa de los parámetros de la red, lo que hace que sean métodos no escalables, es decir, para representar arquitecturas moderadamente complejas se requieren codificaciones de gran tamaño, lo que afecta al tiempo de convergencia del algoritmo considerado. En este trabajo se propone un esquema de codificación indirecta que se basa en la representación mediante gramáticas bidimensionales. El esquema propuesto, denominado sistema GANET, es genérico y supera las limitaciones de otros sistemas relacionados. El sistema GANET ha demostrado su capacidad para encontrar arquitecturas óptimas para el problema de aproximación de la serie temporal logística

    XX Workshop de Investigadores en Ciencias de la Computación - WICC 2018 : Libro de actas

    Get PDF
    Actas del XX Workshop de Investigadores en Ciencias de la Computación (WICC 2018), realizado en Facultad de Ciencias Exactas y Naturales y Agrimensura de la Universidad Nacional del Nordeste, los dìas 26 y 27 de abril de 2018.Red de Universidades con Carreras en Informática (RedUNCI
    corecore