19 research outputs found

    Hipercomputación desde la computación cuántica

    Get PDF
    Un hipercomputador computa funciones que son incomputables por una máquina de Turing. Recientemente, Tien D. Kieu ha propuesto un algoritmo hipercomputacional cuántico, el cual emplea como referente físico el oscilador armónico cuántico y resuelve en principio el décimo problema de Hilbert. Se realiza un análisis del algoritmo de Kieu y se deduce que está sustentado en ciertas propiedades del álgebra Weyl-Heisenberg, la cual es el álgebra dinámica asociada al oscilador armónico cuántico; y en una cierta aplicación del teorema adiabático de la mecánica cuántica. Con base en el análisis realizado, se presenta una adaptación algebraica del algoritmo de Kieu, es decir, se presenta un algoritmo ála Kieu sobre el álgebra de Lie su(1, 1). Debido a que el álgebra su(1, 1) admite realizaciones en sistemas físicos en las áreas de la óptica cuántica, la materia condensada y la física matemática, entre otras; la adaptación realizada amplia el espectro de posibilidades de implementación del algoritmo sobre uno de estos sistemas.Palabras claves: Hipercomputación, computación cuántica, Décimo problema de Hilbert, teorema adiabático, álgebra de Lie su(1, 1).&nbsp

    El mundo de las ciencias de la complejidad

    Get PDF
    La situación es verdaderamente apasionante. Mientras que en el mundo llamado real –y entonces se hace referencia a dominios como la política, la economía, los conflictos militares y sociales, por ejemplo–, la percepción natural –digamos: de los medios y la opinión pública– es que el país y el mundo se encuentran en condiciones difíciles; en algunos casos, dramática; y en muchas ocasiones trágica, en el campo del progreso del conocimiento asistimos a una magnífica vitalidad. Esta vitalidad se expresa en la ciencia de punta y, notablemente, en las ciencias de la complejidad. Mientras que la ciencia normal –para volver a la expresión de Kuhn– se encuentra literalmente a la defensiva en numerosos campos, temas y problemas –digamos, a la defensiva con respecto al decurso de los acontecimientos y a las dinámicas del mundo contemporáneo–, en el contexto del estudio de los sistemas complejos adaptativos asistimos a una vitalidad que es prácticamente desconocida para la corriente principal de académicos –independientemente de los niveles en los que trabajan–, de científicos, de administradores de educación y de ciencia y tecnología (por ejemplo rectores, vicerrectores, decanos, directores de departamentos, tomadores de decisión, políticos y gobernantes). La corriente principal del conocimiento (mainstream) desconoce una circunstancia, un proceso, una dinámica que sí es conocida por parte de quienes trabajan e investigan activamente en el campo de las ciencias de la complejidad

    Tres razones de la metamorfosis de las ciencias sociales en el siglo XXI

    Get PDF
    This paper explains the process of complexification of the social sciences during the end of the 20th century and the beginning of the 21st century, while it provides three reasons why this has happened. The paper claims that the human and social sciences must undergo a radical metamorphosis if they want to keep alive at all. Even though, nothing obliges that these sciences must go on existing. At the end, as an open-ended conclusion, it is pointed out how, because of the changes that express a deep crisis, how a brand-new science of the impossible has emerged.Este artículo explica la complejización de las ciencias sociales en el curso del siglo XXI, y aporta tres razones por las que este proceso ha tenido lugar. La tesis que se defiende aquí es que las ciencias sociales sufren una metamorfosis radical que deben asumir si quieren seguir existiendo. Aunque nada obliga a que tengan que seguir existiendo. Al final, en unas concusiones abiertas, se señala cómo, como consecuencia de las transformaciones en crisis, emerge una ciencia de lo imposible

    Modelamiento y simulación de sistemas complejos

    Get PDF
    De manera tradicional se ha afirmado que existen dos formas de ciencia: una basada en la inducción y otra fundada en deducciones o, lo que es equivalente, en criterios y principios hipotético-deductivos. La primera ha sido conocida como ciencia empírica y su problema fundamental es el de la inducción; es decir, el de establecer cuáles, cómo y cuántas observaciones (o descripciones) particulares son suficientes (y/o necesarias) para elaborar generalizaciones. Esta es una clase de ciencia que trabaja a partir de observaciones, descripciones, acumulación de evidencias, construcción de datos, y demás, a partir de los cuales puede elaborar procesos de generalización o universalización. Este tipo de ciencia coincide con los fundamentos de toda la racionalidad occidental, a partir de Platón y Aristóteles, según la cual sólo es posible hacer ciencia de lo universal. Por su parte, el segundo tipo de ciencia consiste en la postulación de principios primeros o axiomas, y se concentra en el estudio de las consecuencias –igualmente, de los alcances– de dichos principios. Esta clase de ciencia tiene como problema fundamental la demostración de determinados fenómenos, valores, aspectos, dicho en general; y esto se fundamenta en el rigor con el que se han postulado los axiomas y los teoremas subsiguientes. Por derivación, esta clase de ciencia incorpora y trabaja con lemas y otros planos semejantes. Cultural o históricamente, esta clase de ciencia se inicia con la lógica de Aristóteles y se sistematiza por primera vez en la geometría de Euclides. Toda la ciencia medieval, llamada theologia, opera de esta manera. En el marco de la ciencia contemporánea estas dos clases de ciencia se pueden ilustrar profusamente. En el primer caso, por ejemplo, desde el derecho que afirma que las evidencias se construyen; las ciencias forenses (antropología forense, odontología forense y demás) que sostienen algo semejante; o el periodismo y la comunicación social que trabajan a partir del reconocimiento de que la noticia no existe, sino que se construye (vía la crónica, la reportería y otras). De otra parte, en el segundo caso, desde las matemáticas y la lógica hasta las ciencias y las disciplinas que incorporan parámetros y metodologías basadas en hipótesis. (Vale la pena recordar siempre aquella idea clásica del propio I. Newton de acuerdo con la cual la buena ciencia y en las palabras de Newton: hipothese non fingo). Pues bien, por caminos, con motivaciones y con finalidades diferentes y múltiples, recientemente ha emergido una tercera clase de ciencia, que ya no trabaja con base en la inducción y en la deducción, sino de una manera radicalmente distinta. Esta tercera manera es el modelamiento y la simulación, y la forma más acabada de esta ciencia son las ciencias de la complejidad

    Editorial

    Get PDF
    Tenemos la satisfacción de presentar a la comunidad académica el ultimo numero del año 2006 de la Revista Colombiana de Computación. Continuamos recibiendo artículos de diferentes países del mundo, de gran calidad, como los que se publican en este número

    Evolución de componentes de computación cuántica y mediciones cuánticas no destructivas en la informática moderna. //Evolution of quantum computing components and non-destructive quantum measurements in modern computing.

    Get PDF
    El presente trabajo, realiza una breve introducción a las medidas QND (Quantum nondemolition measurement) y sus características.  Además, se describe teóricamente un qubit acoplado a un oscilador armónico cuántico forzado como ejemplo de una medición QND en un qubit. El formalismo desarrollado para este tipo de sistemas cuánticos acoplados se desenvuelve dentro de la teoría cuántica de la computación. Como parte del estudio de las mediciones QND, se introducen los qubits de flujo que hacen uso de los interferómetros superconductores cuánticos (SQUIDs). El análisis de este esquema informático intenta introducir al lector en los conceptos de computación cuántica como el quibit que es el componente base que permite procesar información de forma cuántica.  El  objetivo de este trabajo es caracterizar si las medidas elaboradas sobre el qubit acoplado son o no QND.  En este sentido, la aplicación del formalismo expuesto permitirá vislumbrar los alcances y limitaciones de los qubits acoplados en el desarrollo y aplicación de los sistemas cuánticos de la computación hasta el día de hoy. Adicionalmente, la aplicación de esta teoría se puede emplear a mediciones QND sobre qubits superconductores articulados a un oscilador armónico cuántico. Todo este proceso es sujeto al análisis y metodología que nos proporciona la historia de la ciencia y la tecnología. AbstractThe present work makes a brief introduction to QND (Quantum non demolition measurement) measurements and its characteristics. In addition, a qubit coupled to a forced quantum harmonic oscillator which is described theoretically as an example of a QND measurement in a qubit. The formalism developed for this type of coupled quantum systems is developed within the quantum theory of computation. As part of the study of QND measurements, the flow qubits making use of quantum superconducting interferometers (SQUIDs) are introduced. The analysis of this computer schema attempts to introduce the reader to the concepts of quantum computing such as qubit, which is the basic component that allows information to be processed quantumly. The objective of this work is to characterize whether the elaborated measures on the coupled qubit are QND or not. In this sense, the application of the exposed formalism will allow us to glimpse the scope and limitations of coupled qubits in the development and application of quantum computing systems to this day. Additionally, the application of this theory can be applied to QND measurements on superconducting qubits coupled to a quantum harmonic oscillator. All this process is subject to the analysis and methodology provided by the history of science and technology

    Presentación

    Get PDF

    Computabilidad y máquina de Turing

    Get PDF
    La presente investigación evalúa el concepto de computabilidad en la teoría de Alan Turing, justificándose por la existencia de opiniones divergentes entre diversos académicos, expresadas alrededor del significado de la tesis de Church-Turing, que trata a la función recursiva como equivalente al procedimiento efectivo. En la actualidad, operamos computadoras conectadas a la Internet, resultando habitual relacionar como computabilidad lo que se puede hacer en una computadora. Muy pocas veces asociamos a la computadora con la ejecución de un cálculo aritmético, tal vez porque disponemos de las máquinas calculadoras. En un sentido amplio, utilizamos la palabra computable como sinónimo de la obtención de un resultado utilizando una computadora. Cuando mencionamos cálculos, no sólo significa operaciones numéricas, también corresponde a operar símbolos, como ocurre cuando entendemos los elementos que nos rodean, los percibimos como fenómenos, incluso nos percatamos del ánimo de las personas y las interpretamos, aunque no siempre acertemos sobre los estados de ánimo.Tesi

    Revista Colombiana de Computación. Volumen 7 Número 2 Diciembre de 2006

    Get PDF
    Tenemos la satisfacción de presentar a la comunidad académica el último número del año 2006 de la Revista Colombiana de Computación. Continuamos recibiendo artículos de diferentes países del mundo, de gran calidad, como los que se publican en este número.We are pleased to present to the academic community the last issue of 2006 of the Revista Colombiana de Computación. We continue to receive articles from different countries around the world, of great quality, such as those published in this issue
    corecore