121 research outputs found

    Optimización

    Get PDF
    El presente texto es una introducción a la Optimización y está constituido por los siguientes capítulos: la primera parte del capítulo I, en un 90 % aproximadamente corresponde a la Reseña Histórica de la Investigación de Operaciones; una excelente monografía del profesor de la Universidad Pública de Navarra Doctor Don Francisco Javier Faulín Fajardo y la última parte contiene las definiciones de Investigación de Operaciones, sus principales divisiones, una tabla cronológica; se continúa luego con un recorrido por la Biografía de George Bernard Dantzig, sus relaciones con Wassily Leontief, Leonid Vitalievich Kantorovich, Chames, Koopmans, Cooper, von Neumann, Oscar Morgenstern, L. G. Khachiyan, así como el algoritmo de Narendra Karmarkar; el capítulo termina con el futuro de la Investigación de Operaciones. El capítulo II es un estudio de la Concavidad y Convexidad, donde se analizan los conjuntos convexos, el Teorema de Weierstrass, las funciones convexas y la concavidad de funciones, entre otros temas. El capítulo III corresponde a planteamiento de problemas en Programación Lineal. En el capítulo IV se presentan los métodos de solución en Programación Lineal, es decir, el método gráfico, los métodos analíticos, otros temas en Programación Lineal, y finaliza con la Programación Lineal Borrosa o Difusa. El capítulo V está dedicado a la Dualidad en Programación Lineal, al análisis de posoptimalidad y a la Programación Lineal Paramétrica. En el capítulo VI se tratan algunos de los Problemas de Redes: transporte, intertransporte y asignación. El capítulo VII trabaja la Programación Lineal Entera y sus derivadas: Entera Binaria y Entera Mixta. El capítulo VIII corresponde a la Teoría de Decisiones en ambientes de certeza, de incertidumbre y de riesgo. En el capítulo IX se continúa con los Modelos de Redes, se trabajan los problemas de: flujo máximo, de la ruta más corta, del árbol de mínimo recorrido, del PERT / CPM / LPU / ROY / RAMPS, trayectorias de Euler, los puentes de Königsberg, trayectorias de Hamilton, del agente viajero, entre otros. En el capítulo X se trata el problema de la Programación No Lineal, considerada como la más rica y extensa en dificultades, correspondiente a la Optimización, debida a la estructura y comportamientode las funciones no lineales. Se estudian los temas de programación clásica libre, clásica con restricciones, no lineal diferenciable, no lineal no diferenciable, cuadrática, separable y geométrica. El capítulo XI contiene la Programación Dinámica con sus procesos polietápicos de decisión, el principio de optimalidad de Richard Bellman, la descomposición, el problema de decisión de una etapa o de "n" etapas y la función recursiva. En el capítulo XII se estudian los Modelos de Inventarios, la cantidad económica de pedido, los sistemas de control de inventarios ABC, la planeación de requerimiento de materiales MRPI, MRPII y MRP III. El capítulo XIII trata la Teoría de Colas, procesos de nacimiento y muerte, las medidas de eficiencia de un sistema, la inferencia estadística y diferentes modelos de colas. El capítulo XIV hace referencia a la Optimización Estocástica; entre otros temas se trabajan los siguientes modelos: de valor esperado, de mínima varianza, de mínimo riesgo a nivel k, modelo donde las Cj están normalmente distribuidas; modelo de Kataoka, con restricciones aleatorias, con restricciones conjuntamente distribuidas, con compensación lineal; programación lineal estocástica, optimización estocástica de doble etapa y multietapa, optimización no lineal estocástica, optimización robusta y redes estocásticas. En el capítulo XV se estudian las Cadenas de Markov, en tiempo discreto, homogéneas, con espacio de estado finitos y en tiempo continuo con espacio de estados discreto. Acontinuación en el capítulo XVI se analizan las Decisiones Multicriterio y el Análisis Multiobjetivo, el criterio de optimalidad Paretiana, tasa de intercambio o trade - off entre criterios; clasificación de las técnicas multicriterio y multiobjetivo, método de las ponderaciones, método de las restricciones, programación meta y proceso analítico jerárquico. En el capítulo XVII se estudia la Teoría de Juegos, sus aplicaciones, juegos de suma cero de dos personas, estrategias maximin y minimax, punto de silla de montar. El capítulo siguiente, es decir, el XVIII se refiere a Simulación, tipos, generación de aleatorios, números auténticamente aleatorios, números pseudoaleatorios, números cuasialeatorios, lenguajes y/o paquetes de simulación, método de Montecarlo, simulación discreta, simulación continua, generación de variables aleatorias, distribuciones estadísticas de probabilidad continuas y distribuciones estadísticas de probabilidad discretas. Finalizando, en el capítulo XIX, se estudian los Metaheurísticos, recocido simulado, búsqueda tabú, GRASP, redes neuronales artificiales, algoritmos genéticos, algoritmos meméticos, colonia de hormigas y partículas swar

    El artículo científico en inglés : aspectos teórico-descriptivos, pedagógicos y computacionales de una modelización sistémico-funcional

    Get PDF
    Este libro da cuenta de estudios realizados entre 1999 y 2008 en el marco del proyecto “RedACTe: Modelización contextual y lingüística del artículo de investigación, y desarrollo de un sistema de escritura asistida" (Fases I-V: UNCuyo y CONICET)

    Organización frasémica del lexicón

    Get PDF
    RESUMEN Se fundamenta en este estudio el frasema en tanto que unidad operacional semántico-sintáctica concerniente al área lexemotáctica. Se define el frasema como un particular fenómeno de la semántica combinatoria a la cual se da una fundamentación teórica. Bajo el término frasema se entienden colocaciones, elisiones y coligaciones léxicas de la lengua española que constituyen manifestaciones de una unidad émica del sistema lingüístico junto a otras en la serie de: fonema, morfema, lexema, frasema, proposema, dictema y tema, definitorias de los estratos semiológicos correspondientes. La unidad frasémica se estudia desde una perspectiva a un tiempo semiológica y psicológica por su capacidad de condensar un espectro muy amplio de niveles lingüísticos y hechos experienciales, debido a la universalidad de relaciones y dependencias entre los objetos de la realidad que se manifiesta mentalmente en el lexicón de cada lengua. Se ha revisado la naturaleza de la unidad frasema desde diferentes marcos teóricos, aunque destacando el enfoque cognitivo-comunicativo como el más apropiado para el tratamiento de la misma y útil tanto desde el punto de vista explicativo, como desde el punto de vista de posibles aplicaciones en el campo lexicográfico. Se defiende y argumenta el hecho de que todo proceso de actualización de las unidades léxicas entre lo puramente virtual (diccionario convencional) y lo puramente actual (discurso) se requiere el dominio transicional de lo parcialmente repetido. Este dominio transicional ha de entenderse que presenta un estatuto cognitivo propio, es decir un dominio mental que el ser humano debe en cualquier caso configurar para que la comunicación sea posible. De tal manera cualquier proceso que lleva de los contenidos léxicos virtuales a los actuales requiere organizarse a través del filtro, siempre revisable o ajustable, representado por la unidad sistémica de la lengua que es el frasema, poseedor de particulares propiedades denominativas, comunicativas y organizadoras del mundo de experiencia para el sujeto hablante. En la explicación del contenido cognitivo de una acción discursiva se ha partido de un concepto de significado como entidad que carece de límites estables y exactos, y cuyas relaciones irradian todo el saber asociado a una unidad mental, un marco conceptual (frame) que engloba los tipos genéricos de componente semántico de las unidades léxicas que permiten actualizar. Hemos denominado a estos componentes: intencional, implicacional e inferencial dentro del conjunto frasémico de un ítem léxico. La información sobre el denotado se compone de dos partes: la de sus rasgos intencionales obligatorios, p.e.: invierno frío/ pasado/ siguiente/ auténtico/ verdadero/ y una parte de sus rasgos implicacionales. La implicación de los rasgos puede ser obligatoria (rígida) invierno norteño /sureño/, fuerte (de alta probabilidad): invierno duro/ gélido/ suave/ húmedo/ seco/ y débil: invierno inesperado/ crudo/ formidable/ memorable, u opositora (incompatible o poco previsible, incluso contradictoria): invierno aterciopelado/ nuclear. En los últimos ejemplos se trata del inferencial que requiere hacer cierta inferencia (deducción) encuanto al significado. De tal manera se demuestra que el saber relativo al significado en tanto que potencial de uso de una palabra, ampliamente concebido, presupone no sólo el conocimiento de lo que entra en su contenido lógico nocional, o deriva fácilmente de él, sino también componentes que transcienden este espacio o son incluso aparentemente incompatibles con él, obtieniendo su mayor reflexión en la unidad frasema. Desde la perspectiva interlingüística los frasemas constituyen el único medio razonable con el que el potencial de sentido de las unidades léxicas puede ser explicitado para su posterior contraste. Ello hace que este tipo de unidad del sistema lingüístico requiera de una muy especial atención en el ámbito de la enseñanza-aprendizaje de lenguas extranjeras, en el dominio exhaustivo de la lengua natal, así como en la traducción convencional y electrónica. __________________________________________________________________________________________________Phraseme is represented as operational semantic-syntactic unity of lexemotactic area. It is defended as phenomenon of the combinatory semantics obtaining the theoretical support. The name of phraseme includes the lexical collocations, elisions and colligations studied in the Spanish language, making up manifestations as an -emic unity of the linguistic system in the series of: phoneme, morpheme, lexeme, phraseme, proposeme, dicteme and theme, being distinctive of the correspondent semiological levels. The phraseme is studied from the semiological and psychological perspective, because it is condensing a wide spectrum of linguistic levels and experiential facts, on account of the universality of relations and dependences between the objects in the reality, manifested mentally in the lexicon of each language. It is emphasized the cognitiv-communicativ approach as the most characteristic for studies of this unity and very useful from an explicative viewpoint, as from the point of view of possible applications in the lexicographic field

    Analizador sintáctico del lenguaje natural para el idioma castellano mediante redes neuronales articiales

    Get PDF
    La presente tesis presenta una propuesta de analizador sintáctico del lenguaje natural (en idioma castellano) aplicando redes neuronales artificiales utilizando oraciones escritas en idioma castellano. El análisis sintáctico del lenguaje Natural utilizando oraciones escitas, es abordada mediante la formalización de las estructuras sintácticas del lenguaje natural (Idioma castellano) los cuales tuvieron que formalizarse para los fines de lograr un reconocimiento de las estructuras sintácticas formalizadas. En el presente trabajo se propone una solución al problema utilizando oraciones escritas, aplicando redes neuronales artificiales las cuales tras pasar por un proceso de aprendizaje con muestras reales proporcionadas palabras de una base de datos, logra realizar el reconocimiento de las estructuras sintácticas formalizadas. Los resultados obtenidos en un prototipo de una aplicación web, desarrollada en un software creado en PHP, con HTML, y java script sobre la plataforma de software libre Linux Fedora con Servidor web APACHE y gestor de Base de datos María DB, el cual me ha permitido demostrar que la propuesta logra realizar el reconocimiento de las estructuras sintácticas formalizadas del idioma castellano ingresadas a través de oraciones escritas

    El pensamiento estadístico asociado a las medidas de tendencia central: un estudio psicogenético sobre la media aritmética, la mediana y la moda.

    Get PDF
    Las investigaciones de la psicología cognitiva en lo que se refiere a la génesis de los conceptos estadísticos no se encuentra muy avanzado, debido a que la preocupación por esos conceptos se encuentra en los desarrollos que la educación pueda ofrecer, aunque se piense en la actividad de los sujetos (Batanero C. , 2002). Los orígenes de estos trabajos incian con Piaget & Inhelder (1951) y Fischbein (1975) que luego continuaron y a partir de los años 80´s (Cobb, 1986; Nisbett & Ross, 1980) comenzaron un dinámica hasta alcanzar la relevancia que hoy ostenta en todos los niveles de formación (Ottaviani, 2002). La preocupación particular por indagar acerca de los problemas de enseñanza y aprendizaje de los conceptos estadísticos básicos, particularmente por la media aritmética, comienza con los trabajos de Pollatsek, Lima, & Well (1981) y los de Mevarech (1983); alcanzando avances significativos con el trabajo de los profesores Batanero y Godino (1991) quienes fortalecieron su trabajo con los desarrollos alcanzados en el programa de doctorado de la Universidad de Granada, donde Belen Cobo (2003) presenta su tesis doctoral “Significado de las Medidas de posición central para los estudiantes de secundaria” que es el referente que más cercano que encontramos a la investigación aquí desarrollada. El objetivo propuesto en esta investigación en acuerdo con la propuesta piagetiana y haciendo énfasis en el desarrollo de los esquemas como procesos básicos que van a continuar desarrollándose durante toda la vida a través de procedimientos de aprendizaje, se estableció en términos de contribuir en la explicación de la psicogénesis de los conceptos estadísticos elementales de moda, mediana y media aritmética, en niños de edades entre 9 y 14 años Empleando el método clínico crítico (Bang, 1970 (1968)) como método de indagación y teniendo en cuenta los procesos de Abstracción, Generalización, Toma de consciencia y Metacognición, se adelantó un trabajo de caracterización de los esquemas de pensamiento en términos de estrategias (Inhelder B. , 1978; Inhelder & de Caprona, 2007) logrando, con la participación de 79 niños de dos municipios de Colombia que resolvieron la tarea propuesta, identificar 5 estrategias (Máximo de un conjunto, Cardinal o cantidad de un conjunto, Ley de tricotomía simple o por etapas, Suma iterada o continua y Regla de proporcionalidad) que en su organización jerárquica permiten evidenciar los indicios buscados en la dirección propuest

    Análisis de la evolución historia de las cónicas teniendo en cuenta lo puntual y lo global en Apolonio hasta Descartes para el diseño de tareas en geometría analítica.

    Get PDF
    La enseñanza de la parábola suele restringirse al enfoque de la geometría analítica. El presente estudio consistió en una propuesta didáctica que acercó a los estudiantes a la comprensión del significado de parábola como lugar geométrico mediante el diseño e implementación de una estrategia didáctica basada en el uso e integración del ambiente de geometría dinámica Cabri Géomètre II Plus. En su diseño, puesta en práctica y sistematización, se consideraron las fases de una micro-ingeniería didáctica: análisis preliminares, planeación del estudio, diseño de actividades y análisis de resultados. El estudio retrató el clima intelectual percibido en clases y permitió constatar que el progreso en el desempeño matemático de los estudiantes se hace factible por la mediación del Cabri a partir de diseños planificados

    Enseñanza de las cónicas como lugares geométricos integrando Cabri II Plus.

    Get PDF
    Se presentarán los resultados de una investigación de intervención didáctica en el aula, que se ubicó dentro del contexto de la enseñanza de las cónicas vistas como lugares geométricos, con la mediación del Ambiente de Geometría Dinámica (AGD) Cabri Géomètre II Plus. Como productos de esta investigación se dará a conocer la secuencia de situaciones a-didácticas que se diseñaron como problemas de construcción geométrica de estas curvas desde el enfoque puntual hacia lo global. La secuencia se diseñó con el propósito de que los estudiantes realizaran, en primera instancia, construcciones, punto por punto, de cada una de las cónicas, y luego, construcciones geométricas donde se utilizara la figura desde un punto de vista global, para caracterizar geométricamente cada una de ellas. Las situaciones se diseñaron desde lo sintético hacia lo analítico trayendo consigo una complementariedad en los enfoques usuales para que los estudiantes comprendieran las propiedades geométricas de las cónicas

    Técnicas de análisis sintáctico robusto para la etiquetación del lenguaje natural

    Get PDF
    [Resumen] El objetivo último que persigue el Procesamiento del Lenguaje Natural es el perfecto análisis y entendimiento de los lenguajes humanos. Actualmente, estamos todavía lejos de conseguir este objetivo. Por esta razón, la mayoría de los esfuerzos de investigación de la lingiiística computacional han sido dirigidos hacia tareas intermedias que dan sentido a alguna de las múltiples características estructurales inherentes a los lenguajes, sin requerir un entendimiento completo. Una de esas tareas es la asignación de categorías gramaticales a cada una de las palabras del texto. Este proceso se denomina también etiquetación. La eliminación de ambigiiedades es una tarea crucial durante el proceso de etiquetación de un texto en lenguaje natural. Si tomamos aisladamente, por ejemplo, la palabra sobre, vemos que puede tener varias categorías posibles en español: sustantivo, preposición o verbo. Sin embargo, si examinamos el contexto en el que aparece dicha palabra, seguramente sólo una de ellas es posible. Por otra parte, el interés se centra también en asignar una etiqueta a todas aquellas palabras que aparecen en los textos, pero que no están presentes en nuestro diccionario, y garantizar de alguna manera que ésa es la etiqueta correcta. Un buen rendimiento en esta fase asegura la viabilidad de procesamientos posteriores tales como los análisis sintáctico y semántico. Tradicionalmente, el problema de la etiquetación se aborda a partir de recursos lingiiísticos bajo la forma de diccionarios y textos escritos, previamente etiquetados o no. Esta línea de desarrollo se denomina lingiiística basada en corpus. Dichos textos se utilizan para ajustar los parámetros de funcionamiento de los etiquetadores. Este proceso de ajuste se denomina entrenamiento. Las técnicas tradicionales engloban métodos estocásticos, tales como los modelos de Markov ocultos, los árboles de decisión o los modelos de máxima entropía, y también aproximaciones basadas en reglas, tales como el aprendizaje de etiquetas basado en transformaciones y dirigido por el error. La mayoría de las herramientas basadas en estos paradigmas de etiquetación resultan ser de propósito general, en el sentido de que pueden ser aplicadas a textos en cualquier idioma. Ésta es una idea muy atractiva, pero surge la duda de si un etiquetador diseñado especialmente para una lengua dada puede ofrecer mejores rendimientos o no. Por tanto, el primer objetivo del presente trabajo consiste en implementar una nueva herramienta de etiquetación que permita integrar información específica para el español, y posteriormente realizar una evaluación exhaustiva de todos estos modelos. Este estudio es de gran interés ya en sí mismo, dado que los recursos lingiiísticos disponibles para el español no abundan, y por tanto existen todavía muy pocas cifras concretas que proporcionen una idea clara del comportamiento de los etiquetadores sobre nuestro idioma. Aún con todo esto, un pequeño porcentaje de palabras etiquetadas erróneamente (2-3%) es una característica que está siempre presente en los sistemas de etiquetación puramente estocásticos. Por esta razón, apoyamos la idea del uso de estos sistemas en combinación con información sintáctica, esto es, con técnicas de análisis sintáctico robusto, y éste es precisamente el segundo de los objetivos del presente trabajo. Cuando una frase es correcta, pero la gramática no es capaz de analizarla, todavía es posible considerar los subárboles correspondientes a los análisis parciales de fragmentos válidos de la frase. El posterior estudio de estos subárboles puede ser utilizado, por ejemplo, para completar la gramática, generando automáticamente las reglas sintácticas necesarias para analizar la frase. Éste es precisamente el objetivo más ambicioso del análisis sintáctico robusto. En nuestro caso particular, resulta de especial interés la consideración de las etiquetas de las palabras de dichos subárboles como información adicional de apoyo para las técnicas tradicionales de etiquetación. La estrategia consiste en combinar esas subsecuencias de etiquetas para generar varias etiquetaciones completas posibles de la frase en cuestión, y posteriormente aplicar un filtro estadístico para elegir la secuencia global más probable.[Abstract] The ultimate goal of research on Natural Language Processing is to parse and understand human languages. Currently, we are still far from achieving this goal. For this reason, much research in computational linguistics has focussed on intermediate tasks that make sense of some of the structure inherent in language without requiring complete understanding. One such task is part-of-speech tagging, or simply tagging. Elimination of lexical ambiguities is a crucial task during the process of tagging a text in natural language. If we take in isolation, for instance, the word time, we can see that it has several possible tags in English: substantive, adjective or verb. However, if we examine the context in which the word appears, only one of the tags is possible. In addition, we are also interested in being able to give a tag to all the words that appear in a text, but are not present in our dictionary, and to guarantee somehow that this tag is the correct one. A good performance at this stage will improve the viability of syntactic and semantic analysis. Traditionally, the starting point for tagging is linguistic resources like dictionaries and written texts, previously tagged or not. This research line is called corpus-based linguistics. These corpora are used to tune the running parameters of the taggers. This tuning process is called training. Traditional techniques involve stochastic methods, such as hidden Markov models, decision trees or maximum entropy models, and also rule-based approaches, such as transformation-based error-driven learning of tags. Most tools based on these tagging paradigms are general purpose, to the eífect that they can be applied to texts in any language. This is a very attractive idea, but begs the question of whether a tagger specifically designed for a particular language is able to provide better performance. Therefore, the first goal of the present work is to implement a new tagger able to integrate specific information on Spanish, and then to perform an exhaustive evaluation of all the above-mentioned models. This study is in itself very interesting, because there are very few available linguistic resources for Spanish and very few concrete data about the behaviour of taggers on our language. However, a small percentage of wrongly tagged words (2-3%) is a feature that is always present in pure stochastic taggers. For this reason we support the idea of using these in combination with syntactic information, that is, with robust parsing techniques, and this is the second goal of the present work. When a sentence is correct and the grammar is not able to parse it, it is still possible to consider all subtrees corresponding to all partial analyses of valid fragments of the sentence. A later study of these subtrees can be used, for instance, to complete the grammar by automatically generating all the syntactic rules we need to parse the sentence. This is in fact the most ambitious goal in robust parsing. In our particular case, it is important to consider all the word tags of the subtrees in question as additional information that can be useful for traditional techniques of tagging. Our strategy combines these subsequences of tags in order to generate several complete taggings for a given sentence, and then applies a probabilistic filter to choose the most probable one

    Estándares de aprendizaje de la matemática : articulación primaria-secundaria, orientaciones para las sesiones de aprendizaje, ideas para la capacitación docente, ejemplos de tareas

    Get PDF
    Los estándares de aprendizaje para matemáticas en la educación básica regular en Alemania comprenden tres cortes: hasta cuarto grado de Primaria, hasta décimo grado/cuarto grado de Secundaria y estándares para para ingresar a la universidad o a las escuelas de ciencias aplicadas. Como complemento y ampliación de los documentos oficiales —y en conjunto con el Ministerio de Educación—, se emprendió la revisión del libro titulado Bildungsstandards Mathematik: Konkret escrito por el grupo de expertos de la IQB (Blum 2006) y publicado por la editorial Cornelsen. El libro compila artículos centrados en la comprensión y en el trabajo concreto en el aula con los estándares de aprendizaje desde quinto grado de Primaria y durante casi toda la Secundaria. En el libro se presentan, de manera resumida, los estándares de aprendizaje de matemáticas que contemplan seis competencias generales: Argumentar; Resolver problemas; Modelar; Usar representaciones matemáticas; Manejar elementos formales, simbólicos y técnicos de las matemáticas, y Comunicar matemáticamente. Según los autores, estas competencias “se incrustan dentro de otros aspectos, con los que deben alinearse la adquisición de conocimientos y el desarrollo de las sesiones de aprendizaje […] Observar únicamente las competencias […] no basta para un diseño productivo de las clases de matemáticas […] Sin embargo, las competencias son puntos de referencia importantes para establecer las actividades matemáticas de los estudiantes de forma lo suficientemente amplia como para garantizar la calidad de las sesiones de aprendizaje, tal como lo formula la KMK” (Leiss y Blum 2006). Los estándares de aprendizaje definen ámbitos de exigencia a partir de quinto grado y se menciona explícitamente que “para que cada una de las competencias también existe un grado previo al ámbito de exigencia I, en el cual la competencia no se exige o no se exige de forma que amerite mencionarse” (ib. cit.). Se enfatiza también que, en la práctica, no es razonable ni posible separar una competencia de la otra. Por último, los autores señalan que los estándares no explicitan dos aspectos importantes, que son los cimientos sobre los cuales se construyen las competencias. El primero señala la necesidad del conocimiento básico; el segundo apunta a las condiciones para la comprensión matemática. En cuanto al primer aspecto, se afirma que: Debería haber consenso con respecto a la necesidad de contar con habilidades elementales para un trabajo fluido y flexible con números y magnitudes, así como con objetos geométricos (pregunta directriz: ¿Cómo funciona?). Estas habilidades básicas no se nombran directamente en las competencias de los estándares de aprendizaje, pero se ven como una condición necesaria (ib. cit.). Respecto del segundo aspecto, se explicita que: Los/as estudiantes pueden formarse una comprensión matemática, siempre y cuando se construyan —con cuidado y a largo plazo— “ideas” con respecto a conceptos y procedimientos matemáticos […]. Activar dichas ideas constituye una base, sin la cual las competencias no serán efectivas. En clase de matemáticas se debe invertir una buena parte de las actividades en esto (ib. cit.)
    corecore