13 research outputs found
Importancia de la Inteligencia Artificial en la educación del siglo XXI
The area of education presents the inclusion of great technological tools such as the use of Artificial Intelligence, which has been incorporated into the different teaching-learning processes, so that the formative autonomy of meaningful learning is improved, along with responsibility in the construction of knowledge, both for teachers in their most creative and innovative updating process that leads the student to direct interaction, so that their academic performance is optimal in the competencies required by the pedagogical quality of the 21st century at different school levels. . The research design was documentary-descriptive in nature, based on the information collected on different websites such as Google Academic, Proquest, Science, Redalyc, Dialnet, and Scielo. The results show that education in general has had significant progress with the arrival of technology, especially with the competitive implementation of virtual environments, thanks to the progressive evolution of Artificial Intelligence, where it has been opening a world of possibilities, without limit. Any and with a great diversity of software, whether in the computer security sector, as well as for management and academic training at all existing levels of pedagogical knowledge. It is concluded that education and Artificial Intelligence make a perfect duo in the good management of educational quality, in accordance with the demands of the 21st century, in preparation of the new generations that guarantees the solution of many eventualities that may arise, both for the teachers as well as the students, because they will have no excuse in having the best possible resultsEl área de la educación presenta la inclusión de grandes herramientas tecnológicas como es el uso de la Inteligencia Artificial, que se viene incorporando en los diferentes procesos de enseñanza – aprendizaje, para que se mejore la autonomÃa formativa de aprendizaje significativo, junto a la responsabilidad en la construcción de saberes, tanto para los maestros en su proceso de actualización más creativo e innovador que lleve al alumno a una interacción directa, para que su rendimiento académico sea óptimo en las competencias que exige la calidad pedagógica del siglo XXI en los diferentes niveles escolares. El diseño de la investigación fue de carácter documental – descriptivo, basado en la información recolectada en diferentes páginas web como Google Académico, Proquest, Science, Redalyc, Dialnet, Scielo. Los resultados demuestran que la educación en general ha tenido un avance significativo con la llegada de la tecnologÃa, especialmente con la implementación competitiva de los entornos virtuales, gracias a la evolución progresiva de la Inteligencia Artificial, donde viene abriendo un mundo de posibilidades, sin lÃmite alguno y con gran diversidad de software, ya sea en el sector de la seguridad informática, al igual para gerencia y y formación académica en todos los niveles existentes del saber pedagógico. Se concluye que la educación y la Inteligencia Artificial hacen un dúo perfecto en el buen manejo de la calidad educativa, acorde a la exigencia del siglo XXI, en preparación de las nuevas generaciones que garantice la solución de muchas eventualidades que se puedan presentar, tanto para los maestros como de los estudiantes, porque no tendrán excusa en tener los mejores resultados posibles
Nociones generales de muestreo aplicadas a las ciencias de la salud
El artículo tiene por objetivo describir nociones generales demuestreo aplicadas a las ciencias en el área de la salud, analizandodefiniciones, fórmulas, procedimientos y datos. Enestudios probabilísticos, la población objeto de estudio estádeterminada por la muestra a través de un plan de muestreo.En un proceso estadístico son importantes las unidades primarias,secundarias y terciarias de muestreo. Igualmente, eltipo de muestreo puede ser aleatorio simple, sistemático estratificadoo por conglomerados. Los siguientes criterios requierenclaridad y fundamentación: tamaño de la población,nivel de confianza, error relativo, efecto del diseño, efecto deldiseño ajustado, parámetro de interés, varianza estimada ytasa de no respuesta, permitiendo disminuir costos y tiempo,además de inducir resultados y hallazgos desde la muestraen función de la población. Para analizar un estadístico oparámetro desde un resultado inferencial, se requiere de unexperto en matemáticas o estadística, con conocimiento entécnicas para recolectar, analizar e interpretar la información,razones que permiten al investigador una mayor validez yconfiabilidad de los resultados obtenidos de la investigación
Communicative Competences: A Reading From Social Representations And Educational Actors
In the search for the consolidation of the educational quality policy, the Colombian government is concerned with strengthening competency-based training, its design, implementation, monitoring and evaluation in all cycles of the school system; it is part of the permanent improvement of academic performance. Particularly in technical secondary education, training is provided in labour competences aimed at a real articulation of knowledge and know-how. Recognising the practice and symbolic load contained in the development of communicative competences in students and teachers under study and the institutional processes undertaken for the improvement of academic performance constitutes the research effort. Dissonant perspectives on academic performance converge in a public educational institution in the municipality of Los Patios, Norte de Santander. The study assumes a qualitative perspective in order to interpret the meanings and sense of the information obtained in the field research. The methodology corresponds to the interpretative method, qualitative approach of the Symbolic Interactionism research method, its techniques and procedures. They were conceived as a means to carry out the qualitative analysis of social reality, with which to fragment, conceptualise and integrate the data in order to achieve an inductive theorisation process. The interview and documentary review constituted the data search techniques. In order to enrich and give depth to the knowledge, the results of the different techniques used for data collection, i.e. interview and self-reporting, were compared in this study. Similarly, the results were contrasted with the theories that explain the phenomenon studied, which gave rise to the presentation of the orientations towards communicative competences from their social representations
Importancia de la Inteligencia Artificial en la educación del siglo XXI
El área de la educación presenta la inclusión de grandes herramientas tecnológicas como es el uso de la Inteligencia Artificial, que se viene incorporando en los diferentes procesos de enseñanza – aprendizaje, para que se mejore la autonomÃa formativa de aprendizaje significativo, junto a la responsabilidad en la construcción de saberes, tanto para los maestros en su proceso de actualización más creativo e innovador que lleve al alumno a una interacción directa, para que su rendimiento académico sea óptimo en las competencias que exige la calidad pedagógica del siglo XXI en los diferentes niveles escolares. El diseño de la investigación fue de carácter documental – descriptivo, basado en la información recolectada en diferentes páginas web como Google Académico, Proquest, Science, Redalyc, Dialnet, Scielo. Los resultados demuestran que la educación en general ha tenido un avance significativo con la llegada de la tecnologÃa, especialmente con la implementación competitiva de los entornos virtuales, gracias a la evolución progresiva de la Inteligencia Artificial, donde viene abriendo un mundo de posibilidades, sin lÃmite alguno y con gran diversidad de software, ya sea en el sector de la seguridad informática, al igual para gerencia y y formación académica en todos los niveles existentes del saber pedagógico. Se concluye que la educación y la Inteligencia Artificial hacen un dúo perfecto en el buen manejo de la calidad educativa, acorde a la exigencia del siglo XXI, en preparación de las nuevas generaciones que garantice la solución de muchas eventualidades que se puedan presentar, tanto para los maestros como de los estudiantes, porque no tendrán excusa en tener los mejores resultados posibles
Importance of medical images in the assessment of anatomy and cardiovascular function
La enfermedad cardiovascular es una de las principales causas de morbimortalidad a nivel
mundial, con una importante carga económica para los sistemas de atención de salud en términos de costos tanto directos como indirectos. La probabilidad de que la carga económica ocasionada por la enfermedad cardiovascular siga creciendo es elevada ya que los factores
de riesgo también muestran un crecimiento epidemiológico en varias regiones del mundo. En este artÃculo se resumen los principales aspectos relacionados con la importancia del análisis de imágenes médicas de la cavidad ventricular izquierda del corazón humano, adquiridas
usando angiografÃa por rayos. Asimismo, se revisan aspectos relacionados con el análisis de la morfologÃa y dinámica cardiovascular, enfatizando la importancia de la estimación cuantitativa de la deformación cardÃaca regional a partir de secuencias de imágenes en bidimensionales
y su implicación en la evaluación de la contractibilidad de la pared del corazón. Finalmente, se presentan los hallazgos más recientes del modelado, adquisición y procesado
de imágenes mediante resonancia magnética y su potencial papel en la cardiologÃa moderna para la evaluación del morfo-funcionalismo cardiaco, con sus respetivas implicaciones clÃnicas y académicas para los profesionales en formación.Cardiovascular disease is one of the main causes of morbidity and mortality worldwide,
with an important economic burden for health care systems in terms of both direct and indirect
costs. The probability that the economic burden caused by cardiovascular disease continues to grow is high since the risk factors also show an epidemiological growth in several regions of the world. This article summarizes the main aspects related to the importance of analyzing medical
images of the left ventricular cavity of the heart, this is acquired by using X-ray angiography, as well as reviewing aspects related to the analysis of cardiovascular morphology and dynamics, we emphasize the importance of quantitative estimation of regional cardiac deformation
from sequences of two-dimensional images and their involvement in the evaluation of the contractility of the heart wall. Finally, we present the most recent findings of modeling, acquisition, and processing of images by magnetic resonance and we analyze its potential role in
modern cardiology for the evaluation of cardiac morphofunctionalism with its respective clinical and academic implications for professionals in training
Importancia de las imágenes médicas en la valoración de la anatomÃa y función cardiovascular
La enfermedad cardiovascular es una de lasprincipales causas de morbimortalidad a nivelmundial, con una importante carga económicapara los sistemas de atención de salud en términos decostos tanto directos como indirectos. La probabilidad deque la carga económica ocasionada por la enfermedadcardiovascular siga creciendo es elevada ya que los factoresde riesgo también muestran un crecimiento epidemiológicoen varias regiones del mundo. En este artículose resumen los principales aspectos relacionados con laimportancia del análisis de imágenes médicas de la cavidadventricular izquierda del corazón humano, adquiridasusando angiografía por rayos. Asimismo, se revisanaspectos relacionados con el análisis de la morfología ydinámica cardiovascular, enfatizando la importancia de laestimación cuantitativa de la deformación cardíaca regionala partir de secuencias de imágenes en bidimensionalesy su implicación en la evaluación de la contractibilidadde la pared del corazón. Finalmente, se presentan los hallazgosmás recientes del modelado, adquisición y procesadode imágenes mediante resonancia magnética y supotencial papel en la cardiología moderna para la evaluacióndel morfo-funcionalismo cardiaco, con sus respetivasimplicaciones clínicas y académicas para los profesionalesen formación
Importancia de las imágenes médicas en la valoración de la anatomÃa y función cardiovascular
La enfermedad cardiovascular es una de lasprincipales causas de morbimortalidad a nivelmundial, con una importante carga económicapara los sistemas de atención de salud en términos decostos tanto directos como indirectos. La probabilidad deque la carga económica ocasionada por la enfermedadcardiovascular siga creciendo es elevada ya que los factoresde riesgo también muestran un crecimiento epidemiológicoen varias regiones del mundo. En este artículose resumen los principales aspectos relacionados con laimportancia del análisis de imágenes médicas de la cavidadventricular izquierda del corazón humano, adquiridasusando angiografía por rayos. Asimismo, se revisanaspectos relacionados con el análisis de la morfología ydinámica cardiovascular, enfatizando la importancia de laestimación cuantitativa de la deformación cardíaca regionala partir de secuencias de imágenes en bidimensionalesy su implicación en la evaluación de la contractibilidadde la pared del corazón. Finalmente, se presentan los hallazgosmás recientes del modelado, adquisición y procesadode imágenes mediante resonancia magnética y supotencial papel en la cardiología moderna para la evaluacióndel morfo-funcionalismo cardiaco, con sus respetivasimplicaciones clínicas y académicas para los profesionalesen formación
Nociones generales de muestreo aplicadas a las ciencias de la salud
El artículo tiene por objetivo describir nociones generales demuestreo aplicadas a las ciencias en el área de la salud, analizandodefiniciones, fórmulas, procedimientos y datos. Enestudios probabilísticos, la población objeto de estudio estádeterminada por la muestra a través de un plan de muestreo.En un proceso estadístico son importantes las unidades primarias,secundarias y terciarias de muestreo. Igualmente, eltipo de muestreo puede ser aleatorio simple, sistemático estratificadoo por conglomerados. Los siguientes criterios requierenclaridad y fundamentación: tamaño de la población,nivel de confianza, error relativo, efecto del diseño, efecto deldiseño ajustado, parámetro de interés, varianza estimada ytasa de no respuesta, permitiendo disminuir costos y tiempo,además de inducir resultados y hallazgos desde la muestraen función de la población. Para analizar un estadístico oparámetro desde un resultado inferencial, se requiere de unexperto en matemáticas o estadística, con conocimiento entécnicas para recolectar, analizar e interpretar la información,razones que permiten al investigador una mayor validez yconfiabilidad de los resultados obtenidos de la investigación
La realidad virtual como herramienta en el proceso de aprendizaje del cerebro
En este artículo se presenta el estudio del cerebro y otras aplicacionesclínicas mediante las herramientas de navegaciónde la realidad virtual (RV), la capacidad de captar la interacciónreal por medio de imágenes en 3D, proyectadas a travésde un neuronavegador, entendiéndose por neuronavegacióna la producción de imágenes por medio de un programa quesirva como herramienta diagnóstica o terapéutica en neurocirugíau otras áreas médico-quirúrgicas, basándose en unsistema informático que permite visualizar y dar seguimientomediante un ordenador de la posición y la orientación de lasestructuras cerebrales. De esta forma, se pueden desarrollarprocesos para el aprendizaje significativos, permitiendoasí el abordaje anatómico en modelos de tercera dimensióndel cerebro humano. Por lo tanto, la neuronavegación conayuda de sistemas de realidad virtual como lo son las gafasVR, Leap Motion, dispositivos de control gestual capaces decapturar con gran precisión los dedos en forma virtual e instantáneay las técnicas que permitan una identificación másprecisa hacen que el aprendizaje mejore y se logre mitigarostensiblemente el tiempo destinado al estudio para el desempeñoy conocimientos de las partes que conforman el cerebrohumano y sus órganos adyacentes
On the proper use of the Pearson correlation coefficient: definitions, properties and assumptions
El coeficiente de correlación de Pearson es una medida considerablemente utilizada en diversas áreas del quehacer cientÃfico, desde estudios técnicos, econométricos o de ingenierÃa; hasta investigaciones relacionadas con las ciencias sociales, del comportamiento o de la salud. Es precisamente esta extensa y profusa divulgación una de las razones que explicarÃa el uso indebido que se le da a esta herramienta estadÃstica, especialmente en aquellos escenarios en los que debe ser interpretada correctamente o en los que se tienen que comprobar las suposiciones matemáticas que la sustentan. Un ejemplo de esto se halla cuando se asume que la correlación implica causalidad, confusión en la que se incurre con frecuencia y en la que se ven involucrados, tanto investigadores noveles, como algunos más experimentados. Pero tal vez el foco de mayores errores se encuentre al momento de comprobar premisas como la de la normalidad, siendo que esta se verifica únicamente a nivel univariado y se omite su revisión bivariada, quizás por desconocimiento o porque exige la utilización de técnicas más complejas. Situación similar se observa cuando se intentan detectar datos atÃpicos. En este caso, lo común es que se empleen diagramas de caja y bigotes para identificar valores extremos en cada variable, cuando lo apropiado serÃa abordar esta tarea con procedimientos que cuantifiquen la distancia que separa a dicha observación del centro de gravedad de los datos, pero de manera simultánea y tomando en cuenta todos los componentes del espacio vectorial en que se encuentra. En tal sentido, se propone la presente revisión como aporte para esclarecer estas dudas y como guÃa metodológica para orientar en la verificación de tales supuestos, abordando el aspecto matemático de manera general, pero enfatizando en las alternativas de que dispone el investigador para acometer debidamente este tipo de análisis.The Pearson correlation coefficient is a measure widely used in several areas of scientific work, from technical, econometric or engineering studies; to social, behavioral or health sciences researches. It’s precisely this extensive and profuse disclosure one of the reasons that would explain the misuse of this statistical tool, especially in those cases in which it must be correctly interpreted, or in those situations in which the mathematical assumptions that support it have to be checked. An example of this arise when it’s assumed that correlation implies causation, confusion that occurs frequently and involves both, novice and experienced researches. But perhaps the mayor focus of errors is found when checking assumptions such as normality, since it’s verified only at univariate level omitting its bivariate verification, possibly due to lack of knowledge or because it requires more complex techniques. Similar situation is observed when trying to detect outliers. In this case, it's common to use box and whisker plots to identify extreme values in each variable, when the appropriate would be to approach this task using procedures that calculate the distances that separates this observation of the center of the data, taking into account all its vector space components. In this regard, this review is proposed as a contribution to clarify these doubts and as a methodological guide to help in the verification of such assumptions, addressing the mathematical aspect in a general manner, but emphasizing the alternatives available to undertake this type of analysis