12 research outputs found

    A Generative Model for Semi-Supervised Learning

    Get PDF
    Semi-Supervised learning is of great interest in a wide variety of research areas, including natural language processing, speech synthesizing, image classification, genomics etc. Semi-Supervised Generative Model is one Semi-Supervised learning approach that learns labeled data and unlabeled data simultaneously. A drawback of current Semi-Supervised Generative Models is that latent encoding learnt by generative models is concatenated directly with predicted label, which may result in degradation in representation learning. In this paper we present a new Semi-Supervised Generative Models that removes the direct dependency of data generation on label, hence overcomes this drawback. We show experiments that verifies this approach, together with comparison with existing works

    Искусственный интеллект при колоректальном раке: обзор

    Get PDF
    The study objective: the study objective is to examine the use of artificial intelligence (AI) in the diagnosis, treatment, and prognosis of Colorectal Cancer (CRC) and discuss the future potential of AI in CRC. Material and Methods. The Web of Science, Scopus, PubMed, Medline, and eLIBRARY databases were used to search for the publications. A study on the application of Artificial Intelligence (AI) to the diagnosis, treatment, and prognosis of Colorectal Cancer (CRC) was discovered in more than 100 sources. In the review, data from 83 articles were incorporated. Results. The review article explores the use of artificial intelligence (AI) in medicine, specifically focusing on its applications in colorectal cancer (CRC). It discusses the stages of AI development for CRC, including molecular understanding, image-based diagnosis, drug design, and individualized treatment. The benefits of AI in medical image analysis are highlighted, improving diagnosis accuracy and inspection quality. Challenges in AI development are addressed, such as data standardization and the interpretability of machine learning algorithms. The potential of AI in treatment decision support, precision medicine, and prognosis prediction is discussed, emphasizing the role of AI in selecting optimal treatments and improving surgical precision. Ethical and regulatory considerations in integrating AI are mentioned, including patient trust, data security, and liability in AI-assisted surgeries. The review emphasizes the importance of an AI standard system, dataset standardization, and integrating clinical knowledge into AI algorithms. Overall, the article provides an overview of the current research on AI in CRC diagnosis, treatment, and prognosis, discussing its benefits, challenges, and future prospects in improving medical outcomes.Цель исследования - оценка возможностей использования искусственного интеллекта (ИИ) в диагностике, лечении и прогнозировании колоректального рака (КРР), а также обсуждение потенциала ИИ в лечении КРР. Материал и методы. Проведен поиск научных публикаций в поисковых системах Web of Science, Scopus, PubMed, Medline и eLIBRARY. Было просмотрено более 100 источников по применению ИИ для диагностики, лечения и прогнозирования КРР. В обзор включены данные из 83 статей. Результаты. Проведен анализ литературы, посвященной применению искусственного интеллекта в медицине, особое внимание уделено его использованию при колоректальном раке. Обсуждаются этапы развития ИИ при КРР, включая молекулярную верификацию, лучевую диагностику, разработку лекарств и индивидуальное лечение. Подчеркнуты преимущества ИИ в анализе медицинских изображений, таких как КТ, МРТ и ПЭТ, что повышает точность диагностики. Рассматриваются такие проблемы развития ИИ, как стандартизация данных и интерпретируемость алгоритмов машинного обучения. Подчеркивается роль ИИ в выборе оптимальной тактики лечения и повышении эффективности хирургического вмешательства. Учитываются этические и нормативные аспекты ИИ, включая доверие пациентов, безопасность данных и ответственность в проведении операций с использованием ИИ. Обсуждаются преимущества ИИ в диагностике, лечении и прогнозировании колоректального рака, проблемы и перспективы улучшения результатов лечения

    Breast cancer prognosis risk estimation using integrated gene expression and clinical data

    Full text link
    Novel prognostic markers are needed so newly diagnosed breast cancer patients do not undergo any unnecessary therapy. Various microarray gene expression datasets based studies have generated gene signatures to predict the prognosis outcomes, while ignoring the large amount of information contained in established clinical markers. Nevertheless, small sample sizes in individual microarray datasets remain a bottleneck in generating robust gene signatures that show limited predictive power. The aim of this study is to achieve high classification accuracy for the good prognosis group and then achieve high classification accuracy for the poor prognosis group

    Machine learning applications in science

    Get PDF

    Quantum neural networks

    Get PDF
    Quantum computing is one of the most exciting research areas of the last decades. At the same time, methods of machine learning have started to dominate science, industry and our everyday life. In this thesis we combine these two essential research topics of the 21st century and introduce dissipative quantum neural networks (DQNNs), which are designed for fully quantum learning tasks, are capable of universal quantum computation and have low memory requirements while training. We start the discussion of this interdisciplinary topic by introducing artificial neural networks, which are a very common tool in classical machine learning. Next, we give an overview on quantum information. Here we focus on quantum algorithms and circuits, which are used to implement quantum neural networks. Moreover, we explain the opportunities and challenges arising with today's quantum computers. The discussion of the architecture and training algorithm of the DQNNs forms the core of this work. These networks are optimised with training data pairs in form of input and desired output states and therefore can be used for characterising unknown or untrusted quantum devices. We not only demonstrate the generalisation behaviour of these quantum neural networks using classical simulations, but also implement them successfully on actual quantum computers. To understand the ultimate limits for such quantum machine learning methods, we discuss the quantum no free lunch theorem, which describes a bound on the probability that a quantum device, which can be modelled as a unitary process and is optimised with quantum examples, gives an incorrect output for a random input. This gives us a tool to review the learning behaviour of quantum neural networks in general and the DQNNs in particular. Moreover we expand the area of applications of DQNNs in two directions. In the first case, we include additional information beyond just the training data pairs: since quantum devices are always structured, the resulting data is always structured as well. We modify the DQNN's training algorithm such that knowledge about the graph-structure of the training data pairs is included in the training process and show that this can lead to better generalisation behaviour. Both the original DQNN and the DQNN including graph structure are trained with data pairs in order to characterise an underlying relation. However, in the second extension of the algorithm we aim to learn characteristics of a set of quantum states in order to extend it to quantum states which have similar properties. Therefore we build a generative adversarial model where two DQNNs, called the generator and discriminator, are trained in a competitive way. Overall, we observe that DQNNs can not only be trained efficiently but also, similar to their classical counterparts, modified to suit different applications.Quantencomputer bilden eines der spannendsten Forschungsgebiete der letzten Jahrzehnte. Zur gleichen Zeit haben Methoden des maschinellen Lernens begonnen die Wissenschaft, Industrie und unseren Alltag zu dominieren. In dieser Arbeit kombinieren wir diese beiden wichtigen Forschungsthemen des 21. Jahrhunderts und stellen dissipative quantenneuronale Netze (DQNNs) vor, die für Quantenlernaufgaben konzipiert sind, universelle Quantenberechnungen durchführen können und wenig Speicherbedarf beim Training benötigen. Wir beginnen die Diskussion dieses interdisziplinären Themas mit der Einführung künstlicher neuronaler Netze, die beim klassischen maschinellen Lernen weit verbreitet sind. Dann geben wir einen Überblick über die Quanteninformationstheorie. Hier fokussieren wir uns auf die zur Implementierung von quantenneuronalen Netzen nötigen Quantenalgorithmen und -schaltungen. Außerdem erläutern wir die Chancen und Herausforderungen der heutigen Quantencomputer. Die Diskussion der Architektur und des Trainingsalgorithmus der DQNNs bildet den Mittelpunkt dieser Arbeit. Diese Netzwerke werden mit Trainingsdatenpaaren in Form von Eingangs- und gewünschten Ausgangszuständen optimiert und können daher zur Charakterisierung unbekannter oder nicht vertrauenswürdiger Quantenbauelemente verwendet werden. Wir demonstrieren nicht nur das Generalisierungsverhalten dieser Netze anhand klassischer Simulationen, sondern konstruieren auch eine erfolgreiche Implementierung für Quantencomputer. Um die ultimativen Grenzen solcher Methoden zum maschinellen Lernen von Quantendaten zu verstehen, führen wir das quantum no free lunch-Theorem ein, welches eine Begrenzung für die Wahrscheinlichkeit beschreibt, dass ein als unitärer Prozess modellierbares und mit Quantendaten optimiertes Quantenbauelement eine falsche Ausgabe für eine zufällige Eingabe herausgibt. Das Theorem gibt uns ein Werkzeug, um das Lernverhalten von quantenneuronalen Netzwerken im Allgemeinen und der DQNNs im Besonderen zu überprüfen. Darüber hinaus erweitern wir den Anwendungsbereich von DQNNs auf zwei Weisen. Im ersten Fall beziehen wir Informationen zusätzlich zu den Trainingsdaten mit ein: Da Quantenbauelemente immer eine gewisse Struktur haben, sind auch die resultierenden Daten strukturiert. Wir modifizieren den Trainingsalgorithmus der DQNNs so, dass Kenntnisse über die Struktur genutzt werden können und zeigen, dass dies zu einem besseren Trainingsergebnis führen kann. Sowohl das ursprüngliche DQNN als auch das Graphen-DQNN wird mit Datenpaaren trainiert, um eine zugrunde liegende Relation zu charakterisieren. Als zweite Erweiterung wollen wir jedoch die Eigenschaften einer Menge einzelner Quantenzustände untersuchen, um sie mit Quantenzuständen ähnlicher Eigenschaften zu erweitern. Daher konstruieren wir ein Modell, bei dem zwei DQNNs, Generator und Diskriminator genannt, kompetitiv trainiert werden. Zusammenfassend stellen wir fest, dass DQNNs nicht nur effizient trainiert, sondern auch, ähnlich wie ihre klassischen Gegenstücke, an unterschiedliche Anwendungen angepasst werden können
    corecore