4 research outputs found

    Π‘Ρ‚Ρ€ΡƒΠΊΡ‚ΡƒΡ€Π° ΠΈ Ρ„ΡƒΠ½ΠΊΡ†ΠΈΠΈ Ρ€Π΅ΠΏΠ»ΠΈΠΊΠ°Ρ‚ΠΈΠ²Π½ΠΎΠ³ΠΎ Π½Π΅ΠΉΡ€ΠΎΠΏΠΎΠ΄ΠΎΠ±Π½ΠΎΠ³ΠΎ модуля

    Get PDF
    ΠžΠΏΠΈΡΡ‹Π²Π°Π΅Ρ‚ΡΡ тСхнология построСния нСйросСтСвой систСмы искусствСнного ΠΈΠ½Ρ‚Π΅Π»Π»Π΅ΠΊΡ‚Π° Π½Π° стыкС Π΄Π΅ΠΊΠ»Π°Ρ€Π°Ρ‚ΠΈΠ²Π½ΠΎΠ³ΠΎ программирования ΠΈ машинного обучСния Π½Π° основС модСлирования ΠΊΠΎΡ€Ρ‚ΠΈΠΊΠ°Π»ΡŒΠ½Ρ‹Ρ… ΠΊΠΎΠ»ΠΎΠ½ΠΎΠΊ. Π˜ΡΠΏΠΎΠ»ΡŒΠ·ΡƒΡ доступный ΠΌΠ°Ρ‚Π΅Ρ€ΠΈΠ°Π» ΠΈ ΡΡ€Π°Π²Π½ΠΈΡ‚Π΅Π»ΡŒΠ½ΠΎ простыС явлСния, ΡΠ²ΠΎΠ»ΡŽΡ†ΠΈΠΎΠ½Π½Ρ‹Π΅ ΠΌΠ΅Ρ…Π°Π½ΠΈΠ·ΠΌΡ‹ создали слоТноорганизованныС Ρ€Π°Π·ΡƒΠΌΠ½Ρ‹Π΅ систСмы. Из этого слСдуСт Π²Ρ‹Π²ΠΎΠ΄, Ρ‡Ρ‚ΠΎ искусствСнный ΠΈΠ½Ρ‚Π΅Π»Π»Π΅ΠΊΡ‚ Ρ‚Π°ΠΊΠΆΠ΅ Π΄ΠΎΠ»ΠΆΠ΅Π½ ΠΎΡΠ½ΠΎΠ²Ρ‹Π²Π°Ρ‚ΡŒΡΡ Π½Π° простых, Π½ΠΎ ΠΌΠ°ΡΡˆΡ‚Π°Π±ΠΈΡ€ΡƒΠ΅ΠΌΡ‹Ρ… ΠΈ Π±ΠΈΠΎΠΏΡ€Π°Π²Π΄ΠΎΠΏΠΎΠ΄ΠΎΠ±Π½Ρ‹Ρ… Π°Π»Π³ΠΎΡ€ΠΈΡ‚ΠΌΠ°Ρ…, Π² ΠΊΠΎΡ‚ΠΎΡ€Ρ‹Ρ… стохастичСская Π΄ΠΈΠ½Π°ΠΌΠΈΠΊΠ° ΠΊΠΎΡ€ΠΊΠΎΠ²Ρ‹Ρ… Π½Π΅ΠΉΡ€ΠΎΠ½Π½Ρ‹Ρ… ΠΌΠΎΠ΄ΡƒΠ»Π΅ΠΉ позволяСт быстро ΠΈ эффСктивно Π½Π°Ρ…ΠΎΠ΄ΠΈΡ‚ΡŒ Ρ€Π΅ΡˆΠ΅Π½ΠΈΡ слоТных ΠΏΡ€ΠΎΠ±Π»Π΅ΠΌ. ЦСль исслСдования – алгоритмичСская формализация Π½Π° ΡƒΡ€ΠΎΠ²Π½Π΅ Ρ€Π΅ΠΏΠ»ΠΈΠΊΠ°Ρ‚ΠΈΠ²Π½Ρ‹Ρ… нСйросСтСвых комплСксов. Π‘Π°Π·ΠΎΠ²Ρ‹ΠΉ ΠΌΠΎΠ΄ΡƒΠ»ΡŒ искусствСнного ΠΈΠ½Ρ‚Π΅Π»Π»Π΅ΠΊΡ‚Π° прСдставлСн ΠΊΠ°ΠΊ спСциализация ΠΈ формализация понятия «китайская ΠΊΠΎΠΌΠ½Π°Ρ‚Π°Β», Π²Π²Π΅Π΄Π΅Π½Π½ΠΎΠ³ΠΎ Π”ΠΆΠΎΠ½ΠΎΠΌ Π‘Ρ‘Ρ€Π»ΠΎΠΌ. ΠŸΡ€ΠΈΠ²Π΅Π΄Π΅Π½Ρ‹ Ρ€Π΅Π·ΡƒΠ»ΡŒΡ‚Π°Ρ‚Ρ‹ экспСримСнтов ΠΏΠΎ ΠΏΡ€ΠΎΠ³Π½ΠΎΠ·ΠΈΡ€ΠΎΠ²Π°Π½ΠΈΡŽ Π±ΠΈΠ½Π°Ρ€Π½Ρ‹Ρ… ΠΏΠΎΡΠ»Π΅Π΄ΠΎΠ²Π°Ρ‚Π΅Π»ΡŒΠ½ΠΎΡΡ‚Π΅ΠΉ. ΠšΠΎΠΌΠΏΡŒΡŽΡ‚Π΅Ρ€Π½Π°Ρ симуляця ΠΏΠΎΠΊΠ°Π·Π°Π»Π° Π²Ρ‹ΡΠΎΠΊΡƒΡŽ ΡΡ„Ρ„Π΅ΠΊΡ‚ΠΈΠ²Π½ΠΎΡΡ‚ΡŒ Ρ€Π΅Π°Π»ΠΈΠ·Π°Ρ†ΠΈΠΈ ΠΏΡ€Π΅Π΄Π»ΠΎΠΆΠ΅Π½Π½Ρ‹Ρ… Π°Π»Π³ΠΎΡ€ΠΈΡ‚ΠΌΠΎΠ², ΠΏΡ€ΠΈ этом вмСсто использования для ΠΊΠ°ΠΆΠ΄ΠΎΠΉ Π·Π°Π΄Π°Ρ‡ΠΈ Ρ‚Ρ‰Π°Ρ‚Π΅Π»ΡŒΠ½ΠΎ ΠΏΠΎΠ΄ΠΎΠ±Ρ€Π°Π½Π½ΠΎΠ³ΠΎ ΠΈ Π°Π΄Π°ΠΏΡ‚ΠΈΡ€ΠΎΠ²Π°Π½Π½ΠΎΠ³ΠΎ ΠΎΡ‚Π΄Π΅Π»ΡŒΠ½ΠΎΠ³ΠΎ ΠΌΠ΅Ρ‚ΠΎΠ΄Π° с частично эквивалСнтной ΠΏΠ΅Ρ€Π΅Ρ„ΠΎΡ€ΠΌΡƒΠ»ΠΈΡ€ΠΎΠ²ΠΊΠΎΠΉ Π·Π°Π΄Π°Ρ‡ Π±Ρ‹Π»ΠΈ ΠΏΡ€ΠΈΠΌΠ΅Π½Π΅Π½Ρ‹ стандартный Π΅Π΄ΠΈΠ½Ρ‹ΠΉ ΠΏΠΎΠ΄Ρ…ΠΎΠ΄ ΠΈ Π΅Π΄ΠΈΠ½Ρ‹Π΅ ΠΏΠ°Ρ€Π°ΠΌΠ΅Ρ‚Ρ€Ρ‹ Π°Π»Π³ΠΎΡ€ΠΈΡ‚ΠΌΠ°. ДСлаСтся Π²Ρ‹Π²ΠΎΠ΄, Ρ‡Ρ‚ΠΎ Ρ€Π΅Π·ΡƒΠ»ΡŒΡ‚Π°Ρ‚Ρ‹ экспСримСнтов ΠΏΠΎΠΊΠ°Π·Ρ‹Π²Π°ΡŽΡ‚ Π²ΠΎΠ·ΠΌΠΎΠΆΠ½ΠΎΡΡ‚ΡŒ эффСктивных ΠΏΡ€ΠΈΠΊΠ»Π°Π΄Π½Ρ‹Ρ… Ρ€Π΅ΡˆΠ΅Π½ΠΈΠΉ Π½Π° Π±Π°Π·Π΅ ΠΏΡ€Π΅Π΄Π»ΠΎΠΆΠ΅Π½Π½ΠΎΠΉ Ρ‚Π΅Ρ…Π½ΠΎΠ»ΠΎΠ³ΠΈΠΈ. ΠŸΡ€Π΅Π΄ΡΡ‚Π°Π²Π»Π΅Π½Π½Π°Ρ тСхнология позволяСт ΡΠΎΠ·Π΄Π°Ρ‚ΡŒ ΡΠ°ΠΌΠΎΠΎΠ±ΡƒΡ‡Π°ΡŽΡ‰ΠΈΠ΅ΡΡ ΠΈ ΠΏΠ»Π°Π½ΠΈΡ€ΡƒΡŽΡ‰ΠΈΠ΅ Π΄Π΅ΡΡ‚Π΅Π»ΡŒΠ½ΠΎΡΡ‚ΡŒ систСмы

    Π‘Ρ‚Ρ€ΡƒΠΊΡ‚ΡƒΡ€Π° ΠΈ Ρ„ΡƒΠ½ΠΊΡ†ΠΈΠΈ Ρ€Π΅ΠΏΠ»ΠΈΠΊΠ°Ρ‚ΠΈΠ²Π½ΠΎΠ³ΠΎ Π½Π΅ΠΉΡ€ΠΎΠΏΠΎΠ΄ΠΎΠ±Π½ΠΎΠ³ΠΎ модуля

    Get PDF
    The given work describes a technology of construction of neural network system of artificial intellect (AI) at a junction of declarative programming and machine training on the basis of modelling of cortical columns. Evolutionary mechanisms, using available material and relatively simple phenomena, have created complex intelligent systems. From this, the authors conclude that AI should also be based on simple but scalable and biofeasible algorithms, in which the stochastic dynamics of cortical neural modules allow to find solutions to of complex problems quickly and efficiently.. Purpose: Algorithmic formalization at the level of replicative neural network complexes - neocortex columns of the brain. Methods: The basic AI module is presented as a specialization and formalization of the concept "Chinese room" introduced by John Earle. The results of experiments on forecasting binary sequences are presented. The computer simulation experiments have shown high efficiency in implementing the proposed algorithms. At the same time, instead of using for each task a carefully selected and adapted separate method with partially equivalent restatement of tasks, the standard unified approach and unified algorithm parameters were used. It is concluded that the results of the experiments show the possibility of effective applied solutions based on the proposed technology. Practical value: the presented technology allows creating self-learning and planning systems.ΠžΠΏΠΈΡΡ‹Π²Π°Π΅Ρ‚ΡΡ тСхнология построСния нСйросСтСвой систСмы искусствСнного ΠΈΠ½Ρ‚Π΅Π»Π»Π΅ΠΊΡ‚Π° Π½Π° стыкС Π΄Π΅ΠΊΠ»Π°Ρ€Π°Ρ‚ΠΈΠ²Π½ΠΎΠ³ΠΎ программирования ΠΈ машинного обучСния Π½Π° основС модСлирования ΠΊΠΎΡ€Ρ‚ΠΈΠΊΠ°Π»ΡŒΠ½Ρ‹Ρ… ΠΊΠΎΠ»ΠΎΠ½ΠΎΠΊ. Π˜ΡΠΏΠΎΠ»ΡŒΠ·ΡƒΡ доступный ΠΌΠ°Ρ‚Π΅Ρ€ΠΈΠ°Π» ΠΈ ΡΡ€Π°Π²Π½ΠΈΡ‚Π΅Π»ΡŒΠ½ΠΎ простыС явлСния, ΡΠ²ΠΎΠ»ΡŽΡ†ΠΈΠΎΠ½Π½Ρ‹Π΅ ΠΌΠ΅Ρ…Π°Π½ΠΈΠ·ΠΌΡ‹ создали слоТноорганизованныС Ρ€Π°Π·ΡƒΠΌΠ½Ρ‹Π΅ систСмы. Из этого слСдуСт Π²Ρ‹Π²ΠΎΠ΄, Ρ‡Ρ‚ΠΎ искусствСнный ΠΈΠ½Ρ‚Π΅Π»Π»Π΅ΠΊΡ‚ Ρ‚Π°ΠΊΠΆΠ΅ Π΄ΠΎΠ»ΠΆΠ΅Π½ ΠΎΡΠ½ΠΎΠ²Ρ‹Π²Π°Ρ‚ΡŒΡΡ Π½Π° простых, Π½ΠΎ ΠΌΠ°ΡΡˆΡ‚Π°Π±ΠΈΡ€ΡƒΠ΅ΠΌΡ‹Ρ… ΠΈ Π±ΠΈΠΎΠΏΡ€Π°Π²Π΄ΠΎΠΏΠΎΠ΄ΠΎΠ±Π½Ρ‹Ρ… Π°Π»Π³ΠΎΡ€ΠΈΡ‚ΠΌΠ°Ρ…, Π² ΠΊΠΎΡ‚ΠΎΡ€Ρ‹Ρ… стохастичСская Π΄ΠΈΠ½Π°ΠΌΠΈΠΊΠ° ΠΊΠΎΡ€ΠΊΠΎΠ²Ρ‹Ρ… Π½Π΅ΠΉΡ€ΠΎΠ½Π½Ρ‹Ρ… ΠΌΠΎΠ΄ΡƒΠ»Π΅ΠΉ позволяСт быстро ΠΈ эффСктивно Π½Π°Ρ…ΠΎΠ΄ΠΈΡ‚ΡŒ Ρ€Π΅ΡˆΠ΅Π½ΠΈΡ слоТных ΠΏΡ€ΠΎΠ±Π»Π΅ΠΌ. ЦСль исслСдования – алгоритмичСская формализация Π½Π° ΡƒΡ€ΠΎΠ²Π½Π΅ Ρ€Π΅ΠΏΠ»ΠΈΠΊΠ°Ρ‚ΠΈΠ²Π½Ρ‹Ρ… нСйросСтСвых комплСксов. Π‘Π°Π·ΠΎΠ²Ρ‹ΠΉ ΠΌΠΎΠ΄ΡƒΠ»ΡŒ искусствСнного ΠΈΠ½Ρ‚Π΅Π»Π»Π΅ΠΊΡ‚Π° прСдставлСн ΠΊΠ°ΠΊ спСциализация ΠΈ формализация понятия «китайская ΠΊΠΎΠΌΠ½Π°Ρ‚Π°Β», Π²Π²Π΅Π΄Π΅Π½Π½ΠΎΠ³ΠΎ Π”ΠΆΠΎΠ½ΠΎΠΌ Π‘Ρ‘Ρ€Π»ΠΎΠΌ. ΠŸΡ€ΠΈΠ²Π΅Π΄Π΅Π½Ρ‹ Ρ€Π΅Π·ΡƒΠ»ΡŒΡ‚Π°Ρ‚Ρ‹ экспСримСнтов ΠΏΠΎ ΠΏΡ€ΠΎΠ³Π½ΠΎΠ·ΠΈΡ€ΠΎΠ²Π°Π½ΠΈΡŽ Π±ΠΈΠ½Π°Ρ€Π½Ρ‹Ρ… ΠΏΠΎΡΠ»Π΅Π΄ΠΎΠ²Π°Ρ‚Π΅Π»ΡŒΠ½ΠΎΡΡ‚Π΅ΠΉ. ΠšΠΎΠΌΠΏΡŒΡŽΡ‚Π΅Ρ€Π½Π°Ρ симуляця ΠΏΠΎΠΊΠ°Π·Π°Π»Π° Π²Ρ‹ΡΠΎΠΊΡƒΡŽ ΡΡ„Ρ„Π΅ΠΊΡ‚ΠΈΠ²Π½ΠΎΡΡ‚ΡŒ Ρ€Π΅Π°Π»ΠΈΠ·Π°Ρ†ΠΈΠΈ ΠΏΡ€Π΅Π΄Π»ΠΎΠΆΠ΅Π½Π½Ρ‹Ρ… Π°Π»Π³ΠΎΡ€ΠΈΡ‚ΠΌΠΎΠ², ΠΏΡ€ΠΈ этом вмСсто использования для ΠΊΠ°ΠΆΠ΄ΠΎΠΉ Π·Π°Π΄Π°Ρ‡ΠΈ Ρ‚Ρ‰Π°Ρ‚Π΅Π»ΡŒΠ½ΠΎ ΠΏΠΎΠ΄ΠΎΠ±Ρ€Π°Π½Π½ΠΎΠ³ΠΎ ΠΈ Π°Π΄Π°ΠΏΡ‚ΠΈΡ€ΠΎΠ²Π°Π½Π½ΠΎΠ³ΠΎ ΠΎΡ‚Π΄Π΅Π»ΡŒΠ½ΠΎΠ³ΠΎ ΠΌΠ΅Ρ‚ΠΎΠ΄Π° с частично эквивалСнтной ΠΏΠ΅Ρ€Π΅Ρ„ΠΎΡ€ΠΌΡƒΠ»ΠΈΡ€ΠΎΠ²ΠΊΠΎΠΉ Π·Π°Π΄Π°Ρ‡ Π±Ρ‹Π»ΠΈ ΠΏΡ€ΠΈΠΌΠ΅Π½Π΅Π½Ρ‹ стандартный Π΅Π΄ΠΈΠ½Ρ‹ΠΉ ΠΏΠΎΠ΄Ρ…ΠΎΠ΄ ΠΈ Π΅Π΄ΠΈΠ½Ρ‹Π΅ ΠΏΠ°Ρ€Π°ΠΌΠ΅Ρ‚Ρ€Ρ‹ Π°Π»Π³ΠΎΡ€ΠΈΡ‚ΠΌΠ°. ДСлаСтся Π²Ρ‹Π²ΠΎΠ΄, Ρ‡Ρ‚ΠΎ Ρ€Π΅Π·ΡƒΠ»ΡŒΡ‚Π°Ρ‚Ρ‹ экспСримСнтов ΠΏΠΎΠΊΠ°Π·Ρ‹Π²Π°ΡŽΡ‚ Π²ΠΎΠ·ΠΌΠΎΠΆΠ½ΠΎΡΡ‚ΡŒ эффСктивных ΠΏΡ€ΠΈΠΊΠ»Π°Π΄Π½Ρ‹Ρ… Ρ€Π΅ΡˆΠ΅Π½ΠΈΠΉ Π½Π° Π±Π°Π·Π΅ ΠΏΡ€Π΅Π΄Π»ΠΎΠΆΠ΅Π½Π½ΠΎΠΉ Ρ‚Π΅Ρ…Π½ΠΎΠ»ΠΎΠ³ΠΈΠΈ. ΠŸΡ€Π΅Π΄ΡΡ‚Π°Π²Π»Π΅Π½Π½Π°Ρ тСхнология позволяСт ΡΠΎΠ·Π΄Π°Ρ‚ΡŒ ΡΠ°ΠΌΠΎΠΎΠ±ΡƒΡ‡Π°ΡŽΡ‰ΠΈΠ΅ΡΡ ΠΈ ΠΏΠ»Π°Π½ΠΈΡ€ΡƒΡŽΡ‰ΠΈΠ΅ Π΄Π΅ΡΡ‚Π΅Π»ΡŒΠ½ΠΎΡΡ‚ΡŒ систСмы

    LARGE-SCALE NEURAL NETWORK MODELING: FROM NEURONAL MICROCIRCUITS TO WHOLE-BRAIN COMPLEX NETWORK DYNAMICS

    Get PDF
    Neural networks mediate human cognitive functions, such as sensory processing, memory, attention, etc. Computational modeling has been proved as a powerful tool to test hypothesis of network mechanisms underlying cognitive functions, and to understand better human neuroimaging data. The dissertation presents a large-scale neural network modeling study of human brain visual/auditory processing and how this process interacts with memory and attention. We first modeled visual and auditory objects processing and short-term memory with local microcircuits and a large-scale recurrent network. We proposed a biologically realistic network implementation of storing multiple items in short-term memory. We then realized the effect that people involuntarily switch attention to salient distractors and are difficult to distract when attending to salient stimuli, by incorporating exogenous and endogenous attention modules. The integrated model could perform a number of cognitive tasks utilizing different cognitive functions by only changing a task-specification parameter. Based on the performance and simulated imaging results of these tasks, we proposed hypothesis for the neural mechanism beneath several important phenomena, which may be tested experimentally in the future. Theory of complex network has been applied in the analysis of neuroimaging data, as it provides a topological abstraction of the human brain. We constructed functional connectivity networks for various simulated experimental conditions. A number of important network properties were studied, including the scale-free property, the global efficiency, modular structure, and explored their relations with task complexity. We showed that these network properties and their dynamics of our simulated networks matched empirical studies, which verifies the validity and importance of our modeling work in testing neural network hypothesis
    corecore