24 research outputs found
Сжатие информации аналитическим представлением функции источника данных
У статті розглянуте питання стиснення інформації з використанням позиційного підходу до розташування певних частин інформаційної послідовності й наступного аналітичного визначення функції, що описує дані позиції.The article considers the question of compression of the information which uses the positional approach to layout of defined parts of an information sequence and consequent analytical definition of the function describing these positions
Оценка качества обучающих множества для нейронных сетей в задачах сжатия данных без потер
Дана экспериментальная оценка качества обучающих множеств, сформированных из данных различных типов для нейронных сетей по критериям повторяемости и противоречивости. Сформулированы рекомендации по выбору параметров обучающего множества для нейросетевой модели в задачах сжатия данных без потерь. Табл.: 1. Ил.: 3. Библиогр.: 10 назв.Дано експериментальну оцінку якості навчальних множин, сформованих з даних різних типів для нейронних мереж за критеріями повторюваності та cуперечності. Сформульовані рекомендації з вибору параметрів навчальної множини для нейромережевої моделі в задачах стиснення даних без втрат. Табл.: 1. Іл.: 3. Бібліогр.: 10 назв.The experimental estimation of quality of the training sets, which are generated of data of various types for neural networks, by criteria of repeatability and discrepancy is given. Recommendations at the choice of parameters of training set for neural models in problems of lossless data compression are formulated. Tabl.: 1. Figs.: 3. Refs.: 10 titles
Forming of Learning Set for Neural Networks in Problems of Losless Data Compression
questions of forming of learning sets for artificial neural networks in problems of lossless data
compression are considered. Methods of construction and use of learning sets are studied. The way of forming of
learning set during training an artificial neural network on the data stream is offered
Формирование нечетких обучающих множеств для нейронных сетей в задачах сжатия данных без потерь
Рассмотрены особенности обучения и функционирования нейронных сетей при решении задачи сжатия данных без потерь в потоковом режиме. Предложен метод формирования обучающих множеств с использованием нечеткого представления выходных значений. Выполнен экспериментальный анализ влияния вида функции принадлежности нечеткого выходного значения на процесс обучения сети.Розглянуті особливості навчання та функціонування нейронних мереж при розв’язанні задачі стиснення даних без втрат у потоковому режимі. Запропоновано метод формування навчальних множин з використанням нечіткого представлення вихідних значень. Виконано експериментальний аналіз впливу виду функції приналежності нечіткого вихідного значення на процес навчання мережі.The features of training and functioning neural networks in problem of lossless data compression in the stream mode are considered. The method of forming of training sets using fuzzy presentation of output values is offered. The experimental analysis of influence of kind of membership function of fuzzy output value on the training process of network is executed
Driven by Compression Progress: A Simple Principle Explains Essential Aspects of Subjective Beauty, Novelty, Surprise, Interestingness, Attention, Curiosity, Creativity, Art, Science, Music, Jokes
I argue that data becomes temporarily interesting by itself to some
self-improving, but computationally limited, subjective observer once he learns
to predict or compress the data in a better way, thus making it subjectively
simpler and more beautiful. Curiosity is the desire to create or discover more
non-random, non-arbitrary, regular data that is novel and surprising not in the
traditional sense of Boltzmann and Shannon but in the sense that it allows for
compression progress because its regularity was not yet known. This drive
maximizes interestingness, the first derivative of subjective beauty or
compressibility, that is, the steepness of the learning curve. It motivates
exploring infants, pure mathematicians, composers, artists, dancers, comedians,
yourself, and (since 1990) artificial systems.Comment: 35 pages, 3 figures, based on KES 2008 keynote and ALT 2007 / DS 2007
joint invited lectur
Evolving Structures in Complex Systems
In this paper we propose an approach for measuring growth of complexity of
emerging patterns in complex systems such as cellular automata. We discuss
several ways how a metric for measuring the complexity growth can be defined.
This includes approaches based on compression algorithms and artificial neural
networks. We believe such a metric can be useful for designing systems that
could exhibit open-ended evolution, which itself might be a prerequisite for
development of general artificial intelligence. We conduct experiments on 1D
and 2D grid worlds and demonstrate that using the proposed metric we can
automatically construct computational models with emerging properties similar
to those found in the Conway's Game of Life, as well as many other emergent
phenomena. Interestingly, some of the patterns we observe resemble forms of
artificial life. Our metric of structural complexity growth can be applied to a
wide range of complex systems, as it is not limited to cellular automata.Comment: IEEE Symposium Series on Computational Intelligence 2019 (IEEE SSCI
2019