8 research outputs found
Proračun doza kemikalija za stabilizaciju vode
In the paper the authors deal with the problem of determining the aggressiveness of water in some of our reservoirs, such as "Zlatibor", "Gruža", and "Barje". This is very important because the aggressive water causes many problems. It is analyzed how to stabilize the aggressive water. A mathematical model for the analyzes is described in paper, too.U raduje izložena metodologija utvrđivanja agresivnog karaktera vode prema kalcijum karbonatu i način proračuna doza hemikalija za stabilizaciju vode tj. dovođenje vode u stanje da ne bude agresivna i ne pokazuje tendenciju istaložavanja kalcijum karbonata. Prikazan je originalni matematički model za analize, uz čiju pomoć su analizirane vode iz akumulacija "Zlatibor", "Gruža" i buduće akumulacije "Barje". Takođe su testirane i vode posle tretmana na nekim postrojenjima za prečišćavanje vode za piće (Zlatibor, Kragujevac, Leskovac)
Proračun doza kemikalija za stabilizaciju vode
In the paper the authors deal with the problem of determining the aggressiveness of water in some of our reservoirs, such as "Zlatibor", "Gruža", and "Barje". This is very important because the aggressive water causes many problems. It is analyzed how to stabilize the aggressive water. A mathematical model for the analyzes is described in paper, too.U raduje izložena metodologija utvrđivanja agresivnog karaktera vode prema kalcijum karbonatu i način proračuna doza hemikalija za stabilizaciju vode tj. dovođenje vode u stanje da ne bude agresivna i ne pokazuje tendenciju istaložavanja kalcijum karbonata. Prikazan je originalni matematički model za analize, uz čiju pomoć su analizirane vode iz akumulacija "Zlatibor", "Gruža" i buduće akumulacije "Barje". Takođe su testirane i vode posle tretmana na nekim postrojenjima za prečišćavanje vode za piće (Zlatibor, Kragujevac, Leskovac)
Reinforcement learning algorithms and exploration exploitation dilemma
Ovaj rad nudi pregled poduprtog učenja, ideja i algoritama na kojima se područje temelji. Kroz
primjere polazi se od formalizacije problema koristeći Markovljeve procese odluke sve do Q-učenja. Promatra dilemu istraživanja i iskorištavanja, daje poveznicu s ponašanjem živih bića.
Analizira te uspoređuje uspjeh različitih politika ponašanja kao rješenja dileme, točnije uspoređuje
pohlepni epsilon, softmax i gornju granicu intervala pouzdanosti nad jednostavnim labirintom.
Softmax je jedina politika koja u ograničenom broju epizoda konvergira na optimalnu politiku
ponašanja za primjer korišten u radu.This work gives an overview of reinforcement learning, ideas, and algorithms that it is based upon.
Through examples, it goesfrom formalization using MDP to Q-learning. Observesthe explorationexploitation dilemma and gives a link to the psychology of living creatures. Analyzes and
compares multiple policies, such as epsilon greedy, softmax, and upper confidence bound in a use
case of a simple maze. In such envirovment with some restraints like finite episode count only
softmax converged to the optimal policy
Artificial intelligence in autonomous vehicles
U ovom radu objašnjeni su osnovni pojmovi za razumijevanje neuronskih mreža, s naglaskom na konvolucijske neuronske mreže i princip učenja mreža. Pokazano je na primjeru kako djeluju neuronske mreže, te kako možemo koristiti simulator za sakupljanje podataka i treniranje modela s samo kreiranim podatcima. Također je prikazano i objašnjeno kako kreirati konvolucijsku neuronsku mrežu služeći se gotovim bibliotekama koje ubrzavaju proces izrade prototipa i brinu se da se maksimalno isključi ljudska pogreška prilikom kreiranja mreže. Potrebno je samo razumjeti materiju da bi se jednostavno kreirala mreža i testirala.In this work, main terms and concept „how neural network learns“ are explained for easier understanding on the topic of how neural networks work, with a highlight on convolutional neural networks. It is shown by example how CNN work, how we could use free simulators to create data for ourselves and train model with the same data. It has also been shown by an example, how to create CNN using popular frameworks that make a job lot easier and safer. You just need to understand what are you doing and no time should be spent on programming
Artificial intelligence in autonomous vehicles
U ovom radu objašnjeni su osnovni pojmovi za razumijevanje neuronskih mreža, s naglaskom na konvolucijske neuronske mreže i princip učenja mreža. Pokazano je na primjeru kako djeluju neuronske mreže, te kako možemo koristiti simulator za sakupljanje podataka i treniranje modela s samo kreiranim podatcima. Također je prikazano i objašnjeno kako kreirati konvolucijsku neuronsku mrežu služeći se gotovim bibliotekama koje ubrzavaju proces izrade prototipa i brinu se da se maksimalno isključi ljudska pogreška prilikom kreiranja mreže. Potrebno je samo razumjeti materiju da bi se jednostavno kreirala mreža i testirala.In this work, main terms and concept „how neural network learns“ are explained for easier understanding on the topic of how neural networks work, with a highlight on convolutional neural networks. It is shown by example how CNN work, how we could use free simulators to create data for ourselves and train model with the same data. It has also been shown by an example, how to create CNN using popular frameworks that make a job lot easier and safer. You just need to understand what are you doing and no time should be spent on programming
Artificial intelligence in autonomous vehicles
U ovom radu objašnjeni su osnovni pojmovi za razumijevanje neuronskih mreža, s naglaskom na konvolucijske neuronske mreže i princip učenja mreža. Pokazano je na primjeru kako djeluju neuronske mreže, te kako možemo koristiti simulator za sakupljanje podataka i treniranje modela s samo kreiranim podatcima. Također je prikazano i objašnjeno kako kreirati konvolucijsku neuronsku mrežu služeći se gotovim bibliotekama koje ubrzavaju proces izrade prototipa i brinu se da se maksimalno isključi ljudska pogreška prilikom kreiranja mreže. Potrebno je samo razumjeti materiju da bi se jednostavno kreirala mreža i testirala.In this work, main terms and concept „how neural network learns“ are explained for easier understanding on the topic of how neural networks work, with a highlight on convolutional neural networks. It is shown by example how CNN work, how we could use free simulators to create data for ourselves and train model with the same data. It has also been shown by an example, how to create CNN using popular frameworks that make a job lot easier and safer. You just need to understand what are you doing and no time should be spent on programming
Reinforcement learning algorithms and exploration exploitation dilemma
Ovaj rad nudi pregled poduprtog učenja, ideja i algoritama na kojima se područje temelji. Kroz
primjere polazi se od formalizacije problema koristeći Markovljeve procese odluke sve do Q-učenja. Promatra dilemu istraživanja i iskorištavanja, daje poveznicu s ponašanjem živih bića.
Analizira te uspoređuje uspjeh različitih politika ponašanja kao rješenja dileme, točnije uspoređuje
pohlepni epsilon, softmax i gornju granicu intervala pouzdanosti nad jednostavnim labirintom.
Softmax je jedina politika koja u ograničenom broju epizoda konvergira na optimalnu politiku
ponašanja za primjer korišten u radu.This work gives an overview of reinforcement learning, ideas, and algorithms that it is based upon.
Through examples, it goesfrom formalization using MDP to Q-learning. Observesthe explorationexploitation dilemma and gives a link to the psychology of living creatures. Analyzes and
compares multiple policies, such as epsilon greedy, softmax, and upper confidence bound in a use
case of a simple maze. In such envirovment with some restraints like finite episode count only
softmax converged to the optimal policy
Reinforcement learning algorithms and exploration exploitation dilemma
Ovaj rad nudi pregled poduprtog učenja, ideja i algoritama na kojima se područje temelji. Kroz
primjere polazi se od formalizacije problema koristeći Markovljeve procese odluke sve do Q-učenja. Promatra dilemu istraživanja i iskorištavanja, daje poveznicu s ponašanjem živih bića.
Analizira te uspoređuje uspjeh različitih politika ponašanja kao rješenja dileme, točnije uspoređuje
pohlepni epsilon, softmax i gornju granicu intervala pouzdanosti nad jednostavnim labirintom.
Softmax je jedina politika koja u ograničenom broju epizoda konvergira na optimalnu politiku
ponašanja za primjer korišten u radu.This work gives an overview of reinforcement learning, ideas, and algorithms that it is based upon.
Through examples, it goesfrom formalization using MDP to Q-learning. Observesthe explorationexploitation dilemma and gives a link to the psychology of living creatures. Analyzes and
compares multiple policies, such as epsilon greedy, softmax, and upper confidence bound in a use
case of a simple maze. In such envirovment with some restraints like finite episode count only
softmax converged to the optimal policy