8 research outputs found

    Proračun doza kemikalija za stabilizaciju vode

    Get PDF
    In the paper the authors deal with the problem of determining the aggressiveness of water in some of our reservoirs, such as "Zlatibor", "Gruža", and "Barje". This is very important because the aggressive water causes many problems. It is analyzed how to stabilize the aggressive water. A mathematical model for the analyzes is described in paper, too.U raduje izložena metodologija utvrđivanja agresivnog karaktera vode prema kalcijum karbonatu i način proračuna doza hemikalija za stabilizaciju vode tj. dovođenje vode u stanje da ne bude agresivna i ne pokazuje tendenciju istaložavanja kalcijum karbonata. Prikazan je originalni matematički model za analize, uz čiju pomoć su analizirane vode iz akumulacija "Zlatibor", "Gruža" i buduće akumulacije "Barje". Takođe su testirane i vode posle tretmana na nekim postrojenjima za prečišćavanje vode za piće (Zlatibor, Kragujevac, Leskovac)

    Proračun doza kemikalija za stabilizaciju vode

    Get PDF
    In the paper the authors deal with the problem of determining the aggressiveness of water in some of our reservoirs, such as "Zlatibor", "Gruža", and "Barje". This is very important because the aggressive water causes many problems. It is analyzed how to stabilize the aggressive water. A mathematical model for the analyzes is described in paper, too.U raduje izložena metodologija utvrđivanja agresivnog karaktera vode prema kalcijum karbonatu i način proračuna doza hemikalija za stabilizaciju vode tj. dovođenje vode u stanje da ne bude agresivna i ne pokazuje tendenciju istaložavanja kalcijum karbonata. Prikazan je originalni matematički model za analize, uz čiju pomoć su analizirane vode iz akumulacija "Zlatibor", "Gruža" i buduće akumulacije "Barje". Takođe su testirane i vode posle tretmana na nekim postrojenjima za prečišćavanje vode za piće (Zlatibor, Kragujevac, Leskovac)

    Reinforcement learning algorithms and exploration exploitation dilemma

    No full text
    Ovaj rad nudi pregled poduprtog učenja, ideja i algoritama na kojima se područje temelji. Kroz primjere polazi se od formalizacije problema koristeći Markovljeve procese odluke sve do Q-učenja. Promatra dilemu istraživanja i iskorištavanja, daje poveznicu s ponašanjem živih bića. Analizira te uspoređuje uspjeh različitih politika ponašanja kao rješenja dileme, točnije uspoređuje pohlepni epsilon, softmax i gornju granicu intervala pouzdanosti nad jednostavnim labirintom. Softmax je jedina politika koja u ograničenom broju epizoda konvergira na optimalnu politiku ponašanja za primjer korišten u radu.This work gives an overview of reinforcement learning, ideas, and algorithms that it is based upon. Through examples, it goesfrom formalization using MDP to Q-learning. Observesthe explorationexploitation dilemma and gives a link to the psychology of living creatures. Analyzes and compares multiple policies, such as epsilon greedy, softmax, and upper confidence bound in a use case of a simple maze. In such envirovment with some restraints like finite episode count only softmax converged to the optimal policy

    Artificial intelligence in autonomous vehicles

    No full text
    U ovom radu objašnjeni su osnovni pojmovi za razumijevanje neuronskih mreža, s naglaskom na konvolucijske neuronske mreže i princip učenja mreža. Pokazano je na primjeru kako djeluju neuronske mreže, te kako možemo koristiti simulator za sakupljanje podataka i treniranje modela s samo kreiranim podatcima. Također je prikazano i objašnjeno kako kreirati konvolucijsku neuronsku mrežu služeći se gotovim bibliotekama koje ubrzavaju proces izrade prototipa i brinu se da se maksimalno isključi ljudska pogreška prilikom kreiranja mreže. Potrebno je samo razumjeti materiju da bi se jednostavno kreirala mreža i testirala.In this work, main terms and concept „how neural network learns“ are explained for easier understanding on the topic of how neural networks work, with a highlight on convolutional neural networks. It is shown by example how CNN work, how we could use free simulators to create data for ourselves and train model with the same data. It has also been shown by an example, how to create CNN using popular frameworks that make a job lot easier and safer. You just need to understand what are you doing and no time should be spent on programming

    Artificial intelligence in autonomous vehicles

    No full text
    U ovom radu objašnjeni su osnovni pojmovi za razumijevanje neuronskih mreža, s naglaskom na konvolucijske neuronske mreže i princip učenja mreža. Pokazano je na primjeru kako djeluju neuronske mreže, te kako možemo koristiti simulator za sakupljanje podataka i treniranje modela s samo kreiranim podatcima. Također je prikazano i objašnjeno kako kreirati konvolucijsku neuronsku mrežu služeći se gotovim bibliotekama koje ubrzavaju proces izrade prototipa i brinu se da se maksimalno isključi ljudska pogreška prilikom kreiranja mreže. Potrebno je samo razumjeti materiju da bi se jednostavno kreirala mreža i testirala.In this work, main terms and concept „how neural network learns“ are explained for easier understanding on the topic of how neural networks work, with a highlight on convolutional neural networks. It is shown by example how CNN work, how we could use free simulators to create data for ourselves and train model with the same data. It has also been shown by an example, how to create CNN using popular frameworks that make a job lot easier and safer. You just need to understand what are you doing and no time should be spent on programming

    Artificial intelligence in autonomous vehicles

    No full text
    U ovom radu objašnjeni su osnovni pojmovi za razumijevanje neuronskih mreža, s naglaskom na konvolucijske neuronske mreže i princip učenja mreža. Pokazano je na primjeru kako djeluju neuronske mreže, te kako možemo koristiti simulator za sakupljanje podataka i treniranje modela s samo kreiranim podatcima. Također je prikazano i objašnjeno kako kreirati konvolucijsku neuronsku mrežu služeći se gotovim bibliotekama koje ubrzavaju proces izrade prototipa i brinu se da se maksimalno isključi ljudska pogreška prilikom kreiranja mreže. Potrebno je samo razumjeti materiju da bi se jednostavno kreirala mreža i testirala.In this work, main terms and concept „how neural network learns“ are explained for easier understanding on the topic of how neural networks work, with a highlight on convolutional neural networks. It is shown by example how CNN work, how we could use free simulators to create data for ourselves and train model with the same data. It has also been shown by an example, how to create CNN using popular frameworks that make a job lot easier and safer. You just need to understand what are you doing and no time should be spent on programming

    Reinforcement learning algorithms and exploration exploitation dilemma

    No full text
    Ovaj rad nudi pregled poduprtog učenja, ideja i algoritama na kojima se područje temelji. Kroz primjere polazi se od formalizacije problema koristeći Markovljeve procese odluke sve do Q-učenja. Promatra dilemu istraživanja i iskorištavanja, daje poveznicu s ponašanjem živih bića. Analizira te uspoređuje uspjeh različitih politika ponašanja kao rješenja dileme, točnije uspoređuje pohlepni epsilon, softmax i gornju granicu intervala pouzdanosti nad jednostavnim labirintom. Softmax je jedina politika koja u ograničenom broju epizoda konvergira na optimalnu politiku ponašanja za primjer korišten u radu.This work gives an overview of reinforcement learning, ideas, and algorithms that it is based upon. Through examples, it goesfrom formalization using MDP to Q-learning. Observesthe explorationexploitation dilemma and gives a link to the psychology of living creatures. Analyzes and compares multiple policies, such as epsilon greedy, softmax, and upper confidence bound in a use case of a simple maze. In such envirovment with some restraints like finite episode count only softmax converged to the optimal policy

    Reinforcement learning algorithms and exploration exploitation dilemma

    No full text
    Ovaj rad nudi pregled poduprtog učenja, ideja i algoritama na kojima se područje temelji. Kroz primjere polazi se od formalizacije problema koristeći Markovljeve procese odluke sve do Q-učenja. Promatra dilemu istraživanja i iskorištavanja, daje poveznicu s ponašanjem živih bića. Analizira te uspoređuje uspjeh različitih politika ponašanja kao rješenja dileme, točnije uspoređuje pohlepni epsilon, softmax i gornju granicu intervala pouzdanosti nad jednostavnim labirintom. Softmax je jedina politika koja u ograničenom broju epizoda konvergira na optimalnu politiku ponašanja za primjer korišten u radu.This work gives an overview of reinforcement learning, ideas, and algorithms that it is based upon. Through examples, it goesfrom formalization using MDP to Q-learning. Observesthe explorationexploitation dilemma and gives a link to the psychology of living creatures. Analyzes and compares multiple policies, such as epsilon greedy, softmax, and upper confidence bound in a use case of a simple maze. In such envirovment with some restraints like finite episode count only softmax converged to the optimal policy
    corecore