11 research outputs found

    Gender Gap in the 2012 Presidential Election

    Get PDF

    Light-Front Model of Transition Form-Factors in Heavy Meson Decay

    Full text link
    Electroweak transition form factors of heavy meson decays are important ingredients in the extraction of the Cabibbo-Kobayashi-Maskawa (CKM) matrix elements from experimental data. In this work, within a light-front framework, we calculate electroweak transition form factor for the semileptonic decay of DD mesons into a pion or a kaon. The model results underestimate in both cases the new data of CLEO for the larger momentum transfers accessible in the experiment. We discuss possible reasons for that in order to improve the model.Comment: Paper with 5 pages and 2 eps figures. To appear to Nuclear Physics B. Talk at Light Cone 2009: Relativistic Hadronic and Particle Physics (LC 2009), Sao Jose dos Campos, S.P, Brazil, 8-13 Jul 2009

    Breakfast habits and factors influencing food choices at breakfast in relation to socio-demographic and family factors among European adolescents. The HELENA Study §

    Get PDF
    A B S T R A C T Breakfast consumption has been shown to be an important indicator of a healthy lifestyle. Little is known however about factors influencing breakfast consumption and food choices at breakfast in adolescents. The aim of the present study was therefore to describe breakfast habits, and factors influencing food choices at breakfast within the framework of the EU-funded HELENA Study, in 3528 adolescents from ten European cities. Additionally, socio-demographic differences in breakfast habits and in influencing factors were investigated. Half of the adolescents (and fewer girls than boys) indicated being regular breakfast consumers. Girls with mothers with a high level of education, boys from 'traditional' families and boys who perceived low family affluence were positively associated with breakfast consumption. Boys whose parents gave encouragement and girls whose peers ate healthily were more likely to be regular breakfast consumers. 'Hunger', 'taste', 'health concerns' and 'parents or guardian' were the most important influences on the adolescents' food choices at breakfast. Adolescents from southern Europe and girls reported to be more influenced by personal and socio-environmental factors. Sociodemographic differences, in particular regional and gender differences, need to be considered in discussions surrounding the development of nutritional intervention programs intended for adolescents.

    Gender Gap for the 2012 Election

    No full text

    Taktisk ruttplanering i stridssimuleringar med omvÀnd förstÀrkt inlÀrning

    No full text
    In this report Deep Maximum Entropy Inverse Reinforcement Learning has been applied to the problem of route planning in rough terrain, while taking tactical parameters into account. The tactical parameters that the report focuses on is to avoid detection from predetermined static observers by keeping blocking terrain in the sight line. The experiments have been done in a simplified gridworld using generated "expert" routes in place of an actual expert. The purpose of the project is to serve as an indication that this algorithm can be used to model these types of problems. The results show that the algorithm indeed can approximate this type of function, but it remains to be proven that the methods are useful when examples are taken from an actual expert, and applied in a real world scenario. Another finding is that the choice of Value Iteration as the algorithm for calculating policies turns out to be very time consuming which limits the amount of training and the scope of the possible problem.I den hÀr rapporten har Djup OmvÀnd FörstÀrkt InlÀrning med Maximal Entropi applicerats pÄ ett ruttplaneringsproblem genom ojÀmn terrÀng, med Ätanke pÄ taktiska parametrar. De taktiska parametrarna som rappoten fokuserar pÄ Àr att unvika upptÀckt frÄn förutbestÀmda statiska observatörer genom att röra sig sÄ att blokerande terrÀng placeras i siktlinjen. Experimenten har genomförts i en simpel rutnÀtsvÀrld och anvÀnder sig av genererade "expertrutter", istÀllet för en faktisk expert. Syftet med projektet Àr att genom detta fÄ en indikation pÄ om denna algoritm Àr lÀmplig för att modellera denna typ av problem. Resultaten visar att algorithmen mycket riktigt klarar av att approximera denna typ av funktion, men det ÄterstÄr fortfarande att bevisa att metoden Àr anvÀndbar nÀr exempel Àr tagna frÄn en riktig expert och applicerade pÄ scenarion frÄn riktiga vÀrlden. En annan upptÀckt Àr att valet av VÀrdeiterering visar sig vara vÀldigt tidskrÀvande vilket begrÀnsar mÀngden trÀning som kan göras och storleken pÄ möjliga problemet

    Uppskalning av maximal entropisk djup omvÀnd förstÀrkt inlÀrning med övergÄngslÀrning

    No full text
    In this thesis an issue with common inverse reinforcement learning algorithms is identified, which causes them to be computationally heavy. A solution is proposed which attempts to address this issue and which can be built upon in the future. The complexity of inverse reinforcement algorithms is increased because at each iteration something called a reinforcement learning step is performed to evaluate the result of the previous iteration and guide future learning. This step is slow to perform for problems with large state spaces and where many iterations are required. It has been observed that the problem solved in this step in many cases is very similar to that of the previous iteration. Therefore the solution suggested is to utilize transfer learning to retain some of the learned information and improve speed at subsequent steps. In this thesis different forms of transfers are evaluated for common reinforcement learning algorithms when applied to this problem. Experiments are run using value iteration and Q-learning as the algorithms for the reinforcement learning step. The algorithms are applied to two route planning problems and it is found that in both cases a transfer can be useful for improving calculation times. For value iteration the transfer is easy to understand and implement and shows large improvements in speed compared to the basic method. For Q-learning the implementation contains more variables and while it shows an improvement it is not as dramatic as that for value iteration. The conclusion drawn is that for inverse reinforcement learning implementations using value iteration a transfer is always recommended while for implementations using other algorithms for the reinforcement learning step a transfer is most likely recommended but more experimentation needs to be conducted.I denna uppsats identifieras ett vanligt problem med algoritmer för omvÀnd förstÀrkt inlÀrning vilket leder till att de blir berÀkningstunga. En lösning föreslÄs som försöker addressera problemet och som kan byggas pÄ i framtiden. Komplexiteten i algoritmer för omvÀnd förstÀrkt inlÀrning ökar pÄ grund av att varje iteration krÀver ett sÄ kallat förstÀrkt inlÀrnings-steg som har som syfte att utvÀrdera föregÄende iteration och guida lÀrandet. Detta steg tar lÄng tid att genomföra för problem med stor tillstÄndsrymd och dÀr mÄnga iterationer Àr nödvÀndiga. Det har observerats att problemet som löses i detta steg i mÄnga fall Àr vÀldigt likt det problem som löstes i föregÄende iteration. DÀrför Àr den föreslagna lösningen att anvÀnda sig av informationsöverföring för att ta tillvara denna kunskap. I denna uppsats utvÀrderas olika former av informationsöverföring för vanliga algoritmer för förstÀrkt inlÀrning pÄ detta problem. Experiment görs med value iteration och Q-learning som algoritmerna för förstÀrkt inlÀrnings-steget. Algoritmerna appliceras pÄ tvÄ ruttplanneringsproblem och finner att i bÄda fallen kan en informationsöverföring förbÀttra berÀkningstider. För value iteration Àr överföringen enkel att implementera och förstÄ och visar stora förbÀttringar i hastighet jÀmfört med basfallet. För Qlearning har implementationen fler variabler och samtidigt som en förbÀttring visas sÄ Àr den inte lika dramatisk som för value iteration. Slutsaterna som dras Àr att för implementationer av omvÀnd förstÀrkt inlÀrning dÀr value iteration anvÀnds som algoritm för förstÀrkt inlÀrnings-steget sÄ rekommenderas alltid en informationsöverföring medan för implementationer som anvÀnder andra algoritmer sÄ rekommenderas troligtvis en överföring men fler experiment skulle behöva utföras

    Taktisk ruttplanering i stridssimuleringar med omvÀnd förstÀrkt inlÀrning

    No full text
    In this report Deep Maximum Entropy Inverse Reinforcement Learning has been applied to the problem of route planning in rough terrain, while taking tactical parameters into account. The tactical parameters that the report focuses on is to avoid detection from predetermined static observers by keeping blocking terrain in the sight line. The experiments have been done in a simplified gridworld using generated "expert" routes in place of an actual expert. The purpose of the project is to serve as an indication that this algorithm can be used to model these types of problems. The results show that the algorithm indeed can approximate this type of function, but it remains to be proven that the methods are useful when examples are taken from an actual expert, and applied in a real world scenario. Another finding is that the choice of Value Iteration as the algorithm for calculating policies turns out to be very time consuming which limits the amount of training and the scope of the possible problem.I den hÀr rapporten har Djup OmvÀnd FörstÀrkt InlÀrning med Maximal Entropi applicerats pÄ ett ruttplaneringsproblem genom ojÀmn terrÀng, med Ätanke pÄ taktiska parametrar. De taktiska parametrarna som rappoten fokuserar pÄ Àr att unvika upptÀckt frÄn förutbestÀmda statiska observatörer genom att röra sig sÄ att blokerande terrÀng placeras i siktlinjen. Experimenten har genomförts i en simpel rutnÀtsvÀrld och anvÀnder sig av genererade "expertrutter", istÀllet för en faktisk expert. Syftet med projektet Àr att genom detta fÄ en indikation pÄ om denna algoritm Àr lÀmplig för att modellera denna typ av problem. Resultaten visar att algorithmen mycket riktigt klarar av att approximera denna typ av funktion, men det ÄterstÄr fortfarande att bevisa att metoden Àr anvÀndbar nÀr exempel Àr tagna frÄn en riktig expert och applicerade pÄ scenarion frÄn riktiga vÀrlden. En annan upptÀckt Àr att valet av VÀrdeiterering visar sig vara vÀldigt tidskrÀvande vilket begrÀnsar mÀngden trÀning som kan göras och storleken pÄ möjliga problemet

    Uppskalning av maximal entropisk djup omvÀnd förstÀrkt inlÀrning med övergÄngslÀrning

    No full text
    In this thesis an issue with common inverse reinforcement learning algorithms is identified, which causes them to be computationally heavy. A solution is proposed which attempts to address this issue and which can be built upon in the future. The complexity of inverse reinforcement algorithms is increased because at each iteration something called a reinforcement learning step is performed to evaluate the result of the previous iteration and guide future learning. This step is slow to perform for problems with large state spaces and where many iterations are required. It has been observed that the problem solved in this step in many cases is very similar to that of the previous iteration. Therefore the solution suggested is to utilize transfer learning to retain some of the learned information and improve speed at subsequent steps. In this thesis different forms of transfers are evaluated for common reinforcement learning algorithms when applied to this problem. Experiments are run using value iteration and Q-learning as the algorithms for the reinforcement learning step. The algorithms are applied to two route planning problems and it is found that in both cases a transfer can be useful for improving calculation times. For value iteration the transfer is easy to understand and implement and shows large improvements in speed compared to the basic method. For Q-learning the implementation contains more variables and while it shows an improvement it is not as dramatic as that for value iteration. The conclusion drawn is that for inverse reinforcement learning implementations using value iteration a transfer is always recommended while for implementations using other algorithms for the reinforcement learning step a transfer is most likely recommended but more experimentation needs to be conducted.I denna uppsats identifieras ett vanligt problem med algoritmer för omvÀnd förstÀrkt inlÀrning vilket leder till att de blir berÀkningstunga. En lösning föreslÄs som försöker addressera problemet och som kan byggas pÄ i framtiden. Komplexiteten i algoritmer för omvÀnd förstÀrkt inlÀrning ökar pÄ grund av att varje iteration krÀver ett sÄ kallat förstÀrkt inlÀrnings-steg som har som syfte att utvÀrdera föregÄende iteration och guida lÀrandet. Detta steg tar lÄng tid att genomföra för problem med stor tillstÄndsrymd och dÀr mÄnga iterationer Àr nödvÀndiga. Det har observerats att problemet som löses i detta steg i mÄnga fall Àr vÀldigt likt det problem som löstes i föregÄende iteration. DÀrför Àr den föreslagna lösningen att anvÀnda sig av informationsöverföring för att ta tillvara denna kunskap. I denna uppsats utvÀrderas olika former av informationsöverföring för vanliga algoritmer för förstÀrkt inlÀrning pÄ detta problem. Experiment görs med value iteration och Q-learning som algoritmerna för förstÀrkt inlÀrnings-steget. Algoritmerna appliceras pÄ tvÄ ruttplanneringsproblem och finner att i bÄda fallen kan en informationsöverföring förbÀttra berÀkningstider. För value iteration Àr överföringen enkel att implementera och förstÄ och visar stora förbÀttringar i hastighet jÀmfört med basfallet. För Qlearning har implementationen fler variabler och samtidigt som en förbÀttring visas sÄ Àr den inte lika dramatisk som för value iteration. Slutsaterna som dras Àr att för implementationer av omvÀnd förstÀrkt inlÀrning dÀr value iteration anvÀnds som algoritm för förstÀrkt inlÀrnings-steget sÄ rekommenderas alltid en informationsöverföring medan för implementationer som anvÀnder andra algoritmer sÄ rekommenderas troligtvis en överföring men fler experiment skulle behöva utföras

    Uppskalning av maximal entropisk djup omvÀnd förstÀrkt inlÀrning med övergÄngslÀrning

    No full text
    In this thesis an issue with common inverse reinforcement learning algorithms is identified, which causes them to be computationally heavy. A solution is proposed which attempts to address this issue and which can be built upon in the future. The complexity of inverse reinforcement algorithms is increased because at each iteration something called a reinforcement learning step is performed to evaluate the result of the previous iteration and guide future learning. This step is slow to perform for problems with large state spaces and where many iterations are required. It has been observed that the problem solved in this step in many cases is very similar to that of the previous iteration. Therefore the solution suggested is to utilize transfer learning to retain some of the learned information and improve speed at subsequent steps. In this thesis different forms of transfers are evaluated for common reinforcement learning algorithms when applied to this problem. Experiments are run using value iteration and Q-learning as the algorithms for the reinforcement learning step. The algorithms are applied to two route planning problems and it is found that in both cases a transfer can be useful for improving calculation times. For value iteration the transfer is easy to understand and implement and shows large improvements in speed compared to the basic method. For Q-learning the implementation contains more variables and while it shows an improvement it is not as dramatic as that for value iteration. The conclusion drawn is that for inverse reinforcement learning implementations using value iteration a transfer is always recommended while for implementations using other algorithms for the reinforcement learning step a transfer is most likely recommended but more experimentation needs to be conducted.I denna uppsats identifieras ett vanligt problem med algoritmer för omvÀnd förstÀrkt inlÀrning vilket leder till att de blir berÀkningstunga. En lösning föreslÄs som försöker addressera problemet och som kan byggas pÄ i framtiden. Komplexiteten i algoritmer för omvÀnd förstÀrkt inlÀrning ökar pÄ grund av att varje iteration krÀver ett sÄ kallat förstÀrkt inlÀrnings-steg som har som syfte att utvÀrdera föregÄende iteration och guida lÀrandet. Detta steg tar lÄng tid att genomföra för problem med stor tillstÄndsrymd och dÀr mÄnga iterationer Àr nödvÀndiga. Det har observerats att problemet som löses i detta steg i mÄnga fall Àr vÀldigt likt det problem som löstes i föregÄende iteration. DÀrför Àr den föreslagna lösningen att anvÀnda sig av informationsöverföring för att ta tillvara denna kunskap. I denna uppsats utvÀrderas olika former av informationsöverföring för vanliga algoritmer för förstÀrkt inlÀrning pÄ detta problem. Experiment görs med value iteration och Q-learning som algoritmerna för förstÀrkt inlÀrnings-steget. Algoritmerna appliceras pÄ tvÄ ruttplanneringsproblem och finner att i bÄda fallen kan en informationsöverföring förbÀttra berÀkningstider. För value iteration Àr överföringen enkel att implementera och förstÄ och visar stora förbÀttringar i hastighet jÀmfört med basfallet. För Qlearning har implementationen fler variabler och samtidigt som en förbÀttring visas sÄ Àr den inte lika dramatisk som för value iteration. Slutsaterna som dras Àr att för implementationer av omvÀnd förstÀrkt inlÀrning dÀr value iteration anvÀnds som algoritm för förstÀrkt inlÀrnings-steget sÄ rekommenderas alltid en informationsöverföring medan för implementationer som anvÀnder andra algoritmer sÄ rekommenderas troligtvis en överföring men fler experiment skulle behöva utföras

    Taktisk ruttplanering i stridssimuleringar med omvÀnd förstÀrkt inlÀrning

    No full text
    In this report Deep Maximum Entropy Inverse Reinforcement Learning has been applied to the problem of route planning in rough terrain, while taking tactical parameters into account. The tactical parameters that the report focuses on is to avoid detection from predetermined static observers by keeping blocking terrain in the sight line. The experiments have been done in a simplified gridworld using generated "expert" routes in place of an actual expert. The purpose of the project is to serve as an indication that this algorithm can be used to model these types of problems. The results show that the algorithm indeed can approximate this type of function, but it remains to be proven that the methods are useful when examples are taken from an actual expert, and applied in a real world scenario. Another finding is that the choice of Value Iteration as the algorithm for calculating policies turns out to be very time consuming which limits the amount of training and the scope of the possible problem.I den hÀr rapporten har Djup OmvÀnd FörstÀrkt InlÀrning med Maximal Entropi applicerats pÄ ett ruttplaneringsproblem genom ojÀmn terrÀng, med Ätanke pÄ taktiska parametrar. De taktiska parametrarna som rappoten fokuserar pÄ Àr att unvika upptÀckt frÄn förutbestÀmda statiska observatörer genom att röra sig sÄ att blokerande terrÀng placeras i siktlinjen. Experimenten har genomförts i en simpel rutnÀtsvÀrld och anvÀnder sig av genererade "expertrutter", istÀllet för en faktisk expert. Syftet med projektet Àr att genom detta fÄ en indikation pÄ om denna algoritm Àr lÀmplig för att modellera denna typ av problem. Resultaten visar att algorithmen mycket riktigt klarar av att approximera denna typ av funktion, men det ÄterstÄr fortfarande att bevisa att metoden Àr anvÀndbar nÀr exempel Àr tagna frÄn en riktig expert och applicerade pÄ scenarion frÄn riktiga vÀrlden. En annan upptÀckt Àr att valet av VÀrdeiterering visar sig vara vÀldigt tidskrÀvande vilket begrÀnsar mÀngden trÀning som kan göras och storleken pÄ möjliga problemet
    corecore