1,018 research outputs found
Formalization and Runtime Verification of Invariants for Robotic Systems
Tese de mestrado, Engenharia Informática (Interação e Conhecimento), 2022, Universidade de Lisboa, Faculdade de CiênciasRobotic systems are critical in today’s society, be it in manufacturing, medicine, or agriculture. A potential failure in a robot may have extraordinary costs, not only financial but can
also cost lives.
Current practices in robot testing are vast and involve methods like simulation, log checking,
or field testing. However, current practices often require human monitoring to determine the
correctness of a given behavior. Automating this analysis can not only relieve the burden from
a high-skilled engineer but also allow for massive parallel executions of tests that can detect
behavioral faults in the robots. These faults could otherwise not be found due to human error
or a lack of time.
I have developed a Domain Specific Language to specify the properties of robotic systems in
the Robot Operating System (ROS). Developer written specifications in this language compile
to a monitor ROS module that detects violations of those properties at runtime. I have used
this language to express the temporal and positional properties of robots using Linear Temporal
Logic as a basis for the language stipulation. I have also automated the monitoring of some
behavioral violations of robots in relation to their state or events during a simulation, resorting
to relations between the internal information of the system and the corresponding information
in the simulator.
To evaluate the developed work, I went through a list of documented ROS bugs and identified
some that happen at runtime. Using these bugs as a basis I specified the robot’s properties in
the developed language that should be capable of detecting an error, in order to test both the
expressiveness and the monitoring while running the system
Attributable Fraction Of Work Accidents Related To Occupational Noise Exposure In A Southeastern City Of Brazil.
Noise is the most frequent type of occupational exposure and can lead to both auditory and extra-auditory dysfunction as well as increasing the risk of work accidents. The purpose of this study was to estimate the attributable fraction of work accidents related to occupational noise exposure in a medium-sized city in Southeast Brazil. In this hospital-based case-control study, including 600 cases and 822 controls, the odds ratio of work accidents (controlled for several covariables) was obtained classifying occupational noise exposure into four levels and determining the prevalence at each level. Based on these data, the calculated attributable fraction was 0.3041 (95%CI: 0.2341-0.3676), i.e., 30% of work accidents in the study area were statistically associated with occupational noise exposure. The authors discuss the causes of this association and the implications for the prevention of work accidents.231649-5
A polynomial-time branching procedure for the multiprocessor scheduling problem
In this paper, we present and analyze a branching procedure suitable for branchand-bound algorithms for solving multiprocessor scheduling problems. The originality of this branching procedure resides mainly in its ability to enumerate all feasible solutions without generating duplicated subproblems. This procedure is shown to be polynomial in time and space complexities. The main applications of such branching procedure are
instances of the MSP where the costs are large because the height of the search tree is linear on the number of tasks to be scheduled. This in opposition to another branching procedure in the literature that generates a search tree whose height is porportional to the costs of the tasks
HOMICÍDIOS NA POPULAÇÃO MASCULINA DA REGIÃO METROPOLITANA DE SÃO PAULO – BRASIL
Objetivo: descrever a tendência dos homicídios na população masculina residente na Região Metropolitana de São Paulo, Brasil, entre os anos de 1979 e 2013. Método: estudo ecológico, exploratório de tendência temporal com descrição da evolução temporal e distribuição espacial dos óbitos por homicídios. Analisou-se as mortes e os coeficientes de mortalidade da população masculina ocorrida na Região Metropolitana de São Paulo decorrentes de homicídios. Resultados: as mortes predominaram entre adolescentes e adultos jovens, com aumento apartir dos 14 anos de idade. O coeficiente de mortalidade por homicídios masculinos foi maior do que a média nacional até 2005, invertendo-se a partir desse ano. Conclusão: os homicídios na Região Metropolitana de São Paulo tiveram um comportamento peculiar em relação ao Brasil e ao estado de São Paulo até o início de 2005, merecendo um estudo detalhado e minucioso dos eventos que cooperaram para a redução dos homicídios nesta região.Descritores: Homicídio. Vítimas de homicídio. Violência. Mortalidade. Homens
Observações em redes neuronais
The many advances that machine learning, and especially its workhorse, deep learning,
has provided to our society are undeniable. However, there is an increasing
feeling that the field has become little understood, with researchers going as far
as to make the analogy that it has developed into a form of alchemy. There is
the need for a deeper understanding of the tools being used since, otherwise, one
is only making progress in the dark, frequently relying on trial and error. In this
thesis, we experiment with feedforward neural networks, trying to deconstruct the
phenomenons we observe, and finding their root cause. We start by experimenting
with a synthetic dataset. Using this toy problem, we find that the weights of
trained networks show correlations that can be well-understood by the structure
of the data samples themselves. This insight may be useful in areas such as Explainable
Artificial Intelligence, to explain why a model behaves the way it does.
We also find that the mere change of the activation function used in a layer may
cause the nodes of the network to assume fundamentally different roles. This understanding
may help to draw firm conclusions regarding the conditions in which
Transfer Learning may be applied successfully. While testing with this problem,
we also found that the initial configuration of weights of a network may, in some
situations, ultimately determine the quality of the minimum (i.e., loss/accuracy)
to which the networks converge, more so than what could be initially suspected.
This observation motivated the remainder of our experiments. We continued our
tests with the real-world datasets MNIST and HASYv2. We devised an initialization
strategy, which we call the Dense sliced initialization, that works by combining
the merits of a sparse initialization with those of a typical random initialization.
Afterward, we found that the initial configuration of weights of a network “sticks”
throughout training, suggesting that training does not imply substantial updates
— instead, it is, to some extent, a fine-tuning process. We saw this by training
networks marked with letters, and observing that those marks last throughout
hundreds of epochs. Moreover, our results suggest that the small scale of the deviations
caused by the training process is a fingerprint (i.e., a necessary condition)
of training — as long as the training is successful, the marks remain visible. Based
on these observations and our intuition for the reasons behind them, we developed
what we call the Filter initialization strategy. It showed improvements in the training
of the networks tested, but at the same time, it worsened their generalization.
Understanding the root cause for these observations may prove to be valuable to
devise new initialization methods that generalize better.É impossível ignorar os muitos avanços que aprendizagem automática, e em particular
o seu método de eleição, aprendizagem profunda, têm proporcionado à nossa
sociedade. No entanto, existe um sentimento crescente de que ao longo dos anos
a área se tem vindo a tornar confusa e pouco clara, com alguns investigadores inclusive
afirmando que aprendizagem automática se tornou na alquimia dos nossos
tempos. Existe uma necessidade crescente de (voltar a) compreender em profundidade
as ferramentas usadas, já que de outra forma o progresso acontece às escuras
e, frequentemente, por tentativa e erro. Nesta dissertação conduzimos testes com
redes neuronais artificiais dirigidas, com o objetivo de compreender os fenómenos
subjacentes e encontrar as suas causas. Começamos por testar com um conjunto
de dados sintético. Usando um problema amostra, descobrimos que a configuração
dos pesos de redes treinadas evolui de forma a mostrar correlações que podem
ser compreendidas atendendo à estrutura das amostras do próprio conjunto de dados.
Esta observação poderá revelar-se útil em áreas como Inteligência Artificial
Explicável, de forma a clarificar porque é que um dado modelo funciona de certa
forma. Descobrimos também que a mera alteração da função de ativação de uma
camada pode causar alterações organizacionais numa rede, a nível do papel que
os nós nela desempenham. Este conhecimento poderá ser usado em áreas como
Aprendizagem por Transferência, de forma a desenvolver critérios precisos sobre
os limites/condições de aplicabilidade destas técnicas. Enquanto experimentávamos
com este problema, descobrimos também que a configuração inicial dos pesos
de uma rede pode condicionar totalmente a qualidade do mínimo para que ela
converge, mais do que poderia ser esperado. Esta observação motiva os nossos
restantes resultados. Continuamos testes com conjuntos de dados do mundo real,
em particular com o MNIST e HASYv2. Desenvolvemos uma estratégia de inicialização,
à qual chamamos de inicialização densa por fatias, que funciona combinado
os méritos de uma inicialização esparsa com os de uma inicialização típica (densa).
Descobrimos também que a configuração inicial dos pesos de uma rede persiste
ao longo do seu treino, sugerindo que o processo de treino não causa atualizações
bruscas dos pesos. Ao invés, é maioritariamente um processo de afinação. Visualizamos
este efeito ao marcar as camadas de uma rede com letras do abecedário
e observar que as marcas se mantêm por centenas de épocas de treino. Mais do
que isso, a escala reduzida das atualizações dos pesos aparenta ser uma impressão
digital (isto é, uma condição necessária) de treino com sucesso — enquanto
o treino é bem sucedido, as marcas permanecem. Baseados neste conhecimento
propusemos uma estratégia de inicialização inspirada em filtros. A estratégia mostrou
bons resultados durante o treino das redes testadas, mas simultaneamente
piorou a sua generalização. Perceber as razões por detrás deste fenómeno pode
permitir desenvolver novas estratégias de inicialização que generalizem melhor que
as atuais.Mestrado em Engenharia de Computadores e Telemátic
Validade de histórias ocupacionais de informantes secundários
OBJECTIVE: Occupational studies often use data obtained from proxy respondents. However, few investigations have been conducted on the validity of occupational data provided by workers' surrogates. This study aimed to compare self-reported occupational data to information obtained from next-of-kin, as a contribution to assess the validity of using proxy respondents to obtain information about workers. METHODS: Worker/next-of-kin pairs, residents in Southeastern Brazil, were interviewed separately in 1998 about worker's occupational past history. The concordance, sensitivity, and specificity of proxy reports about workers' occupations were examined comparing to self-reports. RESULTS: A total of 2.163 worker/next-of-kin pairs were interviewed. The Kappa statistic for the agreement between worker's and next-of-kin's report about the worker's main occupation was 0.86 (CI95%; 0.85 -- 0.88). The sensitivity of proxy reports on occupations ranged from 77.5% (64.6% -- 90.4%) to 98.9% (97.3% -- 100.0%), and specificity ranged from 96.9% (96.0% -- 97.7%) to 99.9% (99.7% -- 100.0%). CONCLUSIONS: These are encouraging findings for the use of proxy respondents in occupational studies when occupations are considered as categorical variables. However, caution is required when assessing occupational exposition by means of cumulative work time because next-of-kin may underestimates this information.OBJETIVO: Embora sejam freqüentes os estudos epidemiológicos trazendo informações ocupacionais obtidas em entrevistas com familiares de trabalhadores, há poucos trabalhos analisando a validade dessas informações, sendo nenhum deles realizados em países em desenvolvimento. Objetivou-se estudar a validade do uso de informações ocupacionais obtidas de informantes secundários em estudos epidemiológicos, pela análise de concordância entre histórias ocupacionais obtidas em entrevistas independentes com os próprios trabalhadores e seus familiares. MÉTODOS: A história ocupacional de trabalhadores, residentes no Município de Botucatu, SP, em 1998, foi obtida por entrevistas com os próprios trabalhadores e com os familiares próximos. Calcularam-se a sensibilidade e a especificidade das informações ocupacionais dos familiares, considerando-se "padrão-ouro" a informação do trabalhador. Avaliou-se a concordância dos pares de informação pelo coeficiente Kappa. RESULTADOS: Foram entrevistados 2.163 pares trabalhador/familiar. A sensibilidade da informação ocupacional dos familiares variou entre 77,5% (IC95%; 64,6% -- 90,4%) e 98,9% (97,3% -- 100,0%), enquanto a especificidade variou entre 96,9% (96,0% -- 97,7%) e 99,9% (99,7% -- 100,0%). O coeficiente Kappa para a concordância da informação ocupação principal, segundo as duas fontes, foi de 0,86 (0,85 -- 0,88). CONCLUSÕES: A utilização de informações ocupacionais obtidas de informantes secundários, se tratadas como variáveis categóricas, tem validade. Utilizando-se informações relativas a tempos acumulados de trabalho, concluiu-se que informantes secundários subestimam os tempos de exposição quando comparados com os próprios trabalhadores
Scheduling multiprocessor tasks with genetic algorithms
In the multíprocessor schedulíng problem a given program is to be scheduled in a given multiprocessor system such that the program 's execution time is minimized. This problem being very hard to solve exactly, many heuristic methods for finding a suboptimal schedule exist. We propose a new combined approach, where a genetic algorithm is improved with the introduction of some knowledge about the scheduling problem represented by the use of a list heuristic in the crossover and mutatíon genetic operations. This knowledge-augmented genetic approach is empirically compared with a "pure" genetic algorithm and with a "pure" list heuristic, both from the literature. Results of the experiments carried out with synthetic instances of the scheduling problem show that our knowledge-augmented algorithm produces much better results in terms
of quality of solutions, although being slower in terms of execution time
- …