848 research outputs found

    Chromatographic purification of virus particles for advanced therapy medicinal products

    Get PDF
    The increasing number of cancer diagnoses in the last decades is associated with behavioral risks, in addition with those genetically originated. The fight against the disease usually relapses in not selective mechanisms like chemotherapy or radiotherapy, that induce the organism in deep alterations and side effects. One of the alternative strategies relies on the use of advanced therapies medicinal products suchlike viruses, to carry out the treatment in each cell taking advantage of their invading abilities. The cost of producing this oncolytic virus directly influences process engineering, and thus, numerous efforts have been made to improve each purification step. The development of the downstream process begins with the clarification of the viruses harvested from the bioreactor with two depth-filtration steps. This allows a gradual removal of larger impurities like cell debris with a complete virus recovery. Afterwards, a tangential flow filtration step enables volume reduction. After concentration, the retentate is subjected to diafiltration which allows not only the permeation of impurities but also the formulation of the concentrated product for the next processing step. The following step in the purification train is anion exchange chromatography. The chromatographic media used was selected after successive screening tests with a library of resins and membranes. The conditions used reflect the study carried out, in the sense that the load employed corresponds to the DBC10% obtained of 6.2 x 1011 (TP/ml) particles per millilitre and the elution of the viruses is preceded by a low salt concentration elution (200 mM) in order to remove impurities. The yield obtained is 85%. The purification process ends with polishing and sterile filtration to achieve the specified conditions, through a size-exclusion chromatography and membrane filters, respectively, obtaining a total yield of 53%. The study also opens perspectives on innovation and future development with the performance of multi-column chromatography assays and automated filtration tests, both in specialized equipment

    Reconstructing of the metabolic network of Lactobacillus rhamnosus

    Get PDF
    Dissertação de mestrado em BioinformaticsWith the recent growth in genomics research, complete genomic sequences of a multitude of species are assembled at an unprecedented rate(The Cost of Sequencing a Human Genome n.d.). Therefore, it is evident that full comprehension of encoded functionality is displaced from that increased knowledge rate. Genome-scale metabolic network reconstructions try to achieve a complete understanding of the metabolic features of an organism by assembly a network of metabolic reactions catalyzed by enzymes and transporters found on the annotations made for the genome sequence(Palsson 2009). Such gene annotations are often generated by applying prior knowledge to the genomic sequence The reconstruction process of a genome-scale metabolic model encompasses four steps, namely: (1) Genome Sequencing; (2) assembling the genome-wide metabolic network; (3) Conversion of the network to a stoichiometric model ; (4)metabolic model validation(Merlin Homepage n.d.). In this thesis, the main aim is to use the genome sequence of Lactobacillus rhamnosus GG and data generated at LNEG to reconstruct the metabolic network of L. rhamnosus. The main tasks was the accomplishment of the metabolically annotate the genome and perform a preliminary analysis of the resulting metabolic network(Lin, Bennett, and San 2005; Lopes da Silva et al. 2013). In spite of the work done, there is still a long way to go until the construction of a functional model. The main steps still to be taken are the Transport prediction, removal of the dead ends, compartmentalization and the assembly of model. Another improvement for this work would be the validation of the model whit real data for L. rhamnosus GG, instead of the data from the Lactobacillus rhamnosus strain C83.Com o recente crescimento da pesquisa ao nível genómico, tem levado ao aparecimento inúmeras sequencias genómicas completas das mais variadas espécies(The Cost of Sequencing a Human Genome n.d.). Portanto, é evidente que a compreensão completa da funcionalidade do genoma é desproporcional à taxa que se gera o conhecimento. As reconstruções de redes metabólicas à escala genómica tentam alcançar uma compreensão completa das características metabólicas de um organismo através da montagem de uma rede de reações metabólicas catalisadas por enzimas e transportadores encontradas nas anotações feitas para o genoma(Palsson 2009). O processo de construção de um modelo metabólico à escala genómica abrange quatro etapas: (1) Sequenciamento do Genoma/Anotação; (2) montagem da rede metabólica do genoma; (3) Conversão da rede para um modelo estequiométrico; (4) validação do modelo metabólico(Merlin Homepage n.d.). O principal objetivo desta tese é usando a sequência genómica d Lactobacillus rhamnosus GG e os dados gerados na LNEG para construir a rede metabólica de L. rhamnosus. As principais tarefas foram a anotação do genoma e realização uma análise preliminar da rede metabólica resultante(Lin, Bennett, and San 2005; Lopes da Silva et al. 2013). Apesar do trabalho realizado, ainda há um longo caminho a percorrer até a construção de um modelo funcional. Os principais passos a serem tomados são a previsão dos transportes, a remoção dos dead ends, a compartimentalização e a criação do modelo. Outra melhoria para este trabalho seria a validação do modelo com dados reais para L. rhamnosus GG, ao invés dos dados da strain Lactobacillus rhamnosus C83

    Breast Cancer : automatic detection and risk analysis through machine learning algorithms, using mammograms

    Get PDF
    Tese de Mestrado Integrado, Engenharia Biomédica e Biofísica (Engenharia Clínica e Instrumentação Médica), 2021, Universidade de Lisboa, Faculdade de CiênciasCom 2.3 milhões de casos diagnosticados em todo o Mundo, durante o ano de 2020, o cancro da mama tornou-se aquele com maior incidência, nesse mesmo ano, considerando ambos os sexos. Anualmente, em Portugal, são diagnosticados aproximadamente sete mil (7000) novos casos de cancro da mama, com mil oitocentas (1800) mulheres a morrerem, todos os anos, devido a esta doença - indicando uma taxa de mortalidade de aproximadamente 5 mulheres por dia. A maior parte dos diagnósticos de cancro da mama ocorrem ao nível de programas de rastreio, que utilizam mamografia. Esta técnica de imagem apresenta alguns problemas: o facto de ser uma imagem a duas dimensões leva a que haja sobreposição de tecidos, o que pode mascarar a presença de tumores; e a fraca sensibilidade a mamas mais densas, sendo estas caraterísticas de mulheres com risco de cancro da mama mais elevado. Como estes dois problemas dificultam a leitura das mamografias, grande parte deste trabalhou focou-se na verificação do desempenho de métodos computacionais na tarefa de classificar mamografias em duas classes: cancro e não-cancro. No que diz respeito à classe “não cancro” (N = 159), esta foi constituída por mamografias saudáveis (N=84), e por mamografias que continham lesões benignas (N=75). Já a classe “cancro” continha apenas mamografias com lesões malignas (N = 73). A discriminação entre estas duas classes foi feita com recurso a algoritmos de aprendizagem automática. Múltiplos classificadores foram otimizados e treinados (Ntreino=162, Nteste = 70), recorrendo a um conjunto de características previamente selecionado, que descreve a textura de toda a mamografia, em vez de apenas uma única Região de Interesse. Estas características de textura baseiam-se na procura de padrões: sequências de pixéis com a mesma intensidade, ou pares específicos de pixéis. O classificador que apresentou uma performance mais elevada foi um dos Support Vector Machine (SVM) treinados – AUC= 0.875, o que indica um desempenho entre o bom e o excelente. A Percent Mammographic Density (%PD) é um importante fator de risco no que diz respeito ao desenvolvimento da doença, pelo que foi estudado se a sua adição ao set de features selecionado resultaria numa melhor performance dos classificadores. O classificador, treinado e otimizado utilizando as features de textura e os cálculos de %PD, com maior capacidade discriminativa foi um Linear Discriminant Analysis (LDA) – AUC = 0.875. Uma vez que a performance é igual à obtida com o classificador que utiliza apenas features de textura, conclui-se que a %PD parece não contribuir com informação relevante. Tal pode ocorrer porque as próprias características de textura já têm informação sobre a densidade da mama. De forma a estudar-se de que modo o desempenho destes métodos computacionais pode ser afetado por piores condições de aquisição de imagem, foi simulado ruído gaussiano, e adicionado ao set de imagens utilizado para testagem. Este ruído, adicionado a cada imagem com quatro magnitudes diferentes, resultou numa AUC de 0.765 para o valor mais baixo de ruído, e numa AUC de 0.5 para o valor de ruído mais elevado. Tais resultados indicam que, para níveis de ruído mais baixo, o classificador consegue, ainda assim, manter uma performance satisfatória – o que deixa de se verificar para valores mais elevados de ruído. Estudou-se, também, se a aplicação de técnicas de filtragem – com um filtro mediana – poderia ajudar a recuperar informação perdida aquando da adição de ruído. A aplicação do filtro a todas as imagens ruidosas resultou numa AUC de 0.754 para o valor mais elevado de ruído, atingindo assim um desempenho similar ao set de imagens menos ruidosas, antes do processo de filtragem (AUC=0.765). Este resultados parecem indicar que, na presença de más condições de aquisição, a aplicação de um filtro mediana pode ajudar a recuperar informação, conduzindo assim a um melhor desempenho dos métodos computacionais. No entanto, esta mesma conclusão parece não se verificar para valores de ruído mais baixo onde a AUC após filtragem acaba por ser mais reduzida. Tal resultado poderá indicar que, em situações onde o nível de ruído é mais baixo, a técnica de filtragem não só remove o ruído, como acaba também por, ela própria, remover informação ao nível da textura da imagem. De modo a verificar se mamas com diferentes densidades afetavam a performance do classificador, foram criados três sets de teste diferentes, cada um deles contendo imagens de mamas com a mesma densidade (1, 2, e 3). Os resultados obtidos indicam-nos que um aumento na densidade das mamas analisadas não resulta, necessariamente, numa diminuição da capacidade em discriminar as classes definidas (AUC = 0.864, AUC = 0.927, AUC= 0.905; para as classes 1, 2, e 3 respetivamente). A utilização da imagem integral para analisar de textura, e a utilização de imagens de datasets diferentes (com dimensões de imagem diferentes), poderiam introduzir um viés na classificação, especialmente no que diz respeito às diferentes áreas da mama. Para verificar isso mesmo, utilizando o coeficiente de correlação de Pearson, ρ = 0.3, verificou-se que a área da mama (e a percentagem de ocupação) tem uma fraca correlação com a classificação dada a cada imagem. A construção do classificador, para além de servir de base a todos os testes apresentados, serviu também o propósito de criar uma interface interativa, passível de ser utilizada como ficheiro executável, sem necessidade de instalação de nenhum software. Esta aplicação permite que o utilizador carregue imagens de mamografia, exclua background desnecessário para a análise da imagem, extraia features, teste o classificador construído e dê como output, no ecrã, a classe correspondente à imagem carregada. A análise de risco de desenvolvimento da doença foi conseguida através da análise visual da variação dos valores das features de textura ao longo dos anos para um pequeno set (N=11) de mulheres. Esta mesma análise permitiu descortinar aquilo que parece ser uma tendência apresentada apenas por mulheres doentes, na mamografia imediatamente anterior ao diagnóstico da doença. Todos os resultados obtidos são descritos profundamente ao longo deste documento, onde se faz, também, uma referência pormenorizada a todos os métodos utilizados para os obter. O resultado da classificação feita apenas com as features de textura encontra-se dentro dos valores referenciados no estado-da-arte, indicando que o uso de features de textura, por si só, demonstrou ser profícuo. Para além disso, tal resultado serve também de indicação que o recurso a toda a imagem de mamografia, sem o trabalho árduo de definição de uma Região de Interesse, poderá ser utilizado com relativa segurança. Os resultados provenientes da análise do efeito da densidade e da área da mama, dão também confiança no uso do classificador. A interface interativa que resultou desta primeira fase de trabalho tem, potencialmente, um diferenciado conjunto de aplicações: no campo médico, poderá servir de auxiliar de diagnóstico ao médico; já no campo da análise computacional, poderá servir para a definição da ground truth de potenciais datasets que não tenham legendas definidas. No que diz respeito à análise de risco, a utilização de um dataset de dimensões reduzidas permitiu, ainda assim, compreender que existem tendências nas variações das features ao longo dos anos, que são especificas de mulheres que desenvolveram a doença. Os resultados obtidos servem, então, de indicação que a continuação desta linha de trabalho, procurando avaliar/predizer o risco, deverá ser seguida, com recurso não só a datasets mais completos, como também a métodos computacionais de aprendizagem automática.Two million and three hundred thousand Breast Cancer (BC) cases were diagnosed in 2020, making it the type of cancer with the highest incidence that year, considering both sexes. Breast Cancer diagnosis usually occurs during screening programs using mammography, which has some downsides: the masking effect due to its 2-D nature, and its poor sensitivity concerning dense breasts. Since these issues result in difficulties reading mammograms, the main part of this work aimed to verify how a computer vision method would perform in classifying mammograms into two classes: cancer and non-cancer. The ‘non-cancer group’ (N=159) was composed by images with healthy tissue (N=84) and images with benign lesions (N=75), while the cancer group (N=73) contained malignant lesions. To achieve this, multiple classifiers were optimized and trained (Ntrain = 162, Ntest = 70) with a previously selected ideal sub-set of features that describe the texture of the entire image, instead of just one small Region of Interest (ROI). The classifier with the best performance was Support Vector Machine (SVM), (AUC = 0.875), which indicates a good-to-excellent capability discriminating the two defined groups. To assess if Percent Mammographic Density (%PD), an important risk factor, added important information, a new classifier was optimized and trained using the selected sub-set of texture features plus the %PD calculation. The classifier with the best performance was a Linear Discriminant Analysis (LDA), (AUC=0.875), which seems to indicate, once it achieves the same performance as the classifier using only texture features, that there is no relevant information added from %PD calculations. This happens because texture already includes information on breast density. To understand how the classifier would perform in worst image acquisition conditions, gaussian noise was added to the test images (N=70), with four different magnitudes (AUC= 0.765 for the lowest noise value vs. AUC ≈ 0.5 for the highest). A median filter was applied to the noised images towards evaluating if information could be recovered. For the highest noise value, after filtering, the AUC was very close to the one obtained for the lowest noise value before filtering (0.754 vs 0.765), which indicates information recovery. The effect of density in classifier performance was evaluated by constructing three different test sets, each containing images from a density class (1,2,3). It was seen that an increase in density did not necessarily resulted in a decrease in performance, which indicates that the classifier is robust to density variation (AUC = 0.864, AUC= 0.927, AUC= 0.905 ; for class 1, 2, and 3 respectively). Since the entire image is being analyzed, and images come from different datasets, it was verified if breast area was adding bias to classification. Pearson correlation coefficient provided an output of ρ = 0.22, showing that there is a weak correlation between these two variables. Finally, breast cancer risk was assessed by visual texture feature analysis through the years, for a small set of women (N=11). This visual analysis allowed to unveil what seems to be a pattern amongst women who developed the disease, in the mammogram immediately before diagnosis. The details of each phase, as well as the associated final results are deeply described throughout this document. The work done in the first classification task resulted in a state-of-the-art performance, which may serve as foundation for new research in the area, without the laborious work of ROI definition. Besides that, the use of texture features alone proved to be fruitful. Results concerning risk may serve as basis for future work in the area, with larger datasets and the incorporation of Computer Vision methods

    Numerical study of the tidal disruption of stors by the supermassive black note Sgr A* in the Galactic Center

    Get PDF
    A Super Massive Black Hole (SMBH) with a mass of 4 106M⊙ lurks in the center of the Milky Way known as Sagittarius A* (Sgr A*). Its presence affects both the Galactic Center (GC) interstellar gas, of which the central molecular zone is an example, as well as the stellar system in which it resides. A direct effect of the presence of Sgr A* is the capture of objects, in particular stars, leaving a trace of of X-ray (soft and hard) and gamma-ray emissions. A secondary effect is the origin and powering of the Fermi Bubbles, large superbubbles extending 8 kpc above and below the GC. Their energetic content (1055 erg) points towards an origin due to the tidal disruption of stars that end up being captured into an orbit around the black hole. Such captures release up to 1053 erg of energy, which, at a rate of 1 capture every 105 years is enough to energize the Fermi Bubbles. Two paramount issues require a detailed attention: (i) what is the amount of energy released in a Tidal Disruption Event (TDE) that is available to power the black hole’s surrounding medium, and thus, the Fermi Bubbles and (ii) how is the energy injected into the Fermi Bubbles. This thesis deals with the first point of this quest and looks into the second issue. When a star is scattered from its trajectory and enters in a fatal orbit onto the SMBH, the tidal forces of the black hole overcome the star’s self-gravity disrupting it partially or completely. A fate that depends on the strength of the encounter, which is determined by the proximity of the star to the black hole. Therefore, in order to understand the evolution of the captured star and the energy that is released during the process, a parametric study of the evolution of TDEs, its dependence on the penetration parameter and of their orbit (parabolic and elliptic) was carried out using smoothed particle hydrodynamics simulations. The main results of this work concern the passage of the star at pericentre and the effects on the stellar structure due to the tidal forces of the SMBH. One of such effects caused by these forces is known as the pancake phase as the star acquires a stretched shape during its passage at pericentre. Immediately after this passage the star will develop two tidal tails of debris (gas that is removed from the stellar surface) that can evolve into a narrow stream of gas and the tail faced on to the black hole will fall on a steady rate of accretion onto the compact object. The penetration parameter defines how deep the star falls onto the black hole and the amount of energy that is released by the star. TDEs that result from parabolic orbits represent the cases where larger amounts of energy is released for the surrounding medium in the galactic center and can contribute potentially to power up the Fermi Bubbles; RESUMO: estrelas pelo Buraco Negro Super Massivo Sgr A* no Cento Galáctico Um Buraco Negro Super Massivo (SMBH) com uma massa de ~4 x 106M⊙ reside no centro da Via Láctea e é conhecido como Sagittarius A* (Sgr A*). A sua presença afecta tanto o gás interestelar do centro galáctico, do qual a Zona Molecular Central é um exemplo, assim como o sistema estelar no qual se inclui. Um efeito directo da presença de Sgr A* é a captura de objectos, em particular estrelas, deixando vestígios de emissões de raios X e de raios gama. Um efeito secundário é a origem e energização das Bolhas de Fermi, superbolhas gigantes com cerca de 8 kpc que se estendem acima e abaixo do centro galáctico. O seu conteúdo energético (1055 erg) aponta no sentido da origem se dever a eventos de disrupção de estrelas que são capturadas numa órbita em torno do buraco negro. Estas capturas podem libertar até 1053 erg de energia que, á razão de uma captura a cada 105 anos poderá ser suficiente para energizar as Bolhas de Fermi. Duas questões da maior importância exigem atenção detalhada: (i) qual a quantidade de energia libertada num evento de disrupção de uma estrela que fica disponível para alimentar o meio circundante ao buraco negro, e assim, das Bolhas de Fermi e (ii) como é injectada a energia nas Bolhas de Fermi. Esta tese trabalha na primeira questão e lança a atenção sobre a segunda questão. Quando uma estrela é dispersada da sua trajectória e entra numa órbita fatal em direcção ao SMBH, as forças de maré gravitacional do buraco negro sobrepõem-se á autogravidade da estrela, promovendo a sua disrupção parcial ou total. Este destino depende da força com que o encontro ocorre e é determinado pela proximidade da estrela ao buraco negro. Assim e para compreender a evolução da estrela capturada e a energia que é libertada durante este processo, foi realizado um estudo paramétrico da evolução de eventos de disrupção de estrelas, da sua dependência do parâmetro de penetração e das suas órbitas (parabólicas e elípticas) usando simulações hidrodinâmicas de partículas. Os resultados mais importantes obtidos neste trabalho são relativos á passagem da estrela no pericentro e os efeitos na estrutura estelar devido ás forças por efeito de maré gravitacional do SMBH. Um desses efeitos devido a estas forças é conhecido como a fase da panqueca uma vez que a estrela adquire uma forma achatada durante a sua passagem pelo pericentro. Imediatamente após esta passagem a estrela desenvolve duas estrias de detritos (gás que é removido da superfície da estrela) que evoluem para um longo e estreito sulco de gás e a estria voltada para o buraco negro será atraída numa taxa de acreção estável para o objecto compacto. O parâmetro de penetração define a profundidade com que a estrela é atraída para o buraco negro e a quantidade de energia que esta liberta. Os eventos de disrupção de estrelas em órbitas parabólicas libertam mais energia para o meio circundante no centro galáctico e podem contribuir potencialmente para alimentar as Bolhas de Fermi

    Towards a human-in-the-loop control for a smart orthotic system

    Get PDF
    Dissertação de mestrado integrado em Engenharia Biomédica (área de especialização em Eletrónica Médica)Stroke is the main cause of paralysis. This pathology has provoked a considerable increase of persons with motor impairments. With a therapy focused on each clinical case, the total or partial recovery can be achieved. Powered orthoses have been developed to promote an effective recover, based on repetitive gait training and user’s active participation. Many control approaches have been developed to control these devices, but none of them promotes an user-oriented strategy focused to the user’s needs. In an attempt of solving this issue, a new approach named Human-in-the-loop is emerging. This strategy allows the adaptation of some assistive parameters based on the user’s energetic cost, promoting a therapy tailored to each end-user needs. However, to estimate the energy expenditure, the use of non-ergonomic sensors, not suitable for clinical context, is required. Thus, it is necessary to find new ways of estimating energy expenditure using wearable and comfortable sensors. In this dissertation, the first steps to introduce the Human-in-the-loop strategy into a powered orthosis are presented. For this purpose, two strategies were developed: a strategy that allows the angular trajectory adaptation in real-time and other that promotes a stiffness adaptation all over the gait cycle. Both strategies were validated with healthy subjects. In the first strategy, the orthosis was able to modify its assistance in a fraction of microseconds, and the end-users were able to follow her with a median error below 10%. Regarding the second strategy, the results show that the orthosis allowed an effective change in the systems’ interaction stiffness, promoting an active participation of each user during its assistance. The energetic impact of using the robotic assistive device is also presented. As it promotes an energy expenditure augmentation in more than 30% in comparison to walk without the device, the necessity of implementing the Human-in-the-loop strategy was highlighted. In an attempt of finding an ergonomic technique to estimate the energetic cost, the use of machine learning algorithms was tested. The results, obtained with a MLP and a LSTM, prove that it is possible to estimate the energy expenditure with a mean error close to 11%. Future work consists in the implementation of the model in real-time and the collection of more data with the aforementioned control approaches, in a way of constructing a more robust model.O AVC é uma das maiores causas de paralisia. Esta patologia, cada vez mais com maior incidência nos jovens, tem provocado um aumento considerável de pessoas com problemas de mobilidade. Com uma terapia focada a cada caso clínico, a recuperação total ou parcial pode ser conseguida. As ortóteses ativas têm vindo a ser desenvolvidas com o propósito de promover uma recuperação eficaz, baseada em treinos repetitivos e numa participação ativa dos utilizadores. Várias abordagens de controlo têm vindo a ser desenvolvidas para controlar estes dispositivos, mas nenhuma delas promove uma estratégia orientada às necessidades do utilizador. Na tentativa de solucionar este problema, uma nova abordagem, designada por Human-in-the-loop está a emergir. Baseada no custo energético, esta estratégia permite adaptar parâmetros da assistência, promovendo uma terapia focada e direcionada a cada utilizador. No entanto, para estimar o custo energético, recorre-se ao uso de sensores que não são adequados para contexto clínico. Assim, torna-se necessário estudar novas formas de estimar o custo energético. Nesta dissertação são apresentados os primeiros passos para introduzir o controlo Human-in-the-loop numa ortótese ativa. Para isso, duas estratégias foram apresentadas: uma estratégia que permite adaptar a trajetória angular da ortótese, em tempo real, e outra que promove a adaptação da complacência do sistema ao longo do ciclo da marcha. Ambas foram validadas com sujeitos saudáveis. Relativamente à primeira abordagem, a ortótese foi capaz de modificar a sua assistência em microssegundos, e os utilizadores foram capazes de a seguir com um erro mediano inferior a 10%. No que diz respeito à segunda abordagem, os resultados mostram que a ortótese promoveu uma alteração eficaz da complacência de interação, promovendo uma participação ativa do utilizador durante a sua assistência. O impacto energético do uso do sistema robótico é, também, apresentado. Promovendo um aumento do custo energético em mais de 30%, a necessidade da estratégia Human-in-the-loop foi realçada. Na tentativa de encontrar uma técnica para estimar o custo energético, recorreu-se ao uso de machine learning. Os resultados, obtidos com uma MLP e uma LSTM, provam que é possível estimar o custo energético com um erro médio próximo dos 11%. Trabalho futuro passa pela implementação do modelo em tempo real e a recolha de mais dados com as abordagens de controlo apresentadas, de forma a construir um modelo mais robusto

    Transition from endemic behavior to eradication of malaria due to combined drug therapies: an agent-model approach

    Get PDF
    We introduce an agent-based model describing a susceptible-infectious-susceptible (SIS) system of humans and mosquitoes to predict malaria epidemiological scenarios in realistic biological conditions. Emphasis is given to the transition from endemic behavior to eradication of malaria transmission induced by combined drug therapies acting on both the gametocytemia reduction and on the selective mosquito mortality during parasite development in the mosquito. Our mathematical framework enables to uncover the critical values of the parameters characterizing the effect of each drug therapy. Moreover, our results provide quantitative evidence of what is empirically known: interventions combining gametocytemia reduction through the use of gametocidal drugs, with the selective action of ivermectin during parasite development in the mosquito, may actively promote disease eradication in the long run. In the agent model, the main properties of human-mosquito interactions are implemented as parameters and the model is validated by comparing simulations with real data of malaria incidence collected in the endemic malaria region of Chimoio in Mozambique. Finally, we discuss our findings in light of current drug administration strategies for malaria prevention, that may interfere with human-to-mosquito transmission process.Comment: 12 pages, 6 figure

    Perspectivas de futuros professores de matemática sobre as suas aprendizagens num estudo de aula

    Get PDF
    We aim to identify what prospective mathematics teachers indicated that they learned regarding mathematics and mathematics teaching as they participated in a lesson study. The theoretical framework is supported by models about teachers’ knowledge and prospective teachers learning processes. The methodology is qualitative and interpretative, with data collected by interviews and documents made by participants. The participants indicated to understand the importance of different representations in mathematics. They also indicated to appreciate the value of the detailed planning of the lesson, the careful selection of tasks, the analysis of possible student strategies and difficulties, and the preparation of classroom communication.Nuestro objetivo es identificar lo que los futuros profesores de matemáticas indicaron que aprendieron con respecto a las matemáticas y la enseñanza de las matemáticas al participar en un estudio de clases. El marco teórico está respaldado por modelos sobre el conocimiento de los docentes y los procesos de aprendizaje de los futuros docentes. La metodología es cualitativa e interpretativa, con datos recogidos por entrevistas y documentos producidos por los participantes. Los participantes indicaron comprender la importancia de las diferentes representaciones en matemáticas. También indicaron apreciar el valor de la planificación detallada de la lección, la cuidadosa selección de tareas, el análisis de posibles estrategias y dificultades de los estudiantes, y la preparación de la comunicación en el aula.O nosso objetivo é identificar o que os futuros professores de Matemática indicaram que aprenderam em relação à Matemática e ao ensino de Matemática ao participarem de um estudo de aula. O referencial teórico é apoiado por modelos sobre o conhecimento dos professores e os processos de aprendizagem dos futuros professores. A metodologia é qualitativa e interpretativa, com dados recolhidos por meio de entrevistas e documentos realizados pelos participantes. Os participantes indicaram compreender a importância das diferentes representações em Matemática. Também indicaram apreciar o valor do planeamento detalhado da aula, a seleção cuidadosa de tarefas, a análise de possíveis estratégias e dificuldades dos alunos e a preparação da comunicação em sala de aula

    Impact of surgical face masks on exercise performance : effects of wearing surgical face masks on cardiorespiratory performance at intensities below and above the ventilatory threshold

    Get PDF
    Wearing facial masks has become part of our daily routine due to the recommendation of its use to prevent the spread the new coronavirus (SARS-CoV-2). Despite its use by healthy individuals does not affect performance in response to most daily tasks, this may not be the case during intense physical exercise. For this reason, we sought to examine the impact of wearing surgical face masks on performance during cycle-ergometry performed at intensity below and above the ventilatory threshold (VT). Sixteen men and sixteen women (ages: 24 ± 3.3 years) completed a maximal graded exercise test on a cycle ergometer to determine peak oxygen uptake and VT. Subsequently, on different days, all participants performed standardized protocols on a cycle ergometer (moderate intensity: 25% below VT; severe intensity: 25% above VT) in two different conditions (with and without a surgical face mask). Mask usage reduced oxygen uptake and minute ventilation in response to moderate and severe exercise (p < 0.0001), having a greater influence on the severe intensity. Time to exhaustion was also reduced by ~10% during severe exercise performed with a surgical face mask (p = 0.014). In contrast, heart rate and the respiratory exchange ratio remained unaffected by the mask condition. Finally, when comparing mean oxygen uptake obtained from 3 to 6 min vs. 7 to 10 min of moderate exercise, we found that wearing a surgical face mask did not affect the achievement of steady-state. Thus, taken together, we conclude that masking interferes with motor performance, reducing oxygen uptake during moderate and severe exercise. In addition, our data also indicate that the magnitude of interference is greater at higher exercise intensity. Ultimately, this may implicate a considerable impairment of structured or even unstructured strenuous physical activity.O uso de máscara facial tornou-se parte do nosso dia a dia após a sua recomendação como forma de prevenir a propagação de uma nova síndrome respiratória severa (SARS-CoV-2). Apesar do seu uso em indivíduos saudáveis não limitar as tarefas do quotidiano, o mesmo pode não ser dito no exercício físico, Desta forma, pretendeu-se examinar o impacto que o uso de máscara tem no desempenho em trabalho constante em ciclo ergómetro abaixo e acima do limiar ventilatório (VT). Dezasseis homens e dezasseis mulheres (idades: 24 ± 3.3), completou uma prova máxima de esforço em ciclo ergómetro para medir o consumo pico de oxigénio e o VT. Após isso, em dias diferentes os participantes realizaram protocolos estandardizados em ciclo ergómetro (regime moderado 25% abaixo, regime severo 25% acima do VT) em duas condições diferentes (com e sem máscara). O uso de máscara reduziu consumo de oxigénio e ventilação minuto durante o regime moderado e severo (p<0.0001, tendo uma influência maior no regime severo. Tempo até à exaustão foi também reduzido ~10% durante o uso de máscara em regime severo (p=0.014). Em contraste, nem a frequência cardíaca nem o quociente respiratório foi afetado pelo uso de máscara. A máscara não afetou a obtenção de steady-state em regime moderado ao se comparar 3-6min vs 7-10min..Com isto, concluímos que o uso de máscara interfere com tarefas motoras, reduzindo consumo de oxigénio durante regime moderado e severo, no entanto a magnitude de interferência é maior consoante a intensidade de trabalho. Por fim, pode implicar uma diminuição significativa no desempenho de atividades físicas vigorosas

    Custos pós-entrega: estudo de casos em empreendimentos de alto padrão na região metropolitana de florianópolis

    Get PDF
    TCC (graduação) - Universidade Federal de Santa Catarina. Centro Tecnológico. Engenharia Civil.Dada a relevância que a correção de manifestações patológicas possui na construção civil, objetiva-se sempre realizar a construção de uma edificação visando obter o melhor resultado final possível para que assim sejam minimizados os reparos necessários após a sua finalização. Estas manutenções após a entrega do empreendimento resultam em trabalho dobrado e custos despendidos pela construtora. O presente trabalho teve por objetivo realizar um levantamento e análise dos serviços prestados por uma construtora e os custos envolvidos com edificações após a entrega de dois empreendimentos até o mês de março de 2020, sendo um deles residencial e outro comercial, na Região Metropolitana de Florianópolis. Da mesma forma, também foram ser identificados os serviços de manutenção que ocorreram com maior frequência nos empreendimentos que compõem o estudo de caso, como também os custos após a entrega dos empreendimentos e a relação entre os custos e a quais serviços eles estão vinculados. Foram extraídos os dados das ordens de serviço realizadas pela construtora e executada uma análise dos serviços realizados, levando-se em consideração as manutenções feitas apenas nos apartamentos, no caso do empreendimento residencial, sendo que, com relação ao imóvel comercial, foram levantadas as manutenções feitas, tanto nas salas comerciais como na área comum do condomínio. Também, fez-se um levantamento das despesas obtidas nas manutenções dos empreendimentos, classificando-as de acordo com a finalidade com que os insumos obtidos foram usados. Com as análises feitas, concluiu-se que, para a edificação residencial, os reparos mais frequentes estiveram relacionados à inexistência de itens ou de algum tipo de acabamento nos apartamentos, enquanto o gasto foi maior com itens ou equipamentos que foram introduzidos ou substituídos nas áreas comuns do condomínio. No caso do empreendimento comercial, as manutenções mais prevalentes consistiram naquelas conectadas à regulagem de portas e as despesas mais onerosas à produção gráfica dos manuais entregues aos usuários do condomínio.Given the relevance that the correction of pathological manifestations has in civil construction, the objective is always, when carrying out the construction of a building, to obtain the best possible final result so the repairs will be not necessary after its completion. This maintenance after the delivery of the project results in double work and costs spent by the construction company. This work aims to carry out a survey and analysis of the services provided by a construction company and the costs involved with the buildings after the delivery of two enterprises until March 2020, one of which is residential and the other commercial, in the Florianópolis Metropolitan Region. In the same way, the maintenance services that occurred most frequently in the projects that make up the case study must also be identified, as well as the costs after the projects had been delivered and the relationship between costs and which services are linked to them. The data of the service orders performed by the construction company were extracted and an analysis of the services performed was carried out, taking into account the maintenances occurred only in apartments, in the case of the residential enterprise, and, about to with concerning to the commercial building, the maintenance carried out was raised, both in the commercial rooms as well as in the common area of the condominium. Also, a survey was made of the expenses obtained in the maintenance of the buildings, classifying them according to the purpose that the inputs obtained were used. With the analysis that had been done, it was concluded that, for the residential building, the most frequent repairs were related to the absence of items or some type of finish in the apartments, with the greater expense was with items or facilities that were introduced or replaced in the common areas of the condominium. In the case of the commercial enterprise, the most frequent maintenance was connected to the regulation of doors and the most expensive expenses to the graphic production of the manuals delivered to the users of the condominium

    Operational indicators for public transport companies

    Get PDF
    The Operational Indicators Board is a top level oriented module for mass transportcompanies. The proposal is to collect and to show the planning and control information tosupport the decision making process. In this extended abstract the authors describe theindicators identification process and discuss the main ideas for the module functionality.The authors acknowledge the financial support given by Agência de Inovação to theEUROBUS project in which the work here described is included
    corecore