23 research outputs found

    Image Thresholding Technique Based On Fuzzy Partition And Entropy Maximization

    Get PDF
    Thresholding is a commonly used technique in image segmentation because of its fast and easy application. For this reason threshold selection is an important issue. There are two general approaches to threshold selection. One approach is based on the histogram of the image while the other is based on the gray scale information located in the local small areas. The histogram of an image contains some statistical data of the grayscale or color ingredients. In this thesis, an adaptive logical thresholding method is proposed for the binarization of blueprint images first. The new method exploits the geometric features of blueprint images. This is implemented by utilizing a robust windows operation, which is based on the assumption that the objects have "e;C"e; shape in a small area. We make use of multiple window sizes in the windows operation. This not only reduces computation time but also separates effectively thin lines from wide lines. Our method can automatically determine the threshold of images. Experiments show that our method is effective for blueprint images and achieves good results over a wide range of images. Second, the fuzzy set theory, along with probability partition and maximum entropy theory, is explored to compute the threshold based on the histogram of the image. Fuzzy set theory has been widely used in many fields where the ambiguous phenomena exist since it was proposed by Zadeh in 1965. And many thresholding methods have also been developed by using this theory. The concept we are using here is called fuzzy partition. Fuzzy partition means that a histogram is parted into several groups by some fuzzy sets which represent the fuzzy membership of each group because our method is based on histogram of the image . Probability partition is associated with fuzzy partition. The probability distribution of each group is derived from the fuzzy partition. Entropy which originates from thermodynamic theory is introduced into communications theory as a commonly used criteria to measure the information transmitted through a channel. It is adopted by image processing as a measurement of the information contained in the processed images. Thus it is applied in our method as a criterion for selecting the optimal fuzzy sets which partition the histogram. To find the threshold, the histogram of the image is partitioned by fuzzy sets which satisfy a certain entropy restriction. The search for the best possible fuzzy sets becomes an important issue. There is no efficient method for the searching procedure. Therefore, expansion to multiple level thresholding with fuzzy partition becomes extremely time consuming or even impossible. In this thesis, the relationship between a probability partition (PP) and a fuzzy C-partition (FP) is studied. This relationship and the entropy approach are used to derive a thresholding technique to select the optimal fuzzy C-partition. The measure of the selection quality is the entropy function defined by the PP and FP. A necessary condition of the entropy function arriving at a maximum is derived. Based on this condition, an efficient search procedure for two-level thresholding is derived, which makes the search so efficient that extension to multilevel thresholding becomes possible. A novel fuzzy membership function is proposed in three-level thresholding which produces a better result because a new relationship among the fuzzy membership functions is presented. This new relationship gives more flexibility in the search for the optimal fuzzy sets, although it also increases the complication in the search for the fuzzy sets in multi-level thresholding. This complication is solved by a new method called the "e;Onion-Peeling"e; method. Because the relationship between the fuzzy membership functions is so complicated it is impossible to obtain the membership functions all at once. The search procedure is decomposed into several layers of three-level partitions except for the last layer which may be a two-level one. So the big problem is simplified to three-level partitions such that we can obtain the two outmost membership functions without worrying too much about the complicated intersections among the membership functions. The method is further revised for images with a dominant area of background or an object which affects the appearance of the histogram of the image. The histogram is the basis of our method as well as of many other methods. A "e;bad"e; shape of the histogram will result in a bad thresholded image. A quadtree scheme is adopted to decompose the image into homogeneous areas and heterogeneous areas. And a multi-resolution thresholding method based on quadtree and fuzzy partition is then devised to deal with these images. Extension of fuzzy partition methods to color images is also examined. An adaptive thresholding method for color images based on fuzzy partition is proposed which can determine the number of thresholding levels automatically. This thesis concludes that the "e;C"e; shape assumption and varying sizes of windows for windows operation contribute to a better segmentation of the blueprint images. The efficient search procedure for the optimal fuzzy sets in the fuzzy-2 partition of the histogram of the image accelerates the process so much that it enables the extension of it to multilevel thresholding. In three-level fuzzy partition the new relationship presentation among the three fuzzy membership functions makes more sense than the conventional assumption and, as a result, performs better. A novel method, the "e;Onion-Peeling"e; method, is devised for dealing with the complexity at the intersection among the multiple membership functions in the multilevel fuzzy partition. It decomposes the multilevel partition into the fuzzy-3 partitions and the fuzzy-2 partitions by transposing the partition space in the histogram. Thus it is efficient in multilevel thresholding. A multi-resolution method which applies the quadtree scheme to distinguish the heterogeneous areas from the homogeneous areas is designed for the images with large homogeneous areas which usually distorts the histogram of the image. The new histogram based on only the heterogeneous area is adopted for partition and outperforms the old one. While validity checks filter out the fragmented points which are only a small portion of the whole image. Thus it gives good thresholded images for human face images

    Spectral analysis and resolving spatial ambiguities in human sound localization

    Get PDF
    This dissertation provides an overview of my research over the last five years into the spectral analysis involved in human sound localization. The work involved conducting psychophysical tests of human auditory localization performance and then applying analytical techniques to analyze and explain the data. It is a fundamental thesis of this work that human auditory localization response directions are primarily driven by the auditory localization cues associated with the acoustic filtering properties of the external auditory periphery, i.e., the head, torso, shoulder, neck, and external ears. This work can be considered as composed of three parts. In the first part of this work, I compared the auditory localization performance of a human subject and a time-delay neural network model under three sound conditions: broadband, high-pass, and low-pass. A “black-box” modeling paradigm was applied. The modeling results indicated that training the network to localize sounds of varying center-frequency and bandwidth could degrade localization performance results in a manner demonstrating some similarity to human auditory localization performance. As the data collected during the network modeling showed that humans demonstrate striking localization errors when tested using bandlimited sound stimuli, the second part of this work focused on human sound localization of bandpass filtered noise stimuli. Localization data was collected from 5 subjects and for 7 sound conditions: 300 Hz to 5 kHz, 300 Hz to 7 kHz, 300 Hz to 10 kHz, 300 Hz to 14 kHz, 3 to 8 kHz, 4 to 9 kHz, and 7 to 14 kHz. The localization results were analyzed using the method of cue similarity indices developed by Middlebrooks (1992). The data indicated that the energy level in relatively wide frequency bands could be driving the localization response directions, just as in Butler’s covert peak area model (see Butler and Musicant, 1993). The question was then raised as to whether the energy levels in the various frequency bands, as described above, are most likely analyzed by the human auditory localization system on a monaural or an interaural basis. In the third part of this work, an experiment was conducted using virtual auditory space sound stimuli in which the monaural spectral cues for auditory localization were disrupted, but the interaural spectral difference cue was preserved. The results from this work showed that the human auditory localization system relies primarily on a monaural analysis of spectral shape information for its discrimination of directions on the cone of confusion. The work described in the three parts lead to the suggestion that a spectral contrast model based on overlapping frequency bands of varying bandwidth and perhaps multiple frequency scales can provide a reasonable algorithm for explaining much of the current psychophysical and neurophysiological data related to human auditory localization

    Cofactors revisited – Predicting the impact of flavoprotein-related diseases on a genome scale

    Get PDF
    Flavin adenine dinucleotide (FAD) and its precursor flavin mononucleotide (FMN) are redox cofactors that are required for the activity of more than hundred human enzymes. Mutations in the genes encoding these proteins cause severe phenotypes, including a lack of energy supply and accumulation of toxic intermediates. Ideally, patients should be diagnosed before they show symptoms so that treatment and/or preventive care can start immediately. This can be achieved by standardized newborn screening tests. However, many of the flavin-related diseases lack appropriate biomarker profiles. Genome-scale metabolic models can aid in biomarker research by predicting altered profiles of potential biomarkers. Unfortunately, current models, including the most recent human metabolic reconstructions Recon and HMR, typically treat enzyme-bound flavins incorrectly as free metabolites. This in turn leads to artificial degrees of freedom in pathways that are strictly coupled. Here, we present a reconstruction of human metabolism with a curated and extended flavoproteome. To illustrate the functional consequences, we show that simulations with the curated model – unlike simulations with earlier Recon versions - correctly predict the metabolic impact of multiple-acyl-CoA-dehydrogenase deficiency as well as of systemic flavin-depletion. Moreover, simulations with the new model allowed us to identify a larger number of biomarkers in flavoproteome-related diseases, without loss of accuracy. We conclude that adequate inclusion of cofactors in constraint-based modelling contributes to higher precision in computational predictions.</p

    Abschlussbericht im Projekt Entwicklung und Erprobung eines wissenschaftlich fundierten Verfahrens zur einheitlichen Bemessung des Personalbedarfs in Pflegeeinrichtungen nach qualitativen und quantitativen Maßstäben gemäß §113c SGB XI (PeBeM)

    Get PDF
    Mit dem zweiten Pflegestärkungsgesetz (PSG II) hat der Bundesgesetzgeber die Vertragsparteien nach §113 SGB XI beauftragt, im Einvernehmen mit dem Bundesministerium für Gesundheit und dem Bundesministerium für Familie, Senioren, Frauen und Jugend die Entwicklung und Erprobung eines wissenschaftlich fundierten Verfahrens zur einheitlichen Bemessung des Personalbedarfs in Pflegeeinrichtungen nach qualitativen und quantitativen Maßstäben sicherzustellen. Die Entwicklung und Erprobung ist bis zum 30. Juni 2020 abzuschließen. Nach der Vorgabe des Gesetzgebers ist ein strukturiertes, empirisch abgesichertes und valides Verfahren für die Personalbemessung in Pflege-einrichtungen auf der Basis des durchschnittlichen Versorgungsaufwands für direkte und indirekte pflegerische Maßnahmen sowie für Hilfen bei der Haushaltsführung unter Berücksichtigung der fachlichen Ziele und Konzeption des neuen Pflegebedürftigkeitsbegriffs zu erstellen. Hierzu sind einheitliche Maßstäbe zu ermitteln, die insbesondere Qualifikationsanforderungen, quantitative Bedarfe und die fachliche Angemessenheit der Maßnahmen berücksichtigen. Der Auftrag für die Entwicklung und Erprobung wurde an die Universität Bremen vergeben. Nach dem mit den Auftraggebern abgestimmten Projektzeitplan sind beide Projektteilefristgerecht mit Vorlage des nachfolgenden Ab-schlussberichts abgeschlossen worden. Zur Bestimmung fachlich angemessener Personalmengen und -strukturen im voll- und teilstationären Sektor war ein analytischer Zugang zwingend, bei dem festgelegt wird, welche Pflegepersonal-mengen in welchem Qualifikationsmix für eine fachgerechte Leistungserbringung notwendig sind. Um derartige SOLL-Zahlen zu ermitteln, wurden die drei Dimensionen der Leistungserbringung – die fachlich angemessene Zahl der Interventionen pro pflegebedürftiger Person, die fachlich angemessene Zeit pro Interventionserbringung für den entsprechenden Bewohner bzw. die entsprechende Bewohnerin und das fachlich angemessene Qualifikationsniveau der leistungserbringenden Person für diese Intervention –analytisch unterschieden. Die Projektkonzeption sah dabei vor, jeweils interventionsbezogen das IST zu messen und simultan zu prüfen, inwieweit für eine fachlich angemessene Versorgung auf Grundlage des Pflegeverständnisses des neuen Pflegebedürftigkeitsbegriffshierbei Zu- oder Abschläge (bei Mengen, Zeit und/oder Qualifikationsniveau) notwendig sind. Diese Zu- und Abschläge wurden als Deltabezeichnet und dazu verwendet, durch Addition mit den gemessenen IST-Werten die SOLL-Werte einer fachlich angemessenen Versorgung zu konstruieren. Für jede dieser Interventionen wurden daher fachlich gesetzte Teilschritte und Anforderungen sowie Qualifikations-anforderungen festgelegt, bei denen für jede*n Pflegebedürftige*n eine Individualisierung in Abhängigkeit von der im Rahmen des Begutachtungsinstrumentes abgebildeten Art und dem Ausmaß der Pflegebedürftigkeit erfolgte. Je nach individuellem Begutachtungsergebnis wurden also für jede*n Pflegebedürftige*n entsprechend differenzierte Notwendigkeiten einer fachgerechten Leistungserbringung definiert. Die Datenerhebung erfolgte durch 241 speziell auf die konsentierten Erhebungs-instrumente geschulte Pflegefachpersonen in einer „Beschattung“, also einer eins-zu-eins-Zuordnung zwischen den leistungserbringenden Pflegekräften der Einrichtungen und den Datenerhebenden. Von April bis Oktober 2018 wurden Datenerfassungen in insgesamt 62vollstationären Erhebungseinheiten und 7 teilstationären Einrichtungen unter der Beteiligung von insgesamt 1.380Bewoh-ner*innen und 163Tagespflegegästen durchgeführt. Ein wesentlicher Aspekt bei der Entwicklung der SOLL-Werte war die vom Gesetzgeber gewünschte Berücksichtigung der fachlichen Ziele und Konzeption des neuen Pflegebedürftigkeitsbegriffs, um die Umsetzung in der Praxis weiter zu befördern. Ein zusätzlicher Schwerpunkt der Datenerhebung wurde deshalb auf die doppelte Betrachtung von Interaktionsarbeit gelegt. Einerseits wurden die Teile der Interaktionsarbeit, die innerhalb der direkten Pflegeinterventionen regelmäßig fachlich notwendiger Teil der Leistungserbringung sind, in die Formulierung der interventionsspezifischen Teil-schritte und Anforderungen aufgenommen. Von den Datenerhebenden konnte also bei jeder Leistungserbringung die Bedarfsgerechtigkeit der Interaktionsarbeit mitbewertet werden. Andererseits wurde als eigener Studienteil eine Beobachtungs- und Interviewstudie durchgeführt, in der alle Aspekte der Interaktionsarbeit –somit auch die in Interventionen nicht zu beobachtenden Teile wie Selbstreflexion und Bewältigung –erforscht wurden. Damit wurde dem Gesetzgeber gefolgt, der klargestellt hat, dass es nicht das Ziel ist, die Leistungserbringung unter den gegenwärtigen Rahmenbedingungen fortzuschreiben, sondern dass das Personalbemessungsverfahren bereits fachliche Entwicklungen in der Pflege berücksichtigen soll, die in der gegenwärtigen Praxis noch nicht umfassend gelebt werden (können). Dieser Ansatz führt dazu, dass ein deutlich höherer Personalbedarf ermittelt wird als es bei einer klassischen Aufwandsstudie der Fall wäre. Denn mit dem Personalbemessungs-verfahren wird zugleich die „Pflege der Zukunft“ beschrieben. Gleichzeitig ist zu berücksichtigen, dass die Aufwandserfassung in der gegenwärtigen Praxis erfolgt und deren Fortschreibung in die Zukunft auch die Fortschreibung bestehender Organisationsstrukturen und ggf. bestehender Ineffizienzen in der indirekten Pflege impliziert. Diese beiden Aspekte sollten als Kernpunkte bei der Konzeption und Umsetzung einer modellhaften Einführung berücksichtigt werden, so dass im Rahmen der modell-haften Einführung sichergestellt werden kann, dass die mit dem Pflegebedürftigkeitsbegriff initiierte fachliche Entwicklung fortschreitet und eine hierauf bezogene Arbeits- und Organisationsentwicklung so stattfindet, dass bestehende Ineffizienzen in der Versorgung, in den betrieblichen Abläufen und beim Personaleinsatz reduziert werden. Als Ergebnis des Projektes wird für den vollstationären und teilstationären Sektor ein Personalbemessungsinstrument vorgelegt, mit dem die fachlich angemessene Personalmenge für die Bewohnerschaft einer Einrichtung nach Qualifikationsniveaus differenziert ausgewiesen wird. Für den voll-stationären Sektor wird der zukünftige Einsatz des Instrumentes wissenschaftlich empfohlen. Für den teilstationären Sektor wird weiterer Forschungsbedarf festgestellt, der vor allem darin begründet ist, dass in diesem Leistungsbereich die Leistungsdefinition und -abgrenzung zurzeit wesentlich dynamischer ist. Es wird daher empfohlen die Einführung im teilstationären Sektor zurückzustellen. Die Berechnung erfolgt unter Einsatz eines als Algorithmus 1.0 bezeichneten mathematischen Modells, dessen Parametrisierung auf Basis der empirisch erhobenen fachgerechten SOLL-Werte erfolgt ist. Im Algorithmus wird die bisher für alle Einrichtungen geltende einheitliche Fachkraftquote durch einrichtungsindividuelle Personalmengen und -mixe ersetzt. Möglich ist dabei sowohl eine Berechnung nach Pflegegraden als auch nach anderen Klassierungen von Pflegebedürftigen. Die Pflegegradeweisen dabei eine so hohe Voraussagekraft (Prädiktionskraft)in Bezug auf die fachlich angemessene Personalmenge auf, dass eine differenziertere Klassierung nicht zu nennenswert besseren Vorher-sagen führt. Es wird daher empfohlen, für den Praxiseinsatz auf eine Klassierung nach Pflegegraden zurückzugreifen. Die Ergebnisse zeigen –im Verhältnis zur heutigen Personalausstattung der Pflegeeinrichtungen –durchgehend Pflegepersonalmehrbedarfe. Diese Personalmehrbedarfe sind dabei einrichtungsindividuell abhängig vom Bewohnermix und der Ausgangspersonalausstattung. Nach Qualifikationsniveaus differenziert entstehen hier sehr unterschiedliche Effekte: Während sich für Fachkräfte ein nur geringer durchschnittlicher Personalmehrbedarf zeigt, ist dieser für Assistenzkräfte erheblich. Die stärksten Effekte zeigen sich dabei für die Pflegekräfte mit ein- oder zweijährigen Ausbildungen nach Landesrecht (QN 3). Für den teilstationären Sektor ist der Personalmehrbedarf deutlich geringer aus-geprägt. Die Entwicklung eines mit dem für den stationären Bereich methodisch vergleichbaren Personalbemessungsverfahrens für ambulante Pflegeeinrichtungen ist in dieser Form nicht möglich, da sich Art und Ausmaß der Hilfen vor allem danach richten, welche Hilfen in einem Pflegehaushalt von diesem für wichtig und relevant erachtet werden und nicht notwendigerweise nach einem objektiv feststellbaren Bedarf. Von wissenschaftlicher Seite wurde bereits mit dem zweiten Zwischenbericht empfohlen, eine modellhafte Einführung des Algorithmus 1.0 unter Realbedingungendurchzuführen, die von einer Organisations- und Personalentwicklung begleitet wird, um die durch die Personalmehrung ermöglichte Entlastung der Pflegepersonen und Qualitätssteigerung für Pflegebedürftige zu optimieren. Diese modellhafte Einführung des Algorithmus sollte –so die wissenschaftliche Empfehlung –mit einem parallelen stufenweisen Aufwuchs von Stellen insbesondere für Assistenzkräfte für alle Pflegeeinrichtungen verbunden werden. Beide Schritte wurden im Rahmen der sich an die Entwicklung an-schließenden Erprobungsphase bereits auf ihre Umsetzbarkeit hin konzeptionell überprüft. In der konzeptionellen Erprobung teilten die befragten Expert*innen überwiegend die Einschätzung, dass das Konzept des Personalbemessungsinstrumentes sinnvoll in Bezug auf eine bedarfsgerechte Personalausstattung umsetzbar ist. Je nach fachlicher Perspektive wurde dabei eine Vielzahl von Anforderungen an die Einführung benannt, die entweder zu einer effizienten Umsetzung oder zu einer Verfeinerung des Bemessungsverfahrens als erforderlich angesehen werden. Den Erprobungsergebnissen folgend ist die Umsetzung der empfohlenen Einführungsphase somit sowohl zur Definition und Schaffung von Rahmenbedingungen des Personaleinsatzes geeignet, als auch zur Generierung weiterer Erkenntnisse, die eine zukünftige Verfeinerung und Aktualisierung des Personalbemessungs-instrumentes ermöglichen. So zeigen die in der Studie mit Hilfe des Algorithmus 1.0 für die teil- und vollstationären Sektoren ermittelten Personalmehrbedarfe den zukünftigen Fach- und Assistenzkräftebedarf unter Annahme unveränderter Organisationsstrukturen. Die Einführung des Personalbemessungsverfahrens entsprechend der wissenschaftlichen Empfehlungen kann im Rahmen einer modellhaften Einführung weitere Erkenntnisse dazu liefern, wie die pflegerische Langzeitversorgung der Zukunft aussehen soll und kann zu Weiterentwicklungen und ggf. Verfeinerungen des Algorithmus führen. Dabei können insbesondere zwei Ergänzungen realisiert werden, die bisher Limitationen der Studie darstellen: mögliche Effizienzgewinne in der indirekten Pflege aufgrund der dann veränderten Organisationsstrukturen sowie weitere fachlich ergänzende Faktoren, die sich insbesondere durch eine fortschreitende Ausgestaltung des neuen Pflegeverständnisses ergeben. Maßstäbe für eine Weiterentwicklung des Algorithmus sind dabei eine qualitativ angemessene Versorgung und ein adäquater Personaleinsatz im Rahmen einer mitarbeiterorientiert gestalteten, effizienten Betriebsorganisation bei der die Pflege-kräfte kompetenzorientiert eingesetzt werden. Bei der Frage nach der Deckung des zukünftigen Personalbedarfs sind auch die Entwicklungen in an-deren Bereichen, die Einfluss auf die tatsächliche Personalverfügbarkeit und die Attraktivität des Berufsbildes haben, zu berücksichtigen. Hier sind insbesondere die Maßnahmen der Konzertierten Aktion Pflege zu nennen, die sich in ihren Wirkungen gegenwärtig noch schwer quantifizieren lassen, die aber ein großes Potential für die Verbesserung der Arbeits- und Ausbildungsbedingungen und aufgrund dessen für ein höheres Arbeitskräfteangebot bieten, sowie Produktivitätsfortschritte z.B. durch Maßnahmen der Digitalisierung

    Transcriptome analysis suggests a compensatory role of the cofactors coenzyme A and NAD+ in medium-chain acyl-CoA dehydrogenase knockout mice

    No full text
    During fasting, mitochondrial fatty-acid β-oxidation (mFAO) is essential for the generation of glucose by the liver. Children with a loss-of-function deficiency in the mFAO enzyme medium-chain acyl-Coenzyme A dehydrogenase (MCAD) are at serious risk of life-threatening low blood glucose levels during fasting in combination with intercurrent disease. However, a subset of these children remains asymptomatic throughout life. In MCAD-deficient (MCAD-KO) mice, glucose levels are similar to those of wild-type (WT) mice, even during fasting. We investigated if metabolic adaptations in the liver may underlie the robustness of this KO mouse. WT and KO mice were given a high- or low-fat diet and subsequently fasted. We analyzed histology, mitochondrial function, targeted mitochondrial proteomics, and transcriptome in liver tissue. Loss of MCAD led to a decreased capacity to oxidize octanoyl-CoA. This was not compensated for by altered protein levels of the short- and long-chain isoenzymes SCAD and LCAD. In the transcriptome, we identified subtle adaptations in the expression of genes encoding enzymes catalyzing CoA- and NAD(P)(H)-involving reactions and of genes involved in detoxification mechanisms. We discuss how these processes may contribute to robustness in MCAD-KO mice and potentially also in asymptomatic human subjects with a complete loss of MCAD activity

    Sorting of lyophilisomes by fluorescence-activated cell sorting.

    No full text
    <p>a/b) A representative size distribution of the initial lyophilisome population (a) and sorted lyophilisomes (b) is depicted, showing smaller lyophilisomes after sorting. Note the difference in x and y axes. c) Initial lyophilisome population depicted in a FACS dot plot with forward (size)/FITC-positive lyophilisome (FL1 channel) scatter where gated FITC-positive lyophilisomes were sorted. d) After sorting, the scatter showed merely small lyophilisomes, as large lyophilisomes were removed.</p

    Schematic illustration of the conjugation of the cell-penetrating peptide (CPP) TAT to lyophilisomes.

    No full text
    <p>(1) Primary amine groups of lyophilisomes react with Sulfo-GMBS introducing reactive maleimide groups. (2) CPPs (cysteine-functionalized TAT-peptides; C-Ahx-YGRKKRRQRRR) are conjugated to maleimide-conjugated lyophilisomes, resulting in stable CPP-conjugated lyophilisomes. Sulfo-GMBS  =  sulfo-<i>N</i>-[γ-maleimidobutyryloxy]sulfo succinimide ester; Ahx  =  aminohexanoic acid; TAT  =  trans-activating transcriptional activator.</p
    corecore