47 research outputs found

    Expression and prognostic relevance of activated extracellular-regulated kinases (ERK1/2) in breast cancer

    Get PDF
    Extracellular-regulated kinases (ERK1, ERK2) play important roles in the malignant behaviour of breast cancer cells in vitro. In our present study, 148 clinical breast cancer samples (120 cases with follow-up data) were studied for the expression of ERK1, ERK2 and their phosphorylated forms p-ERK1 and p-ERK2 by immunoblotting, and p-ERK1/2 expression in corresponding paraffin sections was analysed by immunohistochemistry. The results were correlated with established clinical and histological prognostic parameters, follow-up data and expression of seven cell-cycle regulatory proteins as well as MMP1, MMP9, PAI-1 and AP-1 transcription factors, which had been analysed before. High p-ERK1 expression as determined by immunoblots correlated significantly with a low frequency of recurrences and infrequent fatal outcome (P=0.007 and 0.008) and was an independent indicator of long relapse-free and overall survival in multivariate analysis. By immunohistochemistry, strong p-ERK staining in tumour cells was associated with early stages (P=0.020), negative nodal status (P=0.003) and long recurrence-free survival (P=0.017). In contrast, expression of the unphosphorylated kinases ERK1 and ERK2 was not associated with clinical and histological prognostic parameters, except a positive correlation with oestrogen receptor status. Comparison with the expression of formerly analysed cell-cycle- and invasion-associated proteins corroborates our conclusion that activation of ERK1 and ERK2 is not associated with enhanced proliferation and invasion of mammary carcinomas

    Inborn and acquired metabolic defects in cancer

    Get PDF
    The observation that altered metabolism is the fundamental cause of cancer was made by Otto Warburg nearly a century ago. However, the subsequent identification of oncogenes and tumor suppressor genes has displaced Warburg's theory pointing towards genetic aberrations as the underlining cause of cancer. Nevertheless, in the last decade, cancer-associated mutations have been identified in genes coding for tricarboxylic acid cycle (TCA cycle, also known as Krebs cycle) and closely related enzymes that have essential roles in cellular metabolism. These observations have revived interest in Warburg's hypothesis and prompted a flurry of functional studies in the hope of gaining mechanistic insight into the links between mitochondrial dysfunction, metabolic alterations, and cancer. In this review, we discuss the potential pro-oncogenic signaling role of some TCA cycle metabolites and their derivatives (oncometabolites). In particular, we focus on their effects on dioxygenases, a family of oxygen and α-ketoglutarate-dependent enzymes that control, among other things, the levels and activity of the hypoxia-inducible transcription factors and the activity of DNA and histone demethylases

    Recent advances in the genetics of SDH-related paraganglioma and pheochromocytoma

    Get PDF
    The last 10 years have seen enormous progress in the field of paraganglioma and pheochromocytoma genetics. The identification of the first gene related to paraganglioma, SDHD, encoding a subunit of mitochondrial succinate dehydrogenase (SDH), was quickly followed by the identification of mutations in SDHC and SDHB. Very recently several new SDH-related genes have been discovered. The SDHAF2 gene encodes an SDH co-factor related to the function of the SDHA subunit, and is currently exclusively associated with head and neck paragangliomas. SDHA itself has now also been identified as a paraganglioma gene, with the recent identification of the first mutation in a patient with extra-adrenal paraganglioma. Another SDH-related co-factor, SDHAF1, is not currently known to be a tumor suppressor, but may shed some light on the mechanisms of tumorigenesis. An entirely novel gene associated with adrenal pheochromocytoma, TMEM127, suggests that other new paraganglioma susceptibility genes may await discovery. In addition to these recent discoveries, new techniques related to mutation analysis, including genetic analysis algorithms, SDHB immunohistochemistry, and deletion analysis by MLPA have improved the efficiency and accuracy of genetic analysis. However, many intriguing questions remain, such as the striking differences in the clinical phenotype of genes that encode proteins with an apparently very close functional relationship, and the lack of expression of SDHD and SDHAF2 mutations when inherited via the maternal line. Little is still known of the origins and causes of truly sporadic tumors, and the role of oxygen in the relationships between high-altitude, familial and truly sporadic paragangliomas remains to be elucidated

    Lawson criterion for ignition exceeded in an inertial fusion experiment

    Get PDF
    For more than half a century, researchers around the world have been engaged in attempts to achieve fusion ignition as a proof of principle of various fusion concepts. Following the Lawson criterion, an ignited plasma is one where the fusion heating power is high enough to overcome all the physical processes that cool the fusion plasma, creating a positive thermodynamic feedback loop with rapidly increasing temperature. In inertially confined fusion, ignition is a state where the fusion plasma can begin "burn propagation" into surrounding cold fuel, enabling the possibility of high energy gain. While "scientific breakeven" (i.e., unity target gain) has not yet been achieved (here target gain is 0.72, 1.37 MJ of fusion for 1.92 MJ of laser energy), this Letter reports the first controlled fusion experiment, using laser indirect drive, on the National Ignition Facility to produce capsule gain (here 5.8) and reach ignition by nine different formulations of the Lawson criterion

    Grüne Datenbanken : Analyse und Optimierung des Energieverbrauches von Datenbanken für sehr große Datenbestände

    No full text
    Die zunehmende Verbreitung des Internets als universelles Netzwerk zum Transport von Daten aller Art hat in den letzten zwei Dekaden dazu geführt, dass die anfallenden Datenmengen von traditionellen Datenbanksystemen kaum mehr effektiv zu verarbeiten sind. Das liegt zum einen darin, dass ein immer größerer Teil der Erdbevölkerung Zugang zum Internet hat, zum Beispiel via Internet-fähigen Smartphones, und dessen Dienste nutzen möchte. Zudem tragen immer höhere verfügbare Bandbreiten für den Internetzugang dazu bei, dass die weltweit erzeugten Informationen mittlerweile exponentiell steigen. Das führte zur Entwicklung und Implementierung von Technologien, um diese immensen Datenmengen wirksam verarbeiten zu können. Diese Technologien können unter dem Sammelbegriff "Big Data" zusammengefasst werden und beschreiben dabei Verfahren, um strukturierte und unstrukturierte Informationen im Tera- und Exabyte-Bereich sogar in Echtzeit verarbeiten zu können. Als Basis dienen dabei Datenbanksysteme, da sie ein bewährtes und praktisches Mittel sind, um Informationen zu strukturieren, zu organisieren, zu manipulieren und effektiv abrufen zu können. Wie bereits erwähnt, hat sich herausgestellt, dass traditionelle Datenbanksysteme, die auf dem relationalen Datenmodell basieren, nun mit Datenmengen konfrontiert sind, mit denen sie nicht sehr gut hinsichtlich der Performance und dem Energieverbrauch skalieren. Dieser Umstand führte zu der Entwicklung von spezialisierten Datenbanksystemen, die andere Daten- und Speichermodelle implementieren und für diese eine deutlich höhere Performance bieten. Zusätzlich erfordern Datenbanksysteme im Umfeld von "Big Data" wesentlich größere Investitionen in die Anzahl von Servern, was dazu geführt hat, dass immer mehr große und sehr große Datenverarbeitungszentren entstanden sind. In der Zwischenzeit sind die Aufwendungen für Energie zum Betrieb und Kühlen dieser Zentren ein signifikanter Kostenfaktor geworden. Dementsprechend sind bereits Anstrengungen unternommen worden, das Themenfeld Energieeffizienz (die Relation zwischen Performance und Energieverbrauch) von Datenbanksystemen eingehender zu untersuchen. Mittlerweile sind über 150 Datenbanksysteme bekannt, die ihre eigenen Stärken und Schwächen in Bezug auf Performance, Energieverbrauch und schlussendlich Energieeffizienz haben. Die Endanwender von Datenbanksystemen sehen sich nun in der schwierigen Situation, für einen gegebenen Anwendungsfall das geeigneteste Datenbanksystem in Hinblick auf die genannten Faktoren zu ermitteln. Der Grund dafür ist, dass kaum objektive und unabhängige Vergleichszahlen zur Entscheidungsfindung existieren und dass die Ermittlung von Vergleichszahlen zumeist über die Ausführung von Benchmarks auf verschiedensten technischen Plattformen geschieht. Es ist offensichtlich, dass die mehrfache Ausführung eines Benchmarks mit unterschiedlichsten Parametern (unter anderem die Datenmenge, andere Kombinationen aus technischen Komponenten, Betriebssystem) große Investitionen in Zeit und Technik erfordern, um möglichst breit gefächerte Vergleichszahlen zu erhalten. Eine Möglichkeit ist es, die Ausführung eines Benchmarks zu simulieren anstatt ihn real zu absolvieren, um die Investitionen in Technik und vor allem Zeit zu minimieren. Diese Simulationen haben auch den Vorteil, dass zum Beispiel die Entwickler von Datenbanksystemen die Auswirkungen auf Performance und Energieeffizienz bei der Änderungen an der Architektur simulieren können anstatt sie durch langwierige Regressionstests evaluieren zu müssen. Damit solche Simulationen eine praktische Relevanz erlangen können, muss natürlich die Differenz zwischen den simulierten und den real gewonnenen Vergleichsmetriken möglichst klein sein. Zudem muss eine geeignete Simulation eine möglichst große Anzahl an Datenbanksystemen und technischen Komponenten nachstellen können. Die vorliegende Dissertation zeigt, dass eine solche Simulation realistisch ist. Dafür wurde in einem ersten Schritt die Einflussaktoren auf Performance, Energieverbrauch und Energieeffizienz eines Datenbanksystems ermittelt und deren Wirkung anhand von experimentellen Ergebnissen bestimmt. Zusätzlich wurden auch geeignete Metriken und generelle Eigenschaften von Datenbanksystemen und von Benchmarks evaluiert. In einem zweiten Schritt wurde dann ein geeignetes Simulationsmodell erarbeitet und sukzessiv weiterentwickelt. Bei jedem Entwicklungsschritt wurden dann reale Experimente in Form von Benchmarkausführungen für verschiedenste Datenbanksysteme und technische Plattformen durchgeführt. Diese Experimente wurden mittels des Simulationsmodells nachvollzogen, um die Differenz zwischen realen und simulierten Benchmarkergebnissen zu berechnen. Die Ergebnisse des letzten Entwicklungsschrittes zeigen, dass diese Differenz unter acht Prozent liegt. Die vorliegende Dissertation zeigt auch, dass das Simulationsmodell nicht nur dazu geeignet ist, anerkannte Benchmarks zu simulieren, sondern sich im allgemeinen auch dafür eignet, ein Datenbanksystem und die technische Plattform, auf der es ausgeführt wird, generell zu simulieren. Das ermöglicht auch die Simulation anderer Anwendungsfälle, zum Beispiel Regressionstests
    corecore