106 research outputs found

    Sysplex-Cluster-Technologien für Hochleistungs-Datenbanken

    Get PDF
    Wir stellen die Cluster-Architektur IBM Parallel Sysplex und ihren Einsatz zur Datenbank- und Transaktionsverarbeitung vor. Die Sysplex-Architektur ermöglicht die Nutzung von bis zu 32 Mehrprozessor-Großrechnern auf einem gemeinsamen Datenbestand, ohne Modifikation bestehender Anwendungen. Eine wesentliche Komponente ist die sogenannte Coupling Facility (CF), in der allen Rechnern zugängliche globale Datenstrukturen und globale Pufferbereiche verwaltet werden. Wir diskutieren, wie mit einer solchen „nahen“ Rechnerkopplung leistungskritische Cluster-Aufgaben zur Synchronisation und Kohärenzkontrolle gelöst werden. Leistungsuntersuchungen zeigen eine hohe Skalierbarkeit der Sysplex-Performance in praktischen Einsatzfällen

    Web-based image distribution of radiological images : performance measurements and definition of hardware requirements

    Get PDF
    Meßmethodik für Anzeigezeiten Unsere Ergebnisse zeigen, daß die auf dem Auslesen von Bildschirmpixeln basierende Methode 3 sehr stabil läuft und leicht zu interpretierende Resultate liefert. In dieser Hinsicht ist sie allen anderen Methoden überlegen. Der Zusatzaufwand der Softwareentwicklung machte sich bezahlt. Die auf Leistungsindikatoren (perfmon) basierende Methode 1 wird für Vortests empfohlen. Sie ist leicht zu implementieren, allerdings sind die Ergebnisse schwerer auszuwerten. Zusätzlich kann jedoch die Analyse von Leistungsindikatoren interessante Einblicke in die inneren Abläufe des BVS liefern. Phototransistoren (Methode 2) können angewendet werden, um jeden Einfluß auf das gemessene System auszuschließen. Ergebnisse der Messungen Unsere Ergebnisse zeigen, daß bei der Einführung eines Bildverteilungssystems der pro Zeiteinheit auf den Server übertragenen Datenmenge besondere Beachtung geschenkt werden muß. Folgende Aussagen gehen von einer maximalen Anzeigezeit von 5 Sekunden aus, die für klinische Anwendungen als ausreichend erachtet wird. 1. Hochleistungsfähige Hardware ist auf dem Klient-PC nicht nötig. 2. Rechner, die älter als ein Pentium II mit 350 MHz sind, sollten nur für gelegentliches Nachschlagen verwendet werden. In diesem Fall sollte verlustbehaftete Sekundärkompression verwendet werden, die Auflösung sollte 1280 x 1024 Pixel nicht überschreiten. 3. Auf schnelleren PCs sollte verlustbehaftete Sekundärkompression nur dann verwendet werden, wenn die verfügbare Netzwerkbandbreite unterhalb von 10 Mbit/s liegt. Generell sind 128 MB Arbeitsspeicher oder mehr zu bevorzugen und eine Bildschirmauflösung über 1280 x 1024 kann verwendet werden. 4. Windows 2000 ist auf modernen Rechnern (>PII/350MHz) Windows NT überlegen, auf älteren Rechnern ist Windows NT schneller. Daraus ist abzuleiten, daß zum Erzielen optimaler Ergebnisse auf moderneren Rechnern moderne Betriebssysteme eingesetzt werden sollten. 5. Die Hochladekapazität wird von simultanem Herunterladen geringfügig beeinflußt, hängt aber maßgeblich vom hochgeladenen Bildtyp und der Serverkonfiguration ab. Mit unserem Standardserver kann eine Hochladekapazität von 4 GB/h (96GB/t) erreicht werden. Dies scheint sogar für große Institutionen ausreichend. 6. Das gleichzeitige Hochladen von Bildern bremst die Anzeigezeiten deutlich. Während des Hochladens können nur vier bis sechs Klienten mit Anzeigezeiten von fünf Sekunden versorgt werden. Mit leistungsfähigerer Hardware scheint die Versorgung einer größeren Zahl von Klienten möglich. 7. Da Hochladekapazität und Anzeigezeit von einer stärkeren leistungsfähigeren Serverhardware deutlich profitieren, scheint ein Server mit zwei aktuellen Prozessoren und mindestens 1 GB RAM empfehlenswert. 8. Verlustbehaftete Primärkompression bringt gewisse Vorteile für Hochladekapazität und Anzeigezeit, wird aber nicht empfohlen, um die volle Bildqualität nicht zu verfälschen. Die Entscheidung für oder gegen verlustbehaftete Primärkompression ist jedoch von organisatorischen und rechtlichen Fragen überlagert. 9. Der Prozeß des Hochladens kann mehrere Stunden in Anspruch nehmen, was letztendlich klinisch inakzeptabel wird. Dies kann durch verbesserte Hardware oder eine veränderten BVS-Architektur oder mehrere intelligent zusammenarbeitende Server angegangen werden. 10. Webbasierte Bildverteilungssysteme sollten dezidierte Server für Empfang, Umwandlung und Verteilung der Bilder verwenden, um Hochverfügbarkeit, Performanz und spätere Erweiterbarkeit zu gewährleisten. Auf Empfangsserver kann verzichtet werden, wenn das BVS voll in das PACS integriert wird.Methods to measure display time Our results show that method 3 based on reading the color of pixels was very stable and produced easily interpretable results. In that respect it is superior to all other methods. The initial work to write the self made software proved worth it. Both other methods remain a possibility to perform measurements. Method 1 which is based on performance counters (perfmon) can be recommended for pretests. It is simple yet stable, but interpretation of results can be difficult. The analysis of performance counters, however, may provide additional interesting insights into the internal workings of an application. Phototransistors (method 2) can be employed to eliminate any influence on the system to be evaluated. Results of measurements Our results show that the amount of data transferred to the web server requires special attention. The following statements assume a maximum time to display (TTD) of 5 seconds, which is deemed clinically feasible. 1. High-end hardware is not required. 2. The usage of PCs older than Pentium II (350 MHz) can only be recommended for occasional image review purposes. Lossy compression should then be activated, the screen resolution should not exceed 1280 x 1024 pixels. 3. For PCs better than the above, lossy compression should only be used when the available network bandwidth is less than 10 Mbit/s. In general a RAM of 128 MB or more is preferable and screen resolutions above 1280 x 1024 pixels may be used when required. 4. Windows 2000 produced better results on more recent PCs (>PII/350MHz) than Windows NT, the opposite is true for older PCs. To archive optimal performance, recent operating systems should be employed on recent hardware. 5. The Upload Capacity (UC) was slightly influenced by a simultaneous download, but varied significantly for different image types. The server size also had a strong impact. An effective UC of 4.0 GB/h or 96 GB/d can be achieved, which appears appropriate even for large institutions. 6. On the other hand, a simultaneous upload significantly prolonged the TTD and only with up to 4-6 concurrent clients TTDs below 5 seconds could be achieved. The larger server performed superior and therefore a higher amount of concurrent clients seems possible with more recent server hardware. 7. Since both the UC as the TTD substantially benefited from the larger hardware, a standard server with at least two state-of-the-art processors and 1 GB of RAM appears recommendable. 8. Lossy primary compression demonstrated some benefit for the UC and the TTD but is not necessarily recommended in order to maintain the original character of the images. 9. The upload process may take hours and hence delay the availability of images for display to a clinically unacceptable point. This delay can potentially be reduced by improvements of the server hardware but would preferably be addressed by a modified IWS architecture or multiple interconnected IWS servers. 10. Web based Image Distribution Systems should employ dedicated servers for reception, transformation and distribution of images to ensure high availability, performance and future upgrades. A server dedicated to reception can be omitted, if the IWS is integrated into the PACS

    Parallel Simulations for Virtual Prototyping in the Automobile Industry

    Get PDF
    Der heutige Wettbewerb in der Industrie zeichnet sich durch immer kürzere Entwicklungszeiten aus. In der Automobilindustrie und insbesondere bei der Entwicklung von Fahrzeugen mit alternativen Antriebsträngen mit vernetzten, komplexen Regelstrukturen, wie zum Beispiel bei Elektro-, Hybrid- und Brennstoffzellenfahrzeugen, ist es unerläßlich, die Vorteile des Frontloadings bzw. des virtuellen Prototypings, also des computerunterstützten Auslegens und Entwickelns, massiv zu nutzen, um bei Einsparung von Entwicklungskosten und Entwicklungszeit zu belastbaren Ergebnissen zu kommen, was letztendlich einen Wettbewerbsvorteil darstellt. Da das Frontloading komplexer Systeme handhabbar bleiben muß, werden in der vorliegenden Dissertationsschrift auf mögliche Simulationswerkzeuge, die systemtheoretischen Begründung der parallelisierten Simulation sowie auf die Methoden der Rechnerkopplung eingegangen. Anhand einer validierten Hybridantriebstrangsimulation wird die Methode der parallelen, räumlich verteilten, zeitlich synchronen Co-Simulation beschrieben. Dabei wird auf die Besonderheiten der Modellierung von Regelstrecken gegenüber Steuergerätealgorithmen eingegangen. In diesem Zusammenhang wird der Unterschied der kausalen, signalorientierten Modellierung gegenüber der akausalen, physikalischen Modellierung erklärt. Das Modell des simulierten Hybridantriebstranges wird anhand seiner Teilmodelle der Regelstrecke und der Controller erläutert. Daß die vorgestellte Simulationsmethodik eine tragfähige Methode im Entwicklungsprozeß ist, wird durch eine Validierung mit einem gefahrenen Rollenprüfstandsversuch nachgewiesen. Zusammenfassung, Schlußfolgerung und Ausblick runden diese Arbeit ab.The today’s competition in industry is characterized by more and more shorter development cycles. In the automobile industry and especially by developing vehicles with hybrid drive trains with complex and networked control structures such as in Electric Vehicles (EV), Hybrid Electric Vehicles (HEV) and Fuel Cell Electric Vehicles (FCEV) it is inescapable using the advantages of frontloading / virtual prototyping massively, which can be described as computer aided design and development, in order to get serious data by even saving development costs and time. Because frontloading of complex systems has to be easy to handle for the engineer, within this thesis possible simulation tools are described as well the theoretical basis of parallelized simulation and methods for coupling computers. By using a validated simulation of a certain hybrid drive train the method of the parallel, locally distributed and time-synchronous co-simulation is described. By doing so the differences of modelling physical plants and control algorithms are explained. The differences of the causal signal oriented modelling and the a-causal, physical modelling are described as well. The model of the simulated hybrid drive train is explained by its sub-models of the physical plant and the control algorithms. By validation the presented simulation method with a driven test cycle it is proven that this method is worthwhile within the development process. A summary, the conclusions and an outlook for future further work round of this thesis

    Magyar-német, német-magyar informatikai szakszótár

    Get PDF
    Az informatika tanítása magyarul és idegen nyelven (középiskola).B

    Virtualisierung eines wissenschaftlichen Kongresses. Am Beispiel der LEARNTEC 99

    Get PDF
    Wie ernst muss man die Virtualisierungsbestrebungen im Kongress- und Bildungsbereich nehmen? Rechnet sich der deutliche Mehraufwand, wenn ohnehin die Präsenzveranstaltungen weiter stattfinden sollen? Denn nur noch virtuelle Veranstaltungen zu besuchen da würde etwas im gefühlsmäßigen direkten Erleben fehlen. Als Ergänzung und Erweiterung zu bisherigen Kongressangeboten kann man sich sehr gut eine Virtualisierung vorstellen. Durch die weltweite Vernetzung von Rechnern, die Digitalisierung von Medien und dem strukturellen Wandel der Wirtschaft entsteht eine neue Kommunikationskultur, der wir uns nicht mehr verweigern können. Wie konkret und wie komplex sich diese Tatsache auf den Kongress- und Bildungsbereich auswirkt, kann noch nicht genau eingeschätzt werden. Deshalb bildet der experimentelle Umgang im Rahmen der LEARNTEC eine gewisse Sicherheit, auf künftige Entwicklungen vorbereitet zu sein. Welche virtuelle Dienstestruktur in das Kongresskonzept am Ende eingehen wird, wird durch das Nutzerverhalten der realen und virtuellen Teilnehmer bestimmt

    Benutzer- und Ressourcen-/Dokumentenverwaltung für ein Distance-Learning- Tool OVID zur Erstellung und Verwaltung multimedialen Lehr- und Lernmaterials

    Get PDF
    Benutzer- und Ressourcen-/Dokumentenverwaltung für ein Distance-Learning-Tool OVID zur Erstellung und Verwaltung multimedialen Lehr- und Lernmaterial

    Netzwerk-Management und Hochleistungs-Kommunikation. Teil XXI. Seminar WS 1999/2000

    Get PDF
    Der vorliegende Interne Bericht enthält die Beiträge zum Seminar "Netzwerk-Management und Hochleistungs-Kommunikation", das im Wintersemester 1999/2000 zum einundzwanzigsten (!) Mal stattgefunden hat. Die Themenauswahl kann grob in folgende vier Blöcke gegliedert werden: Ein großer Block ist dieses Mal der Mobilkommunikation gewidmet, die auf fast allen Schichten des ISO-OSI- Referenzmodelles Änderungen erfordert. Betrachtet werden die Grundlagen für drahtlose lokale Netzwerke, Erweiterungen von TCP für die Mobilkommunikation und mobile Ad-hoc-Netzwerke. Die sogenannte dritte Generation des Mobilfunks ist ein weiteres Thema. Die Grundlagen für Mobilität und hohe Datenraten auf Seiten des Endsytems werden im zweiten Block betrachtet, in dem Betriebssysteme für kleine, insbesondere mobile Geräte beschrieben werden und neuartige Architekturen des Netzwerk- Subsytems klassischer Endsysteme oder Server vorgestellt werden. Der dritte Block ist dem Bereich Netzwerk-Management gewidmet, allerdings dieses Mal mit nur einem Beitrag über Netzwerküberwachung mit RMON. Die Frage der Dienstintegration und Konvergenz der Netze wird in den beiden Beiträgen des letzten Blocks beschrieben: Computer-Telefon- Integration vereint bisher noch sehr stark voneinander getrennte Netze, "Konvergenz oder Divergenz?" ist die Frage angesichts der Trends im Netzwerkbereich, die der letzte Beitrag stellt
    corecore