1,157 research outputs found

    Neue Einblicke – Social Media Monitoring in der Stadtplanung

    Get PDF
    Das Social Web ist ein Kommunikationskanal, der mittlerweile weit verbreitet ist und den man allgemein schon als Standard bezeichnen kann. Vielfach wurde beschrieben, wie Social Media auch in der Raumplanung zur Kommunikation und Partizipation genutzt werden kann (vgl. Habbel, Huber 2008; VHW 2011; Haller, Höffken 2011). Der Stadtplanung von heute bietet sich aufgrund der stetigen Entwicklung von Hard- und Software sowie eines immer komplexer werdenden Internets eine Vielzahl an Instrumenten, um eine erfolgreiche Planung durchzuführen. So ist es heutzutage möglich, die verschiedenen Aufgabenfelder mit digitalen Werkzeugen zu unterstützen und zu bearbeiten. Ein Beispiel ist der Einsatz von Social Media im Kontext der Bürgerbeteiligung. Um hierbei genauere Analysen des Nutzerverhaltens vornehmen zu können, bietet sich ein Einsatz von Monitoring-Tools wie bspw. Google Analytics an. Dabei steht die Möglichkeit, noch präziser auf die Interessen und Anregungen der Nutzer einzugehen, um eine gezieltere Kommunikation zu erreichen, im Fokus des Interesses (von Dobeneck, 2012). Ziel dieses Papers ist es, in Erfahrung zu bringen, wie der Einsatz einer begleitenden Social Media Strategie aussehen kann und welcher Mehrwert sich für die Stadtplanung erzielen lässt. Nach einem einführenden Teil, werden die Grundlagen von Social Media und der Mehrwert digitaler Instrumente in der Stadtplanung aufgezeigt. Zentrales Element des Papers sind die Ergebnisse aus der Untersuchung eines Praxisbeispiels – eines Weblogs für ein Stadtentwicklungsprojekt. Basierend auf den dort gewonnen Daten werden Erkenntnisse bezüglich möglicher Analysen und Auswertungen, aber auch Grenzen und Hindernissen aufgezeigt. Aufgrund dieser praxisnahen Analyse werden die allgemeinen Erkenntnisse und der Nutzen für einen Einsatz in der Stadtplanung skizziert, wodurch sich konkrete Handlungsempfehlungen ableiten lassen. Ebenfalls werden mögliche Gefahren dargestellt, welche eine Erhebung von nutzergenerierter Daten im Bezug zum Datenschutz, bzw. Recht auf Privatsphäre mit sich bringen. Diese kritische Reflektion soll helfen, einer Übereuphorisierung der Datenanalyse entgegenzuwirken, um eine realistische Einschätzung des Anwendungspotentials für die Stadtplanung geben zu können

    HRZ-Mitteilungen : 5. Ausgabe, Wintersemester 2004

    Get PDF
    NPS - was steckt dahinter? NPS - Schulungen NPS - aus Kundensicht Für Neueinsteiger Die Software-Frage Dienstleistungen des HR

    One Laptop per Child: Mathematik Lernspiel

    Get PDF
    Im Rahmen meiner Bachelorarbeit befasse ich mich mit der Konzeption und Implementierung einer Applikation für die non-profit Organisation „One Laptop per Child“ (OLPC). One Laptop per Child hat es sich zur Mission gemacht den ärmsten Kindern dieser Welt Zugang zu Bildung zu verschaffen. Um diese Mission zu verwirklichen wird jedem Kind ein extra angefertigter Laptop zur Verfügung gestellt. Dieser Laptop wurde speziell für die Anforderungen der dritten Welt entworfen. So kann er in extremer Hitze eingesetzt werden, ist wasserresistent und benötigt nur wenig Energie. Ziel meiner Arbeit ist die Entwicklung und Umsetzung einer Applikation für ein OLPC Gerät. Mit Hilfe dieser Applikation können sich Kinder zwischen 6 und 12 Jahren Basiswissen aneignen. Den Kindern soll fundamentales Wissen mit auf den Weg gegeben werden. Wissen, auf dem die Kinder aufbauen können. Wissen, mit dem sie künftig in der Lage sind eigene Probleme zu lösen. Die Arbeit wurde in der Zeitspanne vom 12. April 2014 bis zum 28. Juli 2014 realisiert. Bis zum 13. Juni 2014 konnten aufgrund anderer Module an der Fachhochschule wöchentlich lediglich drei Tage für die Bachelorarbeit verwendet werden. Die Zeit vom 09. Juni 2014 bis zum 20. Juni 2014 galt zudem der Prüfungsvorbereitung und den Semesterprüfungen. Die Arbeit wurde von Laurent Sciboz betreut

    Visualisierung der Volatilität bei der Interpolation von Zeitreihen: Excel-Makro Saffint

    Get PDF
    Häufig werden in grafischen Darstellungen Werte einer Zeitreihe linear interpoliert, um einen groben Eindruck ihres Verlaufs zu geben. Das Ergebnis ist ein Streckenzug, in dem einzelne Geradenstücke aneinandergehängt sind, wobei die Ausgangsdaten des Streckenzugs die Knickpunkte bilden. Allerdings wird durch eine solche lineare Interpolation der visuelle Eindruck einer Zeitreihe mit großer Volatilität, wie etwa eines Börsenkurses, nur sehr unzureichend wiedergegeben, da auch zwischen den verfügbaren Kurswerten starke Schwankungen vorliegen. Es wäre daher ein Verfahren wünschenswert, das statt Geradenstücken Kurvenabschnitte verwendet, die rauh wirken. Dabei sollte der Grad der Rauheit parametrisierbar sein, so daß sowohl der Eindruck einer sehr starken Volatilität als auch einer schwachen erzeugbar ist. In diesem Beitrag wird dafür Barnsleys selbstaffine (oder fraktale) Interpolation vorgeschlagen, die Ergebnis eines Iterationsprozesses ist: Gestartet wird mit dem Streckenzug der linearen Interpolation. Bei einem Iterationsschritt wird dann jeder Kurvenabschnitt durch ein affin gestauchtes Bild der gesamten Kurve des vorigen Schritts ersetzt. Die Iteration bricht ab, wenn sich in der Auflösung des Bildschirms nichts mehr ändert. Der Grad der vertikalen Stauchung ist dabei in Grenzen frei wählbar und liefert den gewünschten Volatilitätsparameter. Ist dieser im Extremfall gleich null, so wird der Strekkenzug vertikal exakt auf ein Geradenstück gestaucht, womit die selbstaffine Interpolation mit der linearen Interpolation übereinstimmt. Größere Werte des Parameters liefern eine rauh wirkende Interpolation und visualisieren damit einen bestimmten Grad von Volatilität. Für die praktische Durchführung der selbstaffinen Interpolation existiert ein Algorithmus, der sich in wenigen Zeilen in BASIC als Excel-Makro programmieren ließ und der die direkte Berechnung einzelner Interpolationswerte erlaubt. --

    Developemnt of a "Rich internet application" for interactive visualization of statistical mass data

    Get PDF
    Das permanente Angebot und die Nachfrage an Informationen und Daten jeglicher Art wachsen zunehmend. Das Ergebnis einer meist verschachtelten Suche nach bestimmten Zahlen ist jedoch oftmals eine unübersichtliche, tabellarische Aufstellung derer. Zudem ist dagegen die Aufnahme grafischer Informationen erheblich höher und effektiver. Als Ergebnis der Diplomarbeit soll im ersten, theoretisch-wissenschaftlichen Teil eine technische Konzeption für ein intelligentes Visualisierungs-System erarbeitet werden. Im zweiten, praktischen Teil soll anhand der untersuchten Methoden und des entwickelten Konzepts eine Anwendung kreiert werden, welche ausgewählte Methoden zur interaktiven Visualisierung statistischer Daten nutzt.The permanent supply and demand of all types of information and data are growing increasingly. But often the result of a mostly nested searching for specific data is a confusing array in table form. Furthermore in contrast, the realisation of graphical information is much more effective. As conclusion of this thesis there is to be developed a technical conception for an intelligent visualisation system, in the first, the theoretical-scientific part; on the other hand, there is to be created an application, which uses selected methods for interactive visualisation of statistical data, in the second, the applied part

    Developing and evaluation of an enhanced diagnostic system to debug electronicvehicle control units in the automotive industry

    Get PDF
    Die vorliegende Arbeit behandelt den Gegenstand der Diagnose von elektronischen Steuergeräten in der Automobilindustrie. Mit zunehmender Zahl der Steuergeräte im Fahrzeug steigt de-ren Aufgabenumfang und Verantwortung für die Funktionstüchtigkeit des Fahrzeugs. Als Fol-ge dieser Entwicklung stehen die Technologien rund um den Steuergerätebereich neuen Herausforderungen gegenüber – so auch die der Fehlerdiagnose. Das Diagnosesystem muss die Komplexität und die Funktionsvielfalt des Steuergeräts beherrschen. Nur dann wird dem Dia-gnostiker ein adäquates Mittel zur Fehlersuche an die Hand gegeben. Der erhöhte Anteil der Softwarelogik in einem Steuergerät hat zur Folge, dass das Diagnose-system eine entsprechende Flexibilität aufweisen muss. Für das Diagnosesystem ist es nicht mehr ausreichend, aus einem rein mechanischen Werkzeug zu bestehen. Es muss variabel Informationen von Steuergeräten abfragen, diese verarbeiten und sie an die Steuergeräte zurück-schicken können. Eine solche Lösung ist nur Software-basiert möglich. Durch diesen wachsen-den Anspruch verstärkt die Informatik stetig ihre Position in der Diagnose. Im gleichen Zuge bekräftigt die Diagnose auch ihre ökonomische Relevanz. Imageverluste und hohe Kosten durch Rückholaktionen bedingen die Verbreitung der Steuergerätediagnose in immer mehr Geschäftsprozessen der Automobilkonzerne. Damit wollen die Konzerne die Qua-lität steigern und den Umfang an Diagnosefällen in den Begriff bekommen. Die Steuergerätediagnose findet sich heute unter anderem im Service, in der Produktion und in der Verwaltung wieder. Die Diagnose tangiert folglich den Themenbereich der Informatik und der Betriebswirtschaft. Aufgrund dieser Verschmelzung der Softwaretechnik mit betriebswirtschaftlicher Bedeutung, scheint es angemessen, sich der Diagnosethematik mit der Wissenschaft der Wirtschaftsinfor-matik anzunehmen. Die Arbeit vereinigt viele Kerngehalte der Wirtschaftsinformatik. Es werden unter anderem die Prozessmodellierung, Prozessanalyse und Prozessoptimierung IT-basierter Prozesse durchge-führt sowie die Analyse, Architektur, Implementierung und Evaluation von Software. Diese Techniken unterstützen dabei, eine innovative Diagnosesoftware für elektronische Steuergeräte in der Automobilindustrie zu schaffen. Um bei der Arbeit neben dem wissenschaftlichen Aspekt auch den nötigen praktischen Bezug sicherzustellen, wurde die Arbeit in Kooperation mit einem Automobilkonzern durchgeführt

    Erstellung und Lokalisierung von EPUB-Dokumenten

    Get PDF
    Because of the transformation of the mainstream of information media nowadays, it is vital to constitute a standard of electronic publishing in this emerging field. EPUB is the key standard of the organization IDPF, which is the official standard format for digital books. The present dissertation aims at creating and localizing EPUB documents of the module handbook for the master's degree program software localization at Anhalt University of applied Sciences (Hochschule Anhalt) from German into Chinese as example. This dissertation describes the technical and theoretical foundations of e-book formats and represents especially the structures and features of EPUB. In order to spread the information widely in the world, localization of the products plays an important role. An introduction of localization technology and localization tools is constructed and included in the project. The work processes are mentioned, so as to show, how to translate an EPUB document and ensure good quality. The summary and the view of EPUB are illuminated at the end

    Konzeption und Implementierung eines Werkzeugs für nutzenbasiertes Traceability- und Rationale-Management in verteilten Entwicklungsumgebungen

    Full text link
    Unter Nachvollziehbarkeit (engl: Traceability) wird die Möglichkeit verstanden, verschiedene Artefakte (beispielsweise Anforderungen, Designdokumente oder Quellcode) so miteinander zu verknüpfen, dass stets nachvollzogen werden kann, welche Artefakte wie miteinander in Beziehung stehen. Die Nachvollziehbarkeit sollte hierbei sowohl vorwärts- als rückwärtsgerichtet möglich sein. Ebenso wichtig wie die Nachvollziehbarkeit der Beziehungen zwischen den Artefakten ist es, die Gründe festzuhalten, die zu Entscheidungen in der Softwareentwicklung geführt haben (engl.: Rationale Management). Werden diese Informationen festgehalten, so können beispielsweise auch dann noch Entscheidungen nachvollzogen werden, wenn der entsprechende Mitarbeiter nicht mehr verfügbar ist. Werden allerdings alle Traceability-Informationen festgehalten, so entsteht unter Umständen einen Überfluss an Informationen, der nur noch schwer zu durchschauen ist. Einige Anforderungen sind möglicherweise nicht so wichtig wie andere, werden diese aber gleichrangig neben den Wichtigeren dargestellt, so kann der Überblick verloren gehen. Daher sollte Traceability- und Rationale-Management nutzen- oder wertbezogen (engl.: value-based) betrieben werden. Unter dem Wert wird in diesem Zusammenhang der Nutzen verstanden, mit dem ein Nutzer der Software bzw. der Auftraggeber eine Anforderung bewertet. Die Bewertung einer Anforderung durch die Entwickler kann von der Bewertung durch die Anwender deutlich abweichen, daher sollte der Hauptfokus bei der Entwicklung auf dem Nutzen für den Kunden liegen. Durch die Verknüpfung der Anforderungen mit den zugehörigen Artefakten werden wichtigere Artefakte auf diese Weise automatisch höher priorisiert. Nutzenbezogenes Traceability- und Rationale-Management führt so unter anderem zu einem besseren Verständnis des Codes, zu besserer Wartbarkeit und Dokumentation, zur Qualitätssicherung, Fehlerreduktion und höherer Effizienz der Entwicklung sowie letztendlich zu höherer Kundenzufriedenheit. Ziel dieses Artikels ist es, die Entwicklung eines Werkzeug vorzustellen, das Daten über Anforderungen, Aktivitäten und Nutzer, die in einer kollaborativen Softwareentwicklungsplattform verwaltet werden, extrahiert und die Beziehungen dieser Entitäten untereinander visualisiert und analysiert. Dabei sollen entsprechend dem Wert der Anforderungen und daraus resultierender Artefakte wichtige Beziehungen besonders hervorgehoben werden. Zusätzlich sollen die Rationale-Informationen von verschiedenen Artefakttypen dargestellt und analysiert werden können

    Synchronisation eingebetteter Architekturentscheidungen mit Architekturentscheidungsprogrammen

    Get PDF
    Diese Arbeit behandelt das Thema der Synchronisation von quellcode-intern und quellcodeextern dokumentierten Softwarearchitekturentscheidungen. Einerseits gibt eine Java-Annotation, welche es erlaubt Architekturentscheidungen im Java-Quellcode zu hinterlegen, andererseits können Architekturentscheidungen auch mit dem Modellierungswerkzeug AD-Mentor modelliert und in einem Versionierungsrepository hinterlegt werden. Da Architekturentscheidungen somit an verschiedenen Stellen dokumentiert werden können, ist es sinnvoll diese zu synchronisieren. In dieser Arbeit wird ein Konzept zur Synchronisation von eingebettete Architekturentscheidungen mit modellierten Architekturentscheidungen anhand eines Versionierungsrepository vorgestellt und implementiert. Zur Verifikation des erstellten Konzepts wurde eine Fallstudie anhand des implementierten Synchronisationsprogramms durchgeführt und ausgewertet
    corecore