3 research outputs found

    Regionale elektronische Zeitungen. Qualitätskriterien und Evaluierung

    Get PDF
    Regionale und lokale Zeitungen sind durch besondere Qualitätsmerkmale gekennzeichnet, die imvorliegenden Beitrag diskutiert werden. Ausgehend von dem Konstanzer Ansatz zur Bewertungvon Informationsdienstleistungen werden zeitungsspezifische Kriterien eingearbeitet und denfünf Hauptkennzahlen Information, Präsentation, Interaktion und Kommunikation, Technik und Methodik sowie Organisatorisches und Soziales zugeordnet. In einer ersten Untersuchung wurdedie Tauglichkeit des Ansatzes anhand der regionalen Tageszeitungen Südkurier und SchwäbischeZeitung, die beide ihr Verbreitungsgebiet am Bodensee haben, untersucht. (DIPF/Orig.

    Organisationsformen und Mehrwertleistungen elektronischer Märkte

    No full text
    1.Elektronische Marktplätze sind die Organisationsformen elektronischer Märkte, oder anders: die institutionellen konkreten Vermittlungsformen elektronischer Märkte. Sie entwickeln sich in regionalen und globalem Maßstab.2.Elektronische Marktplätze dienen nicht nur der Wirtschaft (electronic shopping, business to business), sondern unterstützen auch öffentliche kommunikative Prozesse, z. B. im Austausch von Bürgern und Verwaltungen.3.Für elektronische Marktplätze ist das Konzept der Virtualisierung entscheidend. Es gilt nicht nur für ganze Märkte, sondern auch für die Informationsprodukte (virtuelle Bücher) und Organisationsformen in virtuellen Räumen.4.Vernetzte virtuelle Räume entstehen durch zielorientierte Kooperationsformen von Organisationen, die sich zur Durchführung von temporären oder dauerhaften Aufgaben zusammengeschlossen haben, und von Personen, die ihre "Geschäfte" überNetze abwickeln.5.Auch auf multimedialen Marktplätzen bleiben die Informationsobjekte mit starken Anteilen sprachvermittelt. Für die linguistische Datenverarbeitung eröffnet sich ein breites Betätigungsfeld, vor allem mit Blick auf Mehrsprachigkeit, Inhaltserschließung, automatisehe Verknüpfung, Flexibilisierung von Präsentationsformen und semantische Kontrolle.6.Die Probleme elektronischer Märkte sind weniger techniseher oder methodischer Natur, sondern verlangen in vielfacher Hinsieht vertrauensbildende Maßnahmen.7.Entseheidend für den Erfolg elektroniseher Marktplätze ist das Einhalten von Qualitätsstandards und das Erreichen von Akzeptanz der Zielgruppen

    Linguistik und neue Medien

    Get PDF
    In diesem Band sind Vorträge versammelt, die auf der 10. Jahrestagung der Gesellschaft für Linguistische Datenverarbeitung gehalten wurden. Sie fand vom 17.- 19. März 1997 am Institut für Informatik der Universität Leipzig statt, die erste Jahrestagung der GLDV in den neuen Bundesländern. Unter dem Titel Linguistik und neue Medien dekcen die Beiträge ein breitgefächertes Themenspektrum ab: Neben klassischen Themen der linguistischen Datenverarbeitung wie Computerlexikographie und Parsing fanden insbesondere aktuelle Themenfelder wie Multimediatechnologie und Anwendungen im WorldWideWeb Berücksichtigung. Diese breite Themenabdeckung steht in Einklang mit der inhaltlichen Ausrichtung der GLDV, die bewußt ein Fachverband sowohl für Computerlinguistik im engeren Sinn als auch für alle Anwendungen der Sprachtechnologie sein will. Die Aufsätze sind insofern für einen breit gestreuten Leserkreis von Interesse. Die insgesamt 21 Beiträge lassen sich in die folgenden thematischen Schwerpunkte aufgliedern I. Electronic Publishing, Multimedia und Informationsdienstleistungen II. Computerlexikographie & Terminologiesysteme III. Morphologie, Syntax & Parsing IV. Information Retrieval & statistische Ansätze in der Linguistik Nachfolgend wollen wir einführend eine knappe Übersicht zu den einzelnen Beiträgen geben. Electronic Publishing, Multimedia und Informationsdienstleistungen Der erste Themenbereich umfaßt ein heterogenes Spektrum von Aufsätzen, die in unterschiedlicher Weise den Bezug zwischen (Computer-)linguistik und neuen Medien – daher auch das Motto der Tagung – herstellen. Rainer KUHLEN stellt in seinem Beitrag, der auf einen eingeladenen Vortrag zurückgeht, die Organisationsformen und Mehrwertleistungen elektronischer Märkte vor; dabei zeigt er insbesondere auf, welche Rolle linguistische Technologien (z.B. automatic abstracting) für solche Dienstleistungen haben können. Gerhard HEYER & Chrisitian WOLFF erörtern, welchen Beitrag klassische Theorieansätze aus der linguistischen Pragmatik und der künstlischen Intelligenz für die Entwicklung und Strukturierung von Multimedia-Anwendungen leisten können und spielen eine Operationalisierung der Sprechakttheorie an einem praktischen Beispiel durch. Mit RECALL präsentiert Tibor KISS ein System, das intelligente Unterstützung im Bereich computer aided language learning (call) gibt und mit Standard-Webtechnologien realisiert wurde. Dabei wird dem insbesonere eine intelligente Fehlerkorrektur beim Erlernen syntaktischer Srukturen gegeben. Angelika STORRER geht auf textlinguistische Probleme bei der Erstellung komplexer Hypertexte ein und gibt am Beispiel der elektronischen Fassung einer Grammatik des Deutschen eine detaillierte Konvertierungsmethode an. Abschließend diskutieren Friedrich WENZEL et al. den Einsatz von Multimediatechnologien im Spachlehrunterricht und stellen ein Systerm vor, bei dem unter Zusammenwirken verschiedener Multimediatechnologien sprachliche Strukturien visualisiert und manipuliert werden können. Computerlexikographie & Terminologiesysteme Im zweiten Themenschwerpunkt standen sowohl theoretische wie eher praktisch orientierte Beiträge zur Fragen der Computerlexikographie und der Verwaltung terminologischer Information im Mittelpunkt. Dabei läßt sich ein guter Überblick insbesondere zum Entwicklungsstand elektronischer Lexika des Deutschen gewinnen, wobei der Trend zur automatischen Verarbeitung großer Textcoropora beim Aufbau von Lexika offensichtlich ist. In einem eingeladenen Vortrag stellt Gregor THURMAIR ein im Rahmen des Projektes AVENTINUS entwickeltes multilinguales Lexikon vor. Im Mittelpunkt steht dabei die Widerverwendbarkeit der linguistiscnen Ressourcen für unterschiedliche Anwendungszwecke. Lothar LEMNITZER geht auf das Problem der automatischen Wissensextraktion aus großen Textcorpora ein und vergleicht unterschiedliche statistische Verfahren für die Gewinnung komplexer lexikalischer Einheiten. Das Projekt Der Deutsche Wortschatz, präsentiert von Uwe QUASTHOFF, hat sich zur Aufgabe gestellt, aus heterogenen Quellen das umfangsreichste Vollformenlexikon des Deutschen aufzubauen und für unterschiedliche Anwendungszwecke (Rechtschreibprüfung, maschinelle Übersetzung etc.) zu nutzen. Ähnlich wie Lothar Lemnitzer und Uwe QUASTHOFF geht auch Jürgen OESTERLE auf das Problem der (semi-)automatischen Extraktion linguistischen Wissens ein. Er zeigt dies am Beispiel des CISLEX auf, einem umfangreichen und hochstrukturierten elektronischen Lexikon und im Zusammenspiel mit einer Grammatik für Nomialphrasen. Die beiden letzten Beiträge dieses Themenbereichs stellen das Problem der Terminologiearbeit in den Mittelpunkt. Jan Lass stellt eine operationale Terminologierdatenbank vor, die Terminologen allen wesentliochen Funktionsbereichen im Umgang mit terminologischem Wissen unterstützt und in andere Anwendungen (Textverarbeitung, maschinelle Übersetzung) eingebunden werden kann. Abschließend stellt Katja KRÜGER das System TermLand vor, das Übersetzer und Terminologen bei der Termerkennung unterstützt und im Sinne eines translation memory aus bereits vorliegenden Übersetzungen je geeignete Termkandidaten ermittelt. Morphologie, Syntax & Parsing Im dritten Themenfeld der GLDV-Tagung sind Beiträge versammelt, die sich den klassischen computerlinguistischen Arbeitsgebieten Syntax, Parsing und Morphologie widmen. Sdabei reicht das Spektrum von Parsinganwendungen bis hin zu Visualisierungssystemen, die linguistische Theoriemodelle transparent machen wollen. Markus SCHULZE führt in das System MALAGA ein, das aufbauend auf dem Modell linksassoziativer Grammatiken eine linguistische Programmumgebung bereitstellt, mit der verschiedene computerlinguistische Anwendungen möglich sind und verdeutlicht dies anhand von Beispielen auis dem Bereich der Morphologie. Petra MAIER diskutiert im Schnittbereich von Computerlexikographie und Morphologie wie aufgrund einer Kombination von Endungsanalyse und lokalen Grammatiken eine Defaultzuweisung morpho-syntaktischen Kategorien bei der Extraktion lexikalischer Einheiten erreicht werden kann. Anke KÖLZER stellt Lexana, ein System, das lexikaalische Anlyse und Qualitätssicherung auf der Basis von Unifikationsgrammatiken ermöglicht. Ihr Beitrg wurde auf der GLDV-Jahrestagung als beste studentische Arbeit ausgezeichnet. Sebastian GÖSER erörtert einen Parsingansatz, der aufbauend auf einer annotierten Konstituentengrammatik sowohl schnelles wie robustes Parsing ermöglicht und so auch für fehlerhafte Texte (e-mail) und Dokumente mit breiter thematischer Streuung geeignet ist. Auch Andreas MERTENS befaßt sich mit der Problematik des robusten Parsing. Sein Ansatz greift die Idee der Wortagenten und stellt ein System vor, das im Rahmen natürlichsprachlicher Dialogsysteme geeignete Anlayseinterpretationen für eingegebene Phrasen auf der Basis klonkurrierender Agenten ermittelt. Abschließend unternimmt Jean-Yves LALANDE mit dem System VisualGBX ein System an die Hand zu geben, das linguistische Theoriemodelle der generativen Grammatik visualisiert und nach dem Paradigma der Ojektorientierun reinterpretiert. Information Retrieval & statistische Ansätze in der Linguistik Der letzte Schwerpunkt faßt Beiträge der angewandten Sprachtechnologie, insbesondere des Information Retrieval zusammen. Bernhard SCHRÖDER stellt mit Pro-SGML ein Prolog-basiertes Retrievalsystem vor, das eine strukturierte Recherche in SGML-kodierten Dokumentenbeständen zuläßt und damit differenzierte Recherchestratwegien ermöglicht. Die Behandlung strukturierter Dokumente mit logischem Markup greifen auch Christa WOMSER-HACKER und Walter ZETTEL auf, die mit Hilfe verschiedener klassischer Bewertungsmaße aus dem Information Retrieval die Wirksamkeit einer differenzierten Gewichtung unterschiedlicher Dokumentbestandteile untersuchen. Gregor BÜCHEL stellt ein WWW-basiertes Informationssystem für eine Hochschulbibliothek vor und diskutiert wie für den Schlagwortkatalog einer Bibliothek automatisch semantische Netze generiert werden können. Abschließend vergleicht Michael MALBURG für Anwendungen aus dem Bereich der automatischen Texterkennung unterschiedliche Ausprägungen von Hiden-Markov-Modellen und stellt Evaluierungsergebnisse bei der Erkennung von Geschäftsbriefen vor
    corecore