49 research outputs found

    Den Einfluss der Suchmaschinenoptimierung messbar machen: Ein halb-automatisierter Ansatz zur Bestimmung von optimierten Ergebnissen auf Googles Suchergebnisseiten

    Get PDF
    Suchmaschinenoptimierung (SEO) kann einen erheblichen Einfluss auf die Suchergebnisseiten in kommerziellen Suchmaschinen haben. Bisher ist jedoch unklar, welcher Anteil der (Top-) Ergebnisse tatsächlich optimiert wurde und wie dies die Auswahl und das Ranking der angezeigten Treffer bestimmt. Für die Untersuchung über den Einfluss von SEO auf die Suchergebnisse haben wir halb-automatische Prozesse und ein Software-Framework entwickelt, das mit einem regelbasierten Klassifikator die Wahrscheinlichkeit von Optimierungsmaßnahmen auf Suchergebnissen zu ermittelt. Der Ansatz basiert auf 20 Merkmalen, zu denen die Analyse über genutzte SEO-Plug-ins und Analytics Tools, die Auswertung technischer Indikatoren wie der Ladegeschwindigkeit und der Verwendung bestimmter Tags wie zur Description sowie eine manuelle Klassifikation auf Basis von vorab zusammengestellten Listen mit optimierten und nicht optimierten Webseiten gehören. Dieser Ansatz wurde auf drei Datensätzen mit insgesamt 2.043 Suchanfragen und 263.790 Ergebnissen angewendet. Die Ergebnisse zeigen, dass ein großer Teil der in Google gefundenen Seiten zumindest wahrscheinlich optimiert ist, was im Einklang mit Aussagen von SEO-Experten steht, die sagen, dass es sehr schwierig ist, ohne die Anwendung von SEO-Techniken in Suchmaschinen sichtbar zu werden

    A Comparison of Source Distribution and Result Overlap in Web Search Engines

    Full text link
    When it comes to search engines, users generally prefer Google. Our study aims to find the differences between the results found in Google compared to other search engines. We compared the top 10 results from Google, Bing, DuckDuckGo, and Metager, using 3,537 queries generated from Google Trends from Germany and the US. Google displays more unique domains in the top results than its competitors. Wikipedia and news websites are the most popular sources overall. With some top sources dominating search results, the distribution of domains is also consistent across all search engines. The overlap between Google and Bing is always under 32%, while Metager has a higher overlap with Bing than DuckDuckGo, going up to 78%. This study shows that the use of another search engine, especially in addition to Google, provides a wider variety in sources and might lead the user to find new perspectives.Comment: Submitted to the 85th Annual Meeting of the Association for Information Science & Technology and will be published in the conference proceeding

    Ist die Webseite suchmaschinenoptimiert? Vorstellung eines Online-Tools zur Analyse der Wahrscheinlichkeit der Suchmaschinenoptimierung auf einer Webseite

    Get PDF
    Das SEO-Tool ist eine Webanwendung, die die Wahrscheinlichkeit von Suchmaschinenoptimierung (SEO) auf einer Webseite ermittelt. Für die Berechnung der Wahrscheinlichkeit werden insgesamt 20 Merkmale halb-automatisch erhoben und in drei Prozessen ausgewertet. Dafür analysiert das Tool zuerst den Quelltext der URL auf Informationen über die Verwendung von SEO-Plugins und Analytics Tools. Zweitens bestimmt es die Kategorie der gegebenen URL anhand manuell klassifizierter Websites und schließlich berechnet es verschiedene technische und inhaltliche SEO-Indikatoren. Die Ergebnisse aus diesen Prozessen bilden anschließend die Basis für die Einordnung der URL anhand eines regelbasierten Klassifikators. Die Demo des Tools ist unter http://5.189.155.20:5000/ verfügbar

    Relevance Assessment Tool: Ein Werkzeug zum Design von Retrievaltests sowie zur weitgehend automatisierten Erfassung, Aufbereitung und Auswertung von Daten

    Get PDF
    A relevance assessment tool to test the retrieval effectiveness of web search engines is presented

    Vergleichende Analyse und szenariobasierte Usability Tests zur Evaluation der Gebrauchstauglichkeit neu gestarteter Suchmaschinen

    No full text
    Gegenstand dieser Arbeit ist die Analyse der Benutzbarkeit diverser Suchmaschinen. Die zu untersuchenden Suchmaschinen, waren einerseits neu gestartete Suchdienste, die in der Presse als mögliche Google- Konkurrenten gehandelt wurden und andererseits die Websuchmaschine Google selbst. Durch diese Auswahl wurde geprüft, ob sich die neuen Suchdienste in der Benutzbarkeit am vermeintlichen Konkurrenten Google orientierten und ob die neuen Suchdienste Search Enginge Usability-Standards einhalten. Durch Usability-Tests wurden Usability-Probleme aufgedeckt, die in der Anwendung der Suchdienste auftreten. Ferner werden die Usability-Tests auch genutzt, um die Effektivität, Effizienz und die Zufriedenheit der Probanden mit den Suchdiensten zu messen. Die Testgruppe bestand aus angehenden Informationsspezialisten, die bereits viel Erfahrung in der Informationsrecherche im World Wide Web haben. Kernergebnisse: Bei den Ergebnissen dieser Arbeit zeigt sich, dass die Suchmaschine Google die meisten Usability-Kriterien einhielt sowie die höchste Effektivität und Effizienz in den Usability-Tests erreichte. Die Probanden waren auch am zufriedensten in der Anwendung mit Google

    Prototypische Entwicklung einer Software für die Erfassung und Analyse explorativer Suchen in Verbindung mit Tests zur Retrievaleffektivität

    No full text
    Gegenstand dieser Arbeit ist die Entwicklung eines funktionalen Prototyps einer Webanwendung für die Verknüpfung der Evaluierung von explorativen Suchen in Verbindung mit der Durchführung klassisches Retrievaltests. Als Grundlage für die Programmierung des Prototyps werden benutzerorientierte und systemorientierte Evalulierungsmethoden für Suchmaschinen analysiert und in einem theoretischen Modell zur Untersuchung von Informationssysteme und Suchmaschinen kombiniert. Bei der Gestaltung des Modells und des Prototyps wird gezeigt, wie sich aufgezeichnete Aktionsdaten praktisch für die Suchmaschinenevaluierung verwenden lassen, um auf der einen Seite eine Datengrundlage für Retrievaltests zu gewinnen und andererseits, um für die Auswertung von Relevanzbewertungen auch das implizierte Feedback durch Handlungen der Anwender zu berücksichtigen. Retrievaltests sind das gängige und erprobte Mittel zur Messung der Retrievaleffektiviät von Informationssystemen und Suchmaschinen, verzichten aber auf eine Berücksichtigung des tatsächlichen Nutzerverhaltens. Eine Methode für die Erfassung der Interaktionen von Suchmaschinennutzern sind protokollbasierte Tests, mit denen sich Logdateien über Benutzer einer Anwendung generieren lassen. Die im Rahmen der Arbeit umgesetzte Software bietet einen Ansatz, Retrievaltests auf Basis protokollierter Nutzerdaten in Verbindung mit kontrollierten Suchaufgaben, durchzuführen. Das Ergebnis dieser Arbeit ist ein fertiger funktionaler Prototyp, der in seinem Umfang bereits innerhalb von Suchmaschinenstudien nutzbar ist

    Are Ads on Google Search Engine Results Pages Labeled Clearly Enough?

    Get PDF
    In an online experiment using a representative sample of the German online population (n = 1,000), we compare users’ selection behaviour on two versions of the same Google search engine results page (SERP), one showing advertisements and organic results, the other showing organic results only. Selection behaviour is analyzed in relation to users’ knowledge on Google’s business model, on SERP design, and on these users’ actual performance in marking advertisements on SERPs correctly. We find that users who were not able to mark ads correctly selected ads significantly more often. This leads to the conclusion that ads need to be labeled more clearly, and that there is a need for more information literacy in search engine users

    Einflüsse auf die Ergebnisse kommerzieller Suchmaschinen : Modellbildung und empirische Ergebnisse

    No full text
    In diesem Beitrag stellen wir anhand eines Modells die von uns in den letzten Jahren durchgeführten empirischen Studien zu den Einflüssen auf die Suchergebnisse kommerzieller Suchmaschinen vor. Wir behandeln die Einflüsse durch die externen Akteursverbünde Suchmaschinenoptimierung, Suchmaschinenwerbung und Nutzende und zeigen die Wechselwirkungen zwischen diesen auf. Die Zusammenfassung der berichteten Studien zeigt die bisher gewonnenen Erkenntnisse und stellt diese in den Kontext. Weiterhin werden wichtige weitere Forschungsfragen identifiziert. Wir verdeutlichen, an welchen Stellen besonderes Potenzial für die informationswissenschaftliche Forschung besteht. Schließlich geben wir eine Übersicht der von uns veröffentlichten Datensätze und Software, welche für alle interessierten Forschenden frei zur Verfügung stehen.PeerReviewe
    corecore