49 research outputs found
Den Einfluss der Suchmaschinenoptimierung messbar machen: Ein halb-automatisierter Ansatz zur Bestimmung von optimierten Ergebnissen auf Googles Suchergebnisseiten
Suchmaschinenoptimierung (SEO) kann einen erheblichen Einfluss auf die Suchergebnisseiten in kommerziellen Suchmaschinen haben. Bisher ist jedoch unklar, welcher Anteil der (Top-) Ergebnisse tatsächlich optimiert wurde und wie dies die Auswahl und das Ranking der angezeigten Treffer bestimmt. Für die Untersuchung über den Einfluss von SEO auf die Suchergebnisse haben wir halb-automatische Prozesse und ein Software-Framework entwickelt, das mit einem regelbasierten Klassifikator die Wahrscheinlichkeit von Optimierungsmaßnahmen auf Suchergebnissen zu ermittelt. Der Ansatz basiert auf 20 Merkmalen, zu denen die Analyse über genutzte SEO-Plug-ins und Analytics Tools, die Auswertung technischer Indikatoren wie der Ladegeschwindigkeit und der Verwendung bestimmter Tags wie zur Description sowie eine manuelle Klassifikation auf Basis von vorab zusammengestellten Listen mit optimierten und nicht optimierten Webseiten gehören. Dieser Ansatz wurde auf drei Datensätzen mit insgesamt 2.043 Suchanfragen und 263.790 Ergebnissen angewendet. Die Ergebnisse zeigen, dass ein großer Teil der in Google gefundenen Seiten zumindest wahrscheinlich optimiert ist, was im Einklang mit Aussagen von SEO-Experten steht, die sagen, dass es sehr schwierig ist, ohne die Anwendung von SEO-Techniken in Suchmaschinen sichtbar zu werden
A Comparison of Source Distribution and Result Overlap in Web Search Engines
When it comes to search engines, users generally prefer Google. Our study
aims to find the differences between the results found in Google compared to
other search engines. We compared the top 10 results from Google, Bing,
DuckDuckGo, and Metager, using 3,537 queries generated from Google Trends from
Germany and the US. Google displays more unique domains in the top results than
its competitors. Wikipedia and news websites are the most popular sources
overall. With some top sources dominating search results, the distribution of
domains is also consistent across all search engines. The overlap between
Google and Bing is always under 32%, while Metager has a higher overlap with
Bing than DuckDuckGo, going up to 78%. This study shows that the use of another
search engine, especially in addition to Google, provides a wider variety in
sources and might lead the user to find new perspectives.Comment: Submitted to the 85th Annual Meeting of the Association for
Information Science & Technology and will be published in the conference
proceeding
Ist die Webseite suchmaschinenoptimiert? Vorstellung eines Online-Tools zur Analyse der Wahrscheinlichkeit der Suchmaschinenoptimierung auf einer Webseite
Das SEO-Tool ist eine Webanwendung, die die Wahrscheinlichkeit von Suchmaschinenoptimierung (SEO) auf einer Webseite ermittelt. Für die Berechnung der Wahrscheinlichkeit werden insgesamt 20 Merkmale halb-automatisch erhoben und in drei Prozessen ausgewertet. Dafür analysiert das Tool zuerst den Quelltext der URL auf Informationen über die Verwendung von SEO-Plugins und Analytics Tools. Zweitens bestimmt es die Kategorie der gegebenen URL anhand manuell klassifizierter Websites und schließlich berechnet es verschiedene technische und inhaltliche SEO-Indikatoren. Die Ergebnisse aus diesen Prozessen bilden anschließend die Basis für die Einordnung der URL anhand eines regelbasierten Klassifikators. Die Demo des Tools ist unter http://5.189.155.20:5000/ verfügbar
Relevance Assessment Tool: Ein Werkzeug zum Design von Retrievaltests sowie zur weitgehend automatisierten Erfassung, Aufbereitung und Auswertung von Daten
A relevance assessment tool to test the retrieval effectiveness of web search engines is presented
Vergleichende Analyse und szenariobasierte Usability Tests zur Evaluation der Gebrauchstauglichkeit neu gestarteter Suchmaschinen
Gegenstand dieser Arbeit ist die Analyse der Benutzbarkeit diverser Suchmaschinen. Die zu untersuchenden Suchmaschinen, waren einerseits neu gestartete Suchdienste, die in der Presse als mögliche Google-
Konkurrenten gehandelt wurden und andererseits die Websuchmaschine Google selbst. Durch diese Auswahl wurde geprüft, ob sich die neuen Suchdienste in der Benutzbarkeit am vermeintlichen Konkurrenten Google orientierten und ob die neuen Suchdienste Search Enginge Usability-Standards einhalten.
Durch Usability-Tests wurden Usability-Probleme aufgedeckt, die in der Anwendung der Suchdienste auftreten. Ferner werden die Usability-Tests auch genutzt, um die Effektivität, Effizienz und die Zufriedenheit der Probanden mit den Suchdiensten zu messen. Die Testgruppe bestand aus angehenden Informationsspezialisten, die bereits viel Erfahrung in der Informationsrecherche im World Wide Web haben.
Kernergebnisse:
Bei den Ergebnissen dieser Arbeit zeigt sich, dass die Suchmaschine Google
die meisten Usability-Kriterien einhielt sowie die höchste Effektivität und Effizienz in den Usability-Tests erreichte. Die Probanden waren auch am
zufriedensten in der Anwendung mit Google
Prototypische Entwicklung einer Software für die Erfassung und Analyse explorativer Suchen in Verbindung mit Tests zur Retrievaleffektivität
Gegenstand dieser Arbeit ist die Entwicklung eines funktionalen Prototyps
einer Webanwendung für die Verknüpfung der Evaluierung von explorativen Suchen in Verbindung mit der Durchführung klassisches Retrievaltests. Als Grundlage für die Programmierung des Prototyps werden benutzerorientierte und systemorientierte Evalulierungsmethoden für Suchmaschinen analysiert und in einem theoretischen Modell zur Untersuchung von Informationssysteme und Suchmaschinen kombiniert.
Bei der Gestaltung des Modells und des Prototyps wird gezeigt, wie sich
aufgezeichnete Aktionsdaten praktisch für die Suchmaschinenevaluierung verwenden lassen, um auf der einen Seite eine Datengrundlage für Retrievaltests zu gewinnen und andererseits, um für die Auswertung von Relevanzbewertungen auch das implizierte Feedback durch Handlungen der Anwender zu berücksichtigen.
Retrievaltests sind das gängige und erprobte Mittel zur Messung der
Retrievaleffektiviät von Informationssystemen und Suchmaschinen, verzichten aber auf eine Berücksichtigung des tatsächlichen Nutzerverhaltens. Eine Methode für die Erfassung der Interaktionen von Suchmaschinennutzern sind protokollbasierte Tests, mit denen sich Logdateien über Benutzer einer Anwendung generieren lassen. Die im Rahmen der Arbeit umgesetzte Software bietet einen Ansatz, Retrievaltests auf Basis protokollierter Nutzerdaten in Verbindung mit kontrollierten Suchaufgaben, durchzuführen.
Das Ergebnis dieser Arbeit ist ein fertiger funktionaler Prototyp, der in seinem Umfang bereits innerhalb von Suchmaschinenstudien nutzbar ist
Are Ads on Google Search Engine Results Pages Labeled Clearly Enough?
In an online experiment using a representative sample of the German online population (n = 1,000), we compare users’ selection behaviour on two versions of the same Google search engine results page (SERP), one showing advertisements and organic results, the other showing organic results only. Selection behaviour is analyzed in relation to users’ knowledge on Google’s business model, on SERP design, and on these users’ actual performance in marking advertisements on SERPs correctly. We find that users who were not able to mark ads correctly selected ads significantly more often. This leads to the conclusion that ads need to be labeled more clearly, and that there is a need for more information literacy in search engine users
Einflüsse auf die Ergebnisse kommerzieller Suchmaschinen : Modellbildung und empirische Ergebnisse
In diesem Beitrag stellen wir anhand eines Modells die von uns in den letzten Jahren durchgeführten empirischen Studien zu den Einflüssen auf die Suchergebnisse kommerzieller Suchmaschinen vor. Wir behandeln die Einflüsse durch die externen Akteursverbünde Suchmaschinenoptimierung, Suchmaschinenwerbung und Nutzende und zeigen die Wechselwirkungen zwischen diesen auf. Die Zusammenfassung der berichteten Studien zeigt die bisher gewonnenen Erkenntnisse und stellt diese in den Kontext. Weiterhin werden wichtige weitere Forschungsfragen identifiziert. Wir verdeutlichen, an welchen Stellen besonderes Potenzial für die informationswissenschaftliche Forschung besteht. Schließlich geben wir eine Übersicht der von uns veröffentlichten Datensätze und Software, welche für alle interessierten Forschenden frei zur Verfügung stehen.PeerReviewe