9 research outputs found

    Exploring EDNS-client-subnet adopters in your free time

    Full text link

    Are IP Addresses "Personally Identifiable Information"?

    Get PDF

    Castle in the Air: A Domain Name System for Spectrum

    Get PDF
    This article envisions the foundational infrastructure for a true wireless Internet. The domain name system (DNS) for addressing allowed the Internet to scale as a decentralized, loosely-coupled system. A similar system for the wireless communication would allow devices to negotiate frequently assignments and other attributes dynamically. The traditional, static approach to spectrum allocation creates massive inefficiencies, which will become increasingly problematic as wireless demand grows. A DNS for spectrum could be based on the database the Federal Communications Commission recently mandated for devices operating in the “White Spaces” around broadcast television channels. Such an infrastructure would enable rapid growth and innovation in next-generation mobile devices and applications

    The Centripetal Network: How the Internet Holds Itself Together, and the Forces Tearing It Apart

    Get PDF
    Two forces are in tension as the Internet evolves. One pushes toward interconnected common platforms; the other pulls toward fragmentation and proprietary alternatives. Their interplay drives many of the contentious issues in cyberlaw, intellectual property, and telecommunications policy, including the fight over network neutrality for broadband providers, debates over global Internet governance, and battles over copyright online. These are more than just conflicts between incumbents and innovators, or between openness and deregulation. Their roots lie in the fundamental dynamics of interconnected networks. Fortunately, there is an interdisciplinary literature on network properties, albeit one virtually unknown to legal scholars. The emerging field of network formation theory explains the pressures threatening to pull the Internet apart, and suggests responses. The Internet as we know it is surprisingly fragile. To continue the extraordinary outpouring of creativity and innovation that the Internet fosters, policy-makers must protect its composite structure against both fragmentation and excessive concentration of power. This paper, the first to apply network formation models to Internet law, shows how the Internet pulls itself together as a coherent whole. This very process, however, creates and magnifies imbalances that encourage balkanization. By understanding how networks behave, governments and other legal decision-makers can avoid unintended consequences and target their actions appropriately. A network-theoretic perspective holds great promise to inform the law and policy of the information economy

    Web service monitoring and visualization of surveillance data

    Get PDF
    Verkkopalvelujen käytön seuraaminen on ajankohtainen ja kiinnostava tutkimuksen kohde, jota käsitellään kirjallisuudessa. Tutkimustyön tavoitteena oli toteuttaa verkkopalveluun käyttöä seuraava järjestelmä. Järjestelmän tehtävä oli tuottaa kerätyn tiedon perusteella verkkopalvelun ylläpitäjille, kehittäjille ja mahdollisesti muille sidosryhmille ajantasaista tietoa verkkopalvelun käytöstä. Työn teoriaosuudessa käytettiin pohjana verkkopalvelujen käytön seuraamiseen liittyvää kirjallisuutta. Työn empiirinen osuus toteutettiin Erimenu.fi-palveluun, joka on erityisruokavalion omaavan henkilön ruokavaliota tukeva verkkopalvelu. Erimenu.fi-verkkopalvelulla on päivittäin noin 500 käyttäjää, joka tekee tutkimuksessa käsiteltävästä tiedosta todellista. Tutkimustyössä esiteltiin kolme keskeisintä teknologista käytön seurantakeinoa, jotka olivat käytön seuranta 1) verkkopalvelun HTTP-palvelimella, 2) käyttäjän asiakasohjelmassa ja 3) sovellustasolla integroituna verkkopalveluun. Nämä kolme teknologista tapaa pystyttiin erittelemään verkkopalvelujen käytön seurantaan liittyvästä kirjallisuudesta. Seurannan mahdollistavien teknologisten ratkaisujen jälkeen selvitettiin millä tavoin valitulla seurantateknologialla kerätty tieto on mahdollista visualisoida. Työssä toteutettiin kerätyn teorian pohjalta verkkopalvelun käyttöä sovellustasolla seuraava käytön seurantajärjestelmä ja kerättyä tietoa visualisoivia näkymiä. Tutkimuksessa käytettiin kvantitatiivista tutkimusotetta, koska työssä toteutetun järjestelmän oli tarkoitus kerätä seurantatietoa automatisoidusti, joka rajoitti mahdollisuuksia kvalitatiivisen tiedon keräämiseen. Kvalitatiivinen tutkimusote otettiin huomioon työn teoriaosassa. Toteutustyö tehtiin Erimenu.fi-verkkopalveluun hyödyntämällä Python-ohjelmointikieleen perustuvaa Django-kehitysympäristöä. Toteutetun järjestelmän avulla mahdollistettiin etenkin verkkopalvelun tietosisältöihin liittyvän tiedon seuranta. Tehdyn käytön seurantajärjestelmän perusteella todettiin, että verkkopalveluun integroituvalla seurantajärjestelmällä on mahdollista seurata verkkopalvelun käyttöä tietyiltä osin huomattavasti laajemmin kuin muilla ratkaisumalleilla. Tutkimuksessa havaittiin, että verkkopalveluun liittyvää sisäistä tietoa ei ole mahdollista seurata ellei seurantajärjestelmää sisällytetä osaksi verkkopalvelua. Työn päätteeksi ratkaisumalleja arvioitiin monikriteerisen päätöksentekomallin avulla, jonka tueksi valittiin kirjallisuuden perusteella verkkopalvelun käytön seurantajärjestelmiä kuvaavia ominaisuuksia. /Kir1

    Impact of Location on Content Delivery

    Get PDF
    Steigende Benutzerzahlen und steigende Internetnutzung sind seit über 15 Jahren verantwortlich für ein exponentielles Wachstum des Internetverkehrs. Darüber hinaus haben neue Applikationen und Anwendungsfälle zu einer Veränderung der Eigenschaften des Verkehrs geführt. Zum Beispiel erlauben soziale Netze dem Benutzer die Veröffentlichung eigener Inhalte. Diese benutzergenerierten Inhalte werden häufig auf beliebten Webseiten wie YouTube, Twitter oder Facebook publiziert. Weitere Beispiele sind die Angebote an interaktiven oder multimedialen Inhalten wie Google Maps oder Fernsehdienste (IPTV). Die Einführung von Peer-to-Peer-Protokollen (P2P) im Jahre 1998 bewirkte einen noch radikaleren Wandel, da sie den direkten Austausch von großen Mengen an Daten erlauben: Die Peers übertragen die Daten ohne einen dazwischenliegenden, oft zentralisierten Server. Allerdings zeigen aktuelle Forschungsarbeiten, dass Internetverkehr wieder von HTTP dominiert wird, zum Großteil auf Kosten von P2P. Dieses Verkehrswachstum erhöht die Anforderungen an die Komponenten aus denen das Internet aufgebaut ist, z.B. Server und Router. Darüber hinaus wird der Großteil des Verkehrs von wenigen, sehr beliebten Diensten erzeugt. Die gewaltige Nachfrage nach solchen beliebten Inhalten kann nicht mehr durch das traditionelle Hostingmodell gedeckt werden, bei dem jeder Inhalt nur auf einem Server verfügbar gemacht wird. Stattdessen müssen Inhalteanbieter ihre Infrastruktur ausweiten, z.B. indem sie sie in großen Datenzentren vervielfältigen, oder indem sie den Dienst einer Content Distribution Infrastructure wie Akamai oder Limelight in Anspruch nehmen. Darüber hinaus müssen nicht nur die Anbieter von Inhalten sich der Nachfrage anpassen: Auch die Netzwerkinfrastruktur muss kontinuierlich mit der ständig steigenden Nachfrage mitwachsen. In dieser Doktorarbeit charakterisieren wir die Auswirkung von Content Delivery auf das Netzwerk. Wir nutzen Datensätze aus aktiven und aus passiven Messungen, die es uns ermöglichen, das Problem auf verschiedenen Abstraktionsebenen zu untersuchen: vom detaillierten Verhalten auf der Protokollebene von verschiedenen Content Delivery-Methoden bis hin zum ganzheitlichen Bild des Identifizierens und Kartographierens der Content Distribution Infrastructures, die für die populärsten Inhalte verantwortlich sind. Unsere Ergebnisse zeigen, dass das Cachen von Inhalten immer noch ein schwieriges Problem darstellt und dass die Wahl des DNS-Resolvers durch den Nutzer einen ausgeprägten Einfluß auf den Serverwahlmechanismus der Content Distribution Infrastructure hat. Wir schlagen vor, Webinhalte zu kartographieren, um darauf rückschließen zu können, wie Content Distribution Infrastructures ausgerollt sind und welche Rollen verschiedene Organisationen im Internet einnehmen. Wir schließen die Arbeit ab, indem wir unsere Ergebnisse mit zeitnahen Arbeiten vergleichen und geben Empfehlungen, wie man die Auslieferung von Inhalten weiter verbessern kann, an alle betroffenen Parteien: Benutzer, Internetdienstanbieter und Content Distribution Infrastructures.The increasing number of users as well as their demand for more and richer content has led to an exponential growth of Internet traffic for more than 15 years. In addition, new applications and use cases have changed the type of traffic. For example, social networking enables users to publish their own content. This user generated content is often published on popular sites such as YouTube, Twitter, and Facebook. Another example are the offerings of interactive and multi-media content by content providers, e.g., Google Maps or IPTV services. With the introduction of peer-to-peer (P2P) protocols in 1998 an even more radical change emerged because P2P protocols allow users to directly exchange large amounts of content: The peers transfer data without the need for an intermediary and often centralized server. However, as shown by recent studies Internet traffic is again dominated by HTTP, mostly at the expense of P2P. This traffic growth increases the demands on the infrastructure components that form the Internet, e.g., servers and routers. Moreover, most of the traffic is generated by a few very popular services. The enormous demand for such popular content cannot be satisfied by the traditional hosting model in which content is located on a single server. Instead, content providers need to scale up their delivery infrastructure, e.g., by using replication in large data centers or by buying service from content delivery infrastructures, e.g., Akamai or Limelight. Moreover, not only content providers have to cope with the demand: The network infrastructure also needs to be constantly upgraded to keep up with the growing demand for content. In this thesis we characterize the impact of content delivery on the network. We utilize data sets from both active and passive measurements. This allows us to cover a wide range of abstraction levels from a detailed protocol level view of several content delivery mechanisms to the high-level picture of identifying and mapping the content infrastructures that are hosting the most popular content. We find that caching content is still hard and that the user's choice of DNS resolvers has a profound impact on the server selection mechanism of content distribution infrastructures. We propose Web content cartography to infer how content distribution infrastructures are deployed and what the role of different organizations in the Internet is. We conclude by putting our findings in the context of contemporary work and give recommendations on how to improve content delivery to all parties involved: users, Internet service providers, and content distribution infrastructures

    DNS Complexity

    No full text
    corecore