1,066 research outputs found
Culture and Code: The Evolution of Digital Architecture and the Formation of Networked Publics
Culture and Code traces the construction of the modern idea of the Internet and offers a potential glimpse of how that idea may change in the near future. Developed through a theoretical framework that links Sheila Jasanoff and Sang-Hyun Kim’s theory of the sociotechnical imaginary to broader theories on publics and counterpublics, Culture and Code offers a way to reframe the evolution of Internet technology and its culture as an enmeshed part of larger socio-political shifts within society. In traveling the history of the modern Internet as detailed in its technical documentation, legal documents, user created content, and popular media this dissertation positions the construction of the idea of the Internet and its technology as the result of an ongoing series of intersections and collisions between the sociotechnical imaginaries of three different publics: Implementors, Vendors, and Users. These publics were identified as the primary audiences of the 1989 Internet Engineering Task Force specification of the four-layer TCP/IP model that became a core part of our modern infrastructure. Using that model as a continued metaphor throughout the work, Culture and Code shows how each public’s sociotechnical imaginary developed, how they influenced and shaped one another, and the inevitable conflicts that arose leading to a coalescing sociotechnical imaginary that is centered around vendor control while continuing to project the ideal of the empowered user
Digital Twin Based User-Centric Resource Management for Multicast Short Video Streaming
Multicast short video streaming (MSVS) can effectively reduce network traffic
load by delivering identical video sequences to multiple users simultaneously.
The existing MSVS schemes mainly rely on the aggregated video requests to
reserve bandwidth and computing resources, which cannot satisfy users' diverse
and dynamic service requirements, particularly when users' swipe behaviors
exhibit spatiotemporal fluctuation. In this paper, we propose a user-centric
resource management scheme based on the digital twin (DT) technique, which aims
to enhance user satisfaction as well as reduce resource consumption. Firstly,
we design a user DT (UDT)-assisted resource reservation framework.
Specifically, UDTs are constructed for individual users, which store users'
historical data for updating multicast groups and abstracting useful
information. The swipe probability distributions and recommended video lists
are abstracted from UDTs to predict bandwidth and computing resource demands.
Parameterized sigmoid functions are leveraged to characterize multicast groups'
user satisfaction. Secondly, we formulate a joint non-convex bandwidth and
computing resource reservation problem which is transformed into a convex
piecewise problem by utilizing a tangent function to approximately substitute
the concave part. A low-complexity scheduling algorithm is then developed to
find the optimal resource reservation decisions. Simulation results based on
the real-world dataset demonstrate that the proposed scheme outperforms
benchmark schemes in terms of user satisfaction and resource consumption.Comment: 13 pages, 11 figure
A Service Integration Model of Value Creation: A Study of Commercial Online Communities
This paper presents a service integration model through a study of major for-profit online communities in both North America and China. Our study examines various types of communities and proposes particular means by which these communities might integrate their services with each other. Three integration strategies are identified: vertical integration, horizontal integration, and hybrid integration. The underlying mechanisms, as well as strategies that are needed to design and implement services, are also discussed
Designing Incentives Enabled Decentralized User Data Sharing Framework
Data sharing practices are much needed to strike a balance between user privacy, user experience, and profit. Different parties collect user data, for example, companies offering apps, social networking sites, and others, whose primary motive is an enhanced business model while giving optimal services to the end-users. However, the collection of user data is associated with serious privacy and security issues. The sharing platform also needs an effective incentive mechanism to realize transparent access to the user data while distributing fair incentives. The emerging literature on the topic includes decentralized data sharing approaches. However, there has been no universal method to track who shared what, to whom, when, for what purpose and under what condition in a verifiable manner until recently, when the distributed ledger technologies emerged to become the most effective means for designing a decentralized peer-to-peer network. This Ph.D. research includes an engineering approach for specifying the operations for designing incentives and user-controlled data-sharing platforms. The thesis presents a series of empirical studies and proposes novel blockchains- and smart contracts-based DUDS (Decentralized User Data Sharing) framework conceptualizing user-controlled data sharing practices. The DUDS framework supports immutability, authenticity, enhanced security, trusted records and is a promising means to share user data in various domains, including among researchers, customer data in e-commerce, tourism applications, etc. The DUDS framework is evaluated via performance analyses and user studies. The extended Technology Acceptance Model and a Trust-Privacy-Security Model are used to evaluate the usability of the DUDS framework. The evaluation allows uncovering the role of different factors affecting user intention to adopt data-sharing platforms. The results of the evaluation point to guidelines and methods for embedding privacy, user transparency, control, and incentives from the start in the design of a data-sharing framework to provide a platform that users can trust to protect their data while allowing them to control it and share it in the ways they want
Passive optical network (PON) monitoring using optical coding technology
Les réseaux optiques passifs (PON) semblent être la technologie gagnante et ultime du futur pour les "fibres jusqu'au domicile" ayant une haute capacité. L'écoute de contrôle de ce genre de système est nécessaire pour s'assurer un niveau de qualité de service prédéterminé pour chaque client. En outre, l'écoute de contrôle réduit considérablement les dépenses en capital et de fonctionnement (CAPEX et OPEX), tant pour le fournisseur du réseau que les clients. Alors que la capacité des PON est croissante, les gestionnaires de réseau ne disposent pas encore d'une technologie efficace et appropriée pour l'écoute de contrôle des réseaux de capacité aussi élevée. Une variété de solutions a été proposée. Toutes ces dernières solutions ne sont pas pratiques à cause de leur faible capacité (nombre de clients), d'une faible évolutivité, d'une grande complexité et des défis technologiques. Plus important encore, la technologie souhaitable pour l'écoute de contrôle devrait être rentable car le marché des PON est très sensible aux coûts. Dans cette thèse, nous considérons l'application de la technologie du codage optique passif (OC) comme une solution prometteuse pour l'écoute de contrôle centralisée d'un réseau optique ramifié tels que les réseaux PON. Dans la première étape, nous développons une expression pour le signal détecté par l'écoute de contrôle et étudions ses statistiques. Nous trouvons une nouvelle expression explicite pour le rapport signal utile/signal brouillé (SIR) comme outil de mesure métrique de performance. Nous considérons cinq distributions PON géographiques différentes et étudions leurs effets sur l'SIR pour l'écoute de contrôle d'OC. Dans la prochaine étape, nous généralisons notre modèle mathématique et ses expressions pour le contrôle des signaux détectés par un détecteur quadratique et des paramètres réalistes. Nous évaluons ensuite les performances théoriques de la technologie basée sur l'écoute de contrôle selon le rapport signal/bruit (SNR), le rapport signal/bruit plus coefficient d'interférence (SNIR), et la probabilité de fausse alarme. Nous élaborons l'effet de la puissance d'impulsion transmise, la taille du réseau et la cohérence de la source lumineuse sur le rendement des codes unidimensionnels (ID) et bidimensionnels (2D) de l'écoute de contrôle d'OC. Une conception optimale est également abordée. Enfin, nous appliquons les tests de Neyman-Pearson pour le récepteur de notre système d'écoute de contrôle et enquêtons sur la façon dont le codage et la taille du réseau affectent les dépenses de fonctionnement (OPEX) de notre système d'écoute de contrôle. Malgré le fait que les codes ID et 2D fournissent des performances acceptables, elles exigent des encodeurs avec un nombre élevé de composants optiques : ils sont encombrants, causent des pertes, et ils sont coûteux. Par conséquent, nous proposons un nouveau schéma de codage simple et plus approprié pour notre application de l'écoute de contrôle que nous appelons le codage périodique. Par simulation, nous évaluons l'efficacité de l'écoute de contrôle en terme de SNR pour un PON employant cette technologie. Ce système de codage est utilisé dans notre vérification expérimentale de l'écoute de contrôle d'OC. Nous étudions expérimentalement et par simulation, l'écoute de contrôle d'un PON utilisant la technologie de codage périodique. Nous discutons des problèmes de conception pour le codage périodique et les critères de détection optimale. Nous développons également un algorithme séquentiel pour le maximum de vraisemblance avec une complexité réduite. Nous menons des expériences pour valider notre algorithme de détection à l'aide de quatre encodeurs périodiques que nous avons conçus et fabriqués. Nous menons également des simulations de Monte-Carlo pour des distributions géographiques de PON réalistes, avec des clients situés au hasard. Nous étudions l'effet de la zone de couverture et la taille du réseau (nombre d'abonnés) sur l'efficacité de calcul de notre algorithme. Nous offrons une borne sur la probabilité pour un réseau donné d'entraîner l'algorithme vers un temps exorbitant de surveillance du réseau, c'est à dire le délai d'attente de probabilité. Enfin, nous soulignons l'importance du moyennage pour remédier aux restrictions budgétaires en puissance/perte dans notre système de surveillance afin de supporter de plus grandes tailles de réseaux et plus grandes portées de fibres. Ensuite, nous mettrons à niveau notre dispositif expérimental pour démontrer un m PON avec 16 clients. Nous utilisons un laser à modulation d'exploitation directement à 1 GHz pour générer les impulsions sonde. Les données mesurées par le dispositif expérimental est exploité par l'algorithme de MLSE à détecter et à localiser les clients. Trois déploiements PON différents sont réalisés. Nous démontrons une surveillance plus rigoureuse pour les réseaux ayant une répartition géographique à plusieurs niveaux. Nous étudions aussi le budget de la perte de notre dispositif de soutien plus élevés de capacités du réseau. Enfin, nous étudions le budget total admissible de la perte d'exploitation du système de surveillance dans la bande de fréquences à 1650 nm en fonction des spécifications de l'émetteur/récepteur. En particulier, la limite totale de la perte de budget est représentée en fonction du gain de l'amplicateure de transimpédance (TIA) et le résolution de la conversion analogique-numérique (ADC). Par ailleurs, nous enquêtons sur le compromis entre la distance portée et la capacité (taille de fractionnement au niveau du noeud distant) dans notre système de suivi
A federated content distribution system to build health data synchronization services
In organizational environments, such as in hospitals, data have to be processed, preserved, and shared with other organizations in a cost-efficient manner. Moreover, organizations have to accomplish different mandatory non-functional requirements imposed by the laws, protocols, and norms of each country. In this context, this paper presents a Federated Content Distribution System to build infrastructure-agnostic health data synchronization services. In this federation, each hospital manages local and federated services based on a pub/sub model. The local services manage users and contents (i.e., medical imagery) inside the hospital, whereas federated services allow the cooperation of different hospitals sharing resources and data. Data preparation schemes were implemented to add non-functional requirements to data. Moreover, data published in the content distribution system are automatically synchronized to all users subscribed to the catalog where the content was published.This work has been partially supported by the grant “CABAHLA-CM: Convergencia Big data-Hpc: de Los sensores a las Aplicaciones” (Ref: S2018/TCS-4423) of Madrid Regional Government; the Spanish Ministry of Science and Innovation Project ” New Data Intensive Computing Methods for High-End and Edge Computing Platforms (DECIDE)”. Ref. PID2019-107858GB-I00; and by the project 41756 “Plataforma tecnológica para la gestión, aseguramiento, intercambio y preservación de grandes volúmenes de datos en salud y construcción de un repositorio nacional de servicios de análisis de datos de salud” by the FORDECYT-PRONACES
Modeling and Control of the Ball and Beam Process
One of the most difficult problems that an engineer who works with modeling deals with, is the question about how to translate a physical phenomenon into a set of equations. It is usually difficult to capture all dynamics and phenomena, so one usually strives for a set of equations that describes the physical system approximately and adequately with the accuracy for the purpose. In our case, we model the dynamics relevant for control design. The topic of this thesis was to do an in-depth study of the Ball and Beam process. Two different experimental implementation of the Ball and Beam process have been considered, both available at the course lab at the Department of Automatic Control, Lund. The first step consisted of deriving the equations of motion, that is, to do the mathematical modeling of the process. In order to implement this model Modelica has been used. Modelica, which is a powerful language for modeling of physical systems, uses the tool Dymola. Another model was designed also with Modelica but with the help of the extension of the multi body library, which uses a methodology based on object orientation and symbolic manipulation of equations. With this last model it was possible to visualize an animation in real time 3D. The following step of the project was to do control design for the different models. The obtained simulations were shown in Dymola and Simulink. Finally experiments on the real process were developed, based on vision feedback
- …