7 research outputs found

    Autonomic service hosting for large-scale distributed MOVE-services

    Get PDF

    Passage à l'échelle pour les mondes virtuels

    Get PDF
    Virtual worlds attract millions of users and these popular applications --supported by gigantic data centers with myriads of processors-- are routinely accessed. However, surprisingly, virtual worlds are still unable to host simultaneously more than a few hundred users in the same contiguous space.The main contribution of the thesis is Kiwano, a distributed system enabling an unlimited number of avatars to simultaneously evolve and interact in a contiguous virtual space. In Kiwano we employ the Delaunay triangulation to provide each avatar with a constant number of neighbors independently of their density or distribution. The avatar-to-avatar interactions and related computations are then bounded, allowing the system to scale. The load is constantly balanced among Kiwano's nodes which adapt and take in charge sets of avatars according to their geographic proximity. The optimal number of avatars per CPU and the performances of our system have been evaluated simulating tens of thousands of avatars connecting to a Kiwano instance running across several data centers, with results well beyond the current state-of-the-art.We also propose Kwery, a distributed spatial index capable to scale dynamic objects of virtual worlds. Kwery performs efficient reverse geolocation queries on large numbers of moving objects updating their position at arbitrary high frequencies. We use a distributed spatial index on top of a self-adaptive tree structure. Each node of the system hosts and answers queries on a group of objects in a zone, which is the minimal axis-aligned rectangle. They are chosen based on their proximity and the load of the node. Spatial queries are then answered only by the nodes with meaningful zones, that is, where the node's zone intersects the query zone.Kiwano has been successfully implemented for HybridEarth, a mixed reality world, Manycraft, our scalable multiplayer Minecraft map, and discussed for OneSim, a distributed Second Life architecture. By handling avatars separately, we show interoperability between these virtual worlds.With Kiwano and Kwery we provide the first massively distributed and self-adaptive solutions for virtual worlds suitable to run in the cloud. The results, in terms of number of avatars per CPU, exceed by orders of magnitude the performances of current state-of-the-art implementations. This indicates Kiwano to be a cost effective solution for the industry. The open API for our first implementation is available at \url{http://kiwano.li}.La réalité mixe, les jeux en ligne massivement multijoueur (MMOGs), les mondes virtuels et le cyberespace sont des concepts extrêmement attractifs. Mais leur déploiement à large échelle reste difficile et il est en conséquence souvent évité.La contribution principale de la thèse réside dans le système distribué Kiwano, qui permet à un nombre illimité d'avatars de peupler et d'interagir simultanément dans un même monde contigu. Dans Kiwano nous utilisons la triangulation de Delaunay pour fournir à chaque avatar un nombre constant de voisins en moyenne, indépendamment de leur densité ou distribution géographique. Le nombre d'interactions entre les avatars et les calculs inhérents sont bornés, ce qui permet le passage à l'échelle du système.La charge est repartie sur plusieurs machines qui regroupent sur un même nœud les avatars voisins de façon contiguë dans le graphe de Delaunay. L'équilibrage de la charge se fait de manière contiguë et dynamique, en suivant la philosophie des réseaux pair-à-pair (peer-to-peer overlays). Cependant ce principe est adapté au contexte de l'informatique dématérialisée (cloud computing).Le nombre optimal d'avatars par CPU et les performances de notre système ont été évalués en simulant des dizaines de milliers d'avatars connectés à la même instance de Kiwano tournant à travers plusieurs centres de traitement de données.Nous proposons également trois applications concrètes qui utilisent Kiwano : Manycraft est une architecture distribuée capable de supporter un nombre arbitrairement grand d'utilisateurs cohabitant dans le même espace Minecraft, OneSim, qui permet à un nombre illimité d'usagers d'être ensemble dans la même région de Second Life et HybridEarth, un monde en réalité mixte où avatars et personnes physiques sont présents et interagissent dans un même espace: la Terre

    Architecture de rebalancement dynamique pour jeux massivement multijoueurs en ligne fonctionnant sur réseaux pair-à-pair

    Get PDF
    Résumé L'industrie des jeux vidéos a connu une forte explosion ces dernières années. En particulier, un tout nouveau genre de jeux, les jeux massivement multijoueurs en ligne, a connu une forte popularisation. Ces jeux se caractérisent par un environnement virtuel immense et persistant qui est continuellement actif et évolutif. À la différence des autres jeux, les jeux massivement multijoueurs en ligne intègrent des milliers de joueurs qui participent au sein du même univers commun à tous. À l'heure actuelle, la gestion informatique de tels univers nécessite beaucoup de ressources et constitue un défi de taille afin de s'adapter au nombre toujours croissant de joueurs. Le modèle client-serveur est actuellement utilisé, mais ce dernier s'avère éventuellement limité puisqu'il arrive un point où la puissance d'une seule machine ne suffit plus à assurer la prise en charge de tous les joueurs. L'utilisation d'un modèle pair-à-pair constitue une approche intéressante puisqu'il permet de redistribuer la charge de traitement requise pour assurer la maintenance du jeu aux noeuds-joueurs eux-mêmes. Certaines approches pair-à-pair ont été proposées dans la littérature. Nous proposons d'aller un peu plus loin en proposant une approche hybride flexible capable de s'adapter automatiquement aux conditions actuelles en cours de jeu. Plus précisément, notre approche propose de découper dynamiquement le territoire du jeu et d'assigner chaque parcelle à un noeud serveur choisi arbitrairement parmi les joueurs participant actuellement au jeu. Le modèle propose ensuite d'analyser continuellement la charge réseau imposée à chaque noeud et d'appliquer automatiquement des opérations de rebalancement pour redistribuer la charge afin d'assurer une qualité de jeu optimale pour tous. À cette fin, une plate-forme de simulation implémentant le modèle proposé a été construite afin d'évaluer le fonctionnement du modèle sous différentes conditions. Plusieurs simulations complètes de longue durée ont été réalisées. À partir des données produites par ces simulations, nous avons étudié la charge consommée par le serveur central par rapport au modèle client-serveur classique. Nous avons également étudié la charge imposée à chaque noeud serveur pour s'assurer que la capacité maximale n'était pas dépassée et que la latence demeurait dans des valeurs raisonnables. Les simulations les plus restrictives au niveau des paramètres ont montré que dans certaines situations limites (un très grand nombre de joueurs sont rassemblées dans une région restreinte, ou alors la capacité des noeuds est trop faible), le modèle peut avoir de la difficulté à maintenir une bonne répartition de charge. À l'inverse, nous avons déterminé que sous des conditions typiques (capacité des noeuds, distribution des joueurs, taille du monde virtuel), le modèle est pleinement fonctionnel et permet d'assurer une qualité de jeu très satisfaisante pour pratiquement l'ensemble des joueurs, et ce, malgré les fluctuations et changements à l'univers virtuel survenant continuellement en cours de jeu. Nous pouvons donc conclure en disant que le modèle proposé constitue une alternative fonctionnelle et efficace au modèle client-serveur actuellement mis en place.----------Abstract In the recent years, the video game industry has been given much attention. More specifically, a new game genre, massive multiplayer online games (MMOG), has emerged. MMOG games feature a very large and persistent virtual universe that always remains active and evolves continuously. Contrary to other traditional multiplayer games, massively multiplayer online games typically have thousands of simultaneous connected players. As for the moment, managing such complex game universes takes a lot of system resources. Furthermore, adapting to the uctuing number of game players is an important challenge. As of today, massively multiplayer online games use the so-called client-server model, but this model is limited by the fact that a single machine cannot handle more than a given number of players. A peer-to-peer model is a more interesting approach since it allows redistributing game maintenance load to all player nodes. Some peer-to-peer approaches propose have been proposed in the litterature. We propose going farther by proposing a exible hybrid architecture that can adapt itself to current game conditions. More precisely, our approach propose dynamically splitting the game territory into a given number of pieces and assigning each \piece" to an arbitrarily-chosen server node from the currently participating players. The proposed model then propose continuously analyzing the network load for each game zone and automatically applying rebalancing operations to redistribute the load, eectively leading to a better game quality for all players, in all conditions. A simulation patform implementing the proposed model has been developped. This platform, called the \simulator", has been built to evaluate our model operates under dierent conditions. Many complete simulations have been performed. Those simulations have been run for a long time lapse. Data samples have then been produced from the performed simulations. We proceeded to study the load consumed by the central server using the proposed model and compared it against the client-server model. We also studied the load imposed to each server node to ensure the maximal allowable load wasn't exceeded and made sure that the latency was within an acceptable range. The simulations with the more restrictive parameters demonstrated that under some critical situations (such as a very large number of players located in a small area or such as a very low node load threshold), the proposed model may have trouble maintaining a good load balancing. Inversely, we have determined that under typical conditions (node load threshold, player distribution, virtual world size), the model is fully functional and ensures an excellent game quality for pratically all players, despite the constantly-evolving nature of MMOG games. Consequently, we can conclude by saying that the proposed model is a functional and ecient alternative to the traditional client-server typically used in today's applications

    Discrete Event Simulations

    Get PDF
    Considered by many authors as a technique for modelling stochastic, dynamic and discretely evolving systems, this technique has gained widespread acceptance among the practitioners who want to represent and improve complex systems. Since DES is a technique applied in incredibly different areas, this book reflects many different points of view about DES, thus, all authors describe how it is understood and applied within their context of work, providing an extensive understanding of what DES is. It can be said that the name of the book itself reflects the plurality that these points of view represent. The book embraces a number of topics covering theory, methods and applications to a wide range of sectors and problem areas that have been categorised into five groups. As well as the previously explained variety of points of view concerning DES, there is one additional thing to remark about this book: its richness when talking about actual data or actual data based analysis. When most academic areas are lacking application cases, roughly the half part of the chapters included in this book deal with actual problems or at least are based on actual data. Thus, the editor firmly believes that this book will be interesting for both beginners and practitioners in the area of DES

    The Largest Unethical Medical Experiment in Human History

    Get PDF
    This monograph describes the largest unethical medical experiment in human history: the implementation and operation of non-ionizing non-visible EMF radiation (hereafter called wireless radiation) infrastructure for communications, surveillance, weaponry, and other applications. It is unethical because it violates the key ethical medical experiment requirement for “informed consent” by the overwhelming majority of the participants. The monograph provides background on unethical medical research/experimentation, and frames the implementation of wireless radiation within that context. The monograph then identifies a wide spectrum of adverse effects of wireless radiation as reported in the premier biomedical literature for over seven decades. Even though many of these reported adverse effects are extremely severe, the true extent of their severity has been grossly underestimated. Most of the reported laboratory experiments that produced these effects are not reflective of the real-life environment in which wireless radiation operates. Many experiments do not include pulsing and modulation of the carrier signal, and most do not account for synergistic effects of other toxic stimuli acting in concert with the wireless radiation. These two additions greatly exacerbate the severity of the adverse effects from wireless radiation, and their neglect in current (and past) experimentation results in substantial under-estimation of the breadth and severity of adverse effects to be expected in a real-life situation. This lack of credible safety testing, combined with depriving the public of the opportunity to provide informed consent, contextualizes the wireless radiation infrastructure operation as an unethical medical experiment
    corecore