243 research outputs found

    Techno-economic viability of integrating satellite communication in 4G networks to bridge the broadband digital divide

    Get PDF
    Bridging the broadband digital divide between urban and rural areas in Europe is one of the main targets of the Digital Agenda for Europe. Though many technological options are proposed in literature, satellite communication has been identified as the only possible solution for the most rural areas, due to its global coverage. However, deploying an end-to-end satellite solution might, in some cases, not be cost-effective. The aim of this study is to give insights into the economic effectiveness of integrating satellite communications into 4G networks in order to connect the most rural areas (also referred to as white areas) in Europe. To this end, this paper proposes a converged solution that combines satellite communication as a backhaul network with 4G as a fronthaul network to bring enhanced broadband connectivity to European rural areas, along with a techno-economic model to analyse the economic viability of this integration. The model is based on a Total Cost of Ownership (TCO) model for 5 years, taking into account both capital and operational expenditures, and aims to calculate the TCO as well as the Average Cost Per User (ACPU) for the studied scenarios. We evaluate the suggested model by simulating a hypothetical use case for two scenarios. The first scenario is based on a radio access network connecting to the 4G core network via a satellite link. Results for this scenario show high operational costs. In order to reduce these costs, we propose a second scenario, consisting of caching the popular content on the edge to reduce the traffic carried over the satellite link. This scenario demonstrates a significant operational cost decrease (more than 60%), which also means a significant ACPU decrease. We evaluate the robustness of the results by simulating for a range of population densities, hereby also providing an indication of the economic viability of our proposed solution across a wider range of areas

    L’échec d’un projet de gestion des connaissances : cas d’une entreprise de conseil

    Get PDF
    A partir de l’étude d’un projet de gestion des connaissances mis en place dans une entreprise de conseil, nous avons cherché à comprendre la démarche suivie et le dispositif technologique utilisé. Au regard des résultats obtenus, nous chercherons à comprendre les raisons de son échec. La première partie concerne l’étude du cas alors que la seconde revient aux discours théoriques spécialisés pour élucider les motifs de cet échec et pour rappeler les principaux préalables à réunir pour mettre en place une gestion des connaissances efficiente.From the study of a knowledge management project developed in a consultancy firm, we sought to understand the approach and the used technological device. Given the results, we seek to understand the reasons of the failure of the project. The first part of the article presents the case study. In the second part, we build on theoretical discourses to elucidate the reasons for this failure and to remind the main prerequisites to develop an efficient knowledge management.Desde el estudio de un proyecto de gestión del conocimiento desarrollado en una empresa de consultoría, hemos tratado de entender el enfoque y la tecnología de dispositivo utilizado. Habida cuenta de los resultados que buscamos comprender las razones de su fracaso. La primera parte del estudio del caso mientras que el segundo está en el discurso teórico especializado para aclarar las razones de este fracaso y para recordar los principales requisitos a cumplir para desarrollar una eficaz gestión del conocimiento

    Entwicklung multifunktioneller Photoaffinitätslabels zur semisynthetischen Ausstattung von Michael-Akzeptoren

    Get PDF
    In der modernen pharmazeutischen Forschung bedeutet die Suche nach neuen Wirkstoffen oft eine jahrelange Entwicklungsarbeit, die mit beträchtlichen Kosten und einem hohen Grad an Ungewissheit verbunden ist. Aktuellen Schätzungen zufolge belaufen sich die Kosten für die Entwicklung eines neuen Arzneistoffes auf ca. 2.3 Milliarden Euro.[1] Der Prozess beginnt in der Regel mit der Identifizierung und Validierung eines biologischen Targets, meist ein Protein, dessen Modulierung von therapeutisch relevanter Bedeutung ist. Durch biochemische Charakterisierung des zuvor genannten Proteins wird ein Assay entwickelt, der die Untersuchung einer hohen Zahl verschiedenartiger Verbindungen hinsichtlich ihrer Bindungsstärke zum Target ermöglicht. Die besten Treffer werden ausgewählt und ihre strukturelle Beschaffenheit analysiert, sodass eine Leitstruktur definiert werden kann. Diese dient dann als „Ausgangspunkt“ für die Einführung chemischer Modifikationen, sodass anhand von Struktur-Wirkbeziehungsstudien Target-Affinität und physikochemische Eigenschaften des Wirkstoffs optimiert werden können.[2] Bei der Suche nach potenziellen Wirkstoffkandidaten spielen Naturstoffe nach wie vor eine wichtige Rolle. Etwa die Hälfte der 1328 zugelassenen Arzneimittel der letzten 30 Jahre waren entweder Naturstoffe, Naturstoffderivate oder aus Leitstrukturen abgeleitet, die in der Natur gefunden wurden.[3] Dies liegt zum Teil an ihrer hohen strukturellen Komplexität, die noch immer eine große Herausforderung für die organische Synthese darstellt. Darüber hinaus besitzen Naturstoffe häufig eine höhere Bioverfügbarkeit als synthetische Verbindungen, weil sie unter physiologischen Bedingungen gebildet werden und daher generell über ein Mindestmaß an Wasserlöslichkeit und Zellgängigkeit verfügen müssen. Tatsächlich gelten Lipinskis empirisch definierte Regeln zur Abschätzung der oralen Bioverfügbarkeit („Lipinski’s Rules of Five“) nicht für Naturstoffe.[4] Auch eignen sich Naturstoffe besonders für die Auffindung von Leitstrukturen, da ihre biosynthetische Herkunft eine evolutionäre Optimierung der Wechselwirkungen mit biologischen Zielstrukturen bedingte.[5,6] Sie bilden häufig individuelle Naturstoff-Familien, in denen die unterschiedlichen Vertreter leichte strukturelle Variationen, sowie abweichende pharmakologische Profile aufweisen

    Is "Better Data" Better than "Better Data Miners"? (On the Benefits of Tuning SMOTE for Defect Prediction)

    Full text link
    We report and fix an important systematic error in prior studies that ranked classifiers for software analytics. Those studies did not (a) assess classifiers on multiple criteria and they did not (b) study how variations in the data affect the results. Hence, this paper applies (a) multi-criteria tests while (b) fixing the weaker regions of the training data (using SMOTUNED, which is a self-tuning version of SMOTE). This approach leads to dramatically large increases in software defect predictions. When applied in a 5*5 cross-validation study for 3,681 JAVA classes (containing over a million lines of code) from open source systems, SMOTUNED increased AUC and recall by 60% and 20% respectively. These improvements are independent of the classifier used to predict for quality. Same kind of pattern (improvement) was observed when a comparative analysis of SMOTE and SMOTUNED was done against the most recent class imbalance technique. In conclusion, for software analytic tasks like defect prediction, (1) data pre-processing can be more important than classifier choice, (2) ranking studies are incomplete without such pre-processing, and (3) SMOTUNED is a promising candidate for pre-processing.Comment: 10 pages + 2 references. Accepted to International Conference of Software Engineering (ICSE), 201

    J.F. Chanlat (dir.), L'individu dans l'organisation: les dimensions oubliées

    Get PDF
    J.F. Chanlat (dir.), L’individu dans l’organisation : les dimensions oubliées

    دراسة تأثيرات عزوم القوى الخارجية على قمر صناعي مكعب بحجم U1

    Get PDF
    قمنا في هذا البحث بدراسة تأثير القوى الخارجية على قمر صناعي مكعب ذي حجم 1U وأبعاده 10*10*10  على ارتفاعات منخفضة تتراوح بين km  200 إلى km 600, بوزنKg1و Kg .331, والتي هي على شكل عزوم نابذة وعزوم جاذبة. ولقد تم حساب قيم البارامترات المدارية والتي تشمل السرعة الزاوية والسرعة المدارية وزمن المدار وزمن الظل للقمر الصناعي المكعب, باستخدام بيئة MATLAB/R2014a. إن طبيعة المدار الذي يدور ضمنه القمر الصناعي المكعب هو مدار دائري وبانزياح قطبي قيمته تقريباً  لكي يغطي منطقة سوريا أثناء حركته. بيَّنا في هذا البحث  بأن ارتفاع المدار يزيد من قيمة عزوم القوى الخارجية, باستثناء عزم الضغط الشمسي الذي ترتبط قيمته بمساحة السطح الأمامية للقمر الصناعي المكعب, وكذلك قيمة الكثافة الجوية عند نشاطات إشعاع شمسي مرتفع تزيد من قيمة العزم الأيروديناميكي, وكذلك قيمة العزم المغناطيسي. وعند زيادة  وزن القمر الصناعي المكعب من 1kg إلى kg1.33 مع المحافظة على أبعاده, فإن العزم المغناطيسي والعزم الأيروديناميكي وعزم تدرج الجاذبية الأرضية تزداد, باستثناء عزم الضغط الشمسي الذي لا يتأثر بهذه الزيادة مطلقاً, كما تزداد السرعة الزاوية والسرعة المدارية.

    Network slicing cost allocation model

    Get PDF
    Within the upcoming fifth generation (5G) mobile networks, a lot of emerging technologies, such as Software Defined Network (SDN), Network Function Virtualization (NFV) and network slicing are proposed in order to leverage more flexibility, agility and cost-efficient deployment. These new networking paradigms are shaping not only the network architectures but will also affect the market structure and business case of the stakeholders involved. Due to its capability of splitting the physical network infrastructure into several isolated logical sub-networks, network slicing opens the network resources to vertical segments aiming at providing customized and more efficient end-to-end (E2E) services. While many standardization efforts within the 3GPP body have been made regarding the system architectural and functional features for the implementation of network slicing in 5G networks, techno-economic analysis of this concept is still at a very incipient stage. This paper initiates this techno-economic work by proposing a model that allocates the network cost to the different deployed slices, which can then later be used to price the different E2E services. This allocation is made from a network infrastructure provider perspective. To feed the proposed model with the required inputs, a resource allocation algorithm together with a 5G network function (NF) dimensioning model are also proposed. Results of the different models as well as the cost saving on the core network part resulting from the use of NFV are discussed as well
    corecore