31 research outputs found

    The WebStand Project

    Get PDF
    In this paper we present the state of advancement of the French ANR WebStand project. The objective of this project is to construct a customizable XML based warehouse platform to acquire, transform, analyze, store, query and export data from the web, in particular mailing lists, with the final intension of using this data to perform sociological studies focused on social groups of World Wide Web, with a specific emphasis on the temporal aspects of this data. We are currently using this system to analyze the standardization process of the W3C, through its social network of standard setters

    XML content warehousing: Improving sociological studies of mailing lists and web data

    Get PDF
    In this paper, we present the guidelines for an XML-based approach for the sociological study of Web data such as the analysis of mailing lists or databases available online. The use of an XML warehouse is a flexible solution for storing and processing this kind of data. We propose an implemented solution and show possible applications with our case study of profiles of experts involved in W3C standard-setting activity. We illustrate the sociological use of semi-structured databases by presenting our XML Schema for mailing-list warehousing. An XML Schema allows many adjunctions or crossings of data sources, without modifying existing data sets, while allowing possible structural evolution. We also show that the existence of hidden data implies increased complexity for traditional SQL users. XML content warehousing allows altogether exhaustive warehousing and recursive queries through contents, with far less dependence on the initial storage. We finally present the possibility of exporting the data stored in the warehouse to commonly-used advanced software devoted to sociological analysis

    La normalisation en matière de technologies de l'information et de la communication (TIC)

    Get PDF
    Rapport Scientifique du projet ANR2004 3 192Ce projet s’inscrit dans les priorités de la recherche française soucieuse d’encourager la connaissance scientifique en matière de technologies de l’information et de la communication. Il vise à démontrer que la standardisation est une étape déterminante de la structuration de nouveaux marchés, dans la mesure où ce travail permet à la fois un processus d’apprentissage et de construction collective de nouvelles avancées technologiques, et de conversion de ces avancées en succès industriel, ce que nous appelons un processus d’appropriation collective d’un format d’objet, qui prend le plus souvent, à l’exception des standards ouverts et de l’open source , la forme d’une monopolisation par le collectif. L’essor des TIC, s’il relève bien entendu de facteurs innovants et économiques, n’en est pas moins étroitement associé aux enjeux de standardisation des technologies, comme en témoigne, tout d’abord, l’histoire de ce secteur. Ainsi la typographie a sans doute été l’un des premiers objets techniques normalisés, le processus étant amorcé dès le XVIe siècle à l’échelle européenne. L’essor du télégraphe, des machines à écrire, et des micro-ordinateurs a accéléré ce mouvement de normalisation typographique au XXe siècle, sous l’impulsion d’organisations aussi diverses que l’Union Internationale des Télégraphes, l’International Standard Organization, le consortium Unicode, et même, plus récemment pour des signes comme @, le consortium W3C . De même l’invention du télégraphe en 1832 fut suivie en 1865 de la création de l’Union Internationale des Télégraphes (première organisation international à caractère permanent) devenue Union Internationale des Télécommunications en 1932. Créée en 1959, Conférence européenne des postes et télécommunications fut à l’origine du Groupe Spécial Mobile dont l’acronyme donna son nom au standard européen GSM. Internet lui-même fut l’objet d’efforts de normalisation (Request for Comments ou RFC) qui furent organisées au sein de l’Internet Engineering Task Force en 1986. Inventé en 1989 par Tim Bernees Lee, le Web qui n’intéressait alors que les chercheurs du CERN bénéficia dès 1994 d’une agence de normalisation dédiée le World Wide Web Consortium (W3C). Ainsi les innovations en matière de TIC sont très rapidement suivies d’institutions présidant à leur normalisation, au point que l’on puisse se demander si la standardisation ne constitue pas l’une des conditions de leur existence. La variété des arènes de normalisation dont le nombre n’a cessé de croître ces dernières années, est avant tout révélatrice de l’importance du standard dans ce secteur. En effet, pour que l’information circule et que la communication soit possible, il est nécessaire de recourir à des outils compatibles entre eux. La plus innovante des technologies, si elle n’est adoptée que par son concepteur, n’aura aucun avenir ; au point que l’on puisse se demander si la standardisation dans le domaine des TIC n’est pas la condition même par laquelle ces technologies parviennent à se diffuser. L’échec de la télématique face à Internet ou du CDMA en regard du GSM montre assez le poids que joue la standardisation dans l’avenir d’une technologie de l’information et de la communication. [...

    Intérêt diagnostique de la radiographie pulmonaire dans les pneumopathies infectieuses aiguës : une étude prospective observationnelle

    No full text
    Introduction : la radiographie pulmonaire est utilisée en systématique pour le diagnostic des pneumopathies aiguës infectieuses. Elle est recommandée par les sociétés savantes devant son accessibilité et sa faible irradiation. Pourtant, sa sensibilité et sa valeur prédictive positive sont faibles, impliquant des erreurs diagnostiques et de prescriptions. De nouvelles techniques, plus performantes mais encore trop couteuses pour être généralisées, existent. Nous avons voulu étudier l’utilisation des radiographies pulmonaires et son apport diagnostique, en comptabilisant notamment le nombre de changement diagnostique et/ou thérapeutique après réalisation d’un scanner thoracique. Matériel et méthode : nous avons réalisés une étude prospective observationnelle monocentrique. Tous les patients hospitalisés en infectiologie via un service d’urgences étaient inclus. Les patients venant d’un transfert d’un autre service ont été exclus. Résultats : 160 patients ont été investigué. 27 ayant un diagnostic établi dans d’autres services que ceux des urgences ont été exclus. Sur 133 patients restant, 27 n’ont pas eu d’imagerie thoracique (point d’appel infectieux non-pulmonaire), 13 ont eu un scanner directement et 93 ont eu une radiographie pulmonaire parmi lesquels 38 (40%) ont eu un scanner thoracique par la suite. 80% des scanners réalisés ont abouti en un changement de diagnostic ou de thérapeutique. Aucune des radiographies n’ont été interprétée par un radiologue, et 76% des clichés ne respectaient pas les critères de qualité radiologique recommandés par la société savante. Dans 65% des cas le clinicien alléguait que la radiographie du thorax n’apportait rien au diagnostic. Le délai moyen entre l’entrée du patient et la réalisation d’un scanner thoracique était de 95.7 heures (Écart type 83). Conclusion : Notre étude complète ce qui a déjà été rapporté dans la littérature récente. La radiographie du poumon n’a plus sa place dans le diagnostic des pneumopathies aiguë vues aux urgences. Son remplacement par le scanner et notamment le scanner base dose non injecté est maintenant nécessaire pour améliorer la pris en charge de ces patients

    Is the corporate elite disintegrating? Interlock boards and the Mizruchi hypothesis

    No full text
    International audienceThis paper proposes an approach for comparing interlocked board networks over time to test for statistically significant change. In addition to contributing to the conversation about whether the Mizruchi hypothesis (that a disintegration of power is occurring within the corporate elite) holds or not, we propose novel methods to handle a longitudinal investigation of a series of social networks where the nodes undergo a few modifications at each time point. Methodologically, our contribution is twofold: we extend a Bayesian model hereto applied to compare two time periods to a longer time period, and we define and employ the concept of a hull of a sequence of social networks, which makes it possible to circumvent the problem of changing nodes over time

    Tinea incognito: Primum non nocere

    No full text
    International audienc

    Pericarditis related to post-acute COVID infection: A case report and review of the literature

    No full text
    International audienceAbstract Cardiovascular involvement has been described in acute and recovered COVID-19 patients. Here, we present a case of symptomatic pericarditis with persistent symptoms for at least six months after the acute infection and report 66 published cases of pericarditis in discharged COVID patients. Patient mean age ± SD was 49.7 ± 13.3 years, ranging from 15 to 75 years and 57.6% were female. A proportion of 89.4% patients reported at least one comorbidity, with autoimmune and allergic disorders, hypertension and dyslipidaemia, as the most frequent. Only 8.3% of patients experienced severe symptoms of acute COVID-19. The time between acute COVID and pericarditis symptoms varied from 14 to 255 days. Chest pain (90.9%), tachycardia (60.0%) and dyspnoea (38.2%) were the most frequent symptoms in post-acute pericarditis. A proportion of 45.5% and 87% of patients had an abnormal electrocardiogram and abnormal transthoracic ultrasound, respectively. Colchicine combined with non-steroidal anti-inflammatory drug (NSAID) or acetylsalicylic acid (aspirin) were prescribed to 39/54 (72%) patients. Of them, 12 were switched to corticosteroid therapy due to non-response to the first-line treatment. Only 6 patients had persisting symptoms and were considered as non-respondent to therapy. Our report highlights that pericarditis should be suspected in COVID-19 patients with persistent chest pain and dyspnoea when pulmonary function is normal. Treatment with non-steroidal anti-inflammatory and colchicine is usually effective but corticosteroids are sometimes required

    La normalisation en matière de technologies de l'information et de la communication (TIC)

    Get PDF
    Rapport Scientifique du projet ANR2004 3 192Ce projet s’inscrit dans les priorités de la recherche française soucieuse d’encourager la connaissance scientifique en matière de technologies de l’information et de la communication. Il vise à démontrer que la standardisation est une étape déterminante de la structuration de nouveaux marchés, dans la mesure où ce travail permet à la fois un processus d’apprentissage et de construction collective de nouvelles avancées technologiques, et de conversion de ces avancées en succès industriel, ce que nous appelons un processus d’appropriation collective d’un format d’objet, qui prend le plus souvent, à l’exception des standards ouverts et de l’open source , la forme d’une monopolisation par le collectif. L’essor des TIC, s’il relève bien entendu de facteurs innovants et économiques, n’en est pas moins étroitement associé aux enjeux de standardisation des technologies, comme en témoigne, tout d’abord, l’histoire de ce secteur. Ainsi la typographie a sans doute été l’un des premiers objets techniques normalisés, le processus étant amorcé dès le XVIe siècle à l’échelle européenne. L’essor du télégraphe, des machines à écrire, et des micro-ordinateurs a accéléré ce mouvement de normalisation typographique au XXe siècle, sous l’impulsion d’organisations aussi diverses que l’Union Internationale des Télégraphes, l’International Standard Organization, le consortium Unicode, et même, plus récemment pour des signes comme @, le consortium W3C . De même l’invention du télégraphe en 1832 fut suivie en 1865 de la création de l’Union Internationale des Télégraphes (première organisation international à caractère permanent) devenue Union Internationale des Télécommunications en 1932. Créée en 1959, Conférence européenne des postes et télécommunications fut à l’origine du Groupe Spécial Mobile dont l’acronyme donna son nom au standard européen GSM. Internet lui-même fut l’objet d’efforts de normalisation (Request for Comments ou RFC) qui furent organisées au sein de l’Internet Engineering Task Force en 1986. Inventé en 1989 par Tim Bernees Lee, le Web qui n’intéressait alors que les chercheurs du CERN bénéficia dès 1994 d’une agence de normalisation dédiée le World Wide Web Consortium (W3C). Ainsi les innovations en matière de TIC sont très rapidement suivies d’institutions présidant à leur normalisation, au point que l’on puisse se demander si la standardisation ne constitue pas l’une des conditions de leur existence. La variété des arènes de normalisation dont le nombre n’a cessé de croître ces dernières années, est avant tout révélatrice de l’importance du standard dans ce secteur. En effet, pour que l’information circule et que la communication soit possible, il est nécessaire de recourir à des outils compatibles entre eux. La plus innovante des technologies, si elle n’est adoptée que par son concepteur, n’aura aucun avenir ; au point que l’on puisse se demander si la standardisation dans le domaine des TIC n’est pas la condition même par laquelle ces technologies parviennent à se diffuser. L’échec de la télématique face à Internet ou du CDMA en regard du GSM montre assez le poids que joue la standardisation dans l’avenir d’une technologie de l’information et de la communication. [...
    corecore