4,287 research outputs found

    Scale-Free Random SAT Instances

    Full text link
    We focus on the random generation of SAT instances that have properties similar to real-world instances. It is known that many industrial instances, even with a great number of variables, can be solved by a clever solver in a reasonable amount of time. This is not possible, in general, with classical randomly generated instances. We provide a different generation model of SAT instances, called \emph{scale-free random SAT instances}. It is based on the use of a non-uniform probability distribution P(i)∼i−βP(i)\sim i^{-\beta} to select variable ii, where β\beta is a parameter of the model. This results into formulas where the number of occurrences kk of variables follows a power-law distribution P(k)∼k−δP(k)\sim k^{-\delta} where δ=1+1/β\delta = 1 + 1/\beta. This property has been observed in most real-world SAT instances. For β=0\beta=0, our model extends classical random SAT instances. We prove the existence of a SAT-UNSAT phase transition phenomenon for scale-free random 2-SAT instances with β<1/2\beta<1/2 when the clause/variable ratio is m/n=1−2β(1−β)2m/n=\frac{1-2\beta}{(1-\beta)^2}. We also prove that scale-free random k-SAT instances are unsatisfiable with high probability when the number of clauses exceeds ω(n(1−β)k)\omega(n^{(1-\beta)k}). %This implies that the SAT/UNSAT phase transition phenomena vanishes when β>1−1/k\beta>1-1/k, and formulas are unsatisfiable due to a small core of clauses. The proof of this result suggests that, when β>1−1/k\beta>1-1/k, the unsatisfiability of most formulas may be due to small cores of clauses. Finally, we show how this model will allow us to generate random instances similar to industrial instances, of interest for testing purposes

    How functional programming mattered

    Get PDF
    In 1989 when functional programming was still considered a niche topic, Hughes wrote a visionary paper arguing convincingly ‘why functional programming matters’. More than two decades have passed. Has functional programming really mattered? Our answer is a resounding ‘Yes!’. Functional programming is now at the forefront of a new generation of programming technologies, and enjoying increasing popularity and influence. In this paper, we review the impact of functional programming, focusing on how it has changed the way we may construct programs, the way we may verify programs, and fundamentally the way we may think about programs

    Une odyssée de la communication classique au calcul quantique tolérant aux fautes

    Get PDF
    Cette thèse traite principalement de la protection de l'information. Non pas au sens de protection des renseignements privés dont on entend souvent parler dans les médias, mais plutôt au sens de robustesse à la corruption des données. En effet, lorsque nous utilisons un cellulaire pour envoyer un texto, plusieurs facteurs, comme les particules atmosphériques et l'interférence avec d'autres signaux, peuvent modifier le message initial. Si nous ne faisons rien pour protéger le signal, il est peu probable que le contenu du texto reste inchangé lors de la réception. C'est ce problème qui a motivé le premier projet de recherche de cette thèse. Sous la supervision du professeur David Poulin, j'ai étudié une généralisation des codes polaires, une technologie au coeur du protocole de télécommunication de 5\textsuperscript{ième} génération (5G). Pour cela, j'ai utilisé les réseaux de tenseurs, outils mathématiques initialement développés pour étudier les matériaux quantiques. L'avantage de cette approche est qu'elle permet une représentation graphique intuitive du problème, ce qui facilite grandement le développement des algorithmes. À la suite de cela, j'ai étudié l'impact de deux paramètres clés sur la performance des codes polaires convolutifs. En considérant le temps d'exécution des protocoles, j'ai identifié les valeurs de paramètres qui permettent de mieux protéger l'information à un coût raisonnable. Ce résultat permet ainsi de mieux comprendre comment améliorer les performances des codes polaires, ce qui a un grand potentiel d'application en raison de l'importance de ces derniers. Cette idée d'utiliser des outils mathématiques graphiques pour étudier des problèmes de protection de l'information sera le fil conducteur dans le reste de la thèse. Cependant, pour la suite, les erreurs n'affecteront plus des systèmes de communications classiques, mais plutôt des systèmes de calcul quantique. Comme je le présenterai dans cette thèse, les systèmes quantiques sont naturellement beaucoup plus sensibles aux erreurs. À cet égard, j'ai effectué un stage au sein de l'équipe de Microsoft Research, principalement sous la supervision de Michael Beverland, au cours duquel j'ai conçu des circuits permettant de mesurer un système quantique afin d'identifier les potentielles fautes qui affectent celui-ci. Avec le reste de l'équipe, nous avons prouvé mathématiquement que les circuits que j'ai développés sont optimaux. Ensuite, j'ai proposé une architecture pour implémenter ces circuits de façon plus réaliste en laboratoire et les simulations numériques que j'ai effectuées ont démontré des résultats prometteurs pour cette approche. D'ailleurs, ce résultat a été accueilli avec grand intérêt par la communauté scientifique et a été publié dans la prestigieuse revue \textit{Physical Review Letters}. Pour complémenter ce travail, j'ai collaboré avec l'équipe de Microsoft pour démontrer analytiquement que les architectures actuelles d'ordinateurs quantiques reposant sur des connexions locales entre les qubits ne suffiront pas pour la réalisation d'ordinateurs de grandes tailles protégés des erreurs. L'ensemble de ces résultats sont inspirés de méthodes issues de la théorie des graphes et plus particulièrement des méthodes de représentation des graphes dans un espace en deux dimensions. L'utilisation de telles méthodes pour le design de circuits et d'architectures quantiques est également une approche novatrice. J'ai terminé ma thèse sous la supervision du professeur Stefanos Kourtis. Avec celui-ci, j'ai créé une méthode, fondée sur la théorie des graphes et des méthodes d'informatique théorique, qui permet de concevoir automatiquement de nouveaux protocoles de correction des erreurs dans un système quantique. La méthode que j'ai conçue repose sur la résolution d'un problème de satisfaction de contraintes. Ce type de problème est généralement très difficile à résoudre. Cependant, il existe pour ces derniers un paramètre critique. En variant ce paramètre, le système passe d'une phase où les instances sont facilement résolubles vers une phase où il est facile de montrer qu'il n'y pas de solution. Les problèmes difficiles sont alors concentrés autour de cette transition. À l'aide d'expériences numériques, j'ai montré que la méthode proposée a un comportement similaire. Cela permet de montrer qu'il existe un régime où il est beaucoup plus facile que ce que le croyait la communauté de concevoir des protocoles de corrections des erreurs quantiques. De plus, en autant que je sache,l'article qui a résulté de ce travail est le premier qui met de l'avant ce lien entre la construction de protocoles de corrections des erreurs, les problèmes de satisfaction de contraintes et les transitions de phases

    ‘I Don’t Really Get It’: An Ethnographic Investigation of the National School Lunch Program of Middle School Children in New Jersey

    Get PDF
    In light of the obesity epidemic, the National School Lunch Program (NSLP) has been extensively analyzed and criticized. Thus far, literature examining the NSLP has focused on what foods are provided rather than what is actually eaten. Additionally, there is limited research on the socialization effects of school lunch and childhood foodways within a school setting. The socialization of children during household mealtimes has been extensively studied, but these studies have been limited to the family dinner table. The purpose of this ethnographic study is to determine how children are socialized during school lunch and to examine the extent to which children understand health and nutrition. Semi-structured interviews were conducted with students from a middle school in northern New Jersey. The participants were also observed during various lunch periods in the school cafeteria. Faculty members and lunch service workers were also informally interviewed. The data from the participant interviews and lunchroom observations was synthesized and the analysis of the data revealed common thematic elements: gender, nutritional discourse, commensality, and socialization mechanisms. During school lunch, children sit with students of their own gender, so male and female students are socialized differently. Observations indicate that female students are more likely to share food at the lunch table and male students are more physically active and are less likely to finish their meals. The interviews suggested that children have a basic and profound understanding of health and nutrition which is primarily learned at home. The observations suggest that the mechanism of linguistic socialization deviates from the narrative structure described in the mealtime literature; children reinforce gender roles during lunch time conversations, but their conversations follow different narrative structures. In the context of the obesity crisis, this study reveals the importance of school lunch on socialization and its effects on students’ food choices

    Constrained Distance Based Clustering for Satellite Image Time-Series

    Get PDF
    International audienceThe advent of high-resolution instruments for time-series sampling poses added complexity for the formal definition of thematic classes in the remote sensing domain-required by supervised methods-while unsupervised methods ignore expert knowledge and intuition. Constrained clustering is becoming an increasingly popular approach in data mining because it offers a solution to these problems, however, its application in remote sensing is relatively unknown. This article addresses this divide by adapting publicly available constrained clustering implementations to use the dynamic time warping (DTW) dissimilarity measure, which is sometimes used for time-series analysis. A comparative study is presented, in which their performance is evaluated (using both DTW and Euclidean distances). It is found that adding constraints to the clustering problem results in an increase in accuracy when compared to unconstrained clustering. The output of such algorithms are homogeneous in spatially defined regions. Declarative approaches and k-Means based algorithms are simple to apply, requiring little or no choice of parameter values. Spectral methods, however, require careful tuning, which is unrealistic in a semi-supervised setting, although they offer the highest accuracy. These conclusions were drawn from two applications: crop clustering using 11 multi-spectral Landsat images non-uniformly sampled over a period of eight months in 2007; and tree-cut detection using 10 NDVI Sentinel-2 images non-uniformly sampled between 2016 and 2018

    Ariel - Volume 8 Number 4

    Get PDF
    Executive Editor James W. Lockard Jr. Issues Editor Neeraj K. Kanwal Business Manager Neeraj K. Kanwal University News Martin Trichtinger World News Doug Hiller Opinions Elizabeth A. McGuire Features Patrick P. Sokas Sports Desk Shahab S. Minassian Managing Editor Edward H. Jasper Managing Associate Brenda Peterson Photography Editor Robert D. Lehman, Jr. Graphics Christine M. Kuhnl

    Spartan Daily, March 31, 1998

    Get PDF
    Volume 110, Issue 41https://scholarworks.sjsu.edu/spartandaily/9257/thumbnail.jp

    v. 72, issue 16, March 25, 2005

    Get PDF
    • …
    corecore