41 research outputs found

    Contents of volume 300

    Get PDF

    Acta Cybernetica : Volume 19. Number 1.

    Get PDF

    Computational Group Theory

    Get PDF
    This was the seventh workshop on Computational Group Theory. It showed that Computational Group Theory has significantly expanded its range of activities. For example, symbolic computations with groups and their representations and computations with infinite groups play a major role nowadays. The talks also presented connections and applications to cryptography, number theory and the algorithmic theory of algebras

    Combinatorial tools for computational group theory

    Full text link

    Acta Cybernetica : Volume 17. Number 3.

    Get PDF

    On the Finiteness of the Classifying Space for Virtually Cyclic Subgroups

    Get PDF
    This thesis mainly deals with finiteness properties of the classifying space for the family of virtually cyclic subgroups. We establish a link between the finiteness of the classifying space and the conjugacy growth invariant of the given group and use this connection to show that the classifying space for virtually cyclic subgroups is not of finite type except in trivial cases if the group is linear or a CAT(0) cube group. We also investigate the class of residually finite groups in this context and along the way come close to a classification of the finite groups which have only two conjugacy classes of maximal cyclic subgroups

    Annales Mathematicae et Informaticae (46.)

    Get PDF

    Mathematical Logic and Its Applications 2020

    Get PDF
    The issue "Mathematical Logic and Its Applications 2020" contains articles related to the following three directions: Descriptive Set Theory (3 articles). Solutions for long-standing problems, including those of A. Tarski and H. Friedman, are presented. Exact combinatorial optimization algorithms, in which the complexity relative to the source data is characterized by a low, or even first degree, polynomial (1 article). III. Applications of mathematical logic and the theory of algorithms (2 articles). The first article deals with the Jacobian and M. Kontsevich’s conjectures, and algorithmic undecidability; for these purposes, non-standard analysis is used. The second article provides a quantitative description of the balance and adaptive resource of a human. Submissions are invited for the next issue "Mathematical Logic and Its Applications 2021

    Inductive biases for efficient information transfer in artificial networks

    Full text link
    Malgré des progrès remarquables dans une grande variété de sujets, les réseaux de neurones éprouvent toujours des difficultés à exécuter certaines tâches simples pour lesquelles les humains excellent. Comme indiqué dans des travaux récents, nous émettons l'hypothèse que l'écart qualitatif entre l'apprentissage en profondeur actuel et l'intelligence humaine est le résultat de biais inductifs essentiels manquants. En d'autres termes, en identifiant certains de ces biais inductifs essentiels, nous améliorerons le transfert d'informations dans les réseaux artificiels, ainsi que certaines de leurs limitations actuelles les plus importantes sur un grand ensemble de tâches. Les limites sur lesquelles nous nous concentrerons dans cette thèse sont la généralisation systématique hors distribution et la capacité d'apprendre sur des échelles de temps extrêmement longues. Dans le premier article, nous nous concentrerons sur l'extension des réseaux de neurones récurrents (RNN) à contraintes spectrales et proposerons une nouvelle structure de connectivité basée sur la décomposition de Schur, en conservant les avantages de stabilité et la vitesse d'entraînement des RNN orthogonaux tout en améliorant l'expressivité pour les calculs complexes à court terme par des dynamiques transientes. Cela sert de première étape pour atténuer le problème du "exploding vanishing gradient" (EVGP). Dans le deuxième article, nous nous concentrerons sur les RNN avec une mémoire externe et un mécanisme d'auto-attention comme un moyen alternatif de résoudre le problème du EVGP. Ici, la contribution principale sera une analyse formelle sur la stabilité asymptotique du gradient, et nous identifierons la pertinence d'événements comme un ingrédient clé pour mettre à l'échelle les systèmes d'attention. Nous exploitons ensuite ces résultats théoriques pour fournir un nouveau mécanisme de dépistage de la pertinence, qui permet de concentrer l'auto-attention ainsi que de la mettre à l'échelle, tout en maintenant une bonne propagation du gradient sur de longues séquences. Enfin, dans le troisième article, nous distillons un ensemble minimal de biais inductifs pour les tâches cognitives purement relationnelles et identifions que la séparation des informations relationnelles des entrées sensorielles est un ingrédient inductif clé pour la généralisation OoD sur des entrées invisibles. Nous discutons en outre des extensions aux relations non-vues ainsi que des entrées avec des signaux parasites.Despite remarkable advances in a wide variety of subjects, neural networks are still struggling on simple tasks humans excel at. As outlined in recent work, we hypothesize that the qualitative gap between current deep learning and human-level artificial intelligence is the result of missing essential inductive biases. In other words, by identifying some of these key inductive biases, we will improve information transfer in artificial networks, as well as improve on some of their current most important limitations on a wide range of tasks. The limitations we will focus on in this thesis are out-of-distribution systematic generalization and the ability to learn over extremely long-time scales. In the First Article, we will focus on extending spectrally constrained Recurrent Neural Networks (RNNs), and propose a novel connectivity structure based on the Schur decomposition, retaining the stability advantages and training speed of orthogonal RNNs while enhancing expressivity for short-term complex computations via transient dynamics. This serves as a first step in mitigating the Exploding Vanishing Gradient Problem (EVGP). In the Second Article, we will focus on memory augmented self-attention RNNs as an alternative way to tackling the Exploding Vanishing Gradient Problem (EVGP). Here the main contribution will be a formal analysis on asymptotic gradient stability, and we will identify event relevancy as a key ingredient to scale attention systems. We then leverage these theoretical results to provide a novel relevancy screening mechanism, which makes self-attention sparse and scalable, while maintaining good gradient propagation over long sequences. Finally, in the Third Article, we distill a minimal set of inductive biases for purely relational cognitive tasks, and identify that separating relational information from sensory input is a key inductive ingredient for OoD generalization on unseen inputs. We further discuss extensions to unseen relations as well as settings with spurious features
    corecore