Neural networks are shown to be a class of non-linear adaptive filters,
which can be trained permanently with a possibly infinite number of timeordered
examples ; this is an altogether différent framework from the
usual, non-adaptive training of neural networks . A family of new gradientbased
algorithms is proposed.Nous introduisons une famille d'algorithmes adaptatifs permettant l'utilisation de réseaux de neurones comme filtres adaptatifs non linéaires, systèmes susceptibles de subir un apprentissage permanent à partir d'un nombre éventuellement infini d'exemples présentés dans un ordre déterminé. Ces algorithmes, fondés sur des techniques d'évaluation du gradient d'une fonction de coût, s'inscrivent dans un cadre différent de celui de l'apprentissage classique des réseaux de neurones, qui est habituellement non adaptati