27 research outputs found

    前向代数神经网络的函数逼近理论及学习算法

    No full text
    文中对MP神经元模型进行了推广,定义了多项式代数神经元、多项式代数神经网络,将多项式代数融入代数神经网络,分析了前向多项式代数神经网络函数逼近能力及理论依据,设计出了一类双输入单输出的前向4层多项式代数神经网络模型,由该模型构成的网络能够逼近于给定的二元多项式到预定的精度.给出了在P-adic意义下的多项式代数神经网络函数逼近整体学习算法,在学习的过程中,不存在局部极小,通过实例表明,该算法有效.最后,指出FLANN中函数展开型网络均可由神经元的激发函数变换来实现,为近似符号网络计算提供一新理论和方法

    Research on ComponentMode MB Based on Relational Database

    Get PDF
    构件式模型库是由大量模型构件组成。一个模型构件可以生成多个实例,模型实例在赋予相应的属性、参数后就可以组合到最终解决实际决策问题的决策模型中。文中介绍一种基于关系数据库的构件式模型库的实现,包括模型构件与模型实例的表示、模型的组合、组合模型的运行。Component-mode MB is made up of large number of model components . A model component can create more than one model instance, which can be used to make up of decision models.Here recommended the implementation of a kind of component_mode MB based on relational database in this paper , including the expression of model component and model instance ,the combination of models, the execution of component models

    用Delphi编写免安装的数据库应用程序

    No full text
    本文介绍在 Delphi中编写免安装的数据库应用程序的实现方法

    求解TSP的人工萤火虫群优化算法

    No full text
    人工萤火虫群优化算法是一种新型群体智能算法,已在复杂多目标函数优化方面得到了成功的应用,并表现出良好的性能.为了充分发挥人工萤火虫群优化算法的优点,将该算法与C2Opt算子相结合,设计了求解旅行商问题(TSP)的一个新的高效人工萤火虫群优化算法,并用其求解TSP这一经典的NP难问题.通过对比TSP实例测试,所得结果表明,所提出算法在种群规模较小、迭代次数较少的情况下可以收敛到已知的最优解

    求解TSP的改进人工鱼群算法

    No full text
    利用遗传算法的交叉算子,并引入去交叉策略,对人工鱼群算法进行了改进,提出了一种改进型人工鱼群算法,并将该算法用于求解旅行商问题(traveling salesman problem,TSP)这一经典的NP难问题。通过实验仿真与目前TSP已知最优解进行对比分析,结果表明,改进后的人工鱼群算法在种群规模较小,迭代次数较少的情况下也可以收敛到已知最优解

    The Research of Developing Word-Input Testing Software

    No full text
    文字输入测试软件主要用于对学习者的文字输入速度和准确度进行测试。本文分析一个文字输入测试软件的系统结构及实现方法,并对应用Delphi编写的此软件的技术要点和编程技巧进行简要的阐述。Word-input testing software is mainly used to test the input quickness and accuracy of computer learners. This article trys to analyse the system structure and realization of a word- input testing software. And gives a brief exposition for the technical points and programming skills using Delphi to design this software

    基于遗传规划实现泛函网络神经元函数类型优化

    No full text
    泛函网络是最近提出的一种对神经网络的有效推广。与神经网络不同,它处理的是一般的泛函模型,其神经元函数不固定,而是可学习的,且在各个处理单元之间没有权值。同神经网络一样,至今还没有系统设计方法能够对给定问题设计出近似最优的结构。鉴于此,将整个泛函网络的设计分解为单个神经元的逐个设计;然后,在此框架下提出了基于遗传规划的单个神经元的设计方法,该方法可实现对神经元函数类型的优化。仿真实验表明,本方法是有效可行的,能用较小的网络规模获得更满意的泛化特性

    Choose Parameter Method of Variable Activation Function to Recursion Increase Output Dimension

    No full text
    针对一类变参数 Sigmoid可调激活函数构成三层前向神经网络 ,分析其可调激活函数中参数所表示意义 ;给出了递进提升输出向量空间维数的可调变参数激活函数中参数选取的方法 ,解决了隐含神经元采用相同激活函数限制了神经网络逼近能力这一问题 .其目的给人们在采用变参数可调激活函数神经网络解决问题时 ,如何选取激活函数中的参数提供了一种数学依据和方法 .国家自然科学基金 (60 461 0 0 1 );广西民族学院硕士点科研基金 (0 3 JS0 1

    The Parameter Selection Method for Variable Activation Function Neuron

    No full text
    隐层神经元采用相同的Sigmoid激活函数会限制神经网络的非线性能力,对Sigmoid函数引入两个参数可改善其响应特性,增强其非线性逼近能力。本文给出了一种可调Sigmoid激活函数,分析了可调激活函数中参数所表示的几何意义;给出提升网络维数的可调激活函数中参数的快速选取方法和理论基础。这为人们在采用可调Sigmoid激活函数解决实际问题时,如何快速选取激活函数中的参数提供了一种可行方法。In the feedforward neural network model, the Sigmoid function is replaced with activation function to hide layer neuron by introducing two parameters to it, which can improve the neural network's respond property and reinforce its nonlinear approximation capability. The geometric interpretation is analyzed for parameters included in the variable sigmoid activation function. A new method for parameter selection is given, which can raise the dimension for variable parameter activation function. It provides a theoretical basis and practical method about how to quick choose parameter in variable parameter activation function when we use variable Sigmoid activation function to solve a neural network problem.国家自然科学基(60461001)广西民族学院硕士点科研基金(03JS01

    层次泛函网络整体学习算法

    No full text
    文中设计了一类单输入单输出泛函网络与双输入单输出泛函网络作为构造层次泛函网络基本模型,提出了一种层次泛函网络模型,给出了层次泛函网络构造方法和整体学习算法,而层次泛函网络的参数利用解方程组来进行逐层学习.以非线性代数方程组为例,指出人们熟知的一些数学解题方法可以用层次泛函网络来表达,探讨了基于层次泛函网络求解非线性代数方程组学习算法实现的一些技术问题.相对传统方法,层次泛函网络更适合于具有层次结构的应用领域.计算机仿真结果表明,这种层次学习方法具有较快的收敛速度和良好的逼近性能
    corecore