12,871 research outputs found
Оптимізація паралельних алгоритмів розв’язування задач з розрідженими матрицями
Розглядаються проблеми організації обчислення розв’язків систем лінійних алгебраїчних рівнянь та часткової узагальненої алгебраїчної проблеми власних значень з розрідженими симетричними матрицями. Запропоновано модифікацію паралельних алгоритмів розв’язування систем лінійних алгебраїчних рівнянь з розрідженими трикутними матрицями для підвищення ефективності розпаралелювання.Рассматриваются проблемы организации вычисления решений систем линейных алгебраических уравнений и частичной обобщенной алгебраической проблемы собственных значений с разреженными симметричными матрицами. Предложена модификация параллельных алгоритмов решения систем линейных алгебраических уравнений с разреженными треугольными матрицами для повышения эффективности распараллеливания.The problems of organization of solving of the systems of linear algebraic equations and partial generalized eigenvalue algebraic problem with sparse symmetric matrices are considered. Modification of parallel algorithms of solving of the systems of linear algebraic equations with sparse triangular matrices is offered for the rise of efficiency
Computational linear algebra over finite fields
We present here algorithms for efficient computation of linear algebra
problems over finite fields
Recommended from our members
Solving large scale linear programming
The interior point method (IPM) is now well established as a competitive technique for solving very large scale linear programming problems. The leading variant of the interior point method is the primal dual - predictor corrector algorithm due to Mehrotra. The main computational steps of this algorithm are the repeated calculation and solution of a large sparse positive definite system of equations.
We describe an implementation of the predictor corrector IPM algorithm on MasPar, a massively parallel SIMD computer. At the heart of the implemen-tation is a parallel Cholesky factorization algorithm for sparse matrices. Our implementation uses a new scheme of mapping the matrix onto the processor grid of the MasPar, that results in a more efficient Cholesky factorization than previously suggested schemes.
The IPM implementation uses the parallel unit of MasPar to speed up the factorization and other computationally intensive parts of the IPM. An impor-tant part of this implementation is the judicious division of data and computation between the front-end computer, that runs the main IPM algorithm, and the par-allel unit. Performanc
- …