25 research outputs found
Análisis del software libre como herramienta de producción
En este artÃculo se muestran datos cuantitativos que permiten tener una idea más clara al momento de la evaluación en la adquisición de software y la implementación de código abierto y software libre. En él se examinan variables como el mercado objetivo, la fiabilidad, el rendimiento, la escalabilidad, seguridad y el costo de adquisición al momento de mirar al código abierto como alternativa viable con respecto al software propietario desde una perspectiva objetiva teniendo como base estudios a fondo a nivel mundial de aquellos factores que influyen en la toma de decisiones en todos los niveles de implementación del software de todo tipo
Linux ubuntu server
Existen en la actualidad gran variedad de distribuciones libres del Sistema Operativo Linux, el cual ha ganado un espacio preponderante por sus caracterÃsticas de multiusuario, multitarea, estabilidad, seguridad, conectividad, escalabilidad y compatibilidad con gran variedad de aplicaciones. Una de las distribuciones más usadas en diferentes ámbitos, entre ellos el cientÃfico, académico, industrial y comercial, es la distribución UBUNTU, ésta ha sido patrocinada por la empresa Canonical Ltda, organización británica propiedad del sudafricano Mark Shuttleworth. UBUNTU posee múltiples herramientas de configuración de servicios tales como DHCP (Dynamic Host Configuration Protocol), DNS (Domain Name System), LDAP y SAMBA, PROXY y el servidor WEB APACHE, entre otros. Por ello su funcionalidad es bastante amplia en lo referente a procesos de configuración de servicios para estaciones de trabajo y servidores. Organización británica propiedad del sudafricano Mark Shuttleworth. UBUNTU posee múltiples herramientas de configuración de servicios tales como DHCP (Dynamic Host Configuration Protocol), DNS (Domain Name System), LDAP y SAMBA, PROXY y el servidor WEB APACHE, entre otros. Por ello su funcionalidad es bastante amplia en lo referente a procesos de configuración de servicios para estaciones de trabajo y servidores
PCA filtering and probabilistic SOM for network intrusion detection
The growth of the Internet and, consequently, the number of interconnected computers, has exposed significant amounts of information to intruders and attackers. Firewalls aim to detect violations according to a predefined rule-set and usually block potentially dangerous incoming traffic. However, with the evolution of attack techniques, it is more difficult to distinguish anomalies from normal traffic. Different detection approaches have been proposed, including the use of machine learning techniques based on neural models such as Self-Organizing Maps (SOMs). In this paper, we present a classification approach that hybridizes statistical techniques and SOM for network anomaly detection. Thus, while Principal Component Analysis (PCA) and Fisher Discriminant Ratio (FDR) have been considered for feature selection and noise removal, Probabilistic Self-Organizing Maps (PSOM) aim to model the feature space and enable distinguishing between normal and anomalous connections
Application of feast (Feature Selection Toolbox) in ids (Intrusion detection Systems)
Security in computer networks has become a critical point for many organizations, but keeping data integrity demands time and large economic investments, in consequence there has been several solution approaches between hardware and software but sometimes these has become inefficient for attacks detection. This paper presents research results obtained implementing algorithms from FEAST, a Matlab Toolbox with the purpose of selecting the method with better precision results for different attacks detection using the least number of features. The Data Set NSL-KDD was taken as reference. The Relief method obtained the best precision levels for attack detection: 86.20%(NORMAL), 85.71% (DOS), 88.42% (PROBE), 93.11%(U2R), 90.07(R2L), which makes it a promising technique for features selection in data network intrusions
Navegador ontológico matemático-NOMAT
The query algorithms in search engines use indexing,
contextual analysis and ontologies, among other
techniques, for text search. However, they do not use
equations due to their writing complexity. NOMAT is a
prototype of mathematical expression search engine
that seeks information both in thesaurus and internet,
using ontological tool for filtering and contextualizing
information and LaTeX editor for the symbols in these
expressions. This search engine was created to support
mathematical research. Compared to other Internet
search engines, NOMAT does not require prior
knowledge of LaTeX, because has an editing tool which
enables writing directly the symbols that make up the
mathematical expression of interest. The results
obtained were accurate and contextualized, compared
to other commercial and no-commercial search engines.Los algoritmos de consulta de los motores de búsqueda
utilizan indexación, análisis contextual y ontologÃas,
entre otras técnicas, para la búsqueda de texto. Sin
embargo, no utilizan ecuaciones debido a su
complejidad de escritura. Nomat es un prototipo de
motor de búsqueda de expresión matemática que busca
información tanto en tesauro como en Internet,
utilizando la Herramienta ontológica para filtrar y
contextualizar información y editor de látex para los
sÃmbolos de estas expresiones. Este buscador fue
creado para apoyar la investigación matemática. En
comparación con otros motores de búsqueda de
Internet, Nomat no requiere conocimientos previos de
látex, ya que cuenta con una herramienta de edición
que permite escribir directamente los sÃmbolos que
componen la expresión matemática de interés. Los
resultados obtenidos fueron precisos y
contextualizados, en comparación con otros motores de
búsqueda comerciales y no comerciales
Intrusion detection model in network systems, making feature selection with fdr and classification-training stages with s
Los Sistemas de Detección de Intrusos (IDS, por sus siglas en inglés) comerciales actuales clasifican el tráfico de red, detectando conexiones normales e intrusiones, mediante la aplicación de métodos basados en firmas; ello conlleva problemas pues solo se detectan intrusiones previamente conocidas y existe desactualización periódica de la base de datos de firmas. En este artÃculo se evalúa la eficiencia de un modelo de detección de intrusiones de red propuesto, utilizando métricas de sensibilidad y especificidad, mediante un proceso de simulación que emplea el dataset NSL-KDD DARPA, seleccionando de éste las caracterÃsticas más relevantes con FDR y entrenando una red neuronal que haga uso de un algoritmo de aprendizaje no supervisado basado en mapas auto-organizativos, con el propósito de clasificar el tráfico de la red en conexiones normales y ataques, de forma automática. La simulación generó métricas de sensibilidad del 99,69% y de especificidad del 56,15% utilizando 20 y 15 caracterÃsticas, respectivamenteCurrent commercial IDSs classify network traffic, detecting both intrusions and normal con-nections by applying signature-based methods. This leads to problems since only intrusion detection previously known is detected and signature database is periodically outdated. This paper evaluates the efficiency of a proposed network intrusion detection model, using sen-sitivity and specificity metrics through a simulation process that uses the dataset NSL-KDD DARPA, selecting from this, the most relevant features with FDR and training a neural net-work that makes use of an unsupervised learning algorithm based on SOMs, in order to au-tomatically classify network’s traffic into normal and attack connections. Metrics generated by simulation were: sensitivity 99.69% and specificity 56.15%, using 20 and 15 features respectivel
Aplicación de GHSOM (Growing Hierarchical Self-Organizing Maps) a sistemas de detección de intrusos (IDS)
Con el pasar de los años, en el ámbito de la seguridad informática el problema de la intrusión se desarrolla cada dÃa más, incrementando la existencia de programas que buscan afectar a computadoras tanto a nivel local como a toda una red informática. Esta dinámica lleva a entender los ataques y la mejor manera de contrarrestarlos, ya sea previniéndolos o detectándolos a tiempo, procurando que su impacto sea menor al esperado por el atacante. En este artÃculo se presenta una revisión de los ataques a sistemas informáticos, ahondando en los Sistemas de Detección de Intrusos (IDS) y en la implementación de técnicas de agrupamiento de datos —como las redes neuronales—, con el fin de encontrar métodos con altas precisiones en la detección de anomalÃas. Esta propuesta presenta la aplicación de GHSOM en IDS, utilizando el conjunto de datos NSL-KDD, y mostrando las mejoras encontradas en la detección de ataques en el proceso de búsqueda