451 research outputs found

    Study of Dynamic Hashing and Dynamic Hashing with Deferred Splitting

    Get PDF
    This thesis is a discussion and evaluation of both dynamic hashing and dynamic hashing with deferred splitting. The study includes a program design and implementation under the UNIX system. Comparisons and analyses are made using empirical results.Computing and Information Scienc

    Performance Comparison of Linear Hashing and Extendible Hashing

    Get PDF
    Computing and Information Scienc

    Dynamic Ordered Sets with Exponential Search Trees

    Full text link
    We introduce exponential search trees as a novel technique for converting static polynomial space search structures for ordered sets into fully-dynamic linear space data structures. This leads to an optimal bound of O(sqrt(log n/loglog n)) for searching and updating a dynamic set of n integer keys in linear space. Here searching an integer y means finding the maximum key in the set which is smaller than or equal to y. This problem is equivalent to the standard text book problem of maintaining an ordered set (see, e.g., Cormen, Leiserson, Rivest, and Stein: Introduction to Algorithms, 2nd ed., MIT Press, 2001). The best previous deterministic linear space bound was O(log n/loglog n) due Fredman and Willard from STOC 1990. No better deterministic search bound was known using polynomial space. We also get the following worst-case linear space trade-offs between the number n, the word length w, and the maximal key U < 2^w: O(min{loglog n+log n/log w, (loglog n)(loglog U)/(logloglog U)}). These trade-offs are, however, not likely to be optimal. Our results are generalized to finger searching and string searching, providing optimal results for both in terms of n.Comment: Revision corrects some typoes and state things better for applications in subsequent paper

    Effectiveness of Similarity Digest Algorithms for Binary Code Similarity in Memory Forensic Analysis

    Get PDF
    Hoy en dıĢa, cualquier organizacioĢn que esteĢ conectada a Internet es susceptible de sufrir incidentes de ciberseguridad y por tanto, debe contar con un plan de respuesta a incidentes. Este plan ayuda a prevenir, detectar, priorizar y gestionar los incidentes de ciberseguridad. Uno de los pasos para gestionar estos incidentes es la fase de eliminacioĢn, que se encarga de neutralizar la persistencia de los ataques, evaluar el alcance de los mismos e identificar el grado de compromiso. Uno de los puntos clave de esta fase es la identicacioĢn mediante triaje de la informacioĢn que es relevante en el incidente. Esto suele hacerse comparando los elementos disponibles con informacioĢn conocida, centraĢndose asıĢ en aquellos elementos que tienen relevancia para la investigacioĢn (llamados evidencias).Este objetivo puede alcanzarse estudiando dos fuentes de informacioĢn. Por un lado, mediante el anaĢlisis de los datos persistentes, como los datos de los discos duros o los dispositivos USB. Por otro lado, mediante el anaĢlisis de los datos volaĢtiles, como los datos de la memoria RAM. A diferencia del anaĢlisis de datos persistentes, el anaĢlisis de datos volaĢtiles permite determinar el alcance de algunos tipos de ataque que no guardan su coĢdigo en dispositivos de persistencia o cuando los archivos ejecutables almacenados en el disco estaĢn cifrados; cuyo coĢdigo soĢlo se muestra cuando estaĢ en la memoria y se estaĢ ejecutado.Existe una limitacioĢn en el uso de hashes criptograĢficos, comuĢnmente utilizados en el caso de identificacioĢn de evidencias en datos persistentes, para identificar evidencias de memoria. Esta limitacioĢn se debe a que las evidencias nunca seraĢn ideĢnticas porque la ejecucioĢn modifica el contenido de la memoria constantemente. AdemaĢs, es imposible adquirir la memoria maĢs de una vez con todos los programas en el mismo punto de ejecucioĢn. Por lo tanto, los hashes son un meĢtodo de identificacioĢn invaĢlido para el triaje de memoria. Como solucioĢn a este problema, en esta tesis se propone el uso de algoritmos de similitud de digest, que miden la similitud entre dos entradas de manera aproximada.Las principales aportaciones de esta tesis son tres. En primer lugar, se realiza un estudio del dominio del problema en el que se evaluĢa la gestioĢn de la memoria y la modificacioĢn de la misma en ejecucioĢn. A continuacioĢn, se estudian los algoritmos de similitud de digest, desarrollando una clasificacioĢn de sus fases y de los ataques contra estos algoritmos, correlacionando las caracterıĢsticas de la primera clasificacioĢn con los ataques identificados. Por uĢltimo, se proponen dos meĢtodos de preprocesamiento del contenido de volcados de memoria para mejorar la identificacioĢn de los elementos de intereĢs para el anaĢlisis.Como conclusioĢn, en esta tesis se muestra que la modificacioĢn de bytes dispersos afecta negativamente a los caĢlculos de similitud entre evidencias de memoria. Esta modificacioĢn se produce principalmente por el gestor de memoria del sistema operativo. AdemaĢs, se muestra que las teĢcnicas propuestas para preprocesar el contenido de volcados de memoria permiten mejorar el proceso de identificacioĢn de evidencias en memoria.<br /
    • ā€¦
    corecore