4 research outputs found
A Quantile-Based Watermarking Approach for Distortion Minimization
Distortion-based watermarking techniques embed the watermark by performing tolerable changes in the digital assets being protected. For relational data, mark insertion can be performed over the different data types of the database relations’ attributes. An important goal for distortion-based approaches is to minimize as much as possible the changes that the watermark embedding provokes into data, preserving their usability, watermark robustness, and capacity. This paper proposes a quantile-based watermarking technique for numerical cover type focused on preserving the distribution of attributes used as mark carriers. The experiments performed to validate our proposal show a significant distortion reduction compared to traditional approaches while maintaining watermark capacity levels. Also, positive achievements regarding robustness are visible, evidencing our technique’s resilience against subset attacks
Value-based Requirements Engineering: Exploring Innovative e-Commerce Ideas
Computersoftware wordt steeds meer een onderdeel van producten en diensten die bedrijven aanbieden aan hun klanten. Denk bijvoorbeeld aan een muziekwinkel op het world-wide-web: software zorgt ervoor dat klanten toch een shopping experience ervaren, terwijl zij niet fysiek in de winkel staan. Nog mooier is het als een klant niet een fysieke muziek-CD bestelt, maar de gekochte muziek direct na de aankoop kan beluisteren. Speciale software zorgt er dan voor dat de muziek over het Internet wordt getransporteerd en direct wordt afgespeeld bij de consument thuis. Internet winkels zijn een voorbeeld van de commerci묥 exploitatie van een innovatieve technologie als het world-wide-web. Kenmerkend voor dit soort idee뮠is de sterke koppeling tussen enerzijds business aspecten (bijvoorbeeld marketing, consumenten gedrag) en anderzijds technologische middelen. De centrale vraag in mijn proefschrift is hoe dergelijke nieuwe, technologie intensieve, business idee뮠kunnen worden ontwikkeld. Om dit vraagstuk te kunnen bestuderen ben ik langdurig werkzaam geweest bij een groot Nederlands consultancy bureau en bij Cisco Systems, een bedrijf dat vaak wordt aangehaald als schoolvoorbeeld voor de commerci묥 benutting van het Internet. Deze consultancy context bood mij de mogelijkheid om een aantal business-idee뮠daadwerkelijk te verkennen en te leren hoe dergelijke trajecten kunnen worden uitgevoerd. Daarnaast ben ik tijdens mijn onderzoek part-time aan de Vrije Universiteit Amsterdam verbonden geweest om deze trajecten te analyseren, te bestuderen en te structuren. Het totaal heeft geresulteerd in een praktische methode die gebruikt kan worden om nieuwe e-business idee뮠te verkennen, genaamd e3value. In kort komt mijn methode er op neer dat we kijken naar de economische- en technische haalbaarheid van een e-business idee. De recente e-business geschiedenis heeft namelijk duidelijk gemaakt veel idee뮠zijn mislukt en zelfs hebben geleid tot faillissement omdat de aangeboden dienst of product nauwelijks commercieel danwel technisch te exploiteren was. Kenmerkend aan e3value is dat we een drietal modellen maken van het e-business idee. Een model is een iets formelere beschrijving van een vaak vaag geformuleerd idee. Zo'n formelere beschrijving dwingt nauwkeurigheid af dat bijdraagt aan een beter begrip van het oorspronkelijke e-business idee. Een ander voordeel is dat het mogelijk wordt (automatisch) te redeneren over bijvoorbeeld de potentie tot winstgevendheid. De drie verschillende modellen beschrijven ieder een belangrijk aspect van een e-business idee: namelijk de creatie van economische waarde, de bedrijfsprocessen die daarvoor nodig zijn en de software componenten die daarin een rol spelen. Met dit laatste aspect doet e3value recht aan het belang van informatie-technologie in innovatieve e-business idee뮮 Naast de e3value methode zelf worden in mijn proefschrift een aantal innovatieve e-business idee뮠besproken en geanalyseerd. De belangrijkste verdiensten van e3value blijken dan een heldere uiteenzetting van het idee en de mogelijkheid tot redeneren over business-potentie van het idee te zijn.Akkermans, J.M. [Promotor
Model-driven Security Engineering for FPGAs
Tato práce obsahuje analýzu a adaptaci vhodných metod zabezpečení, pocházejících
ze softwarové domény, do světa FPGA. Metoda formalizace bezpečnostní výzvy
FPGA je prezentována jazykem FPGASECML, specifickým pro danou doménu,
vhodným pro modelování hrozeb zaměřených na systém a pro formální definování
bezpečnostní politiky. Vytvoření vhodných obranných mechanismů vyžaduje
inteligenci o agentech ohrožení, zejména o jejich motivaci a schopnostech.
Konstrukce založené na FPGA jsou, stejně jako jakýkoli jiný IT systém, vystaveny
různým agentům hrozeb po celou dobu jejich životnosti, což naléhavě vyžaduje
potřebu vhodné a přizpůsobitelné bezpečnostní strategie. Systematická analýza
návrhu založená na konceptu STRIDE poskytuje cenné informace o hrozbách a
požadovaných mechanismech protiopatření. Minimalizace povrchu útoku je jedním
z nezbytných kroků k vytvoření odolného designu. Konvenční paradigmata řízení
přístupu mohou modelovat pravidla řízení přístupu v návrzích FPGA. Výběr
vhodného závisí na složitosti a bezpečnostních požadavcích návrhu.
Formální popis architektury FPGA a bezpečnostní politiky podporuje přesnou
definici aktiv a jejich možných, povolených a zakázaných interakcí. Odstraňuje
nejednoznačnost z modelu hrozby a zároveň poskytuje plán implementace. Kontrola
modelu může být použita k ověření, zda a do jaké míry, je návrh v souladu s
uvedenou bezpečnostní politikou. Přenesení architektury do vhodného modelu a
bezpečnostní politiky do ověřitelných logických vlastností může být, jak je uvedeno v
této práci, automatizované, zjednodušující proces a zmírňující jeden zdroj chyb.
Posílení učení může identifikovat potenciální slabiny a kroky, které může útočník
podniknout, aby je využil. Některé metody zde uvedené mohou být použitelné také
v jiných doménách.ObhájenoThe thesis provides an analysis and adaptation of appropriate security methods from the
software domain into the FPGA world and combines them with formal verification
methods and machine learning techniques.
The deployment of appropriate defense mechanisms requires intelligence about the threat
agents, especially their motivation and capabilities. FPGA based designs are, like any other
IT system, exposed to different threat agents throughout the systems lifetime, urging the
need for a suitable and adaptable security strategy. The systematic analysis of the design,
based on the STRIDE concept, provides valuable insight into the threats and the mandated
counter mechanisms. Minimizing the attack surface is one essential step to create a resilient
design. Conventional access control paradigms can model access control rules in FPGA
designs and thereby restrict the exposure of sensitive elements to untrustworthy ones.
A method to formalize the FPGA security challenge is presented. FPGASECML is a
domain-specific language, suitable for dataflow-centric threat modeling as well as the formal
definition of an enforceable security policy. The formal description of the FPGA
architecture and the security policy promotes a precise definition of the assets and their
possible, allowed, and prohibited interactions. Formalization removes ambiguity from the
threat model while providing a blueprint for the implementation.
Model transformations allow the application of dedicated and proven tools to answer
specific questions while minimizing the workload for the user. Model-checking can be
applied to verify if, and to a certain degree when, a design complies with the stated security
policy. Transferring the architecture into a suitable model and the security policy into
verifiable logic properties can be, as demonstrated in the thesis, automated, simplifying the
process and mitigating one source of error. Reinforcement learning, a machine learning
method, can identify potential weaknesses and the steps an attacker may take to exploit
them. The approach presented uses a Markov Decision Process in combination with a Qlearning
algorithm
Query Evaluation in the Presence of Fine-grained Access Control
Access controls are mechanisms to enhance security by protecting
data from unauthorized accesses. In contrast to traditional access
controls that grant access rights at the granularity of the whole
tables or views, fine-grained access controls specify access
controls at finer granularity, e.g., individual nodes in XML
databases and individual tuples in relational databases.
While there is a voluminous literature on specifying and modeling
fine-grained access controls, less work has been done to address
the performance issues of database systems with fine-grained
access controls. This thesis addresses the performance issues of
fine-grained access controls and proposes corresponding solutions.
In particular, the following issues are addressed: effective
storage of massive access controls, efficient query planning for
secure query evaluation, and accurate cardinality estimation for
access controlled data.
Because fine-grained access controls specify access rights from
each user to each piece of data in the system, they are
effectively a massive matrix of the size as the product of the
number of users and the size of data. Therefore, fine-grained
access controls require a very compact encoding to be feasible.
The proposed storage system in this thesis achieves an
unprecedented level of compactness by leveraging the high
correlation of access controls found in real system data. This
correlation comes from two sides: the structural similarity of
access rights between data, and the similarity of access patterns
from different users. This encoding can be embedded into a
linearized representation of XML data such that a query evaluation
framework is able to compute the answer to the access controlled
query with minimal disk I/O to the access controls.
Query optimization is a crucial component for database systems.
This thesis proposes an intelligent query plan caching mechanism
that has lower amortized cost for query planning in the presence
of fine-grained access controls. The rationale behind this query
plan caching mechanism is that the queries, customized by
different access controls from different users, may share common
upper-level join trees in their optimal query plans. Since join
plan generation is an expensive step in query optimization,
reusing the upper-level join trees will reduce query optimization
significantly. The proposed caching mechanism is able to match
efficient query plans to access controlled query plans with
minimal runtime cost.
In case of a query plan cache miss, the optimizer needs to
optimize an access controlled query from scratch. This depends on
accurate cardinality estimation on the size of the intermediate
query results. This thesis proposes a novel sampling scheme that
has better accuracy than traditional cardinality estimation
techniques