496 research outputs found
Secure Recording of Itineraries Through Cooperating Agents
Security is a fundamental precondition for the acceptance of mobile agent systems. In this paper we discuss protocols to improve agent security by distributing critical data and operations on mutually supporting agents which migrate in disjunct host domains. In order to attack agents, hosts must form coalitions. Proper selection of itineraries can minimize the risk of such coalitions being formed
On the Difference Between the Information Bottleneck and the Deep Information Bottleneck
Combining the Information Bottleneck model with deep learning by replacing
mutual information terms with deep neural nets has proved successful in areas
ranging from generative modelling to interpreting deep neural networks. In this
paper, we revisit the Deep Variational Information Bottleneck and the
assumptions needed for its derivation. The two assumed properties of the data
, and their latent representation take the form of two Markov chains
and . Requiring both to hold during the optimisation process can
be limiting for the set of potential joint distributions . We
therefore show how to circumvent this limitation by optimising a lower bound
for for which only the latter Markov chain has to be satisfied. The
actual mutual information consists of the lower bound which is optimised in
DVIB and cognate models in practice and of two terms measuring how much the
former requirement is violated. Finally, we propose to interpret the
family of information bottleneck models as directed graphical models and show
that in this framework the original and deep information bottlenecks are
special cases of a fundamental IB model
Wandel und Zukunft der Datenverarbeitung und ihres Berufsfeldes
"Im Rahmen des "Landesprogramms Mensch und Technik" des Arbeitsministeriums in NRW hat das ISF Marburg "Die Zukunft der DV-Berufe" unter besonderer Berücksichtigung der sozialen Aspekte des sich vollziehenden Wandels in diesem Berufsfeld untersucht. Im Mittelpunkt der Studie stehen neue Erkenntnisse und zum Teil erstmals untersuchte Entwicklungen des Berufsfeldes DV. Die erkennbare Grundtendenz geht dahin, daß die einstmals privilegierte Stellung der DV-Fachkräfte gegen Ende der 80er Jahre relativ rasch abgebaut worden ist. Mit der zunehmenden Anwendungsnähe der DV aufgrund der Dezentralisierung bei gleichzeitiger rascher Steigerung der Leistungsfähigkeit von Computern und der Verbreitung von DV-Wissen über die angestammten Fachabteilungen hinaus hat sich der Spezialistenstatus der DV-Fachkräfte weitestgehend reduziert, während sich gleichzeitig das Berufsfeld Datenverarbeitung erheblich ausgeweitet hat. Obwohl diese Entwicklung nach einer Strukturierung und Systematisierung des Berufsfeldes Datenverarbeitung in der amtlichen Statistik verlangt, sind dort erhebliche Mängel festzustellen, mit denen sich diese Studie ausführlich auseinandersetzt. Es wird darüber hinaus versucht, praktikable Strukturierungs- und Systematisierungsangebote zu entwickeln, die differenziert dargelegt werden. Die gesamte Daten- und Informationsverarbeitung wird zunehmend durch die Anwendungserfordernisse der betrieblichen Fachabteilungen und nicht mehr vorrangig durch die Technikentwicklung bestimmt. Das hat erhebliche Konsequenzen für die Qualifikations- und Weiterbildungsanforderungen von DV-Fachpersonal. Gefordert ist über die DV-spezifische Qualifikation hinaus die Aneignung von fachübergreifendem Wissen. Besonders Kommunikations- und Koopperationsfähigkeit untereinander und zu den Anwendern ist als "soziale Kompetenz" verstärkt gefordert, wird aber noch zu wenig über die Aus- und Weiterbildung vermittelt. Weiter werden Belastungsanforderungen und Arbeitszeitregelungen von DV-Fachkräften untersucht, wobei die Studie zu dem Ergebnis kommt, daß das Belastungsniveau von DV-Fachkräften recht hoch ist und sie zugleich in erheblichem Umfang Mehrarbeit bzw. Überstunden leisten, was durch noch überdurchschnittlich hohe Einkommen abgegolten wird. Ein Überblick über wesentliche Forschungsergebnisse wird hiermit vorgestellt." (Autorenreferat)Datenverarbeitung - Entwicklung, informationstechnische Berufe, Berufsfelder - Strukturwandel, Qualifikationsanforderungen, Arbeitsbelastung
Secure Authentication with Short Re-Usable Passwords
We present Knock Yourself Out (KYO), a password generator that enables secure
authentication against a computationally unbounded adversary. Master passwords
can be surprisingly short and may be re-used for multiple service accounts
even in the event of client compromises and multiple server compromises. At
the same time, KYO is transparent to service operators and backwards-
compatible. Master passwords are fully client-manageable while secrets shared
with service operators can be kept constant. Likewise, secrets can be changed
without having to change one’s passwords. KYO does not rely on collision-
resistant hash functions and can be implemented with fast non-cryptographic
hash functions. We detail the design of KYO and we analyze its security
mathematically in a random hash function model. In our empirical evaluation we
find that KYO remains secure even if small sets of hash functions are used
instead, in other words, KYO requires minimal storage and is highly practical
Enhancing Situation Awareness in Real Time Geospatial Visualization
Today’s hardware and software infrastructure enables large-scale visualization of (near) real-time data in a geospatial context, which is attractive in a variety of application areas ranging from military applications to disaster management and incident response. The drawback on the other hand is that combined visualizations might lead to an overload of human processing capacity, for instance if multiple dynamic aspects must be observed in parallel. The objective for our research is to develop a solution which enhances the situation awareness of the user by identifying the appropriate means of visualizing information based on the user’s task and a given situation. In this paper, we propose an approach and associated system architecture how this objective can be reached. The primary ingredient of our approach is the combination of a GIS system and logic-based ontology representation and reasoning system
Beyond Sparsity: Tree Regularization of Deep Models for Interpretability
The lack of interpretability remains a key barrier to the adoption of deep
models in many applications. In this work, we explicitly regularize deep models
so human users might step through the process behind their predictions in
little time. Specifically, we train deep time-series models so their
class-probability predictions have high accuracy while being closely modeled by
decision trees with few nodes. Using intuitive toy examples as well as medical
tasks for treating sepsis and HIV, we demonstrate that this new tree
regularization yields models that are easier for humans to simulate than
simpler L1 or L2 penalties without sacrificing predictive power.Comment: To appear in AAAI 2018. Contains 9-page main paper and appendix with
supplementary materia
- …