701 research outputs found
Lexicographic Bit Allocation for MPEG Video
We consider the problem of allocating bits among pictures in an MPEG video coder to equalize
the visual quality of the coded pictures, while meeting bu er and channel constraints imposed by
the MPEG Video Bu ering Veri er. We address this problem within a framework that consists of
three components: 1) a bit production model for the input pictures, 2) a set of bit-rate constraints
imposed by the Video Bu ering Veri er, and 3) a novel lexicographic criterion for optimality.
Under this framework, we derive simple necessary and su cient conditions for optimality that lead
to e cient algorithms
Preprocessors Matter! Realistic Decision-Based Attacks on Machine Learning Systems
Decision-based adversarial attacks construct inputs that fool a
machine-learning model into making targeted mispredictions by making only
hard-label queries. For the most part, these attacks have been applied directly
to isolated neural network models. However, in practice, machine learning
models are just a component of a much larger system. By adding just a single
preprocessor in front of a classifier, we find that state-of-the-art
query-based attacks are as much as seven times less effective at attacking a
prediction pipeline than attacking the machine learning model alone. Hence,
attacks that are unaware of this invariance inevitably waste a large number of
queries to re-discover or overcome it. We, therefore, develop techniques to
first reverse-engineer the preprocessor and then use this extracted information
to attack the end-to-end system. Our extraction method requires only a few
hundred queries to learn the preprocessors used by most publicly available
model pipelines, and our preprocessor-aware attacks recover the same efficacy
as just attacking the model alone. The code can be found at
https://github.com/google-research/preprocessor-aware-black-box-attack.Comment: Code can be found at
https://github.com/google-research/preprocessor-aware-black-box-attac
Visuelle Analyse großer Partikeldaten
Partikelsimulationen sind eine bewährte und weit verbreitete numerische Methode in der Forschung und Technik. Beispielsweise werden Partikelsimulationen zur Erforschung der Kraftstoffzerstäubung in Flugzeugturbinen eingesetzt. Auch die Entstehung des Universums wird durch die Simulation von dunkler Materiepartikeln untersucht. Die hierbei produzierten Datenmengen sind immens. So enthalten aktuelle Simulationen Billionen von Partikeln, die sich über die Zeit bewegen und miteinander interagieren. Die Visualisierung bietet ein großes Potenzial zur Exploration, Validation und Analyse wissenschaftlicher Datensätze sowie der zugrundeliegenden
Modelle. Allerdings liegt der Fokus meist auf strukturierten Daten mit einer regulären Topologie. Im Gegensatz hierzu bewegen sich Partikel frei durch Raum und Zeit. Diese Betrachtungsweise ist aus der Physik als das lagrange Bezugssystem bekannt. Zwar können Partikel aus dem lagrangen in ein reguläres eulersches Bezugssystem, wie beispielsweise in ein uniformes Gitter, konvertiert werden. Dies ist bei einer großen Menge an Partikeln jedoch mit einem erheblichen Aufwand verbunden. Darüber hinaus führt diese Konversion meist zu einem Verlust der Präzision bei gleichzeitig erhöhtem Speicherverbrauch. Im Rahmen dieser Dissertation werde ich neue Visualisierungstechniken erforschen, welche speziell auf der lagrangen Sichtweise basieren. Diese ermöglichen eine effiziente und effektive visuelle Analyse großer Partikeldaten
- …