3,316 research outputs found
Die technische Implementierung neuronaler Netzwerke
Ebenso wie Digitalrechner sind neuronale Netzwerke, z.B. das Gehirn, informationsverarbeitende Systeme. Das ist aber auch schon fast die einzige Aehnlichkeit. Wie wir an uns selbst sehen, haben beide Arten von Systemen grundlegend verschiedene Faehigkeiten: Digitalrechner eignen sich ausgezeichnet zum schnellen und fast beliebig praezisen Rechnen mit Zahlen; dafuer wurden sie urspruenglich auch konstruiert. Andere Anwendungen kamen im Laufe der Zeit hinzu, z.B. die Verwaltung sehr gross er Informationsmengen in Datenbanken, d.h. Speicherung und gezieltes Wiederauffinden anhand einfacher Suchkriterien. Beides ist fuer den Menschen extrem muehsam. Hingegen bewaeltigt er mit Leichtigkeit Aufgaben, die selbst fuer die modernsten Parallelrechner noch unloesbar sind. Jedes Kind kann im Bruchteil einer Sekunde die Gesichter seiner Eltern von denen potentieller Feinde unterscheiden, weil dies einen evolutionaeren Vorteil darstellt. Neben den exzellenten Faehigkeiten zur Bildverarbeitung koennen wir mittels unseres neuronalen Netzwerks Sprache verstehen und den komplexen Muskelapparat unseres Koerpers mit phantastischer Genauigkeit kontrollieren. Allerdings muessen wir die meisten dieser Faehigkeiten erlernen, waehrend ein Digitalrechner seine Aufgaben erfuellt, sobald ein entsprechendes Programm entwickelt wurde
A Randomized Sublinear Time Parallel GCD Algorithm for the EREW PRAM
We present a randomized parallel algorithm that computes the greatest common
divisor of two integers of n bits in length with probability 1-o(1) that takes
O(n loglog n / log n) expected time using n^{6+\epsilon} processors on the EREW
PRAM parallel model of computation. We believe this to be the first randomized
sublinear time algorithm on the EREW PRAM for this problem
About Shor's algorithm and quantum computers
Diese Bachelorarbeit dient der Erläuterung des Shor-Algorithmus mit besonderem Augenmerk auf seine nicht-klassischen Bestandteile. Sie beinhaltet einen einführenden Teil zu theoretischer Informatik und Quantum Computing, eine detaillierte Darstellung des Algorithmus mit seinen Konstituenten wie Quantenphasenschätzung und Quantenfouriertransformation sowie eine Herleitung einer Abschätzung für die Laufzeitkomplexität des Algorithmus und einem kurzen Teil über die Schwierigkeiten bei der praktischen Umsetzung des Algorithmus, das heißt der Konstruktion von Quantencomputern.This Bachelor’s thesis focuses on the explanation of Shor’s algorithm, especially the quantum part. It encompasses an introductory part on theoretical computer science and quantum computing giving the necessary knowledge for understanding Shor’s algorithm, a detailed presentation of the algorithm itself with its constituent parts like quantum phase approximation and the quantum fourier transform, as well as a derivation of the algorithm’s running time complexity and a short part on the difficulties of constructing quantum computers that could implement Shor’s algorithm
Bestimmung elastischer und viskoelastischer Kenngrößen von Knochenproben unter Langzeitkultur-Bedingungen mit einem neuartigen softwaregesteuerten elektro-mechanischen Belastungs- und Messsystem
Die Arbeit beschreibt zunächst die Entwicklung eines Messsystems (sog. ZETOS-System) zur Bestimmung der Steifigkeit (dargestellt als Elastizitätsmodul) von Knochenproben in Langzeit-Bioreaktoren. Dieses System ermöglicht auch dynamische Stimulationen der Knochen mit Standard-Signalen (Sinus, Rechteck) sowie die Verwendung von beliebigen oder typischen physiologischen Signalen, wie z.B. „Gehen“, „Springen“ und „Laufen“, aufgenommen als sog. Gound-Reaction Forces, zur mechanischen Knochenstimulation. Optional können Softwarefilter (Hochpass, Tiefpass) eingeschaltet werden.
Aufgrund der eindimensionalen Messung und Belastung kann der elastische Tensor nicht vollständig bestimmt werden.
In einer Langzeitmessreihe wurden Trabekel-Knochenproben aus einem humanen Hüftkopf mit dem physiologischen Signal „Springen“ 5 Minuten pro Tag stimuliert. Es zeigte sich eine deutliche Zunahme der Steifigkeit von fast 2%/Tag, während die Knochen einer Kontrollgruppe unverändert blieben. Eine dritte Gruppe von Knochenproben wurde ebenfalls mit „Springen“, jedoch Hochpass gefiltert stimuliert. Durch die fast gleiche Zunahme der Steifigkeit dieser Knochen wurde anhand des Signals „Springen“ gezeigt, dass allein höherfrequente Spektralanteile für bone-remodeling ausreichend sind.
Mit den Daten dieser Messreihe wurde erstmals die Frage der Entstehung und Bedeutung des nichtlinearen Verkaufs der Messkurven (Kompression gegen Kraft) des ZETOS-Systems durch die Existenz der von mir genannten „Kontaktflächenfunktion“ beantwortet. Dieser Effekt entsteht durch Rauhigkeiten der Schnittfläche – dem Oberflächenkontakt. Modellrechnungen erklären folgendes:
- eine grobe Abschätzung der Standardabweichung der Rauhigkeit der Schnittflächen
- den Unterschied zwischen der auĂźen gemessen Dehnung und der Dehnung im Knochenkern
- die Unmöglichkeit der Bestimmung des wahren Elastizitätsmoduls des kalzifierten Anteils
der Knochenkörper (der als linear im üblichen Sinne betrachtet werden darf) aus der
Tatsache, dass die Dehnung mit RĂĽcksicht auf die Vermeidung physiologischer
Überlast auf kleine Werte beschränkt sein muss.
Die Messdaten wurden zusätzlich numerisch wie folgt verarbeitet:
- erste Ableitung Kompression gegen Kraft (kraftabhängige Nachgiebigkeit): Daraus wurde
eine Methode zur Bestimmung der Kontaktflächenfunktion aus Messdaten abgeleitet. Es
zeigte sich, dass diese Funktion keine strenge Invariante ĂĽber den gesamten Messzeitraum
und an der Veränderung des Messwertes des Elastizitätsmoduls wahrscheinlich beteiligt
ist. Dieser Effekt ist aber nur schwach.
- Integration (potentielle Energie): Daraus entstand eine alternative Methode zur Bestimmung
des Elastizitätsmoduls, die mit Einschränkungen eine simultane Anwendung der Messung
des scheinbaren Elastizitätsmoduls während dynamischer Stimulation erlaubt.
Während der Langzeitmessreihe wurden auch Relaxationsmessungen vorgenommen. Dabei wurden zwei Zeitkonstanten festgestellt: im Mittel bei 0,4 und bei 20 Sekunden. Die kleinere der beiden Zeitkonstanten muss in ihrer Umgebung in ein kontinuierliches Relaxationszeitenspektrum entwickelt werden, um den gemessenen zeitlichen Kraftverlauf bei Relaxation richtig approximieren zu können. Die Datenverarbeitung erlaubt u.a. die Darstellung der Frequenzabhängigkeit des Speicher- und des Verlustmoduls sowie den Verlustfaktor und die Phasendifferenz zwischen Kompression und Kraft im Falle harmonischer Anregung. Für die Messung des statischen (relaxationsfreien) Elastizitätsmoduls entsteht die Forderung einer Messzeit von ca. 3 Minuten.
Beim Vergleich der Modulspektren aus Relaxationsmessung mit den Spektren der physiologischen Stimulationssignale zeigte sich eine Selektivität der Knochen: Energiedissipation tritt bei „Gehen“ und „Springen“ auf, im Falle von „Laufen“ jedoch deutlich schwächer, was vermutlich der Ausdauer beim Laufen (Flucht-, Jagd-, Angriffsverhalten) dienen soll
Entwicklung von neuen Algorithmen der Computerarithmetik in Hinsicht auf ihre Nutzung in der Kryptographie
In dieser Arbeit wird eine Reihe neuer Algorithmen aus dem Bereich der ganzzahligen Langzahlcomputerarithmetik für die Anwendungen vor allem aus dem Bereich der modernen Kryptographie entwickelt. Alle hier behandelten Verfahren wurden weiterhin in Bezug auf eine Realisierung in Hardware optimiert. Es werden drei thematische Schwerpunkte behandelt. Als erstes werden neue Methoden zur Berechnung der Modularmultiplikation aufgezeigt, die sich durch ein besonders günstiges Flächen-Zeit-Produkt auszeichnen. Das zweite Thema ist ein zeitoptimaler paralleler Algorithmus für die Modularmultiplikation, der eine Zeitkomplexität von O(log n) aufweist. Das dritte Thema behandelt ein Verfahren für die zeitoptimale Multiplikation, das eine bessere Flächen-Zeit-Komplexität als der in den meisten Prozessoren benutzte Wallace Tree und die Schönhage-Strassen-Multiplikation, welche in ihrer asymptotischen Flächen-Zeit-Komplexität besser ist als alle bisher bekannten Verfahren, aufweist
One Laptop per Child: Mathematik Lernspiel
Im Rahmen meiner Bachelorarbeit befasse ich mich mit der Konzeption und Implementierung einer Applikation für die non-profit Organisation „One Laptop per Child“ (OLPC). One Laptop per Child hat es sich zur Mission gemacht den ärmsten Kindern dieser Welt Zugang zu Bildung zu verschaffen. Um diese Mission zu verwirklichen wird jedem Kind ein extra angefertigter Laptop zur Verfügung gestellt. Dieser Laptop wurde speziell für die Anforderungen der dritten Welt entworfen. So kann er in extremer Hitze eingesetzt werden, ist wasserresistent und benötigt nur wenig Energie. Ziel meiner Arbeit ist die Entwicklung und Umsetzung einer Applikation für ein OLPC Gerät. Mit Hilfe dieser Applikation können sich Kinder zwischen 6 und 12 Jahren Basiswissen aneignen. Den Kindern soll fundamentales Wissen mit auf den Weg gegeben werden. Wissen, auf dem die Kinder aufbauen können. Wissen, mit dem sie künftig in der Lage sind eigene Probleme zu lösen. Die Arbeit wurde in der Zeitspanne vom 12. April 2014 bis zum 28. Juli 2014 realisiert. Bis zum 13. Juni 2014 konnten aufgrund anderer Module an der Fachhochschule wöchentlich lediglich drei Tage für die Bachelorarbeit verwendet werden. Die Zeit vom 09. Juni 2014 bis zum 20. Juni 2014 galt zudem der Prüfungsvorbereitung und den Semesterprüfungen. Die Arbeit wurde von Laurent Sciboz betreut
Fast Conversion Algorithms for Orthogonal Polynomials
We discuss efficient conversion algorithms for orthogonal polynomials. We
describe a known conversion algorithm from an arbitrary orthogonal basis to the
monomial basis, and deduce a new algorithm of the same complexity for the
converse operation
Fast computation of Bernoulli, Tangent and Secant numbers
We consider the computation of Bernoulli, Tangent (zag), and Secant (zig or
Euler) numbers. In particular, we give asymptotically fast algorithms for
computing the first n such numbers in O(n^2.(log n)^(2+o(1))) bit-operations.
We also give very short in-place algorithms for computing the first n Tangent
or Secant numbers in O(n^2) integer operations. These algorithms are extremely
simple, and fast for moderate values of n. They are faster and use less space
than the algorithms of Atkinson (for Tangent and Secant numbers) and Akiyama
and Tanigawa (for Bernoulli numbers).Comment: 16 pages. To appear in Computational and Analytical Mathematics
(associated with the May 2011 workshop in honour of Jonathan Borwein's 60th
birthday). For further information, see
http://maths.anu.edu.au/~brent/pub/pub242.htm
- …