2 research outputs found
Vergleichen unter den Bedingungen von Konflikt und Konkurrenz
Albert M, Engelschalt J, Epple A, et al. Vergleichen unter den Bedingungen von Konflikt und Konkurrenz. Praktiken des Vergleichens. Working Paper des SFB 1288. Vol 1. Bielefeld: Universität Bielefeld, SFB 1288; 2019.Was ist das Spezifische an Vergleichen bzw. Vergleichspraktiken, die unter den Bedingungen von Konflikt und/oder Konkurrenz durchgeführt werden? Im vorliegenden Working Paper wird dieses Spezifische anhand von soziologisch inspirierten Überlegungen zu den Grundbegrifflichkeiten des Konflikts bzw. der Konkurrenz als einer besonderen Art der Formung sozialer Beziehungen herausgearbeitet. Zunächst werden die Begriffe von Konkurrenz und direkten gewalttätigen Konflikten vor dem Hintergrund unterschiedlicher disziplinärer Forschungskontexte bestimmt. Ausgehend von einer Soziologie der Konkurrenz geht es dabei um sozial- und geschichtswissenschaftliche Diskussionen um gewalttätige Konflikte. Zentral sind die begriffliche Schärfung unterschiedlicher kriegerischer Auseinandersetzungen und das Gewalthandeln in Konfliktsituationen, die nicht als Krieg bezeichnet werden können. Anschließend werden die vielschichtigen Wechselbeziehungen sowohl zwischen gewalttätigen Konflikten und Konkurrenz als auch zwischen Konflikten, Konkurrenzen und Vergleichspraktiken aus der Sicht der unterschiedlichen Forschungsprojekte des Projektbereichs A des SFB 1288 dargestellt.**Ergänzender Hinweis zu den Creative Commons Lizenzen**"Creative Commons license terms for re-use do not apply to any content (such as graphs, figures, photos, excerpts, etc.) not original to the Open Access publication and further permission may be required from the rights holder. The obligation to research and clear permission lies solely with the party re-using the material.
Best of both, Structured and Unstructured Sparsity in Neural Networks
Schulte-Schüren C, Wagner S, Runge A, et al. Best of both, Structured and Unstructured Sparsity in Neural Networks. In: Proceedings of the 3rd Workshop on Machine Learning and Systems. New York, NY, USA: ACM; 2023: 104-108.Besides quantization, pruning has shown to be one of the most effective methods to reduce the inference time and required energy of Deep Neural Networks (DNNs). In this work, we propose a sparsity definition that reflects the number of saved operations by pruned parameters to guide the pruning process in order to save as many operations as possible. Based on this, we show the importance of the baseline model's size and quantify the overhead of unstructured sparsity for a commercial-of-the-shelf AI Hardware Accelerator (HWA) in terms of latency reductions. Furthermore, we show that a combination of both structured and unstructured sparsity can mitigate this effect