18 research outputs found

    Open Source Studie Schweiz 2021

    Get PDF
    Die Open Source Studie 2021 zeigt auf, wie Open Source Software trotz der bereits 2018 hohen Werte in vielen Bereichen noch weiter an Verbreitung und Relevanz zugenommen hat. Eindrücklich ist, dass heute gemäss der neuesten Umfrage 97% der Firmen und Behörden Open Source Lösungen einsetzen. Der wichtigste Grund dafür sind offene Standards, denn bei Open Source Software gilt stets «Interoperability by Design». Die Umfrage 2021 zeigt wie bereits 2018 auf, dass Open Source Software in der Schweiz sehr verbreitet ist: Von den 163 antwortenden CEOs, CIOs, CTOs und IT-Fachleuten gaben 97% an, dass sie in einem oder mehreren Bereichen Open Source Software einsetzen – 2018 waren es 95%, 2015 erst 92%. Eindrücklich ist insbesondere das grosse Wachstum der so genannten «Vielnutzer» von Open Source Software auf 49%. Fast die Hälfte der Unternehmen und Behörden – alles Mitglieder von swissICT und der Schweizerischen Informatikkonferenz – geben an, dass sie in mehr als 14 der insgesamt 28 abgefragten Themen Open Source Software nutzen. Das ist ein deutlicher Anstieg gegenüber den 29% «Vielnutzern» im Jahr 2018 und den erst 21% 2015. Dieser Trend belegt das verstärkte Eindringen von Open Source Software in immer weitere Bereiche der modernen Informatik und betont einmal mehr die generelle Relevanz von Open Source Lösungen in der fortschreitenden digitalen Transformation. Open Source Software wird immer breiter in vielen unterschiedlichen Informatikbereichen eingesetzt und hat das ursprüngliche Nischendasein aus der Server-Admin Ecke definitiv verlassen. Auch zeigt dies einmal mehr ein typisches Phänomen bei Open Source Software: Alle machen es, bloss die wenigsten reden darüber. So müsste der bekannte Spruch «No one has been fired for buying Microsoft» wohl schon bald «No one has been fired for buying Linux» lauten. Dieser Meinung sind auch die Antwortenden. Auf die Frage hin, wie sich die Bedeutung von Open Source Software in den letzten drei Jahren verändert hat, antworteten mit 67% über zwei Drittel, dass die Relevanz «stark» oder «eher zugenommen» hat. Im Jahr 2018 waren es 60%, die so antworteten, sodass 2021 die hohe Relevanz von Open Source Software offenbar noch intensiver wahrgenommen wird. Nur gerade knapp 6% der Befragten gab an, dass die Relevanz eher abgenommen haEin neues, wichtiges Argument für Open Source Software ist gemäss der Antworten die «digitale Souveränität», die Fähigkeit zu selbstbestimmtem Handeln und Entscheiden im digitalen Raum. Nutzer von Open Source Software haben somit die Wichtigkeit der reduzierten Hersteller-Abhängigkeit und der dadurch besseren Verhandlungsmöglichkeiten bei Software-Anschaffungen erkannt. Aber es gibt auch weiterhin Hindernisse beim Einsatz von Open Source Software: So wurde beispielsweise in den Umfrageresultaten bemängelt, dass bei vielen Open Source Projekten unklar sei, wie sie finanziert werden. Und neben den unklaren Geschäftsmodellen ist nach wie vor der Vendor Lock-in mit bestehenden proprietären Systemen einer der wichtigsten Hinderungsgründe bei der weiteren Verbreitung von Open Source Software.be, niemand kreuzte «stark abgenommen» an. Beim Ranking der abgefragten Open Source Tools und Plattformen gab es einige spannende Überraschungen. So ist zwar weiterhin JavaScript die verbreitetste Open Source Programmiersprache in der Schweiz, jedoch klarer Gewinner ist dieses Mal TypeScript. Dessen Verbreitung hat sich in nur drei Jahren von 2% auf 39% verzwanzigfacht. Auch Open Source Anwendungen auf dem Desktop haben stark an Ausbreitung gewonnen: deren Anteil stieg von 56% auf 75%. Open Source Standardprodukte wie Firefox oder KeePass sind dabei besonders beliebt. Bei den Identity und Access Management Systemen hat Keycloak einen grossen Sprung nach vorne geschafft: dessen Marktanteil hat sich seit 2018 auf 44% Verbreitung mehr als verdoppelt. Bei den Open Source Content Management Systemen konnte WordPress seine Marktführerschaft auf über 60% verfestigen. Neu mit im Rennen ist dieses Jahr der Schweizer Messenger-Dienst Threema, dessen Mobile Apps und Protokolle erst im Dezember 2020 unter der AGPL-Open Source Lizenz freigegeben worden sind. Threema ist gemäss Umfrage in der IT-Branche sehr verbreitet und wird von 56% der Antwortenden in der Kategorie «Open Source Kommunikations-Tools» genutzt. Erstmalig wurde dieses Jahr untersucht, ob die befragten Firmen und Behörden neben der Nutzung von Open Source Software auch selber zu bestehenden externen oder eigenen Open Source Projekten beitragen. Die Ergebnisse zeigen auf, dass mit über 60% der 141 Antwortenden bereits viele der befragten CEOs und IT-Verantwortlichen Open Source Code freigeben oder zumindest schon mal darüber nachgedacht haben. Tatsächlich veröffentlichen heute insgesamt 30% der Antwortenden auf GitHub, GitLab oder einer anderen Plattform eigenen Source Code. Dies erstaunt, ist die Freigabe von Quelltext unter einer Open Source Lizenz für viele Firmen und Behörden doch eine relativ neue Praxis und benötigt einiges an Erfahrung mit Open Source Communities und Prozessen. Dabei publiziert die Mehrheit (21%) den Quellcode auf einem Organisations-eigenen Profil. Nur die Minderheit lässt ihre Mitarbeitenden den Code über ihre privaten GitHub Profile veröffentlichen

    21. Interuniversitäres Doktorandenseminar Wirtschaftsinformatik der Universitäten Chemnitz, Dresden, Freiberg, Halle-Wittenberg, Ilmenau, Jena und Leipzig: IUDS 2017

    Get PDF
    Das lnteruniversitäre Doktorandenseminar Wirtschaftsinformatik ist eine gemeinschaftliche Veranstaltung der Universitäten Chemnitz, Dresden, Freiberg, Halle, Ilmenau, Jena und Leipzig. Anlässlich des regelmäßig stattfindenden Seminars präsentieren Doktorandinnen und Doktoranden ihre Dissertationsvorhaben und stellen sich einer kritischen Diskussion der teilnehmenden Professorinnen und Professoren sowie der Doktorandinnen und Doktoranden. Auf diese Weise erhalten die Promovierenden wertvolle Anregungen und Hinweise zu vorgehen, Methodik und inhaltlichen Aspekten ihrer Arbeit, welches sie für die weitere Arbeit an ihrer Promotion und darüber hinaus nutzen können. Außerdem bietet das lnteruniversitäre Doktorandenseminar Wirtschaftsinformatik eine Gelegenheit zur fachlichen Auseinandersetzung mit aktuellen Themen und sich ankündigenden Trends in der Forschung der Wirtschaftsinformatik. Zudem wird ein akademischer Diskurs über die Grenzen der jeweils eigenen Schwerpunkte der Professur hinaus ermöglicht. Das nunmehr 21. Doktorandenseminar fand in Leipzig statt. Der hieraus entstandene vorliegende Tagungsband enthält sieben Beiträge aus den Bereichen Vorgehensweisen (Prozessharmonisierung fusionierter Dienstleistungsunternehmen, Gestaltung digitaler Transformation, Datenschutzmodell für E-Commerce), Anwendung (intelligente Tutoringsysteme, Social CRM) und Technik (dezentrales Cloud-Netzwerk, Referenzarchitektur für Cloud Computing) sowie einen Gastbeitrag (systematische Widerverwendung) und vermittelt dadurch interessante Einblicke in ausgewählte Themen der aktuellen Forschung der Wirtschaftsinformatik.:1. Prozessharmonisierung von fusionierten Dienstleistungsunternehmen im Zeitalter Quality 4 .0 - DSR Ansatz zur Entw'icklung einer Methode 2. Dezentrales Cloud-Netzwerk: Forschungsergebnisse und Evaluation 3. Konzeption eines Datenschutzmodells im E-Commerce 4. Mit systematischer Wiederverwendung von der Forschung in die Wirtschaft (und ein bißchen zurück) 5. Intelligent Tutoring Systems für wenig frequentierte Lernsituationen 6. Customer Context in Social CRM - Concept and Use Cases 7. Die Digitale Transformation gestalten - Ein Reifegradmodell zur Entwicklung von Datenkompetenz im Kontext des Capability Ansatzes 8. Cloud Computing Referenzarchitektur - IT-Dienstleistungszentren der öffentlichen Verwaltung in der Ebenen-übergreifenden Verzahnung digitaler lnfrastrukture

    Industrie 4.0 - Strategischer Leitfaden für ein Maschinenbauunternehmen : Handlungsfelder und Nutzen im Kontext einer Digitalisierungsstrategie

    Get PDF
    Industrie 4.0 ist zu einem zunehmend prägenden Begriff geworden, der die digitale Veränderung von Unternehmen und sogar ganzen Branchen versinnbildlicht. Dabei hat das seit 2011 bestehende Schlagwort in den letzten Jahren einen regelrechten Hype erfahren. Um die dadurch entstandenen Erwartungen an die Industrie 4.0 besser abschätzen zu können, wurden die wichtigsten Technologien anhand des Gartner Hype Cycles überprüft. Die Untersuchung ergab, dass der Hype um die Industrie 4.0 vorerst zu Ende ist. So werden durch weitere technologische Entwicklungen die Erwartungen in Zukunft wohl etwas gebremst und relativiert werden. Trotzdem beeinflusst die Industrie 4.0 bereits heute viele Industrien, wovon besonders die Maschinenbauindustrie betroffen ist. Es werden sich durch bestehende und neue Technologien viele Möglichkeiten und Potenziale ergeben, um als Maschinenbauunternehmen zu wachsen. Dabei müssen jedoch gewisse Grundvoraussetzungen herrschen, um aus der Industrie 4.0 einen möglichst grossen Nutzen zu realisieren. Setzt ein Unternehmen seinen Fokus auf eine Digitalisierungsstrategie, so sind einerseits die strategischen Handlungsfelder im Unternehmen und andererseits die neu auftretenden Potenziale genau zu kennen

    Multimediale Bausteine im Ballsport am Beispiel der powercoach.com-Trainingsdatenbank

    Get PDF

    Generische Systemarchitektur für die Erhebung mikroskopischer Verkehrsdaten

    Get PDF
    Die fortschreitende Entwicklung im Bereich der Digitalisierung, Datenerfassung und Informationsverarbeitung ermöglicht die Konzeption und Ausgestaltung neuer innovativer Lösungen für ein intelligentes Verkehrssystem. Die sich stetig verschiebenden Grenzen des technisch Machbaren lassen neue Denkweisen und Konzepte für die unterschiedlichen Zielbereiche Sicherheit, Effizienz und Umweltverträglichkeit zu. Ein Kernaspekt liegt dabei in der Analyse von verkehrlichen Verhaltens- und Interaktionsmustern. Ein wichtiger Baustein hierfür ist die Erfassung und Interpretation der jeweils maßgeblichen verkehrlichen Bewegungen, auf deren Grundlage das Wissen um Wirkketten und Zusammenhängen für unterschiedliche Anwendungen erarbeitet werden kann. Für die wissenschaftliche Untersuchung der zugehörigen Fragestellungen ist der Aufbau von adäquaten Werkzeugen essentiell. Der Aufbau und die Entwicklung von Referenzarchitekturen für diese Werkzeuge schlüsselt die Zusammenführung aus verschiedenen Nutzungskontexten in einen gesamtheitlichen Konzeptentwurf auf. Aus diesem Entwurf lassen sich daran anschließend effizient einzelne technische Lösungen unter grundsätzlicher Wahrung von gewünschten Systemeigenschaften und Interoperabilitätsbedingungen ableiten. Durch die Einbettung dieser Systemlösungen in einen Testfeldbetrieb können nachhaltig genutzte und aufeinander abgestimmte Infrastrukturen mit dem Nutzungsfokus der vorwettbewerblichen Forschung und Entwicklung geschaffen werden. Dabei ermöglicht dieses Vorgehen die Wiederverwendbarkeit und den Transfer der zugrundeliegenden Konzepte über die bestehenden technischen Ausprägungen hinaus und damit eine Weiternutzung im Zuge zukünftiger technischer Entwicklungen und Anwendungsfelder. Diese Forschungsarbeit entwickelt eine Systemarchitektur für die messtechnische Erfassung, Verfolgung und Interpretation von verkehrlichen Bewegungen in Form von Trajektorien für unterschiedliche verkehrliche Szenarien. Zielstellung ist die Schaffung eines Ansatzes mit einem übergreifenden Gestaltungsschema, welcher alle gegebenen Anforderungen einbezieht und abdeckt. Die Systemarchitektur wird dabei ausgehend von einem generisch angelegten Entwurfsmuster stückweise expliziert und ausgestaltet. Für die vorliegende Arbeit werden verschiedene Blickwinkel und Arbeitsfelder zusammengeführt. Dies sind Technologien und Methoden der Objekterfassung und Situationsinterpretation, des Datenmanagements und verteilter Systemkonzepte wie auch technische und organisatorische Rahmenbedingungen für eine betriebliche Einbindung unter grundsätzlicher Wahrung datenschutzrechtlicher Gegebenheiten. Der Ansatz ermöglicht die Nutzung der resultierenden Systemstrukturen für die unterschiedlichen relevanten Anwendungsbereiche. Diese liegen in der automatisierten Erfassung von Bewegungsverläufen und Interaktionsformen von Verkehrsteilnehmern als Grundlage für spezifische Situationsanalysen im Bereich der Verkehrskonflikttechnik, der Nutzung im Bereich szenariengebundener Entwicklungsprozesse automatisierter und vernetzter Fahrfunktionen und deren Validierung sowie der echtzeitfähigen infrastrukturellen Erfassung und Interpretation von verkehrlichen Bewegungen als Baustein für prototypische Implementierungen von kooperativ ausgelegten Fahrfunktionen. Der Nachweis zur Umsetzbarkeit und Leistungsfähigkeit der entwickelten Konzepte erfolgt an den physischen Systemstrukturen und etablierten Diensten des Testfelds Anwendungsplatt-form für intelligente Mobilität (AIM) des Deutschen Zentrums für Luft- und Raumfahrt. Die Nutzung dieses Testfelds im Kontext unterschiedlicher Projekte zeigt die erschlossenen Möglichkeiten für die Bearbeitung der maßgeblichen Anwendungsfälle auf. Diese reichen von der Ex-Post-Analyse der Trajektoriendaten bis in die echtzeitbasierte Einbindung der ermittelten Informationen in innovative Konzepte mit kooperativer verteilter Umfelderfassung für die Nutzung im Rahmen der Fahrzeugautomation

    Organisationsmodelle von Global Services und Wissenstransfer in Offshoring. Die Fallbeispiele von Chile und Uruguay

    Get PDF
    The offshoring services has become increasingly important for firms and their competitiveness as well as for countries wishing to enter the global market. Previous studies have considered the effects of offshoring and the forms of knowledge transfer mainly within multinational corporations (MNCs) and their subsidiaries abroad. This research focuses on the effects of offshoring in the host market and its supply firms, and is based on a dynamic of „mutuality of interest“ in a balanced organization in the global market. The main argument of this work is that knowledge creation should be supported by both sides. The „digital revolution“ is giving many emerging countries the chance to position themselves in the global market through offshoring and therefore to upgrade the local economy. This is a theoretical and empirical approach based on the case studies of Montevideo (Uruguay) and Santiago and Valparaíso (Chile), and indicates that each offshoring model has different effects on the knowledge transfer between firms. Moreover, proximity between foreign direct investments (FDI) and domestic firms can play an important role in interactive organizational learning processes. Through the classification of companies in the information technology sector and the identification of cases of offshoring, modes of knowledge transfer emerge which show how domestic and foreign firms transfer knowledge, and to what extent this can benefit the host economy

    E-Science-Tage 2017: Forschungsdaten managen

    Get PDF

    A reference model for Server Based Computing infrastructures and its application for the capacity management

    Get PDF
    Der weltweit rasant steigende Bedarf an Unterstützung von Anwendern durch leistungsfähige IT-Systeme führt zu einer gleichermaßen steigenden Nachfrage nach Technologien, die es Unternehmen ermöglichen, ihren Endanwendern Desktop-Umgebungen und Applikationen in effizienter und effektiver Weise bereitzustellen. Daraus leitet sich sowohl unter ökologischen als auch unter ökonomischen Aspekten die Anforderung ab, vorhandene Hardware- und Software-Plattformen möglichst passend zum heutigen und zukünftigen Bedarf zu dimensionieren und die Systeme optimal auszulasten. Protokolle zum Zugriff auf Server-Ressourcen unter Microsoft Windows Betriebssystemen nach dem Prinzip der entfernten Präsentation wurden erstmals ca. 1995 implementiert. Seither hat das damit auch unter Windows mögliche Server Based Computing (SBC) mit Terminal Servern und im Nachgang auch virtuellen Desktops eine technische Reife erlangt, die dem Betriebsmodell der verteilten Ausführung und Datenhaltung mittels konventioneller Personal Computer nicht nachsteht. Energie- und ressourcensparende Thin Clients haben sich entsprechend als Alternative zu herkömmlichen Arbeitsplatz-Computern und ihrer lokalen Datenverarbeitung etabliert. Die Leistungsfähigkeit der Thin Clients hängt jedoch maßgeblich von der Kapazität der Server-Infrastruktur im Rechenzentrum ab. Die vorliegende Dissertation greift dieses Thema auf und entwirft ein Referenzmodell für das Kapazitätsmanagement von Server Based Computing Infrastrukturen mit dem Ziel, vorhandene wie auch neu zu konzipierende Systeme zu planen und in einem iterativen Prozess weiterzuentwickeln. Der zu Grunde liegende Ansatz baut auf Methoden und Sprachen der Referenzmodellierung auf. Zunächst wird die aus fünf Schichten bestehende Gesamtsicht einer Server Based Computing Infrastruktur entworfen. Aus diesem Referenzmodell werden nach einem methodischen Vorgehen konkretere Informationsmodelle abgeleitet und in der Sprache der Fundamental Modeling Concepts (FMC) notiert. Ein solches Modell kann anschließend im Rahmen einer Simulation oder einer analytischen Herangehensweise dazu verwendet werden, bereits bei der Konzeption verschiedene Handlungsalternativen zu untersuchen und bezüglich der Kapazität der Ressourcen zu bewerten. Das Referenzmodell und seine Methodik werden anhand eines exemplarischen Szenarios mit verschiedenen Gruppen von Anwendern und Arbeitsplatzgeräten auf der Client-Seite sowie mehreren Profilen von Anwendungen auf der Server-Seite erprobt. Hierbei wird deutlich, dass die modellbasierte Herangehensweise einen wertvollen Beitrag zum Kapazitätsmanagement leisten kann, ohne dass vorab der tatsächliche Aufbau einer neuen IT-Infrastruktur durch die Installation eines physischen Prototypen und die Simulation von Arbeitslasten darauf notwendig wäre.A worldwide rapidly increasing need for assistance of staff by powerful IT-systems leads to an equally ever growing demand for technologies that enable organizations to provide desktop environments and applications to their end users in an efficient and effective way. In terms of both ecologic and economic aspects, the deduced requirement is to size existing hardware and software platforms as suitable as possible for present and future needs, and to allow for an optimum utilization of the system capacities. Access protocols on server resources based on Microsoft Windows operating systems within the scope of remote presentation were implemented for the first time around 1995. Since then, Server Based Computing (SBC), with terminal servers and virtual desktops later on, has reached a technical maturity which is not inferior to the distributed issue of the operating modeland data storage as used in conventional personal computers. Accordingly, energy and resource saving thin clients have established themselves as an alternative to conventional desktop computers and local data processing. Their performance, however, depends significantly on the capacity of the server infrastructure located in the data center. The present thesis takes up this subject and outlines a reference model for the capacity management of Server Based Computing infrastructures with the intention to plan novel designed systems and, further, to develop both these as well as exsisting ones by means of an iterative process. The underlying approach bases upon methods for reference modeling and languages. Initially, a global view of a Server Based Computing infrastructure consisting of five layers is developed. From this reference model, more precise information models are derived following a methodological approach and are stated according to language elements of the Fundamental Modeling Concepts (FMC). Such model can be used subsequently within the scope of a simulation or an analytical approach, hereby aiming to investigate and evaluate various alternative courses of action regarding the capacity of resources already during the conception phase. The reference model and its methodology are evaluated using an exemplary scenario with different groups of users and workstation devices on the client side and several profiles of applications on the server side. This shows clearly that the model-based approach can make a valuable contribution to the capacity management, without requiring the actual implementation of a new IT infrastructure by building a physical prototype and simulating workloads within this prototype

    Mediale Hochschul-Perspektiven 2020 in Baden-Württemberg : empirische Untersuchung im Rahmen der Allianz "Forward IT"

    Get PDF
    Die Digitalisierung in der akademischen Bildung wird in der Studie aus der organisationalen Perspektive einer Hochschule - als „Modell“ – betrachtet und konkretisiert anhand der Fallbeispiele des Karlsruher Instituts für Technologie und der Universität Stuttgart. Als wesentliche Einflussbereiche gelten die digitale Durchdringung der Wissenschaft und des Studiums, die digitale Vernetzung der hochschulischen Systeme sowie die gewohnheitsmäßige Nutzung digitaler Medien bei Lehrenden und Lernenden

    Hochschule

    Full text link
    corecore