114 research outputs found

    The digital transformation of Siemens

    Get PDF
    In order to stay both competitive and profitable it is essential for companies to adapt to the continuous changes in the environment and to adjust the firm’s strategy accordingly. Through-out the years, scholars have investigated the importance of strategic change as well as the im-pact that leadership can have on strategic change and thus firm performance. Additionally, the dynamic capabilities view that addresses the question of how firms can achieve and sustain competitive advantage in rapidly changing environments has gained increasing attention in re-cent years. To demonstrate a real-life example of these theories, I developed a teaching case about the restructuring of Siemens. The case intends to demonstrate a strategic transformation of a major company in response to environmental changes, coming along with a new CEO. Joe Kaeser fundamentally reorganized the company and used in particular the digitalization trend to suc-cessfully boost performance and restore success after a series of setbacks under the leadership of Siemens’ former CEO, Peter Loescher. The case clearly illustrates the importance of Sie-mens’ dynamic capabilities for the transformation of the company and shows how especially the background and personality of the respective CEOs, Loescher first and then Kaeser, affected strategic change and, consequently, Siemens’ performance.De forma a permanecerem competitivas e lucrativas, é essencial que as empresas se adaptem às mudanças contínuas no ambiente externo e ajustem a sua estratégia em conformidade. Ao longo dos anos, vários autores investigaram a importância da mudança estratégica, bem como o impacto que a liderança pode ter na mudança estratégica e, portanto, no desempenho da empresa. Além disso, a framework das dynamic capabilities, que aborda a questão de como as empresas podem alcançar e sustentar uma vantagem competitiva em ambientes em rápida mudança, ganhou atenção crescente nos últimos anos. De forma a ilustrar com um exemplo real a aplicação dessas teorias, desenvolvi um caso de estudo sobre a reestruturação da Siemens. O caso demonstra a transformação estratégica de uma grande empresa em resposta a mudanças ambientais, ao mesmo tempo que é admitido um novo CEO. Joe Kaeser reorganizou profundamente a empresa e usou, em particular, a tendência da digitalização para melhorar a performance e restaurar o sucesso após uma série de contratempos sob a liderança do ex-CEO da Siemens, Peter Loescher. O caso ilustra claramente a importância das capacidades dinâmicas da Siemens para a transformação da empresa e mostra como, em particular, a experiência prévia e a personalidade dos respetivos CEOs, Loescher primeiro e depois Kaeser, afetaram a mudança estratégica e, consequentemente, o desempenho da Siemens

    Eine qualitative Studie über Praktiken, Bedingungen und Barrieren schulleitungsseitiger Nutzung von VERA-Arbeiten zur evidenzbasierten Entwicklung des Lehrkräftehandelns

    Get PDF
    Ergebnisrückmeldungen zu Leistungsvergleichstestungen von Schülerinnen und Schülern bergen ein hohes ‘evaluatives Potential‘ für die Entwicklung von Schule und Unterricht. Gemäß (Meta)befunden der Schuleffektivitätsforschung gilt ein pädagogisches Handeln, das datenbasiert erfolgt, als ein wesentlicher Erfolgsfaktor für die innerschulische Qualitätsentwicklung (Hattie, 2010; Schildkamp & Kuiper, 2010). Mit der bundesweit verpflichtenden Einführung flächendeckender Vergleichsarbeiten (VERA) ist von der Kultusministerkonferenz 2006 ein entsprechendes Steuerungsinstrument auf den Weg gebracht worden, dessen Rückmeldungen den schulischen Professionals zur Verbesserung ihrer Diagnostik, für die Einleitung individueller Fördermaßnahmen, vor allem aber zur gezielten Weiterentwicklung ihrer Arbeitsstrukturen und -prozesse zugutekommen soll. Voraussetzung dafür ist ein informierter und kompetenter Umgang mit den Datenrückmeldungen. Analog zu der in bildungspolitischen wie -administrativen Schriftstücken vorgenommenen Fokussierung auf die Nutzungsebene der Lehrerschaft konzentrierte sich auch die Rezeptionsforschung in den vergangenen zehn Jahren bei ihrer Analyse der Evaluationsnutzung vordergründig auf die Wahrnehmung und Verwendung der VERA-Rückmeldungen durch Lehrkräfte bzw. Fachkonferenzleitungen (Wurster & Richter, 2016). Doch der Weg ‚von Daten zu Taten‘ findet nicht zwangsläufig und automatisch statt, sondern ist voraussetzungsreich und damit im Ergebnis hinter den Erwartungen der politischen Steuerungsakteure zurückgeblieben (Maier, 2008b; Maier et al., 2011; Thiel, 2007) . Terhart resümiert gar, dass „das eigentliche Ziel des Ganzen – Feedback, das eine Verbesserung des eigenen Unterrichts nach sich zieht [...] insgesamt eigentlich nicht oder doch nur zu einem sehr geringen Anteil erreicht“ wird (2014b, S. 192). Spätestens mit dieser Erkenntnis ist für eine gezielte Unterstützung der Datenrezeption und -nutzung der Blick auf weitere Akteursebenen erforderlich geworden: Als dem zentralem "Bindeglied für die Synchronisation von Top-down und Bottom-up-Strategien" (Schratz, Hartmann & Schley, 2010, S. 9) kommt den Schulleitungen ein wesentliches Potential für eine gezielte Ausrichtung auf die intendierte Schul- und Unterrichtsentwicklung zu (vgl. Leithwood & Riehl, 2005). Da allerdings zwischen der Rezeptions- und Schulleitungsforschung erst wenig Verbindung besteht, sind Befunde zur Wahrnehmung und Nutzung der VERA-Daten durch die schulischen Führungskräfte bisher vergleichsweise selten zu finden. Kuper und Muslic konstatieren entsprechend, dass die Erforschung der besonderen Verantwortung von Schulleitungen im Zusammenhang mit der testbasierten Schulreform für die Rezeptions- und Nutzungsforschung von zentraler Bedeutung ist (Kuper, 2014; Muslic, 2017). Dabei stellt sich im Zuge ihres veränderten Verantwortungsprofils die Frage, inwiefern SchulleiterInnen die Ergebnisse der Vergleichsarbeiten auch im Rahmen der zunehmend auf sie übertragenen Personalführungsaufgaben zum Einsatz bringen, gehört es ja schließlich „zur VERA-Logik, dass Schulleitungen […] die Testergebnisse kennen und damit Unterrichtsentwicklung anstoßen sollen“ (Maier & Kuper, 2012, S. 90). Wenig ist allerdings darüber bekannt, ob sie jenseits organisatorischer Maßnahmen zur Durchführung und Auswertung der Testungen bzw. ihrer teilweise in den Ländern festgelegten Aufgabe zur innerschulischen Bekanntgabe der Ergebnisse (Kultusministerkonferenz, 2018b, S. 7; Tarkian, Maritzen, Eckert & Thiel, 2019) die Rückmeldedaten auch tatsächlich im Sinne eines Data-wise Leadership nutzen, indem sie ein qualifiziertes Handeln der Lehrkräfte zur Weiterentwicklung ihres Unterrichts inhaltlich unterstützen. Die innerschulische Personalentwicklung, Baustein einer systematisch angelegten Schulentwicklung, bietet ihnen einen sich dazu in besonderem Maße anbietenden Tätigkeitsbereich: Mit einer zielgerichteten, gerade auch auf Einzellehrkräfte fokussierten Planung von Fortbildungen, der Durchführung von Mitarbeitergesprächen oder der Verabredung von Entwicklungszielen stehen Schulleitern im Kontext ihrer erweiterten Handlungsspielräume verschiedene In-strumente für eine auf Qualitätssicherung und -entwicklung fokussierte Förderung und Weiterqualifizierung der Professionals zur Verfügung, die sich auch im Kontext der deut-schen low-stakes-Systemsteuerung für einen Einbezug entsprechender Datenrückmeldungen prinzipiell eignen. Im internationalen Raum besteht bereits seit längerem ein geteiltes Verständnis darüber, dass Schülerleistungsdaten zu der Ab- wie Einleitung von Personalentwicklungsmaßnahmen beitragen können und sollten (Schildkamp & Kuiper, 2010; Young, 2006). Eine ausdrückliche Beauftragung der Schulleitungen zu solch einer evidenzbasierten Per-sonalentwicklung erfolgt in Deutschland allerdings weder seitens der KMK noch ist diese in (unter)gesetzlichen Normierungen der Landesregulatorien verankert, auch wenn einzel-ne Instrumente, die den Schulen von den Ländern zur internen Evaluation zur Verfügung stellen, teilweise den Anspruch nach einem innerschulischem Monitoring auf Basis der Evaluationsergebnisse anzeigen. Studien, die gezielt der Frage nachgehen, inwieweit in der Praxis innerschulischer Personalentwicklung (dennoch) bereits VERA-Daten eingesetzt werden, sind somit im deutschsprachigen Raum bisher auch kaum vorhanden. Erstmals wurde aus den survey-Daten des StABil-Projekts bekannt, dass knapp jede zweite Schul-leitung im Bundesland Brandenburg im Zusammenhang mit Personalentwicklungsprozessen auf VERA-Daten zurückgreift (Bach, Wurster, Thillmann, Pant & Thiel, 2014). Harm Kuper konnte in seiner Studie zu ‚Schulleitung und Schulleistung‘ im Weiteren ebenfalls zeigen, dass Berliner und Brandenburger Schulleiter die Datenrückmeldungen in den oben genannten Handlungsfeldern berücksichtigen und insofern Ergebnisse auf Klassenebene mit Bezug auf die Einzellehrkraft zum Einsatz bringen. Ungeklärt bleibt in diesen quantitativen Studien allerdings zum einen, wie genau die Schulleitungen die Rückmeldungen dabei verwenden und damit die Frage, welche Qualität ihren evidenzbasierten Aktivitäten mit Blick auf eine nachhaltige Entwicklung von Schule und Unterricht zukommt. Zum anderen ist weitestgehend unbeantwortet, welche Umstände die Schulleitungen zu einer entsprechenden Nutzung der Testdaten veranlassen bzw. eine Verwendung der Rückmeldungen im Rahmen schulischer Personalarbeit hemmen. Aufschlussreich dürfte es insofern sein, die urteilbildenden Referenzsysteme der Entscheider (vgl. Weiss & Bucuvalas, 1980; Coburn, 2004) zur Akzeptanz einer VERA-datenbasierten Personalentwicklung in den Blick zu nehmen, um gezielt Faktoren zu identifizieren, die nutzungsförderlich bzw. nutzungshemmend wirken. Die vorliegende Arbeit zeigt – auf der Basis einer Adaption des Zyklenmodells von Helm-ke & Hosenfeld, der Nutzungssystematik nach Johnson sowie ausgewählter organisations- und akzeptanztheoretischer Vorarbeiten in Verbindung mit Leadership-Elementen - im Rahmen einer qualitativen Interviewstudie mit 18 Brandenburger SchulleiterInnen auf, dass die Nutzungspraxis je nach den vorherrschenden Einflussbedingungen unterschiedliche Formen annehmen kann. Organisationsbezogene Faktoren, aber auch Aspekte der Systemumwelt (wie die Einflussnahme der Schulaufsicht oder Erwartungen der Elternschaft) spielen offensichtlich eine wichtige Rolle bei schulleitungsseitigen Entscheidungsfindungen zur Personalentwicklungsarbeit in professionellen Organisationen. Zugleich wird erkennbar, inwiefern auch instrumentbezogene Spezifika die Datennutzungsentscheidungen von Schulleitungen beeinflussen können und welche personenindividuellen Aspekte ausschlaggebend für ihr Nutzungshandeln sind. Anhand der identifizierten Nutzungsformen und entscheidungsrelevanten Einflussmerkmale werden schließlich Konfigurationen charakteristischer Merkmalsausprägungen erstellt, die in eine Typologie datenbasierten Schulleitungshandelns im Personalmanagement münden. Diese dürfte neben ihrem Erkenntnisgehalt für die Schulleitungsforschung auch für die Lehrerbildung und Schullei-terfortbildung von Bedeutung sein sowie darüber hinaus praxisrelevante Erkenntnisse für die Ebene der Bildungsadministration bereitstellen

    Optimización de tensiones de marcos de bicicleta

    Get PDF
    El interés hacia la optimización del diseño de los productos siempre ha sido una constante dentro de la industria, y esta ha sido la motivación para la realización de este Trabajo Fin de Grado. El propósito del mismo consiste en modelar y optimizar la geometría de cuatro modelos diferentes de cuadros de bicicleta disponibles en el mercado. El proyecto se divide en dos segmentos: diseño y modelado de los marcos y, análisis y optimización de las tensiones soportadas por estos. El primero consiste en la creación de los cuadros de las bicicletas en CATIA V5® a partir de los datos que las diferentes marcas dan de sus geometrías. Estos cuadros de bicicleta deben tener sus variables parametrizadas, para poder cambiarlas en un rango determinado. El siguiente paso es realizar el análisis de tensiones bajo una fuerza externa utilizando también el programa CATIA V5®, y combinándolo con el programa de optimización multiobjetivo Mode FRONTIER 2017®, averiguar cuál es el diseño del cuadro de la bicicleta con la mejor relación resistencia-peso

    The podiform chromitites in the Dagküplü and Kavak mines, Eskisehir ophiolite (NW-Turkey) : genetic implications of mineralogical and geochemical data

    Get PDF
    Mantle tectonites from Eskisehir (NW-Turkey) include high-Cr chromitites with limited variation of Cr#, ranging from 65 to 82. Mg# ratios are between 54 and 72 and chromite grains contain up to 3.71 wt% Fe2O3 and 0.30 wt% TiO2. PGE contents are variable and range from 109 to 533 pbb. Chondrite-normalized PGE patterns are flat from Os to Rh and negatively sloping from Rh to Pd. Total PGE contents and low Pd/Ir ratios (from 0.07 to 0.41) of chromitites are consistent with typical ophiolitic chromitites. Chromite grains contain a great number of solid inclusions. They comprise mainly of highly magnesian (Mg# 95-98) mafic silicates (olivine, amphibole and clinopyroxene) and base-metal sulfide inclusions of millerite (NiS), godlevskite (Ni7S6), bornite (C5FeS4) with minor Ni arsenides of maucherite (Ni11As8) and orcelite (Ni5-xAs2), and unnamed Cu2FeS3 phases. Heazlewoodite, awaruite, pyrite, and rare putoranite (Cu9Fe,Ni9S16) were also detected in the matrix of chromite as secondary minerals. Laurite [(Ru,Os)S2] was the only platinum-group minerals found as primary inclusions in chromite. They occur as euhedral to subhedral crystals trapped within chromite grains and are believed to have formed in the high temperature magmatic stage during chromite crystallization. Laurite has limited compositional variation, range between Ru0.94Os0.03Ir0.02S1.95 and Ru0.64Os0.21Ir0.10S1.85, and contain up to 1.96 at% Rh and 3.67 at% As. Close association of some laurite grains with amphibole and clinopyroxene indicates crystallization from alkali rich fluid bearing melt in the suprasubduction environment. The lack of any IPGE alloys, as well as the low Os-content of laurite, assumes that the melt from which chromite and laurite were crystallized had relatively high fS2 but never reached the fS2 to crystallize the erlichmanite. The presence of millerite, as primary inclusions in chromite, reflects the increasing fS2 during the chromite crystallization

    Knowledge-based engineering and computer vision for configuration-based substation design

    Get PDF
    Introduction: As the increase in electrification poses new demands on power delivery, the quality of the distribution system is paramount. Substations are a critical part of power grids that allow for control and service of the electrical distribution system. Substations are currently developed in a project-based and manually intensive manner, with a high degree of manual work and lengthy lead times. Substations are primarily sold through tenders that are accompanied by an inherent need for engineering-to-order activities. Although necessary, these activities present a paradox as tender processes must be agile and fast. To remedy this shortcoming, this article outlines a knowledge capture and reuse methodology to standardize and automate the product development processes of substation design.Methods: A novel framework for substation design is presented that implements knowledge-based engineering (KBE) and artificial intelligence methods in computer vision to capture knowledge. In addition, a product configuration system is presented, utilizing high-level CAD templates. The development has followed the KBE methodology MOKA.Results: The proposed framework has been implemented on several company cases where three (simplified) are presented in this paper. The framework decreased the time to create a 3D model from a basic electric single line diagram by performing the identification and design tasks in an automated fashion.Discussion: Ultimately, the framework will allow substation design companies to increase competitiveness through automation and knowledge management and enable more tenders to be answered without losing engineering quality

    Optical character recognition on engineering drawings to achieve automation in production quality control

    Get PDF
    Introduction: Digitization is a crucial step towards achieving automation in production quality control for mechanical products. Engineering drawings are essential carriers of information for production, but their complexity poses a challenge for computer vision. To enable automated quality control, seamless data transfer between analog drawings and CAD/CAM software is necessary.Methods: This paper focuses on autonomous text detection and recognition in engineering drawings. The methodology is divided into five stages. First, image processing techniques are used to classify and identify key elements in the drawing. The output is divided into three elements: information blocks and tables, feature control frames, and the rest of the image. For each element, an OCR pipeline is proposed. The last stage is output generation of the information in table format.Results: The proposed tool, called eDOCr, achieved a precision and recall of 90% in detection, an F1-score of 94% in recognition, and a character error rate of 8%. The tool enables seamless integration between engineering drawings and quality control.Discussion: Most OCR algorithms have limitations when applied to mechanical drawings due to their inherent complexity, including measurements, orientation, tolerances, and special symbols such as geometric dimensioning and tolerancing (GD&T). The eDOCr tool overcomes these limitations and provides a solution for automated quality control.Conclusion: The eDOCr tool provides an effective solution for automated text detection and recognition in engineering drawings. The tool's success demonstrates that automated quality control for mechanical products can be achieved through digitization. The tool is shared with the research community through Github

    Reconocimiento automatizado de menas metálicas mediante análisis digital de imagen: Un apoyo al proceso mineralúrgico. II: Criterios metalogenéticos discriminantes

    Get PDF
    Demostrada la posibilidad de segmentación efectiva de menas metálicas para la automatización del estudio mineralógico mediante análisis digital de imagen sobre microscopio óptico de reflexión, se procede, ahora, a completar la metodología, integrando criterios complementarios. Se estudian las asociaciones minerales presentes en los yacimientos minerales y se comparan los valores de reflectancia correspondientes. Las posibilidades de confusión son mínimas, si se limita la selección a los componentes presentes en asociaciones reales. Se elaboran tablas con tipologías simplificadas de yacimientos y de las correspondientes asociaciones minerales, ilustrando su aplicación con ejemplos reales. En conclusión, se propone un método integrado que combina criterios físicos cuantitativos, basados en medidas fotoespectrométricas, con criterios geológicos (tipologías y asociaciones minerales). Dicho método no sustituye al experto mineralogista pero potencia, enormemente, su rendimiento y lo capacita, mediante el proceso matemático de datos digitales adquiridos una sola vez, para producir, a la carta, informaciones variadas y rápidas

    A Distinctive Pd-Hg Signature in Detrital Gold Derived from Alkalic Cu-Au Porphyry Systems

    Get PDF
    This study comprises the first systematic classification of native gold geochemistry within alkalic porphyry Cu-Au systems and the placer expression of such systems. The geochemistry and mineral associations of gold from four alkalic porphyry deposits in British Columbia, Canada (Afton, Mount Milligan, Mount Polley and Copper Mountain) have been compared to comment on the likely detrital gold expression of similar systems globally. Populations of gold grains collected from in situ hypogene mineralization as well as fluvial deposits downstream of these deposits have been characterized in terms of their alloy composition (Au, Ag, Cu, Hg, and Pd) and associated mineral inclusions. These data are combined to generate a ‘microchemical signature’. Gold compositions vary according to the alteration zone within a porphyry system. Previous compositional studies of gold in porphyry systems have focused on the most economically important ore associated with potassic alteration, wherein native gold hosted either by bornite or chalcopyrite comprises tiny blebs (typically 5-20 μm), containing detectable Cu in the gold alloy to a maximum of around 5% but quite variable (2-30 wt.%) Ag. The presence of such grains have been confirmed in hypogene ore from the four systems studied, but they have been shown to be compositionally distinct from detrital gold collected from nearby fluvial placers which exhibit a strong Pd and Hg signature, both in the alloy and as mineral inclusions. Several workers have described late stage veins associated with alkalic porphyries which contain distinctive Pd-Hg bearing minerals in association with other sulphides and sulphosalts. This unusual mineralogy has been observed in the mineral inclusion suites of populations of detrital gold grains collected in the environs of the porphyry systems. We conclude that whilst the micron-scale Cu-rich gold grains formed in potassically altered rocks are in general too small to be recovered during routine sediment sampling, those formed in later stage hydrothermal systems are larger, and exhibit a distinctive microchemical signature which may be differentiated from those of gold formed in other mineralizing systems. Consequently, compositional studies of detrital gold could underpin a mineral indicator methodology in the exploration for alkalic porphyry Cu-Au deposits

    Abiotic ammonium formation in the presence of Ni-Fe metals and alloys and its implications for the Hadean nitrogen cycle

    Get PDF
    Experiments with dinitrogen-, nitrite-, nitrate-containing solutions were conducted without headspace in Ti reactors (200°C), borosilicate septum bottles (70°C) and HDPE tubes (22°C) in the presence of Fe and Ni metal, awaruite (Ni80Fe20) and tetrataenite (Ni50Fe50). In general, metals used in this investigation were more reactive than alloys toward all investigated nitrogen species. Nitrite and nitrate were converted to ammonium more rapidly than dinitrogen, and the reduction process had a strong temperature dependence. We concluded from our experimental observations that Hadean submarine hydrothermal systems could have supplied significant quantities of ammonium for reactions that are generally associated with prebiotic synthesis, especially in localized environments. Several natural meteorites (octahedrites) were found to contain up to 22 ppm Ntot. While the oxidation state of N in the octahedrites was not determined, XPS analysis of metals and alloys used in the study shows that N is likely present as nitride (N3-). This observation may have implications toward the Hadean environment, since, terrestrial (e.g., oceanic) ammonium production may have been supplemented by reduced nitrogen delivered by metal-rich meteorites. This notion is based on the fact that nitrogen dissolves into metallic melts

    Design Automation for Multidisciplinary Optimization : A High Level CAD Template Approach

    No full text
    In the design of complex engineering products it is essential to handle cross-couplings and synergies between subsystems. An emerging technique, which has the potential to considerably improve the design process, is multidisciplinary design optimization (MDO). MDO requires a concurrent and parametric design framework. Powerful tools in the quest for such frameworks are design automation (DA) and knowledge based engineering (KBE). The knowledge required is captured and stored as rules and facts to finally be triggered upon request. A crucial challenge is how and what type of knowledge should be stored in order to realize generic DA frameworks. In the endeavor to address the mentioned challenges, this thesis proposes High Level CAD templates (HLCts) for geometry manipulation and High Level Analysis templates (HLAts) for concept evaluations. The proposed methods facilitate modular concept generation and evaluation, where the modules are first assembled and then evaluated automatically. The basics can be compared to parametric LEGO® blocks containing a set of design and analysis parameters. These are produced and stored in databases, giving engineers or a computer agent the possibility to first select and place out the blocks and then modify the shape of the concept parametrically, to finally analyze it. The depicted methods are based on physic-based models, meaning less design space restrictions compared to empirical models. A consequence of physic-based models is more time-consuming evaluations, reducing the probability of effective implementation in an iterative intensive MDO. To reduce the evaluation time, metamodels are used for faster approximations. Their implementation, however, is not without complications. Acquiring accurate metamodels requires a non-negligible investment in terms of design space samplings. The challenge is to keep the required sampling level as low as possible. It will be further elaborated that many automated concurrent engineering platforms have failed because of incorrect balance between automation and manual operations. Hence, it is necessary to find an equilibrium that maximizes the efficiency of DA and MDO. To verify the validity of the presented methods, three application examples are presented and evaluated. These are derived from industry and serve as test cases for the proposed methods.Vid utvecklingen av komplexa och tätt integrerade maskintekniska produkter är det viktigt att hantera gränsöverskridande kopplingar och synergier mellan olika delsystem. En ny teknik, som har potential att drastiskt förbättra konstruktionsprocessen, är multidisciplinär design optimering (MDO). En MDO process kräver ett integrerat och parametrisk konstruktionsramverk. I detta syfte är design automation (DA) och knowledge based engineering (KBE) lovande tekniker för att stödja parametriska konstruktionsramverk. En avgörande utmaning ligger i hur och vilken typ av kunskap som bör förvaras för att förverkliga en generell DA ramverk. Därför föreslås high level CAD template (HLCT) för geometri manipulation och high level Analysis template (HLAt) för koncept utvärderingar. Detta gör att användaren kan bygga modeller i mindre moduler som sedan monteras och utvärderas automatiskt. Grunderna kan jämföras med parametriska LEGO ® block som innehåller en uppsättning av design och analys parametrar. Dessa produceras och lagras i databaser, vilket ger ingenjörer eller en datoragent möjligheten att först välja och placera ut blocken och sedan ändra formen på dem parametriskt, för att slutligen analysera produkten. Metoderna är baserade på fysikbaserade modeller, vilket innebär mindre begränsningar jämfört med empiriska modeller. Nackdelen med fysikbaserade modeller är tidskrävande utvärderingar, vilket gör genomförandet av dem i en iterativintensiv MDO opraktisk. För att minska utvärderingstiden införs metamodeller för snabbare approximationer. Att implementera metamodeller är dock inte utan komplikationer. Metamodeller kräver en icke försumbar investering i form av utvärderingar av fysikbaserade modeller för att nå en acceptabel approximation. Utmaningen är att hålla nivån på antalet iterationer så låg som möjligt. Det kommer att redogöras att många samtidiga DA plattformar har misslyckats på grund av felaktig uppskattning gällande balansen mellan manuella och automatiserade operationer. Det är ytterst nödvändigt att hitta rätt balans för att maximera effektiviteten av DA och MDO. För att verifiera giltigheten av de presenterade metoderna används tre applikationsexempel från industrin
    corecore