32,879 research outputs found

    ein Projekt stellt sich vor

    Get PDF
    BNE (Bildung für nachhaltige Entwicklung) ins Lehramtsstudium der Physik und Informatik an der Freien Universität Berlin zu integrieren, ist das Ziel des neuen Projektes BNE-Lehramtsausbildung im Schülerlabor. In diesem Projekt wird das bereits etablierte und vorgestellte Konzept der Praxisseminare (Krofta et al. 2013) weiterentwickelt. Im neu eingerichteten Praxisseminar Smart Grid sollen Lehramtsstudierende BNE-Lehrerkompetenzen (nach Rauch et al. 2008) erwerben, indem sie kompetenzorientierten Unterricht planen, im Schülerlabor durchführen und reflektieren. Als Grundlage der Unterrichtsentwicklung dient das Konzept der Gestaltungskompetenz (de Haan, 2008). Das Nachhaltigkeitsthema des Seminars, Smart Grid/ Stromnetz der Zukunft, ist durch zahlreiche Wechselwirkungen und Komplexität gekennzeichnet. Dies erfordert eine interdisziplinäre Herangehensweise und das Know-How einer mehrköpfigen Arbeitsgruppe, die in unserem Praxissemester aus Studierenden der Informatik- und der Physikdidaktik besteht. Das Projekt- und Seminarkonzept sowie die Erfahrungen aus dem ersten Seminardurchlauf werden vorgestellt

    Systematic review about data quality and protocol compliance in clinical trials

    Get PDF
    Bei Investigator Initiated Trials (IITs) werden alternative risikoadaptierte Monitoring-Strategien in Abhängigkeit vom individuellen Studiendesign und dem Risikoprofil diskutiert, um bei oft restriktiven Ressourcen eine den gesetzlichen Vorgaben genügende Qualität der Studiendurchführung und der Daten zu gewährleisten. Aufgrund einer Literaturanalyse sollten in der vorliegenden Arbeit Untersuchungen ausgewertet werden, in denen quantitative Aussagen zu Datenqualität und Prüfplan-Compliance in klinischen Prüfungen gemacht wurden. Bei der Interpretation der Ergebnisse sollten die implementierten Qualitätssicherungsmaßnahmen berücksichtigt werden. Aufgrund einer systematischen Recherche in MEDLINE konnten 21 Publikationen identifiziert werden, bei denen die Daten- und Prozessqualität in klinischen Prüfungen untersucht, die Qualität durch Überprüfungen mit Source Data Verification vor Ort oder Überprüfung übermittelter Quelldaten in der Studienzentrale ermittelt wurde und quantitative Informationen zu den Bereichen Datenqualität, Protokoll-Compliance oder Defizite bei Einwilligungserklärungen vorlagen. Die Mehrzahl der Untersuchungen ist drei Organisationen zuzuordnen: European Organization für Research and Treatment of Cancer (EORTC) (n=7), National Cancer Institute (NCI) (n=7) und Untersuchungen der Trans-Tasman Radiation Oncology Group (TROG) (n=4). Darüber hinaus wurden drei Untersuchungen weiterer Studiengruppen identifiziert. Die Untersuchungen wurden im Zeitraum von 1981 bis 2003 publiziert. Überwiegend wurden in der Literatur onkologische Studien betrachtet (n=19), wobei die Radiotherapie im Vordergrund stand (n=8). Für die EORTC-Studien wurde in der Regel eine gute Datenqualität berichtet (80-90% korrekte Daten). Punktuelle Probleme wurden im Hinblick auf die Protokoll-Compliance und das Berichten von Nebenwirkungen/schwerwiegenden unerwünschten Ereignissen festgestellt. Eine gute Qualität wurde ebenfalls bzgl. des korrekten Einschlusses von Patienten beobachtet. Durch das NCI wurde ein standardisiertes Audit-System eingeführt und innerhalb von kooperativen Studiengruppen implementiert. Im Rahmen dieser Audits wurden verschiedene Kriterien überprüft und eine überwiegend gute Datenqualität und Protokoll-Compliance festgestellt. Mängel wurden in ca. 5% der Fälle im Hinblick auf die Einwilligungserklärung, die korrekte Anwendung der Einschlusskriterien, Protokollverletzungen, bei der Ermittlung des Zielkriteriums, der Erfassung der Toxizität, der adäquaten Datenlieferung und bei der Datenverifikation beobachtet. In einzelnen Untersuchungen ergaben sich Probleme mit der Behandlungscompliance (10-20%), bei Protokollabweichungen im Hinblick auf die Arzneimitteldosis (10%) und bei der Drug Accountability (15%). Von der TROG wurde ein Qualitätssicherungsprozess implementiert, der auf zentralem Monitoring von kopierten Quelldaten basiert. Durch den Qualitätssicherungsansatz der TROG konnten schwerwiegende Probleme mit der Protokoll-Compliance unter 10% gesenkt werden, ebenso konnte eine gute Datenqualität mit einer Fehlerrate unter 5% erreicht werden. Die korrekte Handhabung von Ein- und Ausschlusskriterien stellte in Einzelfällen ein Problem dar. Zusammenfassend kann festgestellt werden, dass die in dem Review erfassten Studiengruppen von einer guten Datenqualität und einer guten bis moderaten Protokoll-Compliance berichten. Diese basiert nach Aussage der Autoren im wesentlichen auf etablierten Qualitätssicherungs-Prozeduren, wobei das durchgeführte Audit ebenfalls einen potentiellen Einflussfaktor darstellt. Geringe Probleme wurden in der Regel im Hinblick auf die Einwilligungserklärung, die korrekte Handhabung der Ein- und Ausschlusskriterien und die Datenqualität beobachtet. In einzelnen Studien gab es jedoch Probleme mit der Protokoll-Compliance. Insgesamt hängen Anzahl und Art der Mängel von dem Studientyp, dem Qualitätsmanagement und der Organisation der Studiengruppe ab. Wissenschaftsbetrug wurde nur in sehr wenigen Fällen durch die Audits festgestellt. Die vorgelegten Informationen beziehen sich nahezu ausschließlich auf etablierte Studiengruppen; bezüglich Datenqualität und Protokoll-Compliance außerhalb der Studiengruppen liegen kaum Informationen in der Literatur vor. Bei der Bewertung der Ergebnisse sollte berücksichtigt werden, dass es sich zum Teil um Eigenauswertungen der Studiengruppen und nicht um unabhängige externe Prüfungen (z.B. externe Audits) handelt. Inwieweit die Ergebnisse einer konsequenten Überprüfung nach derzeitigen Good Clinical Practice (GCP) – Regeln standhalten würden, kann aus der Analyse nicht beantwortet werden. Aus der vorliegenden Literaturanalyse ergeben sich Konsequenzen für die Planung einer prospektiven kontrollierten Studie zum Vergleich unterschiedlicher Monitoring-Strategien. Wesentlicher Einflussfaktor für die Datenqualität und Protokollcompliance in einer klinischen Studie ist das Qualitätsmanagement. Dieses Qualitätsmanagement umfasst neben Monitoring zahlreiche andere Maßnahmen. Um zu einer Bewertung von Monitoringstrategien kommen zu können, müssen daher alle Qualitätssicherungsmaßnahmen im Rahmen einer Studie berücksichtigt werden. Für den Vergleich unterschiedlicher Monitoringstrategien sind geeignete Zielparameter zu definieren (z.B. schwerwiegende Defizite bzgl. Ein- und Ausschlusskriterien, Sicherheit). Die vorliegende Analyse ergibt, dass bei gutem Qualitätsmanagement ohne umfassendes vor Ort Monitoring schwerwiegende Fehler nur mit relativ niedriger Häufigkeit festgestellt wurden. Unterschiede zwischen Monitoringstrategien könnten, gegeben ein funktionierendes Qualitätsmanagementssystem, sich als quantitativ gering erweisen. Testet man auf Äquivalenz von Monitoringstrategien, sind nur niedrige Differenzen zu akzeptieren, was wiederum eine Auswirkung auf die Fallzahlplanung hat. Weiterhin muss berücksichtigt werden, dass zur Feststellung der Auswirkung unterschiedlicher Monitoringstrategien auf die Sicherheit der Patienten und die Validität der Daten im Rahmen einer kontrollierten Untersuchung ein unabhängiges Audit notwendig ist. Dabei ist zu berücksichtigen, dass ein Audit bereits einen möglichen Einflussfaktor für die Datenqualität und Protokoll-Compliance darstellen kann, und damit eine Bewertung des Nutzens einer Monitoringstrategie erschwert werden könnte. Schlüsselwörter: systematisches Review, Datenqualität, Protokoll-Compliance, klinische StudieFor Investigator Initiated Trials (IITs) alternative risk-adapted monitoring strategies are discussed in order to fulfill rules and regulations, taking into consideration the restricted resources. In this systematic review investigations, presenting quantitative data about data quality and protocol compliance in clinical trials, are analyzed. The results are discussed taking into account the quality assurance procedures implemented. Based on a systematic MEDLINE retrieval, 21 studies could be identified in which data and process quality in clinical trials were investigated and assessed by site visits with source data verification or review of copied source data in the study center and quantitative information about data quality and protocol compliance was available. The majority of investigations were performed by three organizations: European Organization for Research and Treatment of Cancer (EORTC) (n=7), National Cancer Institute (NCI) (n=7) and investigations of the Trans-Tasman Radiation Oncology Group (TROG) (n=4). In addition three investigations of other study groups were identified. The investigations were published between 1981 and 2003. In the majority of cases oncological trials were investigated (n=19) with a focus on radiotherapy trials (n=8). In the EORTC-trials an overall good data quality was assessed (80–90% correct data). Singular problems were found with respect to protocol compliance and reporting of adverse reactions and serious unexpected events. Good quality was also observed with respect to the correct inclusion of patients into trials. By the NCI a standardized audit system was introduced and implemented within cooperative study groups. In the context of these audits different criteria were assessed and a good data quality and protocol compliance were measured. Deficits occurred in about 5% of the cases with respect to informed consent, correct application of inclusion criteria, protocol compliance, assessment of outcome criteria, assessment of toxicity, adequate data reporting and data verification. In some investigations problems with treatment compliance (10-20%), drug dose deviations (10%) and drug accountability (15%) were identified. By the TROG a quality assurance procedure was implemented, based on central monitoring of copied source data. By this approach major problems with protocol compliance could be reduced to less than 10% together with a good data quality with an error rate under 5%. The correct handling of in- and exclusion criteria was a problem in individual cases. In summary we found out that good data quality and good to moderate protocol compliance were reported by the study groups that are included in the systematic review. Due to the authors this is mainly due to an established quality assurance system, taking into consideration that audits itself may be an influential factor. Generally, minor problems were observed with respect to informed consent, correct handling of in- and exclusion criteria and data quality, however, in some studies there were problems with protocol compliance. Overall, number and type of deficits depend on study type, quality management and organization of the study group. Fraud was detected only in very few cases. The available evidence refers mainly to established study groups; for data quality and protocol compliance outside these groups only few information is available. However, it should be taken into consideration, that the analysis was performed, at least partly, by the study groups themselves and is not based on independent audits (e.g. external audits). The analysis cannot answer the question whether the results would have been replicable if a strict review according to criteria of Good Clinical Practice (GCP) would have been performed. From the systematic review consequences have to be taken for planning a prospective controlled trial comparing different monitoring strategies. The main influence factor for data quality and protocol compliance in a clinical trial is the quality management system. Quality management covers several other measures apart from monitoring. In order to assess monitoring strategies, all quality assurance procedures within a clinical trial have to be taken into consideration. For the comparison of different monitoring strategies adequate outcome parameter have to be defined (e.g. severe deficits with respect to inclusion and exclusion criteria, safety). The analysis indicates that with good quality management and no extensive on-site monitoring severe errors were detected only at relative low frequency. It could well be that with an efficient quality management system differences between monitoring strategies would be small. In order to demonstrate statistical equivalence of monitoring strategies, only small differences can be accepted which again leads to consequences for the sample-size calculation. In addition, it must be taken into consideration that within a controlled trial an independent audit is necessary to assess the effect of different monitoring strategies on the safety of patients and the quality of data. Audits however may be a possible influence factor for data quality and protocol compliance and may complicate the evaluation of the benefit of a monitoring strategy. Keywords: systematic review, data quality, protocol compliance, clinical tria

    Studienwahl mit Verstand : mit Self-Assessment online die Eignung testen

    Get PDF
    Die Erwartungen von Studieninteressierten weichen häufig beträchtlich von den tatsächlichen Studieninhalten und Anforderungen ab. Ein Grund dafür ist, dass viele sich nicht genügend Klarheit verschaffen, welche eigenen Stärken und Schwächen für den Erfolg in Studium und Beruf »tatsächlich« relevant sind. So könnte zum Beispiel ein Abiturient mit guten Noten in Mathematik und Physik und mäßigen Zensuren in Deutsch und Englisch noch schlussfolgern, dass ihm »das Naturwissenschaftliche mehr liegt«. Ob das naturwissenschaftliche Verständnis für ein erfolgreiches Studium der Informatik jedoch gut genug ausgeprägt ist, lässt sich nicht so leicht erschließen. Noch schwieriger ist es für Studieninteressierte einzuschätzen, wie ihre »Soft Skills« ausgeprägt sind – also die Persönlichkeitsmerkmale, die in der Schule nicht systematisch beurteilt werden, jedoch hochgradig aussagekräftig für langfristigen Erfolg in Studium und Beruf sind. Ein Wechsel des Studienfaches zu Beginn des Studiums führt häufig zu einer Verlängerung der Studiendauer. Auch wenn eine derartige »Orientierungsphase« oftmals als normal und wichtig eingeschätzt wird, zeigt die praktische Erfahrung, dass Studierende mit kurzer Studiendauer jenen, die länger studiert haben, bei der Stellenvergabe tendenziell vorgezogen werden. Eine längere Studiendauer wird von Arbeitgebern häufig als Zeichen mangelnder Zielstrebigkeit oder fehlender Berufsmotivation interpretiert und kann sich so Chancen mindernd für Berufseinsteiger auswirken. Ebenso ist es im Interesse der Universitäten, die Zahl der Studienfachwechsel und -abbrüche so gering wie möglich zu halten – nicht zuletzt aus wirtschaftlichen Gründen. Deshalb bietet die Universität Frankfurt Studieninteressierten – zunächst in den Fächern Informatik und Psychologie – mit dem Self-Assessment konkrete Entscheidungshilfen an. Der verfolgte Ansatz zielt darauf ab, Abiturientinnen und Abiturienten möglichst frühzeitig und mit vertretbarem Aufwand die Möglichkeit zu bieten, selbst zu überprüfen, inwieweit ihre Erwartungen an einen Studiengang mit den tatsächlichen Inhalten und Anforderungen übereinstimmen. Das Konzept zur Erstellung eines Self-Assessments, das hier beispielhaft für den Studiengang Informatik vorgestellt wird, entstand nicht umsonst in enger Kooperation mit dem Institut für Psychologie (Prof. Dr. Helfried Moosbrugger, Dr. Siegbert Reiß, Ewa Jonkisz). Denn neben der fachlichen Qualifikation entscheiden über den Studienerfolg auch persönliche Eigenschaften wie Leistungsbereitschaft und Hartnäckigkeit. Die Auswertung des anonym durchgeführten Self-Assessments deckt außerdem Wissenslücken bei den Studieninteressierten auf, so dass eine gezielte Vorbereitung auf das Studium möglich wird. Zum Beispiel bietet der Fachbereich Mathematik und Informatik gezielte Vorbereitungskurse für Studienanfänger an, und zwar in Programmierung und Mathematik. Auch werden in den Semesterferien Repetitorien und Vorbereitungskurse angeboten – alles aus Studienbeiträgen finanziert. Auf diese Weise kann es zu einem homogeneren Kenntnisstand speziell bei den Studierenden im ersten Semester kommen. Ziel ist es, dadurch auch den »Erstsemesterschock « zu mildern. Das Online-Beratungsangebot trägt damit zu einer direkten Verbesserung der Lern- und Lehrsituation bei

    10. Interuniversitäres Doktorandenseminar Wirtschaftsinformatik Juli 2009

    Get PDF
    Begonnen im Jahr 2000, ist das Interuniversitäre Wirtschaftsinformatik-Doktorandenseminar mittlerweile zu einer schönen Tradition geworden. Zunächst unter Beteiligung der Universitäten Leipzig und Halle-Wittenberg gestartet. Seit 2003 wird das Seminar zusammen mit der Jenaer Universität durchgeführt, in diesem Jahr sind erstmals auch die Technische Universität Dresden und die TU Bergakademie Freiberg dabei. Ziel der Interuniversitären Doktorandenseminare ist der über die eigenen Institutsgrenzen hinausgehende Gedankenaustausch zu aktuellen, in Promotionsprojekten behandelten Forschungsthemen. Indem der Schwerpunkt der Vorträge auch auf das Forschungsdesign gelegt wird, bietet sich allen Doktoranden die Möglichkeit, bereits in einer frühen Phase ihrer Arbeit wichtige Hinweise und Anregungen aus einem breiten Hörerspektrum zu bekommen. In den vorliegenden Research Papers sind elf Beiträge zum diesjährigen Doktorandenseminar in Jena enthalten. Sie stecken ein weites Feld ab - vom Data Mining und Wissensmanagement über die Unterstützung von Prozessen in Unternehmen bis hin zur RFID-Technologie. Die Wirtschaftsinformatik als typische Bindestrich-Informatik hat den Ruf einer thematischen Breite. Die Dissertationsprojekte aus fünf Universitäten belegen dies eindrucksvoll.

    Fach- und bildungswissenschaftliche Grundlagen fĂĽr den Informatikunterricht in der Sekundarstufe I

    Full text link
    2006 hat Jeannette M. Wing postuliert, dass es ein 'Computational Thinking' gibt, dass als Kernpunkte 'Automation' und 'Abstraktion' beinhaltet. Will das Schulfach Informatik sich als allgemeinbildendes Fach behaupten, ist es notwendig, herauszuarbeiten, dass 'informatisches Denken' eine grundsätzliche Denkstruktur ist, die unabhängig von der Anwendung konkreter Werkzeuge für das heutige Denken in Wissenschaft und Gesellschaft benötigt wird. In dieser Arbeit wird gezeigt, dass diese grundsätzliche Denkstruktur vorliegt. Damit ist Informatik als Pflichtfach in der Schule notwendig. Zusätzlich wird gezeigt, dass Informatik auch bildungswissenschaftlichen  Bedingungen und lernpsychologischen Ansprüchen entspricht. Es wird daraufhin der Informatikunterricht in einem Wahlpflichtkurs mit Hauptfachcharakter an der Fritz-Steinhoff-Gesamtschule in Hagen beschrieben, der exemplarisch in einem 6. Jahrgang durchgeführt und evaluiert wurde. <br/

    Offener Unterricht im Unterrichtsfach Informatik

    Get PDF
    Die Diplomarbeit ist in vier Kapitel unterteilt und befasst sich überwiegend mit dem didaktischen Konzept des Offenen Unterrichts und mit dessen Einsatzmöglichkeiten im Unterrichtsgegenstand Informatik, vorrangig dabei im Teilgebiet der theoretischen Informatik. Während im ersten Kapitel die theoretische Informatik, per Definition vom Rest des Wissenschaftsbereiches abgetrennt wird, berichtet das Kapitel II und III über die Einsatzgebiete der Informatik im österreichischen Bildungssystem und über Ideen und Grundlagen der Lehr- und Lernmethode Offener Unterricht. Die Arbeit und die darin vorgestellten Unterrichtsbeispiele berufen sich inhaltlich auf die Lehrpläne der Allgemein Bildenden Schulen, da nur bei diesem Schultyp eine allgemeine und grundlagenbasierte Informatikausbildung vorgesehen ist. Vor diesem Hintergrund wurden vier Unterrichtsbeispiele von mir erstellt, die sich auf Grund des Lehrplanbezugs, für den Pflichtgegenstand Informatik (9. Schulstufe), für den Wahlpflichtgegenstand, für verbindliche Übungen (Unter- und Oberstufe) und für Schultypen mit Schwerpunktfach Informatik eignen. Die Unterrichtsbeispiele sollen als Alternative zur geschlossenen Form des Lehrens dienen und zum Ausprobieren animieren. Sie unterliegen der Methodik des Offenen Unterrichts, wobei jede Einheit eine andere Form des offenen Lernens beinhaltet. Es wurde sowohl das Lernen an Stationen, sowie die Jigsaw Methode und der Projektunterricht verwendet. Entscheidend ist, dass diese Diplomarbeit keineswegs darauf hinarbeitet den Offenen Unterricht als die effektivste und erfolgreichste Unterrichtsmethode darzustellen. Es wird lediglich versucht, eine andere Form des Unterrichtens zu präsentieren, damit der Unterricht abwechslungsreicher gestaltet werden kann

    Integrationsaspekte der Simulation: Technik, Orgnisation und Personal, Karlsruhe, 7. und 8. Oktober 2010 = Integration Aspects of Simulation: Equipment, Organization and Personnell, Karlsruhe, 7th and 8th October 2010

    Get PDF
    Die Integration technischer, organisatorischer und personalorientierter Aspekte in Simulationsverfahren ist das Leitthema der 14. Fachtagung der Arbeitsgemeinschaft Simulation (ASIM) innerhalb der Gesellschaft fĂĽr Informatik, die vom Institut fĂĽr Arbeitswissenschaft und Betriebsorganisation im Oktober 2010 ausgerichtet wurde. Der vorliegende Tagungsband gibt somit einen vertiefenden Einblick in neue Entwicklungen und Beispiele guter Praxis der Simulation ĂĽber den deutschsprachigen Raum hinaus

    "Die mit den Zeichen tanzen": Ein Beitrag zum Verhältnis von Informationstechnischer Bildung und Medienerziehung

    Get PDF
    Die Diskussion um das Verhältnis von informationstechnischer Bildung und Medienerziehung ist zuweilen stärker von einem disziplinären denn von einem interdisziplinären Verständnis geprägt. Auf der Seite der Informatik herrscht die Befürchtung um eine Verwässerung ihrer Inhalte durch ‹Schmalfilmer›, auf der Seite der Medienpädagogik wird betont, dass eine Verkürzung von Medienkompetenz auf Anwenderfertigkeiten oder technisches Detailwissen zu kurz greift. Professionspolitisch ist es sicherlich angemessen, sich auf das Technische bzw. Informatische oder eben das Pädagogische zu konzentrieren, die Medienwelt selbst erfordert jedoch interdisziplinäre Zugänge. Um nicht Gefahr zu laufen, den Bildungswert einer Auseinandersetzung mit Informations- und Kommunikationstechnologien nur auf Plausibilitätsniveau zu begründen, ist zunächst eine theoriebezogene Diskussion notwendig. Auf dieser Grundlage kann dann auch begründet über Zusammenführungen oder Abgrenzungen von und zwischen Informationstechnischer Bildung und Medienerziehung gesprochen werden. Der Beitrag entwirft eine solche Theoriebasis und bezieht diese auf mögliche Bildungswerte

    26. Theorietag Automaten und Formale Sprachen 23. Jahrestagung Logik in der Informatik: Tagungsband

    Get PDF
    Der Theorietag ist die Jahrestagung der Fachgruppe Automaten und Formale Sprachen der Gesellschaft für Informatik und fand erstmals 1991 in Magdeburg statt. Seit dem Jahr 1996 wird der Theorietag von einem eintägigen Workshop mit eingeladenen Vorträgen begleitet. Die Jahrestagung der Fachgruppe Logik in der Informatik der Gesellschaft für Informatik fand erstmals 1993 in Leipzig statt. Im Laufe beider Jahrestagungen finden auch die jährliche Fachgruppensitzungen statt. In diesem Jahr wird der Theorietag der Fachgruppe Automaten und Formale Sprachen erstmalig zusammen mit der Jahrestagung der Fachgruppe Logik in der Informatik abgehalten. Organisiert wurde die gemeinsame Veranstaltung von der Arbeitsgruppe Zuverlässige Systeme des Instituts für Informatik an der Christian-Albrechts-Universität Kiel vom 4. bis 7. Oktober im Tagungshotel Tannenfelde bei Neumünster. Während des Tre↵ens wird ein Workshop für alle Interessierten statt finden. In Tannenfelde werden • Christoph Löding (Aachen) • Tomás Masopust (Dresden) • Henning Schnoor (Kiel) • Nicole Schweikardt (Berlin) • Georg Zetzsche (Paris) eingeladene Vorträge zu ihrer aktuellen Arbeit halten. Darüber hinaus werden 26 Vorträge von Teilnehmern und Teilnehmerinnen gehalten, 17 auf dem Theorietag Automaten und formale Sprachen und neun auf der Jahrestagung Logik in der Informatik. Der vorliegende Band enthält Kurzfassungen aller Beiträge. Wir danken der Gesellschaft für Informatik, der Christian-Albrechts-Universität zu Kiel und dem Tagungshotel Tannenfelde für die Unterstützung dieses Theorietags. Ein besonderer Dank geht an das Organisationsteam: Maike Bradler, Philipp Sieweck, Joel Day. Kiel, Oktober 2016 Florin Manea, Dirk Nowotka und Thomas Wilk

    Scalable Game Design Switzerland

    Get PDF
    Das Modul «Medien und Informatik» des Lehrplans 21 verlangt von Primarlehrpersonen, dass sie mit ihren Schülerinnen und Schülern verschiedene Kompetenzen und Inhalte im Bereich der Informatik erarbeiten. Für die Erfüllung dieses Auftrags benötigen die angehenden Lehrpersonen eine entsprechende Ausbildung, die sie mit dem relevanten Fachwissen und den erforderlichen Kompetenzen in der Informatik ausstattet. Um dies zu gewährleisten, hat die Professur für Informatische Bildung (IB) der PH FHNW im Herbst 2017 mit dem zweisemestrigen Modul «Informatische Bildung» eines der schweizweit ersten obligatorischen Veranstaltungen für alle Bachelorstudierenden des Instituts Primarstufe eingeführt. Das Modul ist die praktische Umsetzung der theoretischen Konzepte und fachdidaktischen Ansätze von Scalable Game Design Switzerland (SGD Switzerland). Bei SGD Switzerland handelt es sich um die auf Schweizer Erfordernisse angepasste Weiterentwicklung von SGD USA – ein jahrzehntelang erprobtes umfassendes Curriculum für die Vermittlung von informatischer Bildung. Grundlage und Essenz von SGD Switzerland und somit auch von dem Konzept des neuen Moduls ist das Verständnis von Denken mit dem Computer – das sogenannte Computational Thinking. Das Konzept des Moduls «Informatischen Bildung», bei welchem die Schulung des analytischen, lösungsorientierten Denkens mit dem Computer im Fokus steht, ist ein Novum schweizweit. Dieser Beitrag erläutert das Konzept des Moduls IB und präsentiert einen ersten Einblick in die Eindrücke der Studenten, die den Kurs besucht haben
    • …
    corecore