828 research outputs found

    Conformal constraints for anomalous dimensions of leading twist operators

    Get PDF
    Leading-twist operators have a remarkable property that their divergence vanishes in a free theory. Recently it was suggested that this property can be used for an alternative technique to calculate anomalous dimensions of leading-twist operators and allows one to gain one order in perturbation theory so that, i.e., two-loop anomalous dimensions can be calculated from one-loop Feynman diagrams, etc. In this work we study feasibility of this program on a toy-model example of the φ3\varphi^3 theory in six dimensions. Our conclusion is that this approach is valid, although it does not seem to present considerable technical simplifications as compared to the standard technique. It does provide one, however, with a very nontrivial check of the calculation as the structure of the contributions is very different.Comment: 14 pages, 6 figure

    Two-loop conformal generators for leading-twist operators in QCD

    Get PDF
    QCD evolution equations in minimal subtraction schemes have a hidden symmetry: One can construct three operators that commute with the evolution kernel and form an SL(2)SL(2) algebra, i.e. they satisfy (exactly) the SL(2)SL(2) commutation relations. In this paper we find explicit expressions for these operators to two-loop accuracy going over to QCD in non-integer d=42ϵd=4-2\epsilon space-time dimensions at the intermediate stage. In this way conformal symmetry of QCD is restored on quantum level at the specially chosen (critical) value of the coupling, and at the same time the theory is regularized allowing one to use the standard renormalization procedure for the relevant Feynman diagrams. Quantum corrections to conformal generators in d=42ϵd=4-2\epsilon effectively correspond to the conformal symmetry breaking in the physical theory in four dimensions and the SL(2)SL(2) commutation relations lead to nontrivial constraints on the renormalization group equations for composite operators. This approach is valid to all orders in perturbation theory and the result includes automatically all terms that can be identified as due to a nonvanishing QCD β\beta-function (in the physical theory in four dimensions). Our result can be used to derive three-loop evolution equations for flavor-nonsinglet quark-antiquark operators including mixing with the operators containing total derivatives. These equations govern, e.g., the scale dependence of generalized hadron parton distributions and light-cone meson distribution amplitudes.Comment: 36 page

    Electroproduction of tensor mesons in QCD

    Get PDF
    Due to multiple possible polarizations hard exclusive production of tensor mesons by virtual photons or in heavy meson decays offers interesting possibilities to study the helicity structure of the underlying short-distance process. Motivated by the first measurement of the transition form factor γγf2(1270)\gamma^*\gamma \to f_2(1270) at large momentum transfers by the BELLE collaboration we present an improved QCD analysis of this reaction in the framework of collinear factorization including contributions of twist-three quark-antiquark-gluon operators and an estimate of soft end-point corrections using light-cone sum rules. The results appear to be in a very good agreement with the data, in particular the predicted scaling behavior is reproduced in all cases.Comment: 27 pages, 5 figure

    “I added the numbers, it’s math!”: how sense-making in “age of the captain” problems differs between a mathematics classroom and a language classroom

    Get PDF
    Students’ solution process of mathematical word problems depends on the situational context, e.g. the school subject (Dewolf, Van Dooren & Verschaffel, 2011). We analysed approaches to “age of the captain problems” (ACP; Verschaffel, Greer & De Corte, 2000) that present a situation that makes no sense, but are nonetheless frequently “solved” by a majority of primary school students. 48 primary school students (age M = 9.4, 54% female) in a mathematics or a language classroom were given five ACP. Afterwards, classroom interviews were conducted in both groups. Quantitative analyses show a non-significant tendency that students in the mathematics class were more likely to provide an arithmetic response to ACP. Interviews revealed that students in both groups experienced a cognitive dissonance regarding the expectation to provide an arithmetic solution, but differed in their approach to resolve it. This suggests that sense-making in ACP is influenced by the classroom context

    A comparison of self-reports and electrodermal activity as indicators of mathematics state anxiety.: An application of the control-value theory

    Get PDF
    In the present study with 86 undergraduate students, we related trait Mathematics Anxiety (MA) with two indicators of state anxiety: self-reported state anxiety and electrodermal activity (EDA). Extending existing research, we included appraisals of control and perceived value in hierarchical multiple regression analyses in accordance with the control-value theory of achievement emotions (Pekrun, 2006). Results showed that trait MA predicted self-reported state anxiety, while no additional variance was explained by including control and value. In contrast, we found no significant relation between trait MA and physiological state anxiety, but a significant, negative three-way interaction effect with control and value. Regression coefficients indicated that trait MA predicted physiological state anxiety, but only in the presence of negative perceived control and positive perceived value. Thus, our results support the control-value theory for physiological state anxiety, but not for self-reports. They emphasize the need to distinguish between trait and state MA, the advantages of adopting the control-value theory, and the benefits of using EDA recording as a supplemental assessment method for state anxiety

    Methoden der lexikalischen Nachkorrektur OCR-erfasster Dokumente

    Get PDF
    Das maschinelle Lesen, d. h. die Umwandlung gedruckter Dokumente via Pixelrepräsentation in eine Symbolfolgen, erfolgt mit heute verfügbaren, kommerziellen OCR-Engines für viele Dokumentklassen fast schon fehlerfrei. Trotzdem gilt für die meisten OCR-Anwendungen die Devise, je weniger Fehler, desto besser. Beispielsweise kann ein falsch erkannter Name innerhalb eines Geschäftsbriefes in einem automatisierten System zur Eingangsspostverteilung unnötige Kosten durch Fehlzuordnungen o.ä. verursachen. Eine lexikalische Nachkorrektur hilft, verbleibende Fehler von OCR-Engines aufzuspüren, zu korrigieren oder auch mit einer interaktiven Korrektur zu beseitigen. Neben einer Realisierung als nachgelagerte, externe Komponente, kann eine lexikalische Nachkorrektur auch direkt in eine OCR-Engine integriert werden. Meinen Beitrag zur lexikalischen Nachkorrektur habe ich in zehn Thesen untergliedert: These T1: Für eine Nachkorrektur von OCR-gelesenen Fachtexten können Lexika, die aus thematisch verwandten Web-Dokumenten stammen, gewinnbringend eingesetzt werden. These T2: Das Vokabular eines Fachtexts wird von großen Standardlexika unzureichend abgedeckt. Durch Textextraktion aus thematisch verwandten Web-Dokumenten lassen sich Lexika mit einer höheren Abdeckungsrate gewinnen. Zudem spiegeln die Frequenzinformationen aus diesen Web-Dokumenten die des Fachtexts besser wider als Frequenzinformationen aus Standardkorpora. These T3: Automatisierte Anfragen an Suchmaschinen bieten einen geeigneten Zugang zu den einschlägigen Web-Dokumenten eines Fachgebiets. These T4: Eine feingliedrige Fehlerklassifikation erlaubt die Lokalisierung der beiden Hauptfehlerquellen der webgestützten Nachkorrektur: • falsche Freunde, d. h. Fehler, die unentdeckt bleiben, da sie lexikalisch sind • unglückliche Korrekturen hin zu Orthographie- oder Flexions-Varianten These T5: Falsche Freunde werden durch eine Kombination mehrerer OCR-Engines deutlich vermindert. These T6: Mit einfachen Heuristiken wird ein unglücklicher Variantenaustausch der Nachkorrekturkomponente vermieden. These T7: Mit einer Vereinheitlichung zu Scores lassen sich diverse OCR-Nachkorrekturhilfen wie etwa Wort-Abstandsmaße, Frequenz- und Kontextinformationen kombinieren und zur Kandidaten- sowie Grenzbestimmung einsetzen. These T8: OCR-Nachkorrektur ist ein multidimensionales Parameteroptimierungsproblem, wie z. B. Auswahl der Scores, deren Kombination und Gewichtung, Grenzbestimmung oder Lexikonauswahl. Eine graphische Oberfläche eignet sich für eine Untersuchung der Parameter und deren Adjustierung auf Trainingsdaten. These T9: Die Software zur Parameteroptimierung der Nachkorrektur der Resultate einer OCR-Engine kann für die Kombination mehrerer OCR-Engines wiederverwendet werden, indem die Einzelresultate der Engines wieder zu Scores vereinheitlicht werden. These T10: Eine Wort-zu-Wort-Alignierung, wie sie für die Groundtruth-Erstellung und die Kombination von OCR-Engines notwendig ist, kann durch eine Verallgemeinerung des Levenshtein-Abstands auf Wortebene effizient realisiert werden

    Methoden der lexikalischen Nachkorrektur OCR-erfasster Dokumente

    Get PDF
    Das maschinelle Lesen, d. h. die Umwandlung gedruckter Dokumente via Pixelrepräsentation in eine Symbolfolgen, erfolgt mit heute verfügbaren, kommerziellen OCR-Engines für viele Dokumentklassen fast schon fehlerfrei. Trotzdem gilt für die meisten OCR-Anwendungen die Devise, je weniger Fehler, desto besser. Beispielsweise kann ein falsch erkannter Name innerhalb eines Geschäftsbriefes in einem automatisierten System zur Eingangsspostverteilung unnötige Kosten durch Fehlzuordnungen o.ä. verursachen. Eine lexikalische Nachkorrektur hilft, verbleibende Fehler von OCR-Engines aufzuspüren, zu korrigieren oder auch mit einer interaktiven Korrektur zu beseitigen. Neben einer Realisierung als nachgelagerte, externe Komponente, kann eine lexikalische Nachkorrektur auch direkt in eine OCR-Engine integriert werden. Meinen Beitrag zur lexikalischen Nachkorrektur habe ich in zehn Thesen untergliedert: These T1: Für eine Nachkorrektur von OCR-gelesenen Fachtexten können Lexika, die aus thematisch verwandten Web-Dokumenten stammen, gewinnbringend eingesetzt werden. These T2: Das Vokabular eines Fachtexts wird von großen Standardlexika unzureichend abgedeckt. Durch Textextraktion aus thematisch verwandten Web-Dokumenten lassen sich Lexika mit einer höheren Abdeckungsrate gewinnen. Zudem spiegeln die Frequenzinformationen aus diesen Web-Dokumenten die des Fachtexts besser wider als Frequenzinformationen aus Standardkorpora. These T3: Automatisierte Anfragen an Suchmaschinen bieten einen geeigneten Zugang zu den einschlägigen Web-Dokumenten eines Fachgebiets. These T4: Eine feingliedrige Fehlerklassifikation erlaubt die Lokalisierung der beiden Hauptfehlerquellen der webgestützten Nachkorrektur: • falsche Freunde, d. h. Fehler, die unentdeckt bleiben, da sie lexikalisch sind • unglückliche Korrekturen hin zu Orthographie- oder Flexions-Varianten These T5: Falsche Freunde werden durch eine Kombination mehrerer OCR-Engines deutlich vermindert. These T6: Mit einfachen Heuristiken wird ein unglücklicher Variantenaustausch der Nachkorrekturkomponente vermieden. These T7: Mit einer Vereinheitlichung zu Scores lassen sich diverse OCR-Nachkorrekturhilfen wie etwa Wort-Abstandsmaße, Frequenz- und Kontextinformationen kombinieren und zur Kandidaten- sowie Grenzbestimmung einsetzen. These T8: OCR-Nachkorrektur ist ein multidimensionales Parameteroptimierungsproblem, wie z. B. Auswahl der Scores, deren Kombination und Gewichtung, Grenzbestimmung oder Lexikonauswahl. Eine graphische Oberfläche eignet sich für eine Untersuchung der Parameter und deren Adjustierung auf Trainingsdaten. These T9: Die Software zur Parameteroptimierung der Nachkorrektur der Resultate einer OCR-Engine kann für die Kombination mehrerer OCR-Engines wiederverwendet werden, indem die Einzelresultate der Engines wieder zu Scores vereinheitlicht werden. These T10: Eine Wort-zu-Wort-Alignierung, wie sie für die Groundtruth-Erstellung und die Kombination von OCR-Engines notwendig ist, kann durch eine Verallgemeinerung des Levenshtein-Abstands auf Wortebene effizient realisiert werden
    corecore