3,427 research outputs found

    The Academic Career and Achievements of Jean-Claude Delaunay

    Get PDF

    The Academic Career and Achievements of Aleksandr Buzgalin

    Get PDF

    THE ACADEMIC CAREER AND ACHIEVEMENTS OF DAVID LAIBMAN

    Get PDF

    THE ACADEMIC CAREER AND ACHIEVEMENTS OF ROGER SEIFERT

    Get PDF

    La cooperación al desarrollo de China en África

    Get PDF
    La ayuda de China a África es uno de los componentes más importantes de las relaciones China-África. A medida que cambia la situación, China ha reformado aún más su ayuda a África. Y en el marco del Foro de Cooperación China-África, ha brindado asistencia a gran escala a África. Además de las ayudas económicas tradicionales, se han incrementado significativamente diversas ayudas en los campos de la educación, la agricultura, etc. Comprometidos con el establecimiento de una asociación estratégica entre ambos territorios, la esencia de la asistencia de China a África es el beneficio mutuo y los resultados en los que todos ganan. El objetivo es lograr el desarrollo común de la cooperación entre China y África, promover el acercamiento del mundo asiático y africano y hacer que el mundo se desarrolle armoniosamente.Máster en Relaciones Internacionales y Estudios Asiático

    PartialFormer: Modeling Part Instead of Whole

    Full text link
    The design choices in Transformer feed-forward neural networks have resulted in significant computational and parameter overhead. In this work, we emphasize the importance of hidden dimension in designing lightweight FFNs, a factor often overlooked in previous architectures. Guided by this principle, we introduce PartialFormer, a parameter-efficient Transformer architecture utilizing multiple smaller FFNs to reduce parameters and computation while maintaining essential hidden dimensions. These smaller FFNs are integrated into a multi-head attention system to enable effective collaboration. We also propose a tailored head scaling strategy to enhance PartialFormer's capabilities. Furthermore, we present a residual-like attention calculation to improve depth scaling within PartialFormer. Extensive experiments on 9 translation tasks and 1 abstractive summarization task validate the effectiveness of our PartialFormer approach. Our code would be available at: \url{https://github.com/zhengkid/PartialFormer}.Comment: 11 pages, 5 figure
    corecore