5 research outputs found

    BESTIMMUNG VON ÄTHOXYGRUPPEN IN ORGANISCHEN SILIZIUMVERBINDUNGEN

    Get PDF

    Real-time monitoring of the effectiveness of six COVID-19 vaccines against laboratory confirmed COVID-19 in Hungary in 2021 using the screening method

    Get PDF
    Several studies have reported the waning effectiveness of COVID-19 vaccines. This study aims to demonstrate the applicability of the screening method for estimating vaccine effectiveness (VE) in a pandemic. We report VE in Hungary, estimated with the screening method, in 2021, covering a period of Alpha and the Delta variant, including the booster dose roll-out. Hungary is in a unique position to use six different vaccines in the same population. All vaccines provided a high level of protection initially, which declined over time. While the picture is different in each age group, the waning of immunity is apparent for all vaccines, especially in the younger age groups and the Sinopharm, Sputnik-V, and AstraZeneca vaccines, which performed similarly. This is clearly reversed by booster doses, more prominent for those three vaccines, where the decline in protection is more evident. Overall, two vaccines, Pfizer/BioNTech and Moderna, tend to produce the best results in all age groups, even with waning immunity considered. Using the screening method in future pandemic waves is worthwhile, especially in countries struggling with a lack of resources or when there is a need to deliver VE results within a short timeframe due to urgent decision-making

    HuLU : magyar nyelvű benchmark adatbázis kiépítése a neurális nyelvmodellek kiértékelése céljából

    Get PDF
    A cikkben bemutatjuk a neurális nyelvmodellek nyelvértésének mérésére, kiértékelésére és a modellek összehasonlítására létrehozott adatbázisunkat. Az angol példát (GLUE – Wang és mtsai, 2018 –, illetve SuperGLUE – Wang és mtsai, 2020 – benchmarkok) követve, de a redundanciát mellőzve kiválasztottunk 13 olyan specifikus feladatot és az ehhez kapcsolódó alkorpuszokat, amelyekkel a neurális modellek teljesítménye mérhető. Mivel az angol benchmarkokban szereplő korpuszok közül egyik sem létezik a magyarra, ezeket megtervezzük, megépítjük, majd egységes tesztelési keretbe foglalva közrebocsátjuk ezeket

    Jönnek a nagyok! : BERT-Large, GPT-2 és GPT-3 nyelvmodellek magyar nyelvre

    Get PDF
    Az utóbbi években rendkívüli mértékben felgyorsult a Transformer alapú nyelvmodellek méretének a növekedése. A globális technológiai cégek nagyobbnál nagyobb modelleket tanítanak, amelyek óriási erőforrást és tanítóanyagot igényelnek. Ezekkel a kísérletekkel azt próbálják bebizonyítani, hogy megfelelően nagy méretű modellek, megfelelően sok tanítóanyaggal képesek önmagukban akár finomhangolás nélkül bármilyen nyelvtechnológiai feladatot megoldani. Ebbe a versenybe nem igazán lehetséges beszállni, de arra van lehetőség, hogy az árnyékukban elkezdjünk kísérleteket végezni a nagyobb méretű modellek irányában. Kutatásunkban különböző nagy méretű nyelvmodelleket tanítottunk magyar nyelvre. Betanítottunk egy 6,7 milliárd paraméteres GPT-3, valamint egy GPT-2 és egy BERT-Large modellt magyar nyelvre. A modelleket különböző finomhangolással teszteltük. A BERT-Large modellünk több feladatban is felülmúlta a huBERT modellt, és elsőként hoztunk létre egynyelvű magyar GPT-3 modellt, amelyekkel tudomásunk szerint elsőnek végeztünk prompt kísérleteket few-shot tanulással magyar nyelvre
    corecore