5 research outputs found
Real-time monitoring of the effectiveness of six COVID-19 vaccines against laboratory confirmed COVID-19 in Hungary in 2021 using the screening method
Several studies have reported the waning effectiveness of COVID-19 vaccines. This study
aims to demonstrate the applicability of the screening method for estimating vaccine effectiveness
(VE) in a pandemic. We report VE in Hungary, estimated with the screening method, in 2021, covering
a period of Alpha and the Delta variant, including the booster dose roll-out. Hungary is in a unique
position to use six different vaccines in the same population. All vaccines provided a high level
of protection initially, which declined over time. While the picture is different in each age group,
the waning of immunity is apparent for all vaccines, especially in the younger age groups and the
Sinopharm, Sputnik-V, and AstraZeneca vaccines, which performed similarly. This is clearly reversed
by booster doses, more prominent for those three vaccines, where the decline in protection is more
evident. Overall, two vaccines, Pfizer/BioNTech and Moderna, tend to produce the best results in all
age groups, even with waning immunity considered. Using the screening method in future pandemic
waves is worthwhile, especially in countries struggling with a lack of resources or when there is a
need to deliver VE results within a short timeframe due to urgent decision-making
HuLU : magyar nyelvű benchmark adatbázis kiépítése a neurális nyelvmodellek kiértékelése céljából
A cikkben bemutatjuk a neurális nyelvmodellek nyelvértésének mérésére, kiértékelésére és a modellek összehasonlítására létrehozott adatbázisunkat. Az angol példát (GLUE – Wang és mtsai, 2018 –, illetve SuperGLUE – Wang és mtsai, 2020 – benchmarkok) követve, de a redundanciát mellőzve kiválasztottunk 13 olyan specifikus feladatot és az ehhez kapcsolódó alkorpuszokat, amelyekkel a neurális modellek teljesítménye mérhető. Mivel az angol benchmarkokban szereplő korpuszok közül egyik sem létezik a magyarra, ezeket megtervezzük, megépítjük, majd egységes tesztelési keretbe foglalva közrebocsátjuk ezeket
Jönnek a nagyok! : BERT-Large, GPT-2 és GPT-3 nyelvmodellek magyar nyelvre
Az utóbbi években rendkívüli mértékben felgyorsult a Transformer alapú nyelvmodellek méretének a növekedése. A globális technológiai cégek nagyobbnál nagyobb modelleket tanítanak, amelyek óriási erőforrást és tanítóanyagot igényelnek. Ezekkel a kísérletekkel azt próbálják bebizonyítani, hogy megfelelően nagy méretű modellek, megfelelően sok tanítóanyaggal képesek önmagukban akár finomhangolás nélkül bármilyen nyelvtechnológiai feladatot megoldani. Ebbe a versenybe nem igazán lehetséges beszállni, de arra van lehetőség, hogy az árnyékukban elkezdjünk kísérleteket végezni a nagyobb méretű modellek irányában. Kutatásunkban különböző nagy méretű nyelvmodelleket tanítottunk magyar nyelvre. Betanítottunk egy 6,7 milliárd paraméteres GPT-3, valamint egy GPT-2 és egy BERT-Large modellt magyar nyelvre. A modelleket különböző finomhangolással teszteltük. A BERT-Large modellünk több feladatban is felülmúlta a huBERT modellt, és elsőként hoztunk létre egynyelvű magyar GPT-3 modellt, amelyekkel tudomásunk szerint elsőnek végeztünk prompt kísérleteket few-shot tanulással magyar nyelvre