60 research outputs found

    Wachlarz w Kościele Wschodnim i Zachodnim oraz w kulturze świata

    Get PDF
    Historia wachlarza, wydawałoby się przedmiotu zbytkownego (a nawet zbędnego), jest niezwykle bogata i ciekawa z punktu widzenia obyczajów, historii i historii sztuki. To zdumiewające, jak ta niewielka rzecz codziennego użytku, współcześnie zaliczana do utensyliów mody kobiecej, przez tysiąclecia pełniła wielorakie i ważne funkcje. Od najdawniejszych czasów wachlarze były używane do ochłody, odpędzania owadów, ochrony przed słońcem czy do rozniecania ognia. W starożytnym Egipcie wachlarze paradne używane były przez faraonów i kapłanów jako atrybuty władzy i dostojeństwa. Do lat 50. XX wieku w Kościele Zachodnim były używane dwa wachlarze (flabella) jako wyróżnienie honorowe w procesjach, podczas których niesiono papieża na sedia gestatoria. W liturgii Kościoła Wschodniego do naszych czasów przetrwało używanie wachlarzy (ripidia), chociaż ich znaczenie stało się już zupełnie symboliczne. Znane są także wachlarze bojowe. Wywodzą się z Dalekiego Wschodu, gdzie służyły przede wszystkim jako oznaka rangi oficerskiej, ale także jako broń. Używane były od VI do XVI wieku, kiedy to osiągnęły szczyt popularności. Wachlarze do Europy przybyły wraz z wyprawami na Daleki Wschód. W XVII i XVIII wieku nastały złote czasy wachlarzy. Królowały w salonach wyższych sfer i na dworach królewskich całej Europy. Były symbolem dostatku, wykwintności i kokieterii bez względu na porę roku. Wachlarz stał się atrybutem damy. Największą popularność zyskały wachlarze składane. Wachlarze wykonywane były z drewna, metali szlachetnych, kości słoniowej, szylkretu, skóry, pergaminu, jedwabiu, płótna, papieru, piór, także z liści; były rzeźbione, malowane, haftowane i ozdabiane klejnotami. Przybierały różne formy w zależności od zastosowania i potrzeb, były małe i duże, proste, składane, plisowane, okrągłe, półkoliste, w kształcie liścia, chorągiewki, na długim lub krótkim uchwycie

    Krzyż jakiego nie znamy

    Get PDF
    W ciągu wieków pojawiało się wiele rodzajów krzyży. Posiadały one różne formy, znaczenie i symbolikę. W czasach prehistorycznych krzyż był amuletem, chronił przed złymi mocami, ale też symbolizował bóstwa. Krzyże były związane zazwyczaj z formą kultu sił przyrody, a w szczególności ognia, słońca oraz życia. Krzyże były noszone i tatuowane, rysowane i malowane na skałach, wyrabiano je z różnych materiałów, stawiano krzyże kamienne i drewniane, a także metalowe. Zanim krzyż stal się symbolem dla chrześcijan, był utożsamiany z narzędziem tortur, najgorszym z narzędzi męki. Wraz ze śmiercią Chrystusa, krzyż stał się jednym z najważniejszych symboli chrześcijaństwa. Krzyż jako znak zbawienia jest także atrybutem wielu świętych, których życie w szczególny sposób było z nim powiązane. Oprócz form krzyża związanego z religiami powstało wiele jego odmian pozareligijnych. Powszechny jest zwyczaj nadawanych obywatelom „krzyży” za wybitne zasługi będące wyrazem patriotyzmu, osiągnięć naukowych i społecznych. W czasach popkultury krzyż pojawił się także w kompozycjach infografiki, a nawet znaków firmowych

    Cistatin C as an early marker for renal function loss in type 2 diabetic patients with concomitant albuminuria

    Get PDF
    BACKGROUND. Type 2 diabetes is the main cause of the end-stage renal insufficiency needed renal replacement therapy. Vascular damage turn leads to diabetic nephropathy leads and progress from onset of hyperglycemia. Albuminuria is first laboratory indicator confirm the damage of the renal glomerulus. Cystatin C is sensitive marker of a developing renal dysfunction. Aim of the research: what are the relations between concentration of cystatin C in blood and albuminuria and HbA1c in type 2 diabetes? MATERIAL AND METODS. The research included 68 patients with type 2 diabetes and confirmed albuminuria. Based on the degree of metabolic control expressed by the percentage of HbA1c, the patients were divided into two groups: I group &#8212; 29 patients with type 2 diabetes with HbA1c &#8805; 6.1% to &#163; 6.5%, with the average duration of diabetes of 5.3 years. II group &#8212; 39 patients with type 2 diabetes with HbA1c > 6.5% to &#163; 10.0%, with the average duration of diabetes of 7.2 years. K &#8212; the control group consisted of 21 patients with essential hypertension and albuminuria, not suffering from carbohydrates disorders. Concentration cystatin C in blood was assessed with the ELISA test, the percentage of HbA1c was measured immunoturbidimetric method. A Mann-Whitney test was used for the comparison between the values of the parameters in the research groups and the control group. Spearman&#8217;s rank correlation coefficient was used for measuring the relation between the axtent of albuminuria and the other parameters. RESULTS. The average concentration of HbA1c in group II was 7.54% and was connected with significantly larger average glycaemia (p < 0.001) in comparison with group I with normal HbA1c concentration. The highest albumin excretion in urine and highest average concentration cystatin C in blood was in group II patients with type 2 diabetes with HbA1c > 6.5% to &#163; 10.0%. In group II patients with type 2 diabetes and abnormal metabolic control the average concentration of cystatin C was significantly higher than in the control group patients with essential hypertension. This difference however was not statistically significant. Nevertheless a positive correlation was found between the concentration of cystatin C in blood and the extent of albuminuria in research group I patients with type 2 diabetes with HbA1c < 6.5% (p = 0.005). CONCLUSIONS. The positive correlation between the concentration of cystatin C and the extent of albuminuria, found in the research on patients with type 2 diabetes and normal percentage of HbA1c (p = 0.005) with shorts average duration of diabetes about of 5 years, confirms the sensitivity of this marker even at early stages of renal dysfunction. (Diabet. Prakt. 2011; 12, 3: 103&#8211;112)WSTĘP. Cukrzyca typu 2 jest główną przyczyną krańcowej niewydolności nerek wymagającej leczenia nerkozastępczego. Zmiany naczyniowe prowadzące do powstania cukrzycowej choroby nerek tworzą się i postępują od początku pojawienia się hiperglikemii. Albuminuria jest pierwszym laboratoryjnym objawem potwierdzającym uszkodzenie kłębuszka nerkowego. Cystatynę C uznaje się za czuły parametr początkowej dysfunkcji nerek. Celem badania było wykazanie zależności między stężeniem cystatyny C we krwi a wielkością albuminurii i odsetkiem hemoglobiny glikowanej (HbA1c) u chorych na cukrzycę typu 2. MATERIAŁ I METODY. Badaniami objęto 68 chorych na cukrzycę typu 2 z potwierdzoną albuminurią. Na podstawie stopnia wyrównania metabolicznego, wyrażonego odsetkiem HbA1c, chorych podzielono na 2 grupy: I &#8212; 29 chorych na cukrzycę typu 2 z HbA1c &#8805; 6,1% do &#163; 6,5%, z średnim czasem trwania cukrzycy 5,3 roku; II &#8212; 39 chorych na cukrzycę typu 2 z HbA1c > 6,5% do &#163; 10,0%, z średnim czasem trwania cukrzycy 7,2 roku. Do grupy kontrolnej (K) włączono 21 osób z pierwotnym nadciśnieniem tętniczym, ze współistniejącą albuminurią, bez zaburzeń gospodarki węglowodanowej. Stężenie cystatyny C we krwi oznaczano metodą immunoenzymatyczną (ELISA), a odsetek HbA1c &#8212; metodą immunoturbidymetryczną. W celu porównania rozkładu wartości oznaczanych poszczególnych parametrów między badanymi grupami zastosowano test Manna-Whitneya (p*). W oznaczaniu zależności między wartością albuminurii a pozostałymi parametrami wykorzystano współczynnik korelacji Spearmana (p**). WYNIKI. Średni odsetek HbA1c w II grupie wyniósł 7,54% i wiązał się z istotnie wyższym średnim stężeniem glukozy we krwi (p < 0,001), w porównaniu z I grupą chorych z prawidłowym odsetkiem HbA1c. Największe wydalanie albumin z moczem oraz najwyższe średnie stężenie cystatyny C we krwi stwierdzono w II grupie chorych na cukrzycę typu 2 z HbA1c > 6,5% do &#163; 10,0%. W II grupie chorych ze źle wyrównaną metabolicznie cukrzycą typu 2 średnia wartość cystatyny C była znacznie wyższa, w porównaniu z grupą kontrolną chorych z pierwotnym nadciśnieniem tętniczym. Różnice między otrzymanymi wartościami nie były jednak istotne statystycznie. Uzyskano dodatnią korelację między stężeniem cystatyny C we krwi a wielkością albuminurii w I grupie chorych na cukrzycę typu 2 z HbA1c < 6,5% (p = 0,005). WNIOSKI. Wykazana w badaniu dodatnia korelacja między stężeniem cystatyny C a wielkością albuminurii u chorych na cukrzycę typu 2 z prawidłowym odsetkiem HbA1c (p = 0,005), z krótszym, około 5-letnim wywiadem chorobowym, potwierdza wysoką czułość tego wskaźnika już w początkowych stadiach rozpoczynającej się dysfunkcji nerek. (Diabet. Prakt. 2011; 12, 3: 103&#8211;112

    Polish statement on food allergy in children and adolescents

    Get PDF
    An adverse food reaction is defined as clinical symptoms occurring in children, adolescents or adults after ingestion of a food or chemical food additives. This reaction does not occur in healthy subjects. In certain individuals is a manifestation of the body hypersensitivity, i.e. qualitatively altered response to the consumed food. The disease symptoms observed after ingestion of the food can be triggered by two pathogenetic mechanisms; this allows adverse food reactions to be divided into allergic and non-allergic food hypersensitivity (food intolerance). Food allergy is defined as an abnormal immune response to ingested food (humoral, cellular or mixed). Non-immunological mechanisms (metabolic, pharmacological, microbiological or other) are responsible for clinical symptoms after food ingestion which occur in non-allergic hypersensitivity (food intolerance). Food allergy is considered a serious health problem in modern society. The prevalence of this disorder is varied and depends, among other factors, on the study population, its age, dietary habits, ethnic differences, and the degree of economic development of a given country. It is estimated that food allergy occurs most often among the youngest children (about 6-8% in infancy); the prevalence is lower among adolescents (approximately 3-4%) and adults (about 1-3%). The most common, age-dependent cause of hypersensitivity, expressed as sensitization or allergic disease (food allergy), are food allergens (trophoallergens). These are glycoproteins of animal or plant origine contained in: cow's milk, chicken egg, soybean, cereals, meat and fish, nuts, fruits, vegetables, molluscs, shellfish and other food products. Some of these allergens can cause cross-reactions, occurring as a result of concurrent hypersensitivity to food, inhaled or contact allergens. The development of an allergic process is a consequence of adverse health effects on the human body of different factors: genetic, environmental and supportive. In people predisposed (genetically) to atopy or allergy, the development of food allergy is determined by four allergic-immunological mechanisms, which were classified and described by Gell-Coombs. It is estimated that in approximately 48-50% of patients, allergic symptoms are caused only by type I reaction, the IgEmediated (immediate) mechanism. In the remaining patients, symptoms of food hypersensitivity are the result of other pathogenetic mechanisms, non-IgE mediated (delayed, late) or mixed (IgE mediated, non-IgE mediated). Clinical symptomatology of food allergy varies individually and depends on the type of food induced pathogenetic mechanism responsible for their occurrence. They relate to the organ or system in which the allergic reaction has occurred (the effector organ). Most commonly the symptoms involve many systems (gastrointestinal tract, skin, respiratory system, other organs), and approximately 10% of patients have isolated symptoms. The time of symptoms onset after eating the causative food is varied and determined by the pathogenetic mechanism of the allergic immune reaction (immediate, delayed or late symptoms). In the youngest patients, the main cause of food reactions is allergy to cow’s milk. In developmental age, the clinical picture of food allergy can change, as reflected in the so-called allergic march, which is the result of anatomical and functional maturation of the effector organs, affected by various harmful allergens (ingested, inhaled, contact allergens and allergic cross-reactions). The diagnosis of food allergy is a complex, long-term and time-consuming process, involving analysis of the allergic history (personal and in the family), a thorough evaluation of clinical signs, as well as correctly planned allergic and immune tests. The underlying cause of diagnostic difficulties in food allergy is the lack of a single universal laboratory test to identify both IgE-mediated and non-IgE mediated as well as mixed pathogenetic mechanisms of allergic reactions triggered by harmful food allergens. In food allergy diagnostics is only possible to identify an IgE-mediated allergic process (skin prick tests with food allergens, levels of specific IgE antibodies to food allergens). This allows one to confirm the diagnosis in patients whose symptoms are triggered in this pathogenetic mechanism (about 50% of patients). The method allowing one to conclude on the presence or absence of food hypersensitivity and its cause is a food challenge test (open, blinded, placebo-controlled). The occurrence of clinical symptoms after the administration of food allergen confirms the cause of food allergy (positive test) whereas the time elapsing between the triggering dose ingestion and the occurrence of clinical symptoms indicate the pathogenetic mechanisms of food allergy (immediate, delayed, late). The mainstay of causal treatment is temporary removal of harmful food from the patient’s diet, with the introduction of substitute ingredients with the nutritional value equivalent to the eliminated food. The duration of dietary treatment should be determined individually, and the measures of the effectiveness of the therapeutic elimination diet should include the absence or relief of allergic symptoms as well as normal physical and psychomotor development of the treated child. A variant alternative for dietary treatment of food allergy is specific induction of food tolerance by intended contact of the patient with the native or thermally processed harmful allergen (oral immunotherapy). This method has been used in the treatment of IgE-mediated allergy (to cow's milk protein, egg protein, peanut allergens). The obtained effect of tolerance is usually temporary. In order to avoid unnecessary prolongation of treatment in a child treated with an elimination diet, it is recommended to perform a food challenge test at least once a year. This test allows one to assess the body's current ability to acquire immune or clinical tolerance. A negative result of the test makes it possible to return to a normal diet, whereas a positive test is an indication for continued dietary treatment (persistent food allergy). Approximately 80% of children diagnosed with food allergy in infancy "grow out" of the disease before the age of 4-5 years. In children with non-IgE mediated food allergy the acquisition of food tolerance is faster and occurs in a higher percentage of treated patients compared to children with IgE-mediated food allergy. Pharmacological treatment is a necessary adjunct to dietary treatment in food allergy. It is used to control the rapidly increasing allergic symptoms (temporarily) or to achieve remission and to prevent relapses (long-term treatment). Preventive measures (primary prevention of allergies) are recommended for children born in a "high risk" group for the disease. These are comprehensive measures aimed at preventing sensitization of the body (an appropriate way of feeding the child, avoiding exposure to some allergens and adverse environmental factors). First of all, the infants should be breast-fed during the first 4-6 months of life, and solid foods (non milk products, including those containing gluten) should be introduced no earlier than 4 months of age, but no later than 6 months of age. An elimination diet is not recommended for pregnant women (prevention of intrauterine sensitization of the fetus and unborn child). The merits of introducing an elimination diet in mothers of exclusively breast-fed infants, when the child responds with allergic symptoms to the specific diet of the mother, are disputable. Secondary prevention focuses on preventing the recurrence of already diagnosed allergic disease; tertiary prevention is the fight against organ disability resulting from the chronicity and recurrences of an allergic disease process. Food allergy can adversely affect the physical development and the psycho-emotional condition of a sick child, and significantly interfere with his social contacts with peers. A long-term disease process, recurrence of clinical symptoms, and difficult course of elimination diet therapy are factors that impair the quality of life of a sick child and his family. The economic costs generated by food allergies affect both the patient's family budget (in the household), and the overall financial resources allocated to health care (at the state level). The adverse socio-economic effects of food allergy can be reduced by educational activities in the patient’s environment and dissemination of knowledge about the disease in the society

    Design and baseline characteristics of the finerenone in reducing cardiovascular mortality and morbidity in diabetic kidney disease trial

    Get PDF
    Background: Among people with diabetes, those with kidney disease have exceptionally high rates of cardiovascular (CV) morbidity and mortality and progression of their underlying kidney disease. Finerenone is a novel, nonsteroidal, selective mineralocorticoid receptor antagonist that has shown to reduce albuminuria in type 2 diabetes (T2D) patients with chronic kidney disease (CKD) while revealing only a low risk of hyperkalemia. However, the effect of finerenone on CV and renal outcomes has not yet been investigated in long-term trials. Patients and Methods: The Finerenone in Reducing CV Mortality and Morbidity in Diabetic Kidney Disease (FIGARO-DKD) trial aims to assess the efficacy and safety of finerenone compared to placebo at reducing clinically important CV and renal outcomes in T2D patients with CKD. FIGARO-DKD is a randomized, double-blind, placebo-controlled, parallel-group, event-driven trial running in 47 countries with an expected duration of approximately 6 years. FIGARO-DKD randomized 7,437 patients with an estimated glomerular filtration rate >= 25 mL/min/1.73 m(2) and albuminuria (urinary albumin-to-creatinine ratio >= 30 to <= 5,000 mg/g). The study has at least 90% power to detect a 20% reduction in the risk of the primary outcome (overall two-sided significance level alpha = 0.05), the composite of time to first occurrence of CV death, nonfatal myocardial infarction, nonfatal stroke, or hospitalization for heart failure. Conclusions: FIGARO-DKD will determine whether an optimally treated cohort of T2D patients with CKD at high risk of CV and renal events will experience cardiorenal benefits with the addition of finerenone to their treatment regimen. Trial Registration: EudraCT number: 2015-000950-39; ClinicalTrials.gov identifier: NCT02545049

    A scapular-iconography

    Get PDF
    The creation of a small scapular was the result of the process of forming brotherhoods and third orders. As a consequence, lay people have been able to wear a scapular as an outward sign referring to religious clothing, which became a symbol of the garment of salvation and divine protection. A small scapular consists of two square or rectangular pieces of woollen cloth (other forms are not allowed). One piece of the scapular should, hung on the back, the other should fall on the chest, they should be joined by ribbons in such a way that you can put them on over your head. The Catholic Church adopted 23 types of small scapulars and scapular medals worn by the lay faithful

    Über die Notwendigkeit des Schutzes der Bibliotheksbestände

    Get PDF
    Für die heutige Zivilisation ist es Pfl icht und Sorge, sich um die möglichst lange Erhaltung der intellektuellen Errungenschaften des Menschen zu kümmern. Unmittelbar wird diese Aufgabe von den Archivaren und Bibliothekaren realisiert. Zum Schutz von Büchersammlungen gehört ein ganzes Ensemble verschiedener und komplizierter Aktivitäten, die deren Sicherheit und einen guten Erhaltungszustand gewährleisten sollen. Die schnelle technologische Entwicklung bringt ständig neue Möglichkeiten und gleichzig auch größere Erwartungen und Anforderungen von Seiten der Benutzer mit sich. Das sich insbesondere gegen Ende des 20. Jahrhunderts vertiefende Bewusstsein des möglichen Verlustes Hunderttausender auf Papier gebannter Dokumente führte zu einer beschleunigten Suche nach besseren und effektiveren Methoden ihrer Rettung. Diese Suche verlief in zweierlei Richtungen: einerseits zur Entwicklung von Methoden massenhafter Konservierung und andererseits zur Nutzung der sich ständig weiterentwickelnden Technologie der Kopiergeräte. Dieser Gedanke bildete die Grundlage des von der UNESCO initiierten internationalen Programms „Memory of the World”. In Polen hat der Ministerrat der Republik Polen auf das Problem der Rettung des Nationalerbes aus dem 19. und 20. Jahrhundert mit dem Beschluss vom 17. November 1999 hervorragend reagiert und ein Langfristiges Regierungsprogramm für die Jahre 2000-2008 „Saures Papier. Zur massenhaften Rettung der bedrohten polnischen Bibliotheks- und Archivbestände” verabschiedet. Um diese Bestände zu schützen, ist nicht nur ein entsprechendes Bewusstsein der Bibliotheksmitarbeiter notwendig, sondern auch die positive Einstellung der entsprechenden wissenschaftlichen Forschungseinrichtungen und Regierungsstellen sowie die Überzeugung, dass der Schutz dieser Bestände von ganz wesentlicher Bedeutung für die Entwicklung der Wissenschaft, der Technik und der Kultur ist und dass ohne die notwendigen Zuwendungen zu diesem Zweck viele Bestände unwiederbringlich verlorengehen
    corecore