60 research outputs found
Wachlarz w Kościele Wschodnim i Zachodnim oraz w kulturze świata
Historia wachlarza, wydawałoby się przedmiotu zbytkownego (a nawet zbędnego), jest niezwykle bogata i ciekawa z punktu widzenia obyczajów, historii i historii sztuki. To zdumiewające, jak ta niewielka rzecz codziennego użytku, współcześnie zaliczana do utensyliów mody kobiecej, przez tysiąclecia pełniła wielorakie i ważne funkcje.
Od najdawniejszych czasów wachlarze były używane do ochłody, odpędzania owadów, ochrony przed słońcem czy do rozniecania ognia. W starożytnym Egipcie wachlarze paradne używane były przez faraonów i kapłanów jako atrybuty władzy i dostojeństwa. Do lat 50. XX wieku w Kościele Zachodnim były używane dwa wachlarze (flabella) jako wyróżnienie honorowe w procesjach, podczas których niesiono papieża na sedia gestatoria. W liturgii Kościoła Wschodniego do naszych czasów przetrwało używanie wachlarzy (ripidia), chociaż ich znaczenie stało się już zupełnie symboliczne.
Znane są także wachlarze bojowe. Wywodzą się z Dalekiego Wschodu, gdzie służyły przede wszystkim jako oznaka rangi oficerskiej, ale także jako broń. Używane były od VI do XVI wieku, kiedy to osiągnęły szczyt popularności.
Wachlarze do Europy przybyły wraz z wyprawami na Daleki Wschód. W XVII i XVIII wieku nastały złote czasy wachlarzy. Królowały w salonach wyższych sfer i na dworach królewskich całej Europy. Były symbolem dostatku, wykwintności i kokieterii bez względu na porę roku. Wachlarz stał się atrybutem damy. Największą popularność zyskały wachlarze składane.
Wachlarze wykonywane były z drewna, metali szlachetnych, kości słoniowej, szylkretu, skóry, pergaminu, jedwabiu, płótna, papieru, piór, także z liści; były rzeźbione, malowane, haftowane i ozdabiane klejnotami. Przybierały różne formy w zależności od zastosowania i potrzeb, były małe i duże, proste, składane, plisowane, okrągłe, półkoliste, w kształcie liścia, chorągiewki, na długim lub krótkim uchwycie
Krzyż jakiego nie znamy
W ciągu wieków pojawiało się wiele rodzajów krzyży. Posiadały one różne formy, znaczenie i symbolikę. W czasach prehistorycznych krzyż był amuletem, chronił przed złymi mocami, ale też symbolizował bóstwa. Krzyże były związane zazwyczaj z formą kultu sił przyrody, a w szczególności ognia, słońca oraz życia. Krzyże były noszone i tatuowane, rysowane i malowane na skałach, wyrabiano je z różnych materiałów, stawiano krzyże kamienne i drewniane, a także metalowe. Zanim krzyż stal się symbolem dla chrześcijan, był utożsamiany z narzędziem tortur, najgorszym z narzędzi męki. Wraz ze śmiercią Chrystusa, krzyż stał się jednym z najważniejszych symboli chrześcijaństwa. Krzyż jako znak zbawienia jest także atrybutem wielu świętych, których życie w szczególny sposób było z nim powiązane. Oprócz form krzyża związanego z religiami powstało wiele jego odmian pozareligijnych. Powszechny jest zwyczaj nadawanych obywatelom „krzyży” za wybitne zasługi będące wyrazem patriotyzmu, osiągnięć naukowych i społecznych. W czasach popkultury krzyż pojawił się także w kompozycjach infografiki, a nawet znaków firmowych
Cistatin C as an early marker for renal function loss in type 2 diabetic patients with concomitant albuminuria
BACKGROUND. Type 2 diabetes is the main cause of
the end-stage renal insufficiency needed renal
replacement therapy. Vascular damage turn leads to
diabetic nephropathy leads and progress from onset
of hyperglycemia. Albuminuria is first laboratory
indicator confirm the damage of the renal
glomerulus. Cystatin C is sensitive marker of
a developing renal dysfunction. Aim of the research:
what are the relations between concentration of
cystatin C in blood and albuminuria and HbA1c in
type 2 diabetes?
MATERIAL AND METODS. The research included 68
patients with type 2 diabetes and confirmed
albuminuria. Based on the degree of metabolic
control expressed by the percentage of HbA1c, the
patients were divided into two groups: I group
— 29 patients with type 2 diabetes with HbA1c ≥ 6.1%
to £ 6.5%, with the average duration of diabetes of
5.3 years. II group — 39 patients with type 2 diabetes
with HbA1c > 6.5% to £ 10.0%, with the average
duration of diabetes of 7.2 years. K — the control
group consisted of 21 patients with essential
hypertension and albuminuria, not suffering from
carbohydrates disorders. Concentration cystatin C in
blood was assessed with the ELISA test, the percentage
of HbA1c was measured immunoturbidimetric
method. A Mann-Whitney test was used for the
comparison between the values of the parameters
in the research groups and the control group.
Spearman’s rank correlation coefficient was used for
measuring the relation between the axtent of
albuminuria and the other parameters.
RESULTS. The average concentration of HbA1c in
group II was 7.54% and was connected with
significantly larger average glycaemia (p < 0.001) in
comparison with group I with normal HbA1c
concentration. The highest albumin excretion in urine
and highest average concentration cystatin C in
blood was in group II patients with type 2 diabetes
with HbA1c > 6.5% to £ 10.0%. In group II patients
with type 2 diabetes and abnormal metabolic control
the average concentration of cystatin C was
significantly higher than in the control group patients
with essential hypertension. This difference however
was not statistically significant. Nevertheless
a positive correlation was found between the
concentration of cystatin C in blood and the extent
of albuminuria in research group I patients with type
2 diabetes with HbA1c < 6.5% (p = 0.005).
CONCLUSIONS. The positive correlation between the
concentration of cystatin C and the extent of
albuminuria, found in the research on patients with
type 2 diabetes and normal percentage of HbA1c
(p = 0.005) with shorts average duration of diabetes
about of 5 years, confirms the sensitivity of this
marker even at early stages of renal dysfunction.
(Diabet. Prakt. 2011; 12, 3: 103–112)WSTĘP. Cukrzyca typu 2 jest główną przyczyną krańcowej
niewydolności nerek wymagającej leczenia nerkozastępczego.
Zmiany naczyniowe prowadzące do
powstania cukrzycowej choroby nerek tworzą się
i postępują od początku pojawienia się hiperglikemii.
Albuminuria jest pierwszym laboratoryjnym objawem
potwierdzającym uszkodzenie kłębuszka
nerkowego. Cystatynę C uznaje się za czuły parametr
początkowej dysfunkcji nerek. Celem badania było
wykazanie zależności między stężeniem cystatyny C we
krwi a wielkością albuminurii i odsetkiem hemoglobiny
glikowanej (HbA1c) u chorych na cukrzycę typu 2.
MATERIAŁ I METODY. Badaniami objęto 68 chorych
na cukrzycę typu 2 z potwierdzoną albuminurią. Na
podstawie stopnia wyrównania metabolicznego, wyrażonego
odsetkiem HbA1c, chorych podzielono na
2 grupy: I — 29 chorych na cukrzycę typu 2 z HbA1c
≥ 6,1% do £ 6,5%, z średnim czasem trwania cukrzycy
5,3 roku; II — 39 chorych na cukrzycę typu 2 z HbA1c
> 6,5% do £ 10,0%, z średnim czasem trwania cukrzycy
7,2 roku. Do grupy kontrolnej (K) włączono 21
osób z pierwotnym nadciśnieniem tętniczym, ze
współistniejącą albuminurią, bez zaburzeń gospodarki
węglowodanowej. Stężenie cystatyny C we krwi oznaczano
metodą immunoenzymatyczną (ELISA), a odsetek
HbA1c — metodą immunoturbidymetryczną.
W celu porównania rozkładu wartości oznaczanych
poszczególnych parametrów między badanymi grupami
zastosowano test Manna-Whitneya (p*).
W oznaczaniu zależności między wartością albuminurii
a pozostałymi parametrami wykorzystano
współczynnik korelacji Spearmana (p**).
WYNIKI. Średni odsetek HbA1c w II grupie wyniósł
7,54% i wiązał się z istotnie wyższym średnim stężeniem
glukozy we krwi (p < 0,001), w porównaniu
z I grupą chorych z prawidłowym odsetkiem HbA1c.
Największe wydalanie albumin z moczem oraz najwyższe
średnie stężenie cystatyny C we krwi stwierdzono
w II grupie chorych na cukrzycę typu 2 z HbA1c > 6,5%
do £ 10,0%. W II grupie chorych ze źle wyrównaną
metabolicznie cukrzycą typu 2 średnia wartość cystatyny
C była znacznie wyższa, w porównaniu z grupą
kontrolną chorych z pierwotnym nadciśnieniem tętniczym.
Różnice między otrzymanymi wartościami nie
były jednak istotne statystycznie. Uzyskano dodatnią
korelację między stężeniem cystatyny C we krwi a wielkością albuminurii w I grupie chorych na cukrzycę
typu 2 z HbA1c < 6,5% (p = 0,005).
WNIOSKI. Wykazana w badaniu dodatnia korelacja
między stężeniem cystatyny C a wielkością albuminurii
u chorych na cukrzycę typu 2 z prawidłowym odsetkiem
HbA1c (p = 0,005), z krótszym, około 5-letnim
wywiadem chorobowym, potwierdza wysoką
czułość tego wskaźnika już w początkowych stadiach
rozpoczynającej się dysfunkcji nerek. (Diabet. Prakt.
2011; 12, 3: 103–112
Polish statement on food allergy in children and adolescents
An adverse food reaction is defined as clinical symptoms occurring in children, adolescents or adults after ingestion of a food or chemical food additives. This reaction does not occur in healthy subjects. In certain individuals is
a manifestation of the body hypersensitivity, i.e. qualitatively altered response to the consumed food. The disease
symptoms observed after ingestion of the food can be triggered by two pathogenetic mechanisms; this allows
adverse food reactions to be divided into allergic and non-allergic food hypersensitivity (food intolerance). Food
allergy is defined as an abnormal immune response to ingested food (humoral, cellular or mixed). Non-immunological mechanisms (metabolic, pharmacological, microbiological or other) are responsible for clinical symptoms
after food ingestion which occur in non-allergic hypersensitivity (food intolerance).
Food allergy is considered a serious health problem in modern society. The prevalence of this disorder is varied
and depends, among other factors, on the study population, its age, dietary habits, ethnic differences, and the
degree of economic development of a given country. It is estimated that food allergy occurs most often among
the youngest children (about 6-8% in infancy); the prevalence is lower among adolescents (approximately 3-4%)
and adults (about 1-3%). The most common, age-dependent cause of hypersensitivity, expressed as sensitization or allergic disease (food
allergy), are food allergens (trophoallergens). These are glycoproteins of animal or plant origine contained in: cow's
milk, chicken egg, soybean, cereals, meat and fish, nuts, fruits, vegetables, molluscs, shellfish and other food products. Some of these allergens can cause cross-reactions, occurring as a result of concurrent hypersensitivity to food,
inhaled or contact allergens.
The development of an allergic process is a consequence of adverse health effects on the human body of different
factors: genetic, environmental and supportive. In people predisposed (genetically) to atopy or allergy, the development of food allergy is determined by four allergic-immunological mechanisms, which were classified and described
by Gell-Coombs. It is estimated that in approximately 48-50% of patients, allergic symptoms are caused only by
type I reaction, the IgEmediated (immediate) mechanism. In the remaining patients, symptoms of food hypersensitivity are the result of other pathogenetic mechanisms, non-IgE mediated (delayed, late) or mixed (IgE mediated,
non-IgE mediated). Clinical symptomatology of food allergy varies individually and depends on the type of food induced pathogenetic
mechanism responsible for their occurrence. They relate to the organ or system in which the allergic reaction has
occurred (the effector organ). Most commonly the symptoms involve many systems (gastrointestinal tract, skin,
respiratory system, other organs), and approximately 10% of patients have isolated symptoms. The time of symptoms onset after eating the causative food is varied and determined by the pathogenetic mechanism of the allergic immune reaction (immediate, delayed or late symptoms). In the youngest patients, the main cause of food reactions is allergy to cow’s milk. In developmental age, the clinical picture of food allergy can change, as reflected in the so-called allergic march, which is the result of anatomical and functional maturation of the effector organs, affected by various harmful allergens (ingested, inhaled, contact allergens and allergic cross-reactions). The diagnosis of food allergy is a complex, long-term and time-consuming process, involving analysis of the allergic history (personal and in the family), a thorough evaluation of clinical signs, as well as correctly planned allergic
and immune tests. The underlying cause of diagnostic difficulties in food allergy is the lack of a single universal laboratory test to identify both IgE-mediated and non-IgE mediated as well as mixed pathogenetic mechanisms of
allergic reactions triggered by harmful food allergens. In food allergy diagnostics is only possible to identify an
IgE-mediated allergic process (skin prick tests with food allergens, levels of specific IgE antibodies to food allergens). This allows one to confirm the diagnosis in patients whose symptoms are triggered in this pathogenetic
mechanism (about 50% of patients). The method allowing one to conclude on the presence or absence of food
hypersensitivity and its cause is a food challenge test (open, blinded, placebo-controlled). The occurrence of clinical symptoms after the administration of food allergen confirms the cause of food allergy (positive test) whereas
the time elapsing between the triggering dose ingestion and the occurrence of clinical symptoms indicate the pathogenetic mechanisms of food allergy (immediate, delayed, late). The mainstay of causal treatment is temporary removal of harmful food from the patient’s diet, with the introduction of substitute ingredients with the nutritional value equivalent to the eliminated food. The duration of dietary
treatment should be determined individually, and the measures of the effectiveness of the therapeutic elimination
diet should include the absence or relief of allergic symptoms as well as normal physical and psychomotor development of the treated child. A variant alternative for dietary treatment of food allergy is specific induction of food tolerance by intended contact of the patient with the native or thermally processed harmful allergen (oral immunotherapy). This method has
been used in the treatment of IgE-mediated allergy (to cow's milk protein, egg protein, peanut allergens).
The obtained effect of tolerance is usually temporary. In order to avoid unnecessary prolongation of treatment in a child treated with an elimination diet, it is recommended to perform a food challenge test at least once a year. This test allows one to assess the body's current ability to acquire immune or clinical tolerance. A negative result of the test makes it possible to return to a normal diet,
whereas a positive test is an indication for continued dietary treatment (persistent food allergy). Approximately 80% of children diagnosed with food allergy in infancy "grow out" of the disease before the age of
4-5 years. In children with non-IgE mediated food allergy the acquisition of food tolerance is faster and occurs in
a higher percentage of treated patients compared to children with IgE-mediated food allergy.
Pharmacological treatment is a necessary adjunct to dietary treatment in food allergy. It is used to control the rapidly increasing allergic symptoms (temporarily) or to achieve remission and to prevent relapses (long-term treatment).
Preventive measures (primary prevention of allergies) are recommended for children born in a "high risk" group for
the disease. These are comprehensive measures aimed at preventing sensitization of the body (an appropriate way
of feeding the child, avoiding exposure to some allergens and adverse environmental factors). First of all, the infants
should be breast-fed during the first 4-6 months of life, and solid foods (non milk products, including those containing gluten) should be introduced no earlier than 4 months of age, but no later than 6 months of age. An elimination diet is not recommended for pregnant women (prevention of intrauterine sensitization of the fetus and
unborn child). The merits of introducing an elimination diet in mothers of exclusively breast-fed infants, when the
child responds with allergic symptoms to the specific diet of the mother, are disputable. Secondary prevention focuses on preventing the recurrence of already diagnosed allergic disease; tertiary prevention is the fight against organ
disability resulting from the chronicity and recurrences of an allergic disease process. Food allergy can adversely affect the physical development and the psycho-emotional condition of a sick child, and
significantly interfere with his social contacts with peers. A long-term disease process, recurrence of clinical symptoms, and difficult course of elimination diet therapy are factors that impair the quality of life of a sick child and
his family. The economic costs generated by food allergies affect both the patient's family budget (in the household), and the overall financial resources allocated to health care (at the state level). The adverse socio-economic
effects of food allergy can be reduced by educational activities in the patient’s environment and dissemination of
knowledge about the disease in the society
Design and baseline characteristics of the finerenone in reducing cardiovascular mortality and morbidity in diabetic kidney disease trial
Background: Among people with diabetes, those with kidney disease have exceptionally high rates of cardiovascular (CV) morbidity and mortality and progression of their underlying kidney disease. Finerenone is a novel, nonsteroidal, selective mineralocorticoid receptor antagonist that has shown to reduce albuminuria in type 2 diabetes (T2D) patients with chronic kidney disease (CKD) while revealing only a low risk of hyperkalemia. However, the effect of finerenone on CV and renal outcomes has not yet been investigated in long-term trials.
Patients and Methods: The Finerenone in Reducing CV Mortality and Morbidity in Diabetic Kidney Disease (FIGARO-DKD) trial aims to assess the efficacy and safety of finerenone compared to placebo at reducing clinically important CV and renal outcomes in T2D patients with CKD. FIGARO-DKD is a randomized, double-blind, placebo-controlled, parallel-group, event-driven trial running in 47 countries with an expected duration of approximately 6 years. FIGARO-DKD randomized 7,437 patients with an estimated glomerular filtration rate >= 25 mL/min/1.73 m(2) and albuminuria (urinary albumin-to-creatinine ratio >= 30 to <= 5,000 mg/g). The study has at least 90% power to detect a 20% reduction in the risk of the primary outcome (overall two-sided significance level alpha = 0.05), the composite of time to first occurrence of CV death, nonfatal myocardial infarction, nonfatal stroke, or hospitalization for heart failure.
Conclusions: FIGARO-DKD will determine whether an optimally treated cohort of T2D patients with CKD at high risk of CV and renal events will experience cardiorenal benefits with the addition of finerenone to their treatment regimen.
Trial Registration: EudraCT number: 2015-000950-39; ClinicalTrials.gov identifier: NCT02545049
A scapular-iconography
The creation of a small scapular was the result of the process of forming brotherhoods and third orders. As a consequence, lay people have been able to wear a scapular as an outward sign referring to religious clothing, which became a symbol of the garment of salvation and divine protection. A small scapular consists of two square or rectangular pieces of woollen cloth (other forms are not allowed). One piece of the scapular should, hung on the back, the other should fall on the chest, they should be joined by ribbons in such a way that you can put them on over your head. The Catholic Church adopted 23 types of small scapulars and scapular medals worn by the lay faithful
Über die Notwendigkeit des Schutzes der Bibliotheksbestände
Für die heutige Zivilisation ist es Pfl icht und Sorge, sich um die möglichst lange Erhaltung der intellektuellen Errungenschaften des Menschen zu kümmern. Unmittelbar wird diese Aufgabe von den Archivaren und Bibliothekaren realisiert. Zum Schutz von Büchersammlungen gehört ein ganzes Ensemble verschiedener und komplizierter Aktivitäten, die deren Sicherheit und einen guten Erhaltungszustand gewährleisten sollen. Die schnelle technologische Entwicklung bringt ständig neue Möglichkeiten und gleichzig auch größere Erwartungen und Anforderungen von Seiten der Benutzer mit sich. Das sich insbesondere gegen Ende des 20. Jahrhunderts vertiefende Bewusstsein des möglichen Verlustes Hunderttausender auf Papier gebannter Dokumente führte zu einer beschleunigten Suche nach besseren und effektiveren Methoden ihrer Rettung. Diese Suche verlief in zweierlei Richtungen: einerseits zur Entwicklung von Methoden massenhafter Konservierung und andererseits zur Nutzung der sich ständig weiterentwickelnden Technologie der Kopiergeräte. Dieser Gedanke bildete die Grundlage des von der UNESCO initiierten internationalen Programms „Memory of the World”. In Polen hat der Ministerrat der Republik Polen auf das Problem der Rettung des Nationalerbes aus dem 19. und 20. Jahrhundert mit dem Beschluss vom 17. November 1999 hervorragend reagiert und ein Langfristiges Regierungsprogramm für die Jahre 2000-2008 „Saures Papier. Zur massenhaften Rettung der bedrohten polnischen Bibliotheks- und Archivbestände” verabschiedet. Um diese Bestände zu schützen, ist nicht nur ein entsprechendes Bewusstsein der Bibliotheksmitarbeiter notwendig, sondern auch die positive Einstellung der entsprechenden wissenschaftlichen Forschungseinrichtungen und Regierungsstellen sowie die Überzeugung, dass der Schutz dieser Bestände von ganz wesentlicher Bedeutung für die Entwicklung der Wissenschaft, der Technik und der Kultur ist und dass ohne die notwendigen Zuwendungen zu diesem Zweck viele Bestände unwiederbringlich verlorengehen
- …