23 research outputs found

    ATP and its N6-substituted analogues: parameterization, molecular dynamics simulation and conformational analysis

    Get PDF
    In this work we used a combination of classical molecular dynamics and simulated annealing techniques to shed more light on the conformational flexibility of 12 adenosine triphosphate (ATP) analogues in a water environment. We present simulations in AMBER force field for ATP and 12 published analogues [Shah et al. (1997) Proc Natl Acad Sci USA 94: 3565–3570]. The calculations were carried out using the generalized Born (GB) solvation model in the presence of the cation Mg2+. The ion was placed at a close distance (2 Å) from the charged oxygen atoms of the beta and gamma phosphate groups of the −3 negatively charged ATP analogue molecules. Analysis of the results revealed the distribution of inter-proton distances H8–H1′ and H8–H2′ versus the torsion angle ψ (C4–N9-C1′–O4′) for all conformations of ATP analogues. There are two gaps in the distribution of torsion angle ψ values: the first is between −30 and 30 degrees and is described by cis-conformation; and the second is between 90 and 175 degrees, which mostly covers a region of anti conformation. Our results compare favorably with results obtained in experimental assays [Jiang and Mao (2002) Polyhedron 21:435–438]

    Surface potential and roughness controlled cell adhesion and collagen formation in electrospun PCL fibers for bone regeneration

    Get PDF
    Surface potential of biomaterials is a key factor regulating cell responses, driving their adhesion and signaling in tissue regeneration. In this study we compared the surface and zeta potential of smooth and porous electrospun polycaprolactone (PCL) fibers, as well as PCL films, to evaluate their significance in bone regeneration. The ' surface potential of the fibers was controlled by applying positive and negative voltage polarities during the electrospinning. The surface properties of the different PCL fibers and films were measured using X-ray photoelectron spectroscopy (XPS) and Kelvin probe force microscopy (KPFM), and the zeta potential was measured using the electrokinetic technique. The effect of surface potential on the morphology of bone cells was examined using advanced microcopy, including 3D reconstruction based on a scanning electron microscope with a focused ion beam (FIB-SEM). Initial cell adhesion and collagen formation were studied using fluorescence microscopy and Sirius Red assay respectively, while calcium mineralization was confirmed with energy-dispersive x-ray (EDX) and Alzarin Red staining. These studies revealed that cell adhesion is driven by both the surface potential and morphology of PCL fibers. Furthermore, the ability to tune the surface potential of electrospun PCL scaffolds provides an essential electrostatic handle to enhance cell-material interaction and cellular activity, leading to controllable morphological changes

    Enhancing business process event logs with software failure data

    No full text
    Process mining techniques allow for the analysis of the real process flow. This flow might be disturbed for many reasons, including software failures. It is also possible for failure occurrence to be the consequence of the faulty process execution. A method for measuring the harmfulness of the software failure regarding business processes executed by the user would be a valuable asset for quality and reliability improvement. In this paper, we take the first step towards developing this method by providing a tool for enhancing XES event logs with failure data. We begin with an introduction to this topic and background analysis in the field of failure classification and process mining techniques supporting failure analysis. Then we present our method for merging operational and failure data. By carrying out a case study based on real data, we evaluate our tool and present the aim of our future work

    Applying the adaptive applications in assessment of the environment soil state

    No full text
    W artykule zaprezentowano wyniki uzyskane z prób zastosowania dwóch algorytmów eksploracji danych pochodzących z obserwacji stanu chemicznego gleb w otoczeniu źródeł niezorganizowanej emisji metali ciężkich. Klasyfikacje standardów koncentracji zanieczyszczeń gleb wykonane przy udziale sieci FSM (Feature Space Mapping) oraz komitetów klasyfikatorów (w tym przypadku były to: FSM+IncNet+drzewa decyzyjne i komitet sieci FSM złożony z egzemplarzy różniących się funkcją transferu) wykazały znaczącą przewagę pojedynczego klasyfikatora FSM. Dodatkowo posiada on możliwość wyekstrahowania z bazy danych reguł klasyfikacji, które później jako makroinstrukcje mogą stać się nieodzownym elementem cyfrowych map glebowych i aktywnie uczestniczyć w budowie systemu informacji o przestrzeni. W obydwu przypadkach głównym ograniczeniem, a tym samym efektywnością zastosowania algorytmów była szczupłość danych użytych w analizie. To zdecydowało o użyciu metody walidacji krzyżowej podczas tworzenia modelu klasyfikacyjnego i tym samym narzuciło ostrożne traktowanie nawet bardzo optymistycznych wyników uzyskanych takim modelem.The paper presents the results of application two data mining coming from the chemical soils state observations, within the unorganized heavy metals emission. Soil pollution concentration standards classification with the use FSM networks, and also classifications committees (in this case: FSM + IncNet + decision trees, and FSM networks Committee which consists of elements differing by transfer function) show a considerable predominance of single FSM classifier. Additionally it has the possibility to extract the classification rules from the data basis which might be in future applied as macroinstruction for preparing the soil digital maps, and actively participate in SIP construction. In both cases the main restriction and also the algorithm application effectivity was a very little amount of data used in the analyses. This brought to the decision of using the cross validation method, during creating the classification model, and thereby imposes to treat very carefully, even very optimistic results obtained by this model

    Application of interpolation algorithms and artificial neural networks for chromium contents in soils characterization

    No full text
    Przeanalizowano różne podejścia do ustalania trendu rozkładu poziomego chromu (Cr) w glebie w warunkach silnego zanieczyszczenia tym pierwiastkiem. Zastosowano algorytmy regresji wielomianowej (wielomiany I, II i III stopnia), algorytmy interpolacji (TIN, Kriging, RST) oraz sztuczne sieci neuronowe (MLP, CANFIS, RBF, GRNN, PNN, MDN). Wykorzystano dane pochodzące z badań terenowych przeprowadzonych w otoczeniu Zakładów Chemicznych "Alwernia". Różnice między poszczególnymi podejściami zaprezentowano w formie graficznej oraz niektórych statystyk rozkładu reszt. Badania rozkładu przestrzennego zanieczyszczenia gleb nasunęły wniosek, iż ważnym elementem staje się określenie precyzji informacji oraz granic błędu przez akceptację jakiegoś oszacowania zanieczyszczenia, natomiast na dalszy plan schodzi wykrycie lub uwypuklenie regularności związanej z mechanizmem zjawiska imisji. Wydaje się, że zmienność zawartości chromu w glebach, zauważalna nawet na bliskich dystansach, utrudnia akceptację metod interpolacji jako sposobu oceny rozkładu zanieczyszczeń. Z drugiej strony znaczące nieliniowości utrudniają akceptację modeli regresji. W tych warunkach możliwością wartą rozważenia jest modelowanie z użyciem sieci neuronowych, w tym także wykorzystanie rozwiązań hybrydowych (np. MDN), pozwalających na pogłębioną analizę zmienności koncentracji Cr w glebach.Various ways of approach, to determine the horizontal distribution trend (tendency) of Chromium (Cr) in soil, where is high pollution by this element are analysed. Polynominal regression algorithms (I, II, III degree polynominals), interpolation algorithms (TIN, Kriging, RST), and also artificial neural networks (MLP, CANFIS, RBF, GRNN, PNN, MDN) are applied. Data from field experiments, carried out in the area of Chemical Plant in Alwernia were used. The differences between several ways of approach are presented in a graphical form, and also in some remainders distribution statistics. The soil pollution spatial distribution examinations lead to following conclusion, that in the first place is the information precision determination, and also the limit of error, through the pollution evaluation acceptance, whereas in the second place is the indication or standing out the regularity connected with the imission effect mechanism. It seems that the chromium concentration in soils variation, noticed even on short distances, makes it difficult the acceptance of interpolation method, as a method of contamination distribution evaluation. On the other hand the considerable nonlinearity makes difficult the acceptance of regression model. In these circumstances, the possibility which is worth consideration, is the modelling with the application of neuron networks, that is also hybrid solution application (for instance MDN), which gives the possibility of Cr concentration in soils variation deeper analysis

    Adaptacyjne modelowanie przestrzennego zróżnicowania jednostek klasyfikacyjnych gleb

    No full text
    The article presents the results of attempts to use adaptive algorithms for classification tasks different soils units. The area of study was the Upper Silesian Industrial Region, which physiographic and soils parameters in the form of digitized was used in the calculation. The study used algorithms, self-organizing map (SOM) of Kohonen, and classifiers: deep neural network, and two types of decision trees: Distributed Random Forest and Gradient Boosting Machine. Especially distributed algorithm Random Forest (algorithm DRF) showed a very high degree of generalization capabilities in modeling complex diversity of soil. The obtained results indicate, that the digitization of topographic and thematic maps give you a fairly good basis for creating useful models of soil classification. However, the results also showed that it cannot be concluded that the best algorithm presented in this research can be regarded as a general principle of system design inference.Wraz z rozwojem technologii informatycznych następuje stopniowa zmiana podejścia do dokumentacji kartograficznej obiektów przyrodniczych, w tym gleb. Podstawowymi cechami dowolnej klasyfikacji, których przedmiotem są gleby, jest wielowymiarowość jednostek (nie ma pojedynczej właściwości, możliwej do wyznaczenia w drodze pomiaru, która wystarczałaby do jednoznacznego przypisania pedonu do określonej klasy w stosowanych skalach klasyfikacyjnych gleb), w związku z czym właściwe wydaje się wykorzystanie do tego celu dostępnych komputerowych metod przetwarzania danych. Modelowanie przestrzennego zróżnicowania gleb na podstawie przesłanek natury fizjograficznej, odtworzonych na podstawie digitalizacji istniejących materiałów kartograficznych, jest podstawą do tworzenia przestrzennych baz danych przechowywanych w wersji cyfrowej. Inaczej niż w typowej kartografii tematycznej zawierającej treści glebowo-siedliskowe, modele te wskazują na prawdopodobieństwo a priori występowania określonej jednostki glebowej w określonym położeniu, nie zaś bezwzględną przynależność terenu do niej. Taka interpretacja wymaga zbudowania stosownego algorytmu wiążącego czynniki natury geologicznej i fizjograficznej z jednostkami glebowymi. Do tego celu często wykorzystuje się tak zwane algorytmy adaptacyjne, umożliwiające elastyczne tworzenie modeli zależności bazujących na danych. W pracy przedstawiono dwa warianty doboru parametrów przetwarzania danych fizjograficzno-glebowych potencjalnie przydatnych do tych celów. Wykorzystano dane pochodzące z bazy danych fizjograficznoglebowych z rejonu GOP (Górnośląski Okręg Przemysłowy) uzyskanych w wyniku digitalizacji materiałów kartograficznych. Analizie poddano wyłącznie tereny użytków rolnych: gruntów ornych (R) i trwałych użytków zielonych (Ł i Ps). Na obszarze o powierzchni 1 km2 wyodrębniono 6,4 mln jednostek tworzących siatkę kwadratów o rozmiarach 20 × 20 m. Wykorzystane zostały algorytmy samoorganizującej mapy (SOM) Kohonena oraz klasyfikatory – głęboka sieć neuronowa, oraz dwa rodzaje drzew decyzyjnych – rozproszony las losowy (ang. Distributed Random Forest) i wzmacniane drzewa losowe (ang. Gradient Boosting Machine). Szczególnie algorytm rozproszonego lasu losowego (algorytm DRF) wykazał bardzo wysoki stopień zdolności generalizacyjnej w modelowaniu zróżnicowania kompleksów glebowych

    Compact Broadband Rat-Race Coupler in Multilayer Technology Designed with the Use of Artificial Right- and Left-Handed Transmission Lines

    No full text
    The paper presents a compact broadband rat-race coupler for the first time designed and realized in a mul- tilayer microstrip technology. To achieve both broad operational bandwidth and a compact size the 270? transmission line of a conventional rat-race, coupler has been replaced by a -90? left-handed transmission line realized with the use of a quasi-lumped element technique. Moreover, to achieve better compactness of the resulting coupler, all 90? right-handed transmission lines have been realized with the use of the same technique. It has been also proved that simple LC approximation of a left-handed transmission line can be successfully used for the design. Moreover, it has been shown that when appropriately chosen, the multilayer dielectric structure allows for realization of structures designed with the use of this simple approximation, for both right-handed and left-handed transmission lines, without loosing too much of a performance
    corecore