35 research outputs found

    Powdery Mildew Detection in Hazelnut with Deep Learning

    Get PDF
    Hazelnut cultivation is widely practiced in our country. One of the major problems in hazelnut cultivation is powdery mildew disease on hazelnut tree leaves. In this study, the early detection of powdery mildew disease with the YOLO model based on machine learning was tested on a unique data set. Object detection on the image, which is widely applied in the detection of plant diseases, has been applied for the detection of powdery mildew diseases. According to the results obtained, it has been seen that powdery mildew disease can be detected on the image. In the network trained with the Yolov5 model, diseased areas were detected with 95% accuracy in leaf images containing many diseases. Detection of healthy leaves, on the other hand, was tried on images with complex backgrounds and could detect more than one leaf on an image with 85% accuracy. The Yolov5 model, which has been used in many studies for disease detection on plant leaves, also gave effective results for the detection of powdery mildew disease on hazelnut leaves. Early detection of powdery mildew with a method based on machine learning; will stop the possible spread of disease; It will increase the efficiency of hazelnut production by preventing the damage of hazelnut producers

    Retinal Fundus Anjiyografi Görüntülerinde Drusen Alanlarının Otomatik Tespiti ve Hesaplanması

    Get PDF
    Computer aided detection (CAD) systems are widely used in the analysis of biomedical images. In this paper, we present a novel CAD system to detect age-related macular degeneration (ARMD) on retinal fundus fluorescein angiography (FFA) images, and we provide an areal size calculation of pathogenic drusen regions. The purpose of this study is to enable identification and areal size calculation of ARMD-affected regions with the developed CAD system; hence, we aim to discover the condition of the disease as well as facilitate long-term patient follow-up treatment. With the aid of this system, assessing the marked regions will take less time for ophthalmologists and observing the progress of the treatment will be a simpler process. The CAD system consists of four stages, a) preprocessing, b) segmentation, c) region of interest detection and d)feature extraction and drusen area detection. Detection through CAD and calculation of drusen regions were performed with a dataset composed of 75 images. The results obtained from the developed CAD system were examined by a specialist ophthalmologist, and the performance criteria of the CAD system are reported as conclusions. As a result, with 66 correct detections and 9 incorrect detections, the developed CAD system achieved an accuracy rate of 88%.Bilgisayar destekli tespit (BDT) sistemleri biyomedikal görüntülerin analizinde geniş bir kullanım alanına sahiptir. Bu çalışmada retinal fundus anjiyografi görüntüleri üzerinde yaşa bağlı makula dejenerasyonu (YBMD) hastalığının tespiti için bir BDT sistemi gerçekleştirilmiş ve patojenik drusen alanlarının büyüklüğünün hesaplanması sağlanmıştır. Çalışmanın amacı YBMD hastalığının görüldüğü alanların tespitinin ve büyüklüğünü hesaplamanın yanında hastalığa karşı uygulanan tedavinin sonucunun takibini de sağlamaktır. Geliştirilen sistemin yardımıyla optalmoloji uzmanları işaretlenen alanları kısa sürede tespit edebilecek ve hastalığın tedaviye verdiği cevabı basit bir şekilde gözlemleyebileceklerdir. Geliştirilen BDT sistemi 4 aşamadan oluşmaktadır, a) önişleme aşaması, b) bölütleme aşaması, c) ilgi alanı tespiti ve d) öznitelik çıkarma ve tespit aşaması. Geliştirilen BDT sistemi 75 görüntüden oluşan bir verisetiyle test edilmiştir. BST sisteminin elde ettiği sonuçlar bir optalmoloji uzmanıyla karşılaştırılarak sonuç bölümünde sunulmuştur. Geliştirilen BDT sistemi 66 doğru, 9 hatalı tespit yaparak %88 doğruluk oranı sağlamıştır

    CNN-based Gender Prediction in Uncontrolled Environments

    Get PDF
    With the increasing amount of data produced and collected, the use of artificial intelligence technologies has become inevitable. By using deep learning techniques from these technologies, high performance can be achieved in tasks such as classification and face analysis in the fields of image processing and computer vision. In this study, Convolutional Neural Networks (CNN), one of the deep learning algorithms, was used. The model created with this algorithm was trained with facial images and gender prediction was made. As a result of the experiments, 93.71% success rate was achieved on the VGGFace2 data set and 85.52% success rate on the Adience data set. The aim of the study is to classify low-resolution images with high accuracy

    The relationship between laboratory findings and mortality in COVID-19 patients requiring intensive care

    Get PDF
    Introduction: Severe acute respiratory syndrome coronavirus 2 (SARS-CoV-2) shows a wide clinical manifestation from asymptomatic infection to life-threatening respiratory failure. This study aimed to determine the relationship between the survival and demographic data, comorbidity status, and laboratory parameters of coronavirus disease 2019 (COVID-19) patients requiring intensive care. Material and methods: We retrospectively analyzed 236 patients requiring intensive care whose diagnosis was confirmed by the SARS-CoV-2 reverse transcription-polymerase chain reaction (RT-PCR) test. The patients were divided into two groups in terms of survival. Demographic data; procalcitonin and C-reactive protein (CRP) levels; leukocyte, lymphocyte, and neutrophil counts in hemogram and neutrophil-tolymphocyte ratio (NLR) levels; and lower respiratory and blood cultures were examined, and the relationships between these parameters and survival were evaluated with hypothesis testing. Results: In the study, 156 (66.1%) males and 80 (33.9%) females, a total of 236 patients, were included. Sixty-seven (28.3%) surviving patients were determined as Group 1, and 169 (71.7%) deceased patients were determined as Group 2. A statistically significant difference was found between the groups in terms of mean age (p<0.001) and gender distribution (p=0.011). In laboratory parameters, a significant difference was observed between the groups in lymphocyte count (p=0.001), NLR (p<0.001), and procalcitonin levels (p<0.001). Although leukocyte (p=0.075), neutrophil (p=0.031), and CRP (p=0.112) levels were higher in Group 2, there was no statistical difference. Mortality was found to be higher in patients with comorbidity (p=0.012) or co-infection (p=0.002). Conclusion: High levels of neutrophil count, NLR, and procalcitonin; low lymphocyte count; the presence of comorbidity; and secondary bacterial infection were found to be associated with mortality in COVID-19 patients in the intensive care unit

    Raspbraille: Conversion to Braille Alphabet with Optical Character Recognition and Voice Recognition Algorithm

    Get PDF
    It is quite difficult for visually impaired individuals to read a physically printed material. It is a necessity to provide information flow and communication between visually impaired individuals and other individuals. For this purpose, an alphabet has been developed for visually impaired individuals. With this alphabet, which is called the Braille alphabet, it is possible for visually impaired individuals to access written culture. There are special letters in the alphabet designed for the visually impaired. With the development of technology, studies in the field of Braille alphabet have increased. Optical character recognition technology can convert the letters on files such as pdf, pictures, photos into understandable data by selecting and separating them. Speech recognition algorithm, computer, tablet, mobile phone, voice recorder devices, etc. It is the process of detecting and recognizing the human voice through a microphone with technological products. Within the scope of the study, a device has been developed for Braille alphabet by using optical character recognition technology and speech recognition algorithm. First, the images of each page of the books that were requested to be translated into Braille alphabet were taken. Then, a transformation was performed using a specific character set with the optical character recognition algorithm. Audiobooks, on the other hand, were first converted into text and then into Braille alphabet using speech recognition algorithm. With these converted characters, a physical hardware device has been developed to display Braille letters that visually impaired individuals can read faster

    Strain relatedness in gram-negative bacteremia: Cause or contamination?

    Get PDF
    Aim: Bloodstream infections are a major cause of mortality, 25% of which are associated with gram-negative bacteremia. To avoid the inappropriate use of antibiotics, it is important to differentiate the bacteremia from contamination. In general, gram-positive bacteria were more likely to be contaminants than gram-negative-bacteria. There is little information in the literature concerning the epidemiology of gram-negative bacteria isolated from sequential blood cultures. Therefore, we aimed to examine the molecular epidemiology of gram-negative bacteria isolated from sequential blood cultures. Material and Methods: A total of 56 patients (112 samples and strains) with two or more sequential positive blood cultures for gram-negative bacteria with the same antibiogram were included in the study. Pulsed-field gel electrophoresis (PFGE) and arbitrarily primed PCR (AP-PCR) were performed for the determination of strain relatedness. Results: While PFGE analysis demonstrated relatedness in 6 isolates, AP-PCR demonstrated 9 relatedness in 112 isolates. Discussion: The results of our study suggest that, although the possibility of contamination is very low in gram-negative bacteremia, this can still take place, as shown in sequential blood cultures with the same antibiogra

    Polimerik kaplamalı kumaşlarda görüntü işleme ile niceleme ve karakterizasyon uygulaması

    No full text
    Bu çalışmada gri seviye eş oluşum matrisi ile fraktal boyut kullanılarak pamuk kumaş üzerine uygulanan polimerik kaplama içerisindeki taneciklerin dağılımı incelenmiştir. Kumaş yüzeyine farklı miktarlarda nano boyutta tanecik içeren kaplama formülasyonları uygulanmış daha sonra kumaşın termal gravimetrik yöntem (thermo gravimetric analysis-TGA) ile yanmazlık özellikleri incelenmiştir. Kaplanan kumaş yüzeyleri üzerinden optik mikroskop ile görüntüler elde edilmiş ve bu görüntüler gri seviye ve fraktal boyut özellik çıkarımında kullanılmıştır. Farklı miktarlarda nano tanecik içeren kaplı kumaşların mikroskop görüntüleri, görüntü işleme tekniği ile analiz edilerek nicelendirme ve sınıflandırma işlemleri yapılmıştır. Görüntü işleme ile elde edilen sonuçlar TGA ile bulunan deneysel bulgularla mukayese edilmiştir. Görüntü işleme tekniği ile özellik çıkarılarak en iyi kaplama kalitesine sahip numunenin, %5 montmorillonit (MMT) içeren örnek olduğu tespit edilmiştir. Numuneler arasındaki ortalama sınıflandırma başarısı %92,5 olarak elde edilmiştir

    Kumaş hatalarının ısıl görüntüleme ve görüntü işleme teknikleri ile tespit edilmesi

    No full text
    ÖZETKUMAŞ HATALARININ ISIL GÖRÜNTÜLEME VE GÖRÜNTÜ İŞLEME TEKNİKLERİ İLE TESPİT EDİLMESİTekstil endüstrisinde kumaş üretimi sırasında, hammaddeden (iplik, elyaf gibi), dokuma ve terbiye proseslerinden kaynaklı pek çok hata ile karşılaşılabilmektedir. Hataların tespiti kalite uzmanı operatörler tarafından gerçekleştirilmektedir. Kalite kontrol elemanı alt ve üst ışıklı, eğik kalite kontrol masası kullanmaktadır. Kalite kontrol elemanı tarafından hatalı bölgeler gözle taranmaktadır bu yüzden hatalı bölgelerin gözden kaçma olasılığı çok yüksektir. Hata tespiti kişiye göre değiştiği için objektif olmamaktadır. Hata denetimi gözle yapıldığından işlem uzun zaman almaktadır. Bu işlemin otomatik olarak yapılabilmesi için yapay görme sistemleri ve görüntü işleme teknikleri kullanılarak çalışmalar yapılmaktadır. Bu tez çalışmasında kumaş hata denetimi ile ilgili iki farklı çalışma gerçekleştirilmiştir. İlk çalışma hatalı kumaş görüntülerine, görüntü işleme algoritmaları uygulanmıştır. Hatalı alanın tespitinden sonra şekilsel ve histogram özellikleri çıkartılmıştır. Bu özellikler kullanılarak Fuzzy C-Means(FCM) algoritması ile kümeleme işlemi gerçekleştirilmiştir. Ayrıca tespit edilen hatanın kumaş üzerindeki dikey ve yatay koordinatlarının belirlenmesi de gerçekleştirilmiştir. İkinci çalışma ise kaydedilen video üzerinde hatalı görüntünün tespiti yapılmıştır. Hata, K En Yakın Komşu(KEYK), Bayes Ağları(BA) ve Karar Ağaçları(KA) algoritmaları kullanılarak anlık olarak sınıflandırılmıştır. Ayrıca hatanın yeri, cinsi ve kumaşın hangi metresinde yer aldığı belirlenmiştir.İlk çalışmada hatalı görüntüler üzerinde Fourier Analizi, Gabor Filtreler ve Dalgacık Dönüşümü yöntemleri ile uygulamalar yapılmıştır. Geliştirilen Fourier Tabanlı görüntü işleme yönteminin diğer algoritmalardan daha iyi sonuç verdiği gözlenmiştir. Poplin kumaş üzerinde delik, yırtık, yabancı iplik, makine yağı, nope, çözgü kaçığı ve atkı kaçığı hataları belirtilen görüntü işleme yöntemleri ile tespiti sağlanmıştır. Denim ve kaşe kumaş üzerinde ise çözgü ve atkı kaçığı hatalarının tespitinde geliştirilen algoritmalar etkisiz kalmıştır. Farklı türdeki kumaş ve hatalar üzerinde şekilsel ve histogram özellikleri kullanılarak FCM ile yapılan uygulamada ortalama %87 kümeleme başarısı elde edilmiştir. Gruplandırılan hata sayısının az veya fazla olması kümeleme performansını etkilemektedir.Yapılan ikinci çalışmada ise 3 farklı kumaş türü üzerinde farklı hatalara sahip olan video üzerinde anlık hata tespiti, sınıflandırma ve yer tespiti gerçekleştirilmiştir. Hata sınıflandırma işlemi için anlık olarak kaydedilen video üzerinde gri seviye eş oluşum matrisi kullanılarak özellik çıkarımı yapılmıştır. Elde edilen özellikler KEYK, BA ve KA kullanılarak sınıflandırılmıştır. Sınıflandırma işlemi için her bir hata türüne ait 6 adet görüntü, eğitim verisi olarak kullanılmıştır. KEYK algoritması ile yapılan uygulamada ortalama olarak %90'lık bir başarı elde edilmiştir. KEYK ile yapılan uygulamalarda diğer yöntemlere göre daha iyi sonuçlar elde edilmiştir.ABSTRACTDEFECT DETECTION OF FABRICS BY USING THERMAL IMAGING AND IMAGE PROCESSING TECHNIQUESIn textile industry during the production of fabrics from raw materials (yarn, fiber, etc.), many error encountered from the weaving and finishing processes. The quality control is carried out by specialist operators for the detection of errors. The quality control stuff is used bottom and upper illuminated, oblique quality control board. Defective regions are scanned with eye by quality control stuff so that defective areas are most likely to escape review. Evaluation of the defect process varies according to the person is not an objective. The process takes a long time because of the detection process is made by eye. Some studies have been made by using artificial vision systems and image processing techniques in order to perform this process automatically.In this study two different works have been carried out. In the first one image processing algorithms were applied on defective fabric images. After the detect defection area, shape and histogram properties were extracted. These features were clustered with FCM algorithm. Also the vertical and horizontal place of the defect on the fabric was detected. In the second study defective image was detected as recorded video. The defective regions were classified by using K-Nearest Neighbor(KNN), Bayesian Network(BN) and Decision Trees(DCT) as an instantaneously. In addition the defect type and location of the defect including its meter on the fabric have been determined.In the first study applications were made on defected images with Fourier analysis, Gabor Filters and Wavelet Transform. It was observed to developed Fourier based image processing method gave better results than other algorithms. On poplin fabric hole, tear, foreign yarn, machine oil, nope, warp and weft freak were detected by the specified image processing methods. On the denim and cachet fabric, the developed image processing algorithms were ineffective to detect warp and weft freak. On the different types of fabrics and defects, %87 clustering success was obtained by application of FCM with using shape and histogram features. Number of the defects were affected the performance of the clustering that is more or less.In the second study, on three different kinds of fabrics having different error on video, instant error detection, classification and localization was performed. For the error classification process, feature extraction process was made by using gray level co-occurrence matrix on instantaneously recorded video. The features were classified by KNN, BN and DCT. For classification process of each type of error six images were used as training data. In the use of KNN % 90 successes on average was obtained. Better results have been achieved by KNN than other methods

    Veri madenciliğinde yüksek boyutlu veriler ile uygulama

    No full text
    VERİ MADENCİLİĞİNDE YÜKSEK BOYUTLU VERİLER İLE UYGULAMA Veri madenciliğinde önemli tekniklerden biri kümeleme analizidir. Kümeleme analizinde, veri içerisindeki grupların önceden hiçbir bilgi olmadan bulunması amaçlanır. Kümeleme analizinde çeşitli yöntemler ve bu yöntemlere bağlı çeşitli algoritmalar bulunmaktadır. Bu tezin amacı, yüksek boyutlu veri kaynaklarının yapısını ve karşılaşılan yüksek boyutluluk problemini incelemek, yüksek boyutlu verilerde boyut indirgeme tekniklerini kullanmak ve boyutu indirgenmiş veriler ile kümeleme yapmaktır. Boyut indirgeme yapılmadan ve boyut indirgenerek K-Means, K-Medoids ve Fuzzy C-Means algoritmaları ile Iris, Diabet, Vehicle, Abalone, Milliyet, BBC yüksek boyutlu veri setleri üzerinde çeşitli testler yapıldı ve algoritmaların performansları saflık, entropi ve ortak bilgi açısından karşılaştırıldı. Boyut indirgeme tekniklerinden PCA, MDS, Isomap, L-Isomap, Laplacian, LTSA, FastMVU, SNE, t-SNE ve LLC kullanılan işlemci, kullanılan bellek, geçen zaman açısından çeşitli veri setlerinde incelenerek karşılaştırıldı. Bu teknikler ile Boyutu indirgenen veriler K-Means, K-Medoids ve Fuzzy C-Means algoritmaları kullanılarak kümeleme yapılmıştır. Kümeleme algoritmalarının deneysel sonuçları açıklanmaktadır. Elde edilen deneysel sonuçlarda boyut indirgeme algoritmaları içerisinde en etkili olanlar Laplacian, FastMVU, ve t-SNE algoritmaları olduğu gözlenmiştir. Boyutu indirgenen veri setlerinde en etkili çalışan kümeleme algoritması FCM olduğu belirlenmiştir. Ayrıca veri setlerinin boyutu indirgendiğinde küme saflığı ve ortak bilgileri artmaktadır. ABSTRACT APPLICATION of HIGH DIMENSIONAL DATA IN DATA MINING Clustering analysis is one of the important technique in data mining. In the clustering analysis, unknown data groups are discovered. There are number of techniques and algorithms in cluster analysis. The aim of this thesis is to investigate the structure of high dimensional data resources and the problems about this issue, to use dimensional reduction techniques in high dimensional data and to cluster these data. Some kinds of tests have been made on the high dimensional data sets such as Iris, Diabet, Vehicle, Abalone, Milliyet, BBC with the help of algorithms as follows; K-Means, K-Medoids and Fuzzy C-Means with and without dimensional reduction process. Then, the performances of algorithms have been compared in terms of purity, entropi and common data. The dimensional reduction techniques such as PCA, MDS, Isomap, L-Isomap, Laplacian, LTSA, FastMVU, SNE, t-SNE and LLC were investigated on some data sets and then compared in terms of processor, using memory and time. After the dimensional reduction process these datas were clustered by using K-Means, K-Medoids and Fuzzy C-Means algorithms. The experimental results of clustering algorithms have been told. From the experimental results, it was observed that, the most efficient algorithms among the dimensional reduction algorithms are Laplacian, FastMVU and t-SNE algorithms. Among the data sets that its’ dimension reduced it was determined that the most efficient working clustering algorithm is FCM algorithm. In addition when the data sets dimension is reduced, its’ purity and common data are increases

    Veri madenciliğinde yüksek boyutlu veriler ile uygulama

    No full text
    ÖZETVERİ MADENCİLİĞİNDE YÜKSEK BOYUTLU VERİLER İLE UYGULAMAVeri madenciliğinde önemli tekniklerden biri kümeleme analizidir. Kümeleme analizinde, veri içerisindeki grupların önceden hiçbir bilgi olmadan bulunması amaçlanır. Kümeleme analizinde çeşitli yöntemler ve bu yöntemlere bağlı çeşitli algoritmalar bulunmaktadır. Bu tezin amacı, yüksek boyutlu veri kaynaklarının yapısını ve karşılaşılan yüksek boyutluluk problemini incelemek, yüksek boyutlu verilerde boyut indirgeme tekniklerini kullanmak ve boyutu indirgenmiş veriler ile kümeleme yapmaktır.Boyut indirgeme yapılmadan ve boyut indirgenerek K-Means, K-Medoids ve Fuzzy C-Means algoritmaları ile Iris, Diabet, Vehicle, Abalone, Milliyet, BBC yüksek boyutlu veri setleri üzerinde çeşitli testler yapıldı ve algoritmaların performansları saflık, entropi ve ortak bilgi açısından karşılaştırıldı. Boyut indirgeme tekniklerinden PCA, MDS, Isomap, L-Isomap, Laplacian, LTSA, FastMVU, SNE, t-SNE ve LLC kullanılan işlemci, kullanılan bellek, geçen zaman açısından çeşitli veri setlerinde incelenerek karşılaştırıldı. Bu teknikler ile Boyutu indirgenen veriler K-Means, K-Medoids ve Fuzzy C-Means algoritmaları kullanılarak kümeleme yapılmıştır. Kümeleme algoritmalarının deneysel sonuçları açıklanmaktadır.Elde edilen deneysel sonuçlarda boyut indirgeme algoritmaları içerisinde en etkili olanlar Laplacian, FastMVU, ve t-SNE algoritmaları olduğu gözlenmiştir. Boyutu indirgenen veri setlerinde en etkili çalışan kümeleme algoritması FCM olduğu belirlenmiştir. Ayrıca veri setlerinin boyutu indirgendiğinde küme saflığı ve ortak bilgileri artmaktadır.ABSTRACTAPPLICATION of HIGH DIMENSIONAL DATA IN DATA MINING Clustering analysis is one of the important technique in data mining. In the clustering analysis, unknown data groups are discovered. There are number of techniques and algorithms in cluster analysis. The aim of this thesis is to investigate the structure of high dimensional data resources and the problems about this issue, to use dimensional reduction techniques in high dimensional data and to cluster these data. Some kinds of tests have been made on the high dimensional data sets such as Iris, Diabet, Vehicle, Abalone, Milliyet, BBC with the help of algorithms as follows; K-Means, K-Medoids and Fuzzy C-Means with and without dimensional reduction process. Then, the performances of algorithms have been compared in terms of purity, entropi and common data.The dimensional reduction techniques such as PCA, MDS, Isomap, L-Isomap, Laplacian, LTSA, FastMVU, SNE, t-SNE and LLC were investigated on some data sets and then compared in terms of processor, using memory and time. After the dimensional reduction process these datas were clustered by using K-Means, K-Medoids and Fuzzy C-Means algorithms. The experimental results of clustering algorithms have been told. From the experimental results, it was observed that, the most efficient algorithms among the dimensional reduction algorithms are Laplacian, FastMVU and t-SNE algorithms. Among the data sets that its’ dimension reduced it was determined that the most efficient working clustering algorithm is FCM algorithm. In addition when the data sets dimension is reduced, its’ purity and common data are increases
    corecore