117 research outputs found

    Development of an Artificial Intelligence Method for the Analysis of Bloodstain Patterns

    Get PDF
    Bloodstain Pattern Analysis (BPA) is a forensic discipline that plays a crucial role in reconstructing the events at a crime scene (Acampora, 2014). The shape, size, distribution, and location of bloodstains can help infer the potential murder weapon, the origin of the attack, and if the body has been moved or relocated from the original crime scene. Commonly, errors in identifying blood spatter evidence arise when the crime scene has large amounts of bloodstains which can yield less information during analysis. This study aims to utilize artificial intelligence (A.I.) algorithms to assist the analyst in the analysis of bloodstain patterns. To date, BPA relies on a manual analysis process; therefore, it is imperative to have forensic analysts who can accurately produce reliable results (Hoelz, 2009). However, human error is unavoidable, and analyst error can result in inaccurate conclusions that can jeopardize casework. The President's Council of Advisors on Science and Technology (PCAST) report on Forensic Science in Criminal Courts: Ensuring Scientific Validity of Feature-Comparison Methods brought to light the shortcomings of many forensic disciplines, including BPA. To improve the field of BPA, automated and computer-assisted methods of analysis are needed. In this study, we used A.I. to estimate the angle of impact from simulated crime scene samples. Our A.I.-assisted approach was determined to be accurate for 78.64% of all data analyzed. This study focused on the analysis of photos taken from a single impact angle as the primary input data. Bloodstain patterns were experimentally constructed using controlled conditions, and a single variable altered at a time

    An Internet of Things and Fuzzy Markup Language Based Approach to Prevent the Risk of Falling Object Accidents in the Execution Phase of Construction Projects

    Get PDF
    The Internet of Things (IoT) paradigm is establishing itself as a technology to improve data acquisition and information management in the construction field. It is consolidating as an emerging technology in all phases of the life cycle of projects and specifically in the execution phase of a construction project. One of the fundamental tasks in this phase is related to Health and Safety Management since the accident rate in this sector is very high compared to other phases or even sectors. For example, one of the most critical risks is falling objects due to the peculiarities of the construction process. Therefore, the integration of both technology and safety expert knowledge in this task is a key issue including ubiquitous computing, real-time decision capacity and expert knowledge management from risks with imprecise data. Starting from this vision, the goal of this paper is to introduce an IoT infrastructure integrated with JFML, an open-source library for Fuzzy Logic Systems according to the IEEE Std 1855-2016, to support imprecise experts’ decision making in facing the risk of falling objects. The system advises the worker of the risk level of accidents in real-time employing a smart wristband. The proposed IoT infrastructure has been tested in three different scenarios involving habitual working situations and characterized by different levels of falling objects risk. As assessed by an expert panel, the proposed system shows suitable results.This research was funded by University of Naples Federico II through the Finanziamento della Ricerca di Ateneo (FRA) 2020 (CUP: E69C20000380005) and has been partially supported by the ”Programa de ayuda para Estancias Breves en Centros de Investigación de Calidad” of the University of Málaga and the research project BIA2016-79270-P, the Spanish Ministry of Science, Innovation and Universities and the European Regional Development Fund-ERDF (Fondo Europeo de Desarrollo Regional-FEDER) under project PGC2018-096156-B-I00 Recuperación y Descripción de Imágenes mediante Lenguaje Natural usando Técnicas de Aprendizaje Profundo y Computación Flexible and the Andalusian Government under Grant P18-RT-2248

    Toward a spectroscopy-based approach for estimating time elapsed since bloodstains deposition : development of a novel framework for blood evidence evaluation

    Get PDF
    Grupą materiałów dowodowych, która na dobre zagościła na salach sądowych, są ślady krwawe stanowiące często główną siłę napędową procesu dochodzeniowego. Wdrożenie do praktyki sądowej genetycznych badań identyfikacyjnych bezsprzecznie stanowiło kamień milowy w rozwoju kryminalistyki, rozpoczynając swoistą „dominację” badań DNA. Okazuje się jednak, że wyniki analiz genetycznych nie zawsze pozwalają udzielić wyczerpującej odpowiedzi na stawiane pytania, a czasowy aspekt utworzenia śladów krwawych niejednokrotnie bywa równie istotny, co przebieg zdarzeń prowadzących do ich powstania. Informacja o czasie uformowania plam krwawych może bowiem wspomóc proces dochodzeniowy w wieloraki sposób. W przypadku ujawnienia śladów krwawych pochodzących od podejrzanego, tak naprawdę dopiero informacja o czasie powstania śladu stanowi dla zleceniodawcy silną przesłankę przemawiającą za udziałem podejrzanego w zdarzeniu. Rezultaty datowania śladów pozwalają więc potwierdzić jego obecność na miejscu zdarzenia w konkretnym czasie, stanowiąc cenniejszy dowód w sprawie aniżeli same wyniki badań genetycznych. Podjęcie próby odpowiedzi na pytanie o czas powstania śladów krwawych jest możliwe dzięki procesom starzeniowym, które prowadzą do zmian właściwości fizykochemicznych badanego materiału. Niestety, wieloletnie próby stworzenia metodyki bezwzględnego datowania krwi nie dały jak dotąd pozytywnego rezultatu, przez co informacja o czasowym aspekcie powstania śladów krwawych wciąż pozostaje poza zasięgiem biegłych. Analiza dotychczasowych badań prowadzi jednak do pewnych wniosków – przyczyna owych niepowodzeń najprawdopodobniej ma swoje źródło w nieodpowiednim podejściu do problemu datowania. Okazuje się bowiem, że zgodnie z powszechnie przyjętą strategią, większość zaproponowanych rozwiązań sprowadzała się do zdefiniowania pewnego mierzalnego parametru, odzwierciedlającego stopień degradacji krwi, a następnie powiązania jego zmian z upływającym czasem (najczęściej za pomocą technik kalibracyjnych). Problem jednak w tym, że proces starzeniowy to nie tylko kwestia czasu. Materiał dowodowy może degradować w różnym tempie w zależności od wielu czynników zewnętrznych – przede wszystkim warunków środowiskowych panujących na miejscu zdarzenia. Tym samym, owe konwencjonalne modele datowania, opracowywane dla próbek degradujących w warunkach laboratoryjnych, okazywały się zawodne podczas prób przeniesienia ich na grunt praktycznych analiz. Rozwiązanie, zaproponowane w ramach nieniejszej rozprawy, stanowi ujęcie zagadnienia datowania jako problemu porównawczego, rozpatrywanego w ramach podejścia korzystającego z ilorazu wiarygodności (LR, ang. likelihood ratio), który uwzględniać będzie wpływ czynników zewnętrznych na proces degradacji krwi. Podstawą owej nowej metodyki szacowania “wieku” śladów krwawych jest ocena podobieństwa pomiędzy stopniem degradacji materiału dowodowego a rozkładem materiałów porównawczych, uzyskanych podczas procesu kontrolowanego starzenia krwi, oddającego – tak dokładnie, jak to tylko możliwe – degradację materiału dowodowego na miejscu zdarzenia. Każda procedura datowania jest więc niejako “szyta na miarę”, dostosowana każdorazowo do zabezpieczonego materiału dowodowego, prowadząc do zminimalizowania wpływu czynników zewnętrznych (jak chociażby warunków środowiskowych) na poprawność procesu datowania. Opracowanie nowej metodyki datowania wymagało rozwiązania dwóch odrębnych zagadnień. W pierwszej części badań, podjęto próbę utworzenia metody analitycznej pozwalającej na charakterystykę stopnia degradacji plam krwawych. Biorąc pod uwagę właściwości fizykochemiczne badanego śladu, wybór spektroskopii ramanowskiej wydawał się dobrze uzasadnioną decyzją, co też zostało potwierdzone przez uzyskane wyniki. Spektroskopia Ramana pozwoliła bowiem na monitorowanie zmian fizykochemicznych, towarzyszących procesom degradacji głównego składnika śladów krwawych – hemoglobiny – w nieinwazyjny i reprezentatywny sposób. Druga część badań polegała na opracowaniu hybrydowych modeli LR służących rozwiązywaniu tzw. problemu porównawczego widm ramanowskich, które charakteryzowały ślady krwawe o nieznanym czasie powstania (potencjalne materiały dowodowe) oraz ślady utworzone w procesie kontrolowanego starzenia (tzw. materiały referencyjne). Wyniki procedury walidacyjnej pozwoliły na wstępne potwierdzenie skuteczności nowo zaproponowanej metodyki datowania śladów krwawych. Najlepsze spośród opracowanych modeli LR dostarczały akceptowalne poziomy odpowiedzi fałszywie pozytywnych i fałszywie negatywnych, które oscylowały odpowiednio wokół 20% oraz 10%. Warunkiem skuteczności procedury było jednak utworzenie materiałów referencyjnych w warunkach środowiskowych jak najbardziej zbliżonych do tych, które panowały podczas degradacji dowodowych śladów krwawych. Wniosek ten nie powinien jednak dziwić – zapewnienie porównywalnej kinetyki procesów starzeniowych materiałów referencyjnych i dowodowych jest w istocie podstawowym wymogiem metodologii opracowanej w ramach nieniejszej rozprawy doktorskiej

    Johnson v. State Clerk\u27s Record Dckt. 42857

    Get PDF
    https://digitalcommons.law.uidaho.edu/idaho_supreme_court_record_briefs/7222/thumbnail.jp

    CGAMES'2009

    Get PDF

    The Dialogue Between Forensic Scientists, Statisticians and Lawyers about Complex Scientific Issues for Court

    Get PDF
    Since DNA analysis became part of forensic science in the mid-1980s, its impact on investigation of crime and at court has been immense. In a few years the technique became the gold standard for evaluative evidence, overtaking some other evidence types, and replacing others completely. Part of this impact was due to formal statistical calculations, replacing subjective opinions, on the weight of evidence provided for the prosecution and defence views. The technology has improved quickly with ever more sensitive tests being introduced; the statistical interpretation of increasingly complex DNA results has not been as swift. The absence of a forum for inter-disciplinary discussion between developers and end users has led to methods being developed by statisticians, with little input from the working forensic scientists. It is forensic scientists who will be using the software, and typically have little opportunity to discuss with lawyers the data impact and presentation for non-scientific audiences such as Judges, magistrates and juries. There is a danger for courts in these interpretations — which are produced by a black box — where the reporting forensic scientist has little input and less understanding. It is time for a dialog between the scientists producing the DNA results, the statisticians developing the calculation methods and software and, the lawyers who present the findings to the court

    An Investigation on the Procedural Rhetoric of Curated Difficulty

    Get PDF
    The discussion of difficulty exists as a prominent topic within the realm of play. In terms of accessibility, the difficulty associated with any form of play becomes rather crucial. In video games, difficulty can both enhance the immersion and interactions between a player and the game; however, difficulty can also act as a barrier to entrance and gatekeep experiences from individuals with disabilities. Developers utilize difficulty as a tool to deliver different forms of narratives and rhetoric to their audience. The field of Ludic Rhetoric observes and studies how rhetoric can be implemented and facilitated within contexts of play and a case study of how developers utilize difficulty to communicate with audiences. Understanding the procedural rhetoric involved in fine-tuning difficulty illuminates the relationship between accessibility and authorial intent. Developers fine-tune difficulty through the curation of alternative mechanics, systems, and experiences. Each of these categories represents adjustable vectors game developers utilize to create accessible experiences. Learning how these vectors adjust difficulty can reveal how other forms of rhetoric can accommodate their respective rhetoric to account for audience, while also maintaining authorial intent
    corecore