3 research outputs found

    Numerical aspects of business court specialization: A brazilian case study

    Get PDF
    Jurisdiction specialization is a topic of interest in the administration the justice system. Pros and cons have been vastly discussed, but few papers discuss the pratical details connected to the application of this policy. In this study, we discuss the creation of business courts in the County of São Paulo Brazil, and introduce innovating data analysis methodologies for solving pratical problems. In São Paulo, new courts, specialized or not, must follow two main criteria. New courts must have a minimum number of lawsuits per year and must have some estimate of the future worka load. In the performed analyses, we found evidence that a business lawsuit requires almost twice the amount of effort of a common lawsuit. By correcting the volume of lawsuits, based on a matter-treatment model, we arrived at the conclusion that two business courts can handle the existing demand adequately. Also, we were able to develop a robust methodology to verify if and how business courts should be created

    Influence diagrams: application in Jurimetrics

    No full text
    Esse trabalho contribui para o desenvolvimento da jurimetria, uma disciplina do direito que utiliza a estatística na elucidação de fenômenos jurídicos. Motivados pela flexibilidade e facilidade de interpretação, desenvolvemos um diagrama de influência aplicado a uma base de dados de processos cíveis. A base utilizada foi obtida diretamente da web, utilizando-se técnicas de raspagem de dados e análise de textos. Tanto a extração dos dados quanto a modelagem foram incorporados em pacotes do R, possibilitando novas pesquisas com diferentes diagramas e bases de dados. Nosso modelo final foi utilizado para predizer as decisões dos processos de acordo com diferentes níveis de informação, com resultados equivalentes a modelos de florestas aleatórias. O modelo também foi utilizado para decidir se valeria mais à pena entrar com um processo na Justiça Comum ou nos Juizados Especiais Cíveis, considerando diferentes cenários de conflitos com empresas.This work makes some contribution to jurimetrics, a field of study which uses statistics to elucidade legal phenomena. We develop an flexible and easy to interpret influence diagram applied to civil justice litigation. All our data were obtained on the web, through web scraping and text mining techniques. We also develop some R packages to get data into R and model hybrid Bayesian networks with missing data using Bayesian framework. Our final model was compared against random forests model, giving similar predictive power. Finally, we use decision theory to decide whether it would be better to litigate on small claims justice or standard courts, considering several reality based contexts

    Solving Captchas: using web scraping and weak supervised learning

    No full text
    Captcha (Completely Automated Public Turing tests to tell Computers and Humans Apart), é um desafio utilizado para identificar se o acesso à uma página na internet é realizada por uma pessoa ou uma máquina. O desafio é projetado para ser fácil de resolver por humanos, mas difícil de resolver por máquinas. A utilização de Captchas em serviços públicos pode ser prejudicial à população, limitando o acesso a dados e incentivando empresas a contratarem serviços que utilizam mão de obra humana para resolução dos Captchas. Este trabalho tem como foco os Captchas com textos (números e letras) em imagens. Já existem soluções para resolver Captchas deste tipo utilizando aprendizado de máquinas, sendo as redes neurais profundas os modelos com melhor desempenho. No entanto, esses modelos precisam de grandes bases de dados anotadas ou de procedimentos de ajuste intrincados e pouco acessíveis. Neste trabalho, é proposto um método inovador, chamado Web Automatic Weak Learning (WAWL), que alia técnicas de raspagem de dados e aprendizado de máquinas com rótulos parciais, utilizando dados obtidos automaticamente da internet para acelerar o ajuste dos modelos. O método é agnóstico à arquitetura utilizada para o modelo, sendo necessário realizar apenas uma adaptação na função de perda. O método apresenta resultados significativos, aumentando a acurácia inicial de modelos fracos em mais de 30\\% nos mais de 10 Captchas estudados, sem a necessidade de realizar uma nova rodada de anotação manual. Adicionalmente, um novo pacote computacional de uso livre foi desenvolvido para resolver Captchas e disponibilizar os resultados publicamente. Espera-se que o trabalho possa reduzir o incentivo econômico de contratar serviços que utilizam mão de obra humana para resolver Captchas.Captchas, or Completely Automated Public Turing tests to tell Computers and Humans Apart, are challenges designed to differentiate between human and machine access to web pages. While Captchas are intended to be easy for humans to solve, they can pose a challenge for machines. Their use in public services can limit access to public data and incentivize companies to hire services that use human labor to solve them. In this work, we propose a new method called Web Automatic Weak Learning (WAWL), which combines web scraping and machine learning with partial labels techniques to quickly and accurately fit models to solve Captchas with text in images. Our method is agnostic to the model architecture and only requires a small adaptation of the loss function. By increasing the accuracy of weak initial models by more than 30% on various Captchas studied, our method can reduce the economic incentive to hire services that use human labor to solve Captchas. We have also developed a computational package to easily solve Captchas and make our results available to the developer community
    corecore