12 research outputs found

    Interval Estimation of the Dependence Parameter in Bivariate Clayton Copulas

    Get PDF
    In various disciplines, discerning dependencies between variables remains a crucial undertaking. While correlation measures like Pearson, Spearman, and Kendall provide insight into the degree of two-variable relationships, they fall short of revealing the intricate structure of dependencies between these variables. The Clayton copula, known for its flexible attributes, becomes instrumental in unveiling this dependency structure. This paper aims to advance knowledge by providing an explicit formula for creating Wald confidence intervals (CIs) for the dependence parameter in a bivariate Clayton copula, along with a mathematical derivation of the observed Fisher information. In comparison, we also propose likelihood CIs, whose performance we examine in simulation studies using both coverage probability and average length of CIs as performance indicators. Our findings reveal that in scenarios characterized by small sample sizes, likelihood-based CIs, despite their slightly more complex computational requirements, outperform Wald CIs, yielding a coverage probability more proximate to the nominal confidence level of 0.95. However, in situations involving large samples and a dependence parameter distant from zero, both Wald and likelihood-based CIs demonstrate comparable utility. For real-world data applications, the daily closing prices of two cryptocurrencies are analyzed using the proposed CIs. Doi: 10.28991/ESJ-2023-07-05-02 Full Text: PD

    Applying the Median and Genetic Algorithm to Construct D- and G-Optimal Robust Designs Against Missing Data

    Get PDF
    In practice, there is a circumstance in which some observed values in well-planned experiments are missing. In this research, small optimal robust response surface designs against missing data were constructed using a Genetic Algorithm (GA) with a minimum (Min) of alphabetic criteria such as D- and G-optimality for a second-order model. The resulting designs from GA were compared to designs generated from Exchange Algorithm (EA). Unlike EA, GA uses a set of continuous design points as candidate points, so GA produces more optimal and robust designs. For D-optimality, the results showed that the values for D-efficiency, Min D, Med D, and leave-1-out D criteria of designs generated by GA were all greater than or equal to those from EA. Calculated by EA and GA methods, all G-related criteria values were less than 0.6 apart, except in the case of N = 7. Furthermore, a median of alphabetic optimality criteria has been proposed for use as a criterion to construct robust designs. This approach compromises between optimality criteria such as usual D- and G-optimality and pessimisticoriented criteria such as Min D- and Min G-optimality. For general missing points, the Med D-optimal designs would be superior to the Min D-optimal designs, especially for very small designs. The Med G-optimal designs are far better than the G-optimal designs, although the sample size is increased

    ประสิทธิภาพของช่วงความเชื่อมั่นสำหรับค่าเฉลี่ยของการแจกแจงปัวซงภายใต้ข้อมูลจากกระบวนการทำใหม่Performance of Confidence Intervals for Population Mean of Poisson Distribution with Data from the Renewal Process

    No full text
    ข้อมูลเชิงนับพบได้ในหลากหลายสาขาวิชาตั้งแต่การแพทย์จนถึงสังคมศาสตร์ ในการประมาณค่าแบบช่วงสำหรับค่าเฉลี่ยนักวิจัยมีแนวโน้มที่จะสมมติให้ข้อมูลมีการแจกแจงปัวซงซึ่งมีความแปรปรวนเท่ากับค่าเฉลี่ยและระยะเวลาระหว่างเหตุการณ์มีการแจกแจงแบบเลขชี้กำลังเหตุผลที่เป็นไปได้ คือการคำนวณช่วงความเชื่อมั่นสำหรับค่าเฉลี่ยนั้นง่ายและพบได้เกือบทุกโปรแกรมทางสถิติ อย่างไรก็ตาม หากข้อมูลเชิงนับนั้นมาจากกระบวนการทำใหม่แล้ว ระยะเวลาระหว่างเหตุการณ์ของข้อมูลเชิงนับอาจมีการแจกแจงแบบอื่นๆ ได้ ในงานวิจัยนี้จึงสนใจที่จะศึกษาประสิทธิภาพของช่วงความเชื่อมั่นที่ถูกสร้างขึ้นสำหรับค่าเฉลี่ยของการแจกแจงปัวซงทั้ง 7 วิธี แต่ให้ระยะเวลาระหว่างเหตุการณ์มีการแจกแจงแกมมาหรือไวบูลซึ่งจะให้ข้อมูลจำนวนนับที่มีความแปรปรวนมากกว่าหรือน้อยกว่าค่าเฉลี่ย และยังศึกษาในกรณีที่จำนวนนับมาจากตัวแบบทวินามเชิงลบ ผลการศึกษาโดยสรุป พบว่าค่าของดัชนีวัดการกระจาย (ID) จะสามารถบอกประสิทธิภาพของช่วงความเชื่อมั่นล่วงหน้าได้โดยหาก ID มีค่าไม่เกิน 1 ช่วงความเชื่อมั่นทุกวิธีจะให้ค่าความน่าจะเป็นคุ้มรวมไม่ต่ำกว่าระดับความเชื่อมั่นที่กำหนดซึ่ง เท่ากับ 0.95 ในทางกลับกัน เมื่อ ID มีค่ามากกว่า 1 ช่วงความเชื่อมั่นทั้งหมดให้ค่าความน่าจะเป็นคุ้มรวมต่ำกว่าระดับความเชื่อมั่นที่ต้องการ นอกจากนี้ การเพิ่มขึ้นของขนาดตัวอย่างส่งผลต่อค่าความน่าจะเป็นคุ้มรวมเพียงเล็กน้อยCount data are commonly found in a wide range of disciplines from medical to social sciences. Regarding an interval estimation for a mean, researchers tend to assume that count data have a Poisson distribution, in which the mean and variance are equal and the interarrival time has an Exponential distribution. A plausible explanation is that the confidence interval for the Poisson mean is simpler to compute and readily found in virtually all statistical programs. However, when count data are generated from a renewal process, the interarrival time of count data can possess any distribution. This paper, therefore, aims to study the performance of seven confidence intervals constructed for the Poisson mean, provided interarrival time is set to be Gamma or Weibull distribution. Because of the given distributions, variance of count data shows to be either greater or smaller than the average. Count data generated from a negative Binomial model is also investigated. The findings show that the Index of Dispersion (ID) can be used to predict the performance of the confidence intervals. If ID is less than or equal to one, all confidence intervals produce the coverage probabilities greater than or equal to the desired confidence level (0.95). On the contrary, if ID is greater than one, the resulting coverage probabilities are lower than the desired confidence level. Moreover, an increase in the sample size is found to have a marginal effect on the coverage probability

    ช่วงความเชื่อมั่นแบบภาวะน่าจะเป็นโพรไฟล์สำหรับพารามิเตอร์ของการแจกแจงปัวซงในการแจกแจงปัวซงค่าศูนย์เฟ้อProfile-Likelihood Based Confidence Intervals for the Poisson Parameter of Zero-inflated Poisson Distribution

    No full text
    ข้อมูลจำนวนนับถูกพบได้ทั่วไปในหลายสถานการณ์ และมักนิยมใช้การแจกแจงปัวซงในการอธิบายการเกิดเหตุการณ์ที่สนใจ แต่ในบางเหตุการณ์ ค่าสังเกตศูนย์เกิดขึ้นเกินกว่าที่จะถูกพิจารณาว่ามีการแจกแจงปัวซงตามปกติได้ หนึ่งในการแจกแจงความน่าจะเป็นที่นิยมมากที่สุดที่ถูกประยุกต์ใช้กับข้อมูลที่มีลักษณะดังกล่าว คือ การแจกแจงปัวซงค่าศูนย์เฟ้อ (ZIP) ในการทบทวนวรรณกรรม งานวิจัยส่วนใหญ่เน้นไปที่พารามิเตอร์ของการแจกแจงแบร์นูลลีซึ่งเป็นส่วนประกอบหนึ่งของ ZIP ในงานวิจัยนี้จึงได้เสนอ การประมาณค่าแบบช่วงของพารามิเตอร์ของการแจกแจงปัวซงใน ZIP เมื่อพารามิเตอร์ของการแจกแจงแบร์นูลลีไม่ทราบค่า โดยใช้ฟังก์ชันภาวะน่าจะเป็นโพรไฟล์กำจัดพารามิเตอร์รบกวน โดยการศึกษาจะแบ่งออกเป็น การพิสูจน์ทางคณิตศาสตร์ และการศึกษาเชิงจำลอง การวัดประสิทธิภาพของช่วงจะพิจารณาจากค่าความน่าจะเป็นคุ้มรวม (CP) และความยาวเฉลี่ย (AL) ของช่วงโดยวิธีมอนติคาร์โล ผลการศึกษาพบว่า โดยภาพรวม ช่วงที่เสนอขึ้นให้ค่า CP ใกล้เคียงกับสัมประสิทธิ์ความเชื่อมั่นที่ต้องการ และเมื่อค่าที่แท้จริงของพารามิเตอร์ของการแจกแจงปัวซงมีค่าเพิ่มมากขึ้น ช่วงที่นำเสนอมีประสิทธิภาพดีถึงแม้ตัวอย่างมีขนาดเล็กCount data are commonly encountered in various real-life situations and researchers usually employ the Poisson distribution to elucidate such interesting events. Nevertheless, some occurrences possess too zeros to be reflected as a regular Poisson distribution. One of the most widely used probability distributions has been applied to data with excessive zeros is the Zero-inflated Poisson distribution (ZIP). In literature reviews, many devoted studies to the Bernoulli parameter, one component of the ZIP, and thus in this paper an interval estimation is proposed for the Poisson parameter in ZIP when the Bernoulli parameter is assumed to be unknown. The nuisance parameter is eliminated by a profile likelihood approach. The studies consist of mathematical proofs and simulations. The performance of proposed intervals is evaluated via the Coverage Probability (CP) and Average Length (AL) of confidence intervals, which were estimated by Monte-carlo methods. The results reveal that overall, the proposed interval produces the CP close to the desirable confidence coefficient. When the parameter of Poisson distribution becomes larger, the performance of profile likelihood-based confidence intervals is satisfied even though the sample is small

    ช่วงความเชื่อมั่นแบบภาวะน่าจะเป็นโพรไฟล์สำหรับพารามิเตอร์ของการแจกแจงเรขาคณิตในการแจกแจงเรขาคณิตค่าศูนย์เฟ้อProfile-likelihood Based Confidence Intervals for the Geometric Parameter of the Zero-inflated Geometric Distribution

    No full text
    ในการประยุกต์ใช้เครื่องมือทางสถิติกับข้อมูลเชิงนับ บางครั้งค่าสังเกตศูนย์มีความถี่มากกว่าที่ควรจะเป็นสำหรับการแจกแจงที่ใช้ในการศึกษา การแจกแจงเรขาคณิตค่าศูนย์เฟ้อ (ZIG) เป็นอีกหนึ่งการแจกแจงที่นิยมที่ใช้อธิบายข้อมูลที่มีค่าศูนย์มากกว่าปกติ ในงานวิจัยนี้ ได้เสนอช่วงความเชื่อมั่นแบบภาวะน่าจะเป็นโพรไฟล์สำหรับพารามิเตอร์ของการแจกแจงเรขาคณิตใน ZIG โดยศึกษาในเชิงทฤษฎีและเชิงจำลอง เงื่อนไขสำหรับการหาขอบเขตล่างและบนของช่วงความเชื่อมั่นได้ถูกนำเสนอรวมถึงอสมการที่ใช้หาช่วงความเชื่อมั่น ผลจากการจำลองพบว่า ช่วงแบบโพรไฟล์ที่นำเสนอนี้ให้ความน่าจะเป็นคุ้มรวม (CP) ใกล้เคียงกับสัมประสิทธิ์ความเชื่อมั่นที่กำหนดในหลายกรณีที่ศึกษา และความยาวของช่วงโดยเฉลี่ยลดลงเมื่อขนาดตัวอย่างเพิ่มขึ้น ในบางกรณีที่มีตัวอย่างขนาดเล็ก ค่า CP ยังคงใกล้เคียงกับสัมประสิทธิ์ความเชื่อมั่นที่ต้องการFor applying statistical tools to discrete data, the frequency of zero values is sometimes greater than that of the distribution used for studies. Zero-inflated Geometric distribution (ZIG) is one of most commonly used distributions to explain such excessive zero situations. In this study, the profile-likelihood based confidence interval for the geometric parameter is proposed. Both theoretical and simulation studies are conducted. The conditions allowing us to obtain the lower and upper bounds of the interval are given as well as the inequality producing the interval. From the simulation study, the results suggest that profile confidence intervals yield the Coverage Probability (CP) near the given confidence coefficient in many cases of our study. The average length of the intervals decreases as the sample size increases. For some cases with small sample sizes, the CP is still close to the desirable confidence coefficient

    Model-robust G-optimal Designs in the Presence of Block Effects

    Get PDF
    Due to the uncertainty of possible reduced models prior to data collection, this paper considered using experimental designs that are robust across the set of potential models. In this study, blocking effects were combined into all possible models which were obtained from weak heredity principle (WH). The objective of this article was to propose the geometric mean of G-optimalities as a new alternative for finding robust response surface designs against model misspecification. The proposed criterion is so-called a weighted G-optimality criterion (Gw). The genetic algorithm (GA) was employed to optimize the weighted G-optimality criterion for finding designs. Robust designs having 2 and 3 design variables in hypercube were generated with an appropriate number of design points in each blocks and the number of blocks in this study are 2, 3, and 4. The scheme for weighting the criteria was to give more weight to a model with a larger number of parameters. The resulting weighted G-optimal designs have higher G-efficiencies compared to those of G-optimal designs if a true model is the first-order or interaction models. The G-efficiency of a weighted G-optimal design is slightly less than that of a G-optimal design even when the true model is a second-order model. Furthermore, design points identified from the GA are also presented, which would be very useful in practice for those intending to implement an experimental design for data collection
    corecore