23 research outputs found
Carryover negligibility and relevance in bioequivalence studies
The carryover effect is a recurring issue in the pharmaceutical field. It may strongly influence the final outcome of an average bioequivalence study. Testing a null hypothesis of zero carryover is useless: not rejecting it does not guarantee the non-existence of carryover, and rejecting it is not informative of the true degree of carryover and its influence on the validity of the final outcome of the bioequivalence study. We propose a more consistent approach: even if some carryover is present, is it enough to seriously distort the study conclusions or is it negligible? This is the central aim of this paper, which focuses on average bioequivalence studies based on 2×2 crossover designs and on the main problem associated with carryover: type I error inflation. We propose an equivalence testing approach to these questions and suggest reasonable negligibility or relevance limits for carryover. Finally, we illustrate this approach on some real datasets
An equivalence test between features lists, based on the Sorensen-Dice index and the joint frequencies of GO term enrichment
Background: In integrative bioinformatic analyses, it is of great interest to stablish the equivalence between gene or (more in general) feature lists, up to a given level and in terms of their annotations in the Gene Ontology. The aim of this article is to present an equivalence test based on the proportion of GO terms which are declared as enriched in both lists simultaneously. Results: On the basis of these data, the dissimilarity between gene lists is measured by means of the Sorensen-Dice index. We present two flavours of the same test: One of them based on the asymptotic normality of the test statistic and the other based on the bootstrap method. Conclusions: The accuracy of these tests is studied by means of simulation and their possible interest is illustrated by using them over two real datasets: A collection of gene lists related to cancer and a collection of gene lists related to kidney rejection after transplantation
Statistical methods for quality equivalence of topical products. 0.5 mg/g betamethasone ointment as a case-study
This study examines the statistical implications, and their possible implementation, of the "Draft guideline on quality and equivalence of topical products" issued by the European Medicines Agency in 2018, with particular focus on the section devoted to quality equivalence of physical properties. A new confidence interval to conduct the quality equivalence test and a way to cope with the multiplicity of quality parameters are presented and discussed. As an example, the results and the statistical analysis of a study on betamethasone 0.5 mg/g ointment are presented. It is suggested that the equivalence limits proposed in the draft guideline are overly strict: It is as diffcult to declare quality equivalence between two packaging formats of the same reference product as to declare quality equivalence between the reference and the test product
An equivalence approach to the integrative analysis of feature lists
Background Although a few comparison methods based on the biological meaning of gene lists have been developed, the goProfiles approach is one of the few that are being used for that purpose. It consists of projecting lists of genes into predefined levels of the Gene Ontology, in such a way that a multinomial model can be used for estimation and testing. Of particular interest is the fact that it may be used for proving equivalence (in the sense of 'enough similarity') between two lists, instead of proving differences between them, which seems conceptually better suited to the end goal of establishing similarity among gene lists. An equivalence method has been derived that uses a distance-based approach and the confidence interval inclusion principle. Equivalence is declared if the upper limit of a one-sided confidence interval for the distance between two profiles is below a pre-established equivalence limit. Results In this work, this method is extended to establish the equivalence of any number of gene lists. Additionally, an algorithm to obtain the smallest equivalence limit that would allow equivalence between two or more lists to be declared is presented. This algorithm is at the base of an iterative method of graphic visualization to represent the most to least equivalent gene lists. These methods deal adequately with the problem of adjusting for multiple testing. The applicability of these techniques is illustrated in two typical situations: (i) a collection of cancer-related gene lists, suggesting which of them are more reasonable to combine -as claimed by the authors- and (ii) a collection of pathogenesis-based transcript sets, showing which of these are more closely related. The methods developed are available in the goProfiles Bioconductor package. Conclusions The method provides a simple yet powerful and statistically well-grounded way to classify a set of genes or other feature lists by establishing their equivalence at a given equivalence threshold. The classification results can be viewed using standard visualization methods. This may be applied to a variety of problems, from deciding whether a series of datasets generating the lists can be combined to the simplification of groups of lists
On equivalence and bioequivalence testing.
Equivalence testing is the natural approach to many statistical problems. First, its main application, bioequivalence testing, is reviewed. The basic concepts of bioequivalence testing (2×2 crossover designs, TOST, interval inclusion principle, etc.) and its problems (TOST biased character, the carryover problem, etc.) are considered. Next, equivalence testing is discussed more generally. Some applications and methods are reviewed and the relation of equivalence testing and distance-based inference is highlighted. A new distance-based method to determine whether two gene lists are equivalent in terms of their annotations in the Gene Ontology illustrates these ideas. We end with a general discussion and some suggestions for future research
Models matemà tics i de simulació del polimorfisme cromsòmic produït per inversions
La situació actual de la problemà tica de la recombinació, quan es consideren les eficà cies biologiques independents de les freqüències (gèniques, cromosômiques, zigòtiques) i en un ambient, i per tant amb unes eficà cies, constant en l'espai i el temps, és aproximadament la següent: D'una banda els models deterministes rarament posen de manifest cap avantatge selectiu de la recombinaciô, la tendència general és la congelació del genotip. Certs models deterministes mostren que la tendència general serà l'increment progressiu de la freqüència d'un mecanisme que impideixi o dificulti la recombinaciô. Els mateixos models acostumen a portar associat un increment de l'eficà cia mitjana de la població amb un decreixement de les freqüències de recombinaciô. La sensació general que se'n desprèn és que les limitacions a la recombinaciô són un mecanisme d'adaptació rà pida i oportunista en un ambient estable. Altres models, sense discutir la dinà mica del mecanisme regulador de la recombinaciô, tambe troben associada una eficà cia mitjana superior a un lligament més intens. Quan s'analitza el paper del desequilibri en el lligament es posa de manifest que aquest és fonamental, tant a 1'adaptació rà pida com a 1'eliminació de mutacions deletêries, i és propiciat pel lligament intens i per les interaccions epistà tiques. Abans de discutir el quadre general dels models finits convindria fer alguns comentaris crÃtics sobre la validesa dels models deterministes a les situacions reals. Primerament es pot fer la crÃtica evident que sovint les suposicions (grandà ria infinita, aparellament a 1'atzar ...) en les que es basen, i que sempre representen idealitzacions de la realitat, no son và lides; realment això no és cap argument decisiu contra aquests models, l'únic que es pot dir és que quan aproximadament es compleixin tais condicions, el model serà una descripció suficientment và lida de la realitat. A més, sovint es reconeix que un model és una primera aproximació i que es pot anar complicant per fer-lo cada cop més adequat per analitzar la realitat. Una crÃtica més profunda a aquells treballs que es basen en dues menes de criteris: els criteris d'optimització (normalment de maximització de l'eficà cia mitjana), associada amb les posibles "estratègies" (recombinació, no recombinació p.e.) de les poblacions, i els criteris de selecció de grup (és adequat, és beneficiós, etc. per a la població, l'espècie ...). Ambdós tipus de criteris, relacionats entre ells, presenten nombrosos problemes lògics com a explicacions và lides d'allò que s'observa a les poblacions. Wiens (1976) ha resumit els punts essencials d'aquesta qüestió. Quant als criteris d'optimització puntualitza que normalment suposen cert que: 1) el sistema població-ambient és en equilibri, 2) com a mÃnim una component de l'ambient es constantment limitant, 3) no hi ha cap relaxació temporal de les pressions de selecció que afavoreixen l'òptim, 4) l'ambient disponible es constantment i totalment ocupat, 5) l'òptim esestable (p.e. no canvia el fenotip òptim al llarg del temps), 6)l'òptim és realment assolible (p.e. no es té en compte cap possible efecte de la història passada del sistema, com ara un efecte fundador). Respecte als criteris de selecció de grup hi ha seriosos problemes per encaixar-los en la teoria clà ssica de la selecció natural, basada en la selecció a nivell individual. En els models amb població finita no sembla que existeixi tal unitat quant als resultats. Cal remarcar que es tracten dos problemes diferents, d'una banda el manteniment del polimorfisme al·lèlic, i d'una altra la velocitat d'adaptació i d'eliminació d'al·lels deleteris. Ambdós però estan relacionats amb una qüestió més profunda: l'efectivitat de la selecció com a força oposada als efectes de la deriva genètica. L'anà lisi de la velocitat de substitució d'al·lels favorables i de la taxa d'eliminació de llast genètic (Felsenstein (1974), Felsenstein i Yokoyama (1976), Hill i Robertson (1966), etc. ...) coincidiesen a mostrar a la recombinació com un mecanisme afavoridor de la resposta selectiva rà pida, en oposició als resultats dels models deterministes, els quals freqüentment no inclouen la mutació (excepte Eshel(1971)), amb una població inicial en equilibri on ja són presents - tots els tipus (contrà riament al cas finit), es lògic que un mecanisme preservador de la combinació al·lèlica afavorida i ja present a una freqüència inicial d'equilibri, mostri les propietats trobades als models deterministes : es tracta d'incrementar la freqüència del tipus cromosòmic més eficaç i de disminuir la dels altres, no de propiciar la seva aparició ni d'evitar que es perdi a causa de la deriva. Les dades experimentals semblen confirmar l'existència real de mecanismos d'aquest tipus, i l' anà lisi matemà tica realitzada amb models deterministes i aleatoris sembla que confirmi, en un context una mica diferent, aquestes idees. Els mateixos resultats es troben si s'analitza numèricament i mitjançant simulació un model segons un procés, en temps continu i estats finits, de naixement, mort, mutació i recombinació. Per tant, per grandà ries poblacionals finites, es troba que el significat de la recombinació, a més de les condicions de desequilibri inicials , varia segons es consideri el temps fins a l'aparició del primer genotip mutant doble (recombinació favorable) o el temps fins a la fixació d'aquest genotip. (recombinació desfavorable). Apart de la possible artificiositat de les suposicions inicials d'eixos models, ja esmentada i que es discutiran més endavant, quant als models de simulació finits cal dir que usualment son deficients respecte al seu "realisme" a l'hora de representar els processos ge nètics. Concretament, la selecció i la gametogênesi de vegades no coincideixen gaire amb la seva descripció biològica. Tot això es discutirà mes a fons en parlar de les tècniques .de. simulació.. De moment cal tenir-ho present com un possible factor per explicar els resultats, que podrien no ser reflex d'una propietat biològica sinò d'una limitació del model de simulació
Impact of incorrect assumptions on the covariance structure of random effects and/or residuals in nonlinear mixed models for repeated measures data
In this paper we analyse, using Monte Carlo simulation, the possible consequences of incorrect assumptions on the true structure of the random effects covariance matrix and the true correlation pattern of residuals, over the performance of an estimation method for nonlinear mixed models. The procedure under study is the well known linearization method due to Lindstrom and Bates (1990), implemented in the nlme library of S-Plus and R. Its performance is studied in terms of bias, mean square error (MSE), and true coverage of the associated asymptotic confidence intervals. Ignoring other criteria like the convenience of avoiding over parameterised models, it seems worst to erroneously assume some structure than do not assume any structure when this would be adequate
On the consequences of misspecifing assumptions concerning residuals distribution in a repeated measures and nonlinear mixed modelling context
In this paper we describe the results of a simulation study performed to elucidate the robustness of the Lindstrom and Bates (1990) approximation method under non-normality of the residuals, under different situations. Concerning the fixed effects, the observed coverage probabilities and the true bias and mean square error values, show that some aspects of this inferential approach are not completely reliable. When the true distribution of the residuals is asymmetrical, the true coverage is markedly lower than the nominal one. The best results are obtained for the skew normal distribution, and not for the normal distribution. On the other hand, the results are partially reversed concerning the random effects. Soybean genotypes data are used to illustrate the methods and to motivate the simulation scenario
On the consequences of misspecifing assumptions concerning residuals distribution in a repeated measures and nonlinear mixed modelling context
In this paper we describe the results of a simulation study performed to elucidate the robustness of the Lindstrom and Bates (1990) approximation method under non-normality of the residuals, under different situations. Concerning the fixed effects, the observed coverage probabilities and the true bias and mean square error values, show that some aspects of this inferential approach are not completely reliable. When the true distribution of the residuals is asymmetrical, the true coverage is markedly lower than the nominal one. The best results are obtained for the skew normal distribution, and not for the normal distribution. On the other hand, the results are partially reversed concerning the random effects. Soybean genotypes data are used to illustrate the methods and to motivate the simulation scenario
A measure of stability as a criterion for the verification and analysis of simulation models
The aim of this study is to define a new statistic, PVL, based on the relative distance between the likelihood associated with the simulation replications and the likelihood of the conceptual model. Our results coming from several simulation experiments of a clinical trial show that the PVL statistic range can be a good measure of stability to establish when a computational model verifies the underlying conceptual model. PVL improves also the analysis of simulation replications because only one statistic is associated with all the simulation replications. As well it presents several verification scenarios, obtained by altering the simulation model, that show the usefulness of PVL. Further simulation experiments suggest that a 0 to 20 % range may define adequate limits for the verification problem, if considered from the viewpoint of an equivalence test