12种率的合并方法及结果一致性的比较

医学流行病学的研究经常涉及到发生率、发病率、治愈率等各类率的信息,用以反映某种疾病或者结局事件的人群流行程度或人群发生风险。不同的研究由于随机误差及系统误差的影响会导致获得的率不尽相同。许多研究者试图通过合并的方法估算这些“均值”的“加权均值”极其分布,而获得更具代表性的率的信息统计量,简单来说就是率的Meta分析。
普通的率(如prevalance = 0.5)的合并无需做特殊处理即可获得较为准确的结果,但在实际合并过程中,统计学家们发现率的合并存在两个问题。第一个问题是率的置信区间问题,率由于其天然的性质,致使其取值范围受到限制,即其取值必须在0-1之间。使用标准的合并方法经常会导致一个严重的反事实缺陷:合并后的率的置信区间超过1或者小于0。第二个问题是极端值的合并。当率非常接近于1或者非常接近于0的时候,其置信区间就不是对称的,基于大数定理的正态分布假设也很难成立,这种情况下使用经典合并方法经常会得出不合乎预期的结果。因此,率的任何一种合并方法都要考虑这两个问题。而解决这两个问题共同的方法就是:转换。
常用的转换为对数转换(log),转换(arcsine),和Freeman-Tukey双余弦转换。当然还有其他各种转换方法,例如logit转换、DAS转换等。当前使用最多的方法是Freeman-Tukey转换,这个方法目前也是统计性能最好的方法之一。但它仍然存在2个严重缺陷:1)众所周知函数是波浪型的,并非单调函数。这意味着在将arcsine p进行还原(back-transformation)的时候,可能出现置信区间没有包含效应量的情况。2)经典的还原转换是根据Miller’s的方法,即用最大的那篇研究的样本量通过一个复杂的公式去实现还原转换,但这种方法会导致权重分配不合理的问题,会出现率和置信区间均为0的现象(prevance = 0, 95%CI: 0, 0)。而log转换只能解决分布问题,不能解决置信区间边界问题。这使得研究人员在不同方法的选择上困难重重。那到底选择哪些方法更好?
为了回答这个问题,Lin教授开展了一项研究比较当前12种率的合并方法在不同情境下的性能。该研究通过使用43644个Cochrane meta分析数据(将干预类数据拆分,试验组和对照组均可视为单独的率的数据),分别使用这12种方法重新对这4万多组率的数据进行合并(均使用限制性极大似然估计进行参数估计),比较计算失败率、不同方法与对照方法结果的绝对差值、相对改变。并使用Spearman秩相关系数探讨不同方法下结果之间的相关性,Bland-Altman方法比较不同方法结果之间的一致性。考虑到极端取值的合并问题,该研究将这些数据按照率的大小进行分层,特别比较了率接近于或等于1和率接近或等于于0的情况下的合并。以下为研究结果。
图1:不同方法在不同样本量情况下计算失败的比例。

图2:不同方法与广义线性混合模型结果的相关性分析

3:不同方法结果之间的一致性分析(Bland-Altman)

图4:不同方法结果的倍数关系变化

最终结果发现,整体上这些方法获得的结果均较为接近,相关性和一致性均较高。但在率非常高或非常低的两种极端情况下,不同方法获得的结果可能不一致,因此此种情况下推荐使用不同方法进行敏感性分析。整体上基于one-stage的广义线性混合模型及基于two-stage的Freeman-Tukey双余弦转换法仍然是当前统计性能最好的方法。
meta分析

聊一聊变量筛选

2021-10-14 15:42:54

meta分析

如何使用REMR模型建立疫苗的有效性随注射时间的剂量-反应关系?

2021-10-14 15:43:15

声明 本网站部分文章源于互联网,出于传递更多信息和学习之目的转载,并不保证内容正确或赞同其观点。
如转载稿涉及失效、版权等问题,请立即联系管理员;我们会予以修改、删除相关文章,请留言反馈
Notice: When your legal rights are being violated, please send an email to: sci666net@qq.com.
0 条回复 A文章作者 M管理员
    暂无讨论,说说你的看法吧
个人中心
购物车
优惠劵
今日签到
有新私信 私信列表
搜索