发表在第21卷11号(2019): 11月

本文的预印本(早期版本)可在https://preprints.www.mybigtv.com/preprint/16607,首次出版
释放人工智能和大数据在医学中的力量

释放人工智能和大数据在医学中的力量

释放人工智能和大数据在医学中的力量

的观点

1日内瓦大学医院医学信息科学部,日内瓦,瑞士

2日内瓦大学放射学和医学信息学系,瑞士日内瓦

通讯作者:

克里斯蒂安·洛维斯,医学博士,公共卫生硕士,FACMI

医学信息科学部

日内瓦大学附属医院

Gabrielle Perret Gentil 4

1205年,日内瓦

瑞士

电话:41 22 37 26201

电子邮件:Christian.Lovis@hcuge.ch


数据驱动的科学及其在机器学习和更广泛的人工智能领域的必然结果,有可能推动医学领域的重大变革。然而,医学不同于其他任何一门科学:它与法律、伦理、监管、经济和社会依赖的庞大而广泛的网络紧密相连。因此,在处理信息及其进一步处理和交联以支持决策和预测系统方面的科学和技术进步必须伴随着全球环境的平行变化,包括公民和社会在内的众多利益相关者。然而,乍一看是阻碍数据科学发展的障碍和机制,必须被视为一项重要的资产。只有在全球范围内采用,才能将大数据和人工智能的潜力转化为处理健康和医疗的有效突破。这需要科学和社会、科学家和公民共同进步。

中国医学与互联网杂志,2019;21(11):16607

doi: 10.2196/16607

关键字



大多数关于人工智能(AI)研究、创新和应用的日常新闻和最近发表的科学论文都提到了所谓的机器学习算法——使用大量数据和各种方法来寻找模式、支持决策、做出预测,或者在深度学习部分,自我识别数据中的重要特征。然而,人工智能是一个难以理解的复杂概念,大多数人对它到底是什么知之甚少。人工智能于1956年作为一门学科成立,尽管它很年轻,但已经有了丰富的历史[12]。在60多年的探索和进步中,人工智能已经成为一个涉及多学科方法的大型研究和发展领域,以应对许多挑战,从理论框架、方法和工具到实际实施、风险分析和影响措施。人工智能的定义是一个移动的目标,随着时间的推移随着领域的发展而变化。从早期开始,人工智能领域已经允许开发许多支持决策支持和预测的技术,因为它通常是由人类做出的。早在1958年,人们就期望感知器能够“走路、说话、看、写、自我复制,并意识到自己的存在”,这导致了神经网络和符号推理方法之间的巨大科学争议[3.]。人工智能研究的前景包括知识表示和工程;基于规则和符号推理;时间推理和规划;感觉和知觉;学习;进化的,新兴的,社会行为;以及移动和操纵物体的能力,最重要的是4-具有自主特征提取的深度机器学习。这是本文的观点,然而,最近有一种趋势将人工智能限制在后者,即自主深度机器学习。作为广阔景观的结果,该领域通过哲学,数学,信息科学,计算机科学,心理学,人类学,社会科学,语言学和许多其他学科吸引了大量的人。对于一些专家和有远见的人,如Ray Kurzweil,深度机器学习将允许建立一个人工通用智能,能够自主发展,并有能力理解或学习人类可以完成的任何智力任务,甚至远远超出人类智能的极限。5],但大多数专家都认为,尽管最近在量子计算方面取得了潜在的重要进展,但仍有一些重大的缺失,而且距离实现这一目标还有很长的路要走[6]。欧盟委员会最近发表了一份由人工智能高级专家组成员撰写的白皮书,在几页纸中概述了人工智能是什么、它的主要能力、适用的期望和所涉及的学科[7]。

就整个人工智能领域而言,有必要强调的是,人工智能如今已经广泛应用于医学领域。基于知识工程和基于规则系统的决策支持在计算机供应商订单录入系统中得到了广泛的应用。在起搏器或除颤器中实现了先进的信号处理以做出决定,在具有人机界面的耳蜗植入物中实现了先进的信号处理,在心电图中实现了信号分析和自动诊断等。

人工智能领域本身就很有抱负,有望为医学做出重大贡献,从研究到以公民为中心的健康。机器学习和深度学习引领了人工智能领域最近的重大突破,比如声音(语音和音乐)识别、图像(面部、放射学、病理学、皮肤病学等)识别以及游戏领域。最近,图像识别几乎达到了一个成熟的水平,通过它可以被人工智能领域的非专家使用和开发[89]。然而,在过去的几年里,围绕人工智能的炒作已经建立了很高的期望和同样高度的恐惧。在商业市场上广泛出现的基于自主深度学习的系统仍然很少。

AI的世界大致可以概括为三个顺序叠加的行为:

第一幕:人类教机器处理数据和信息。

第二幕:人类向机器传授专业知识。

第三幕:人类教机器独立学习。


当涉及到医学时,人工智能领域有许多挑战需要解决。其中大多数并非仅限于医药和卫生领域,但它们的加入使这些目标的实现难度大大增加。

贝叶斯的陷阱

一般来说,医学和健康决定因素的特点通常是它们的基本贝叶斯性质。在贝叶斯概率方法中,需要一个先验概率来评估预测的强度。

大多数医学上用于建立诊断的方法,尤其是但不是唯一的方法,都属于贝叶斯方法。例如,如果一个人发烧,那是流感的概率是多少?如果一个人的血糖测量值很高,那么他患糖尿病的可能性有多大?为了说明贝叶斯陷阱,让我们举一个简单的例子——验孕棒。这是一个简单的测试;它可以是正的,也可以是负的。让我们想象一下,我们使用一个经典的测试,它有99%的灵敏度和95%的特异性。如果对100个人进行100次测试,5次结果为阳性,问题是,知道其中有多少人是孕妇。这个问题被定义为确定阳性测试的阳性预测值,它给出了阳性测试真正表明测试所测试的因素存在的概率。要回答这个问题,我们需要知道被测试人群中怀孕的先验概率。 To understand this, imagine that 100% men were tested; in this case, none of the 5 positive tests would correspond to a pregnant woman. Similarly, if all persons tested are pregnant woman, then all 5 positive tests would correspond to pregnant women. If the prior probability is around 1%, then applying the Bayesian rules returns that the probability to be pregnant when a test is reported positive is about 17%. This means that about 4 of 5 tests are false positive. At the other end, if the prior probability is around 20% (ie, a woman with several factors suggesting a potential pregnancy), the probability of a positive test to be a true positive is above 80%. Thus, less than one test out of five is a false-positive. The example shows the major consequences of the prior probability in Bayesian situations.

这些都是人工智能的后果。这些模型必须考虑到它们所使用的总体的先验概率。即使在文献中报告结果时,也应更好地理解这一点,通常限于特异性和敏感性。另一个结果只有在几个集中的、近乎完美的系统在复杂的情况下一起使用时才会显现出来。例如,如果有许多系统,每个系统都有自己的假阳性率,那么最终可能会得到所有假阳性率之和的合并系统。这在CPOE的决策支持系统中得到了很好的证明,其假阳性警报率非常高,特别是在接受复杂药物治疗的患者中[1011]。

监管迷宫

目前医学中使用的大多数诊断或治疗手段都必须经过复杂的监管框架才能获得市场批准。监管机构的决策大多基于安全性、证据和附加值。此外,卫生机构经常根据质量调整生命年和疾病负担等各个方面,通过使用残疾调整生命年等指标,使用医学经济学评估[12-14]。因此,这些决定具有经济和法律后果,包括问责制。讨论了监管机构的作用,特别是围绕正在进入市场的主题,例如图像识别[15]。例如,联邦药物管理局(Federal Drug Administration,简称fda)发起了一项关于“作为医疗设备的软件中的人工智能和机器学习”的呼吁[16]。这是一个重要的方面,因为监管机构的支持是建立信任的重要资产,可以让大多数护理专业人员使用医疗工具,也可以让公司投资于面向市场的强大产品。然而,这要求我们在不阻碍创新的情况下,制定明确的监管框架、适当的评估流程和基准工具。17]。

教育与实践差距

医学是一门拥有众多工具和设备的科学,从听诊器到手术刀,从显微镜到扫描仪,从分数到指南等等。大多数这些工具和设备都需要接受教育,有时还需要对使用它们的护理专业人员进行非常具体的认证过程,更不用说良好的体验了。软件、算法和其他决策支持系统也应该如此。然而,事实并非如此。使用软件和理解与计算机化病人记录同样重要的系统的教育往往很少。当涉及到大数据和人工智能时,这方面的教育更糟糕,通常是不存在的。只有很少的医学院向未来的卫生专业人员教授人工智能的使用。人工智能应该成为世界上所有医学院的必修课程,并作为优先事项。专家们提出这个问题已经有20年了,但直到最近才真正受到关注。18-22]。5-10年后,当现在的年轻学生开始他们的临床活动时,基于数据科学的机器学习将嵌入到许多活动、设备和软件中,它的使用、误用和过度使用以及对患者的后果和责任将取决于用户如何掌握它。23]。

数据质量交叉

当谈到大数据和分析时,数据质量是一个反复出现的话题。大数据时代的特征之一是,数据的使用目的往往与数据获取的动机不同。这与传统的医学假设-演绎科学方法有显著区别,在传统的医学假设-演绎科学方法中,假设导致方法设计,方法设计本身将导致特定的数据获取。在大数据时代,数据生成过程的主要目标往往完全独立于数据的可能使用。值得强调的是,长期临床队列和长期生物库面临着类似的挑战。为生物银行设计长期队列、建立元数据框架和标准操作程序是重要的挑战,因为他们必须在最初设计后的几年内预测使用情况。

这些问题导致了相应的文献解决数据质量和临床数据的二次使用问题。然而,这方面的大部分工作都试图描述能够评估数据“内在”或“绝对”质量的维度[24-28]。另一种方法可能是采用“适合目的”的方法,这种方法只考虑数据的定量和描述性属性,允许进一步处理。任何数据集的“定性”属性只能结合特定的二次使用来评估。这意味着相同的数据集将适合回答一些科学问题,而不适合回答其他问题。数据本身并不“好”或“坏”;当在特定的上下文中使用时,它们是“好”或“坏”的:“适合目的”评估。这是FAIR数据倡议的主要目标之一,旨在确保后验数据可用性(见下文)。

“数据质量冲突”的一个意想不到的后果是它对修改获取过程的影响,特别是在临床环境中。人们经常听到这样的句子:“临床数据的质量不足以用于研究。”因此,不断有压力要求向更结构化的数据采集流程转移。例如,RECIST(反应评价标准)指南旨在规范实体肿瘤肿瘤试验治疗的放射学评价标准。这已经成功地进行了试验。使用RECIST需要良好的经验来避免观察者之间的可变性,这可能高达20% [29-31]。这一评估已经过调整,以反映放射反应的变化,例如,在免疫疗法中,尽管治疗反应良好,但肿瘤的大小可能会增加[32]。不幸的是,越来越多的压力要求将RECIST和其他类似结构化分期指南的使用扩展到所有放射分期的临床试验之外,以提高使用标准临床护理进行治疗评估的能力。因此,这给放射科的操作活动带来了很高的时间压力,并且越来越多没有经验的人使用这些类型的分期。随着语音识别和自然语言处理等自然接口的发展,以及它们在越来越多的设备中的日常使用,我赞成避免人工结构化许多数据采集过程,并将数据保持在最自然的形式,利用更自然的交互,如语音和文本,并开发强大的自然语言处理工具,可用于在后处理步骤中产生结构化信息。这将允许在需要新的结构化资源时对所有叙述进行重新处理。


人工智能领域的许多方面都需要对什么是真实有一个很好的认识。知识工程构建“已知”或“相关”的图形,例如在SNOMED CT(系统化医学术语-临床术语)或开放生物和生物医学本体铸造中制作的图形[3334]。这同样适用于基于规则的技术或符号推理,它们需要能够表达规则,即以形式化的方式表达真理,但也适用于监督机器学习方法,这需要具有表达真理的训练集,至少是概率真理。在这些方法中有很多期望,特别是在对它们进行梳理时[3536],但除了无监督深度机器学习之外,所有这些都需要一些真相来源,这就导致了一个基本问题,即在生命科学中寻找真相来源,以及支持该真相的证据水平。乍一看,这似乎是一个微不足道的问题。然而,“真相”往往“迷失在文字中”,因为在大多数情况下,消息来源依赖于复杂的叙事,将它们所传达的信息语境化。此外,“真理”也被稀释了。例如,每天有超过2500篇论文被Medline/PubMed收录[37],专家几乎不可能掌握自己研究领域发表的所有内容。最后,从本质上讲,科学是不断发展的,因此,曾经是正确的科学“真理”今天可能不再是正确的。例如,直到最近人们才知道有两种类型的淋巴细胞——B细胞和T细胞。然而,Rizwan等人最近发表的一篇论文[38]描述了一种具有B细胞和T细胞特征的新型淋巴细胞,它可能在某些疾病(如糖尿病)中发挥驱动自身免疫的作用[38]。事实的来源及其特征,如证据的水平或其使用背景,变得越来越重要。这应该对所有人开放,类似于Cochrane [39],涵盖生命科学的所有领域;维护;并且是机器可读的形式。


在科学领域,信任与建立证据密切相关。信任不仅在科学界,而且在整个科学界,对于建立采纳、政治支持和公众接受都很重要。2019年夏天,皮尤研究中心(Pew Research Center)发布的一项调查显示,公众中出现了一种积极的趋势:科学是为善的,但也有对诚信、透明度和偏见的担忧。总体而言,86%的美国人表示他们至少对科学家有“相当程度”的信心[40]。其中一个挑战是科学的可靠性经常与可信度相混淆[41]。科学证据可能非常有力,例如免疫接种或基于网络的健康信息,但信任度可能低得多[4243]。在建立对科学的信任方面,人们讨论了很多方面,但它们可以概括为三个概念,一个是针对科学家和组织的,一个是针对研究对象的,一个是针对研究过程的。诚信是第一也是最重要的,包括科学诚信、资金、利益冲突等。透明度必须体现在动机、结果和过程上。最后,用于处理过程的方法必须是强大和健壮的。建立证据需要考虑许多方面,如偏见、普遍性、可重复性和可解释性。在大数据和人工智能方面,有些挑战更加困难。数据采集和流的适当控制通常比传统的对照研究更困难。结果是数据具有特定的属性,这些属性并不总是得到很好的管理,例如选择偏差。有时,限制使用分析工具的假设没有得到很好的理解,例如许多统计检验的均方差。 In addition, deep machine learning is facing the challenges of precise reproducibility and explainability. The latter is currently the object of numerous works, trying to understand intermediate representation of data in neural networks that can predict and explain their behavior. Explainability and interpretability are often used interchangeably. Interpretability is the extent to which it is possible to predict how the system will behave, given a change in input or algorithmic parameters. On the other hand, explainability is the extent to which the internal mechanics of the deep learning system can be understood and thus explained. Molnar [44]在GitHub上发布了一个非常好的问题概述。然而,可解释性可能不是提高全球对深度机器学习方法信任的最佳途径,尤其是在解释本身难以解释的情况下。其他一些方面,如透明度、可重复性或不确定性资格可能更有效[45]。例如,在科学2018年,赫特森[46]报告了一项对在主要会议上发表的400篇人工智能论文的调查,其中只有6%的论文包含算法代码和30%的测试数据,因此大大限制了可重复性的可能性[46]。


FAIR指导原则是使人和机器都能发现和处理数据的指导原则。它们最初由Wilkinson等人发表[47]。公平的指导原则是基于列出的一套标准文本框1

FAIR数据标准。

可发现的

  • (元)数据被分配一个全局唯一且持久的标识符
  • 数据用丰富的元数据描述(定义如下)
  • 元数据清楚而显式地包括所描述数据的标识符
  • (元)数据在一个可搜索的资源中被注册或索引

可访问的

  • (元)数据通过其标识符使用标准化通信协议进行检索
  • 该协议是开放的、免费的,并且可以普遍实现
  • 协议允许在必要时进行身份验证和授权过程
  • 元数据是可访问的,即使数据不再可用

可互操作的

  • (元)数据使用一种正式的、可访问的、共享的、广泛适用的语言来表示知识
  • (元)数据使用遵循FAIR原则的词汇表
  • (元)数据包括对其他(元)数据的限定引用

可重用的

元(数据)被丰富地描述为具有多个准确和相关的属性:

  • (元)数据发布具有清晰、可访问的数据使用许可
  • (元)数据与详细的来源相关联
  • (元)数据满足与领域相关的社区标准
文本框1。FAIR数据标准。

已经定义了几个框架来评估和评估FAIR标准的合规性,例如FAIR成熟度工具[4849]。因此,公平数据并不意味着数据在开放数据空间[50]。访问可以受到限制,例如在Harvard Dataverse中,这是需要强调的重要一点。由于国家法规、隐私保护、知识产权等原因,在开放数据空间中获取数据或元数据可能会受到很多限制。FAIR数据不提供数据;他们在获得授权的条件下使数据可用。

FAIR倡议至关重要。它说明了过去十年开始的数据从对象到资产的移动,并在Sabina Leonelli的文章中进行了描述[51]最近发表于自然

该计划提倡使用符合标准和正式描述的富元数据框架。它促进对描述性信息和协议的免费和开放资源的使用。它允许我们建立一个可共享资源的框架,可以用于处理,而无需在开放空间中实际共享数据。FAIR允许构建一个框架,该框架包含所有数据源,包括那些受授权的数据源,具有明确和开放的协议。


在大数据时代,隐私需要特别关注。限制访问未识别信息的通常范例在保护隐私方面正变得越来越不有效。与数据链接技术相关联的关于我们每个人的异构数据源和数据丰富性的增加,极大地增加了重新识别的可能性,包括匿名数据[52-57]。对遗传信息的挑战和潜在影响甚至更大[58-60]。没有好的技术解决方案可以协调保护隐私的挑战,并满足数据驱动科学对访问大型基因组和表型数据集日益增长的需求,并且有许多正在进行的伦理和法律讨论[61-66]。有趣的是,这并不局限于科学领域,同样也适用于患者对健康信息的需求。67]。有必要对隐私、公民、政策制定者、学生、研究界和所有利益相关者的影响和风险进行更好的全球教育。最近的范围检讨[68]表明科学界对匿名化和去识别化的理解是不同的[68]。歧视是侵犯私隐的其中一项主要风险,而披露私隐资料可引致多种后果[69-71],包括报销和保险范围[7273]。重要的是找到naïve实证主义和非理性偏执之间的正确路径。重要的一步是提高所有利益相关者对隐私的认识和教育,保护隐私的技术限制,以及建立监管障碍以避免歧视。


医学领域的人工智能和大数据才刚刚起步;他们长得很快。他们能否好好成长,仍是一个悬而未决的问题,未来将给出答案。然而,如果不积极帮助他们,他们就不会很好地成长。有几项重要举措有助于实现这一目标,例如全球基因组学与健康联盟(GA4GH),该组织制定了尊重人权的政策和技术框架,使负责任的基因组数据共享成为可能[74]或欧盟一般资料保护规例(GDPR) [75为欧盟制定了一项全新的隐私法规。这些举措正趋向于建立一种环境,使科学成为可能,同时在改善个人权利保护方面建立信任。我邀请读者访问Web上提供的JMIR开放获取集合,主题包括:“大数据”、“卫生专业人员决策支持”和“人工智能”[76-78]。

利益冲突

没有宣布。

  1. 《史丹佛哲学百科全书》。加州斯坦福:斯坦福大学形而上学研究实验室;2018.人工智能网址:https://plato.stanford.edu/archives/fall2018/entries/artificial-intelligence/[2019-09-22]访问
  2. 维基百科》2019。人工智能网址:https://en.wikipedia.org/w/index.php?title=Artificial_intelligence&oldid=916837449[2019-09-22]访问
  3. 《感知器争议的官方历史社会学研究》。社会科学学报,2016;26(3):611-659。(CrossRef]
  4. 人工智能:解决复杂问题的结构和策略。马萨诸塞州波士顿:皮尔逊-艾迪生-韦斯利;2009:978。
  5. 当人类超越生物学时,奇点即将来临。纽约:维京人;2005:978。
  6. Giles M. MIT科技评论。据报道,研究人员实现了“量子霸权”。https://www.technologyreview.com/f/614416/google-researchers-have-reportedly-achieved-quantum-supremacy/[2019-09-22]访问
  7. 高级EGOAI(。欧洲委员会。人工智能的定义:主要能力和科学学科https://ec.europa.eu/digital-single-market/en/news/definition-artificial-intelligence-main-capabilities-and-scientific-disciplines[2019-09-22]访问
  8. Godec P, Pancur M, Ilenic N, Copar A, Stražar M, Erjavec A,等。通过集成深度模型和小规模机器学习,通过可视化编程实现图像分析的民主化。2019年10月7日;10(1):7。(CrossRef]
  9. Faes L, Wagner SK, Fu DJ, Liu X, Korot E, Ledsam JR,等。由没有编码经验的医疗保健专业人员进行医学图像分类的自动深度学习设计:可行性研究。《柳叶刀数字健康》2019年9月1日(5):e232-e242。(CrossRef]
  10. 李建军,李建军,李建军,等。供应商订单输入的决策支持质量:系统文献综述。中华医学杂志2018年1月24日;6(1):3。(CrossRef]
  11. Jung M, Hoerbst A, Hackl WO, Kirrane F, Borbolla D, Jaspers MW,等。医生对计算机化医嘱输入系统自动报警的态度。方法中华医学杂志2018年1月20日;52(02):99-108。(CrossRef]
  12. 诺伊曼PJ,桑德斯GD。成本效益分析2.0。中华医学杂志,2017,31(3):203-205。(CrossRef] [Medline]
  13. Sanders GD, Neumann PJ, Basu A, Brock DW, Feeny D, Krahn M,等。关于行为、方法实践和成本效益分析报告的建议。美国医学杂志2016年9月13日;316(10):1093。(CrossRef]
  14. Mokdad AH, Ballestros K, Echko M, Glenn S, Olsen HE, Mullany E,等。美国健康状况,1990-2016。中国医学杂志2018年4月10日;319(14):1444。(CrossRef]
  15. Allen B. FDA在确保人工智能软件和设备的安全性和有效性方面的作用。中国生物医学工程学报,2019;16(2):208-210。(CrossRef] [Medline]
  16. 美国食品和药物管理局,2019年6月26日。人工智能和机器学习在医疗设备软件中的应用http://www.fda.gov/medical-devices/software-medical-device-samd/artificial-intelligence-and-machine-learning-software-medical-device[2019-09-22]访问
  17. Parikh RB, Obermeyer Z, Navathe AS。医学预测分析的规范。Science 2019 Feb 22;363(6429):810-812 [免费全文] [CrossRef] [Medline]
  18. 陈建军,陈建军。人工智能在医学教育中的应用与挑战:综合综述。中华医学杂志,2019;5(1):e13930 [j]免费全文] [CrossRef] [Medline]
  19. 医学教育中的人工智能。医学教学2019年9月41日(9):976-980。(CrossRef] [Medline]
  20. Wartman SA, Combs CD.《人工智能时代医学教育的重塑》。美国医学杂志2019;01;21(2):E146-E152 [J]免费全文] [CrossRef] [Medline]
  21. 数据科学研究所。为AI未来培训医学生和住院医师https://www.acrdsi.org/Blog/Medical-schools-must-prepare-trainees[2019-09-22]访问
  22. 医学教育中的人工智能——医学信息学的另一个重大挑战。[j]中华医学杂志,1998;12(3):197-225。(Medline]
  23. Kolachalama VB, Garg PS.机器学习和医学教育。中华数字医学杂志2018年9月27日;1(1):54 [j]免费全文] [CrossRef] [Medline]
  24. Stausberg J, Bauer U, naseh D, Pritzkuleit R, Schmidt C, Schrader T,等。数据质量指标:网络化医学研究视角下的回顾与要求中国医学流行病学杂志,2019;15(1):05。
  25. 王晓明,王晓明。电子病历数据质量评估的方法和维度:支持临床研究的重用。中华医学杂志,2013,20(1):144-151 [J]免费全文] [CrossRef] [Medline]
  26. 维纳毫克。临床数据的再利用与质量改进:起点的终结?中华医学杂志2009年9月1日;31(5):359。(CrossRef]
  27. 刘建军,刘建军,刘建军。电子病历数据的二次利用:优势和障碍。质量与患者安全联合委员会杂志2012,38(1):34-40。(CrossRef]
  28. 通过将数据用于质量保证、研究和监督,为电子健康记录增加价值。[J]中国医学杂志;2007;13(6):277-278 [J]免费全文] [Medline]
  29. 姜波,周东,孙勇,王军。肺癌多探测器ct测量变异性的系统分析。中华外科杂志,2017;12(2):95-100 [j]免费全文] [CrossRef] [Medline]
  30. Bellomi M, De Piano F, Ancona E, Lodigiani AF, Curigliano G, Raimondi S,等。根据RECIST 1.1评价观察者间变异及其对肝转移CT测量反应分级的影响。中华放射学杂志,2017;25(5):391 - 391。(CrossRef] [Medline]
  31. Yoon SH, Kim KW, Goo JM, Kim D, Hahn S.基于recist的肿瘤负荷测量的观察变异性:meta分析。欧洲J巨蟹座2016年1月53:5-15。(CrossRef] [Medline]
  32. Seymour L, Bogaerts J, Perrone A, Ford R, Schwartz LH, Mandrekar S, RECIST工作组。用于免疫治疗试验的反应标准指南。柳叶刀肿瘤学杂志2017;18(3):e143-e152 [j]免费全文] [CrossRef] [Medline]
  33. OBO代工厂。URL:http://www.obofoundry.org/[2019-10-05]访问
  34. snom国际。URL:https://www.snomed.org/snomed-international/who-we-are[2018-06-27]访问
  35. Skevofilakas M, Zarkogianni K, Karamanos B, Nikita K. 1型糖尿病视网膜病变长期并发症风险评估的混合决策支持系统。中国生物医学工程学报(英文版);2010;33(2):377 - 377。(CrossRef] [Medline]
  36. Hoehndorf R, Queralt-Rosinach N.。数据科学与符号人工智能:协同效应、挑战和机遇。DS 2017 Oct 17:1-12(CrossRef]
  37. NIH:美国国家医学图书馆。详细索引统计:1965-2017https://www.nlm.nih.gov/bsd/index_stats_comp.html[2017-10-08]访问
  38. Ahmed R, Omidian Z, Giwa A, Cornwell B, Majety N, Bell DR,等。在1型糖尿病患者独特的双受体表达淋巴细胞中存在的公共BCR编码一种有效的T细胞自身抗原。Cell 2019;177(6):1583-1599.e16。(CrossRef]
  39. 科克伦。URL:https://www.cochrane.org/[2019-10-05]访问
  40. 皮尤研究中心:科学与社会。美国人对科学专家的信任与不信任https://www.pewresearch.org/science/2019/08/02/trust-and-mistrust-in-americans-views-of-scientific-experts/[2019-10-05]访问
  41. 相信我,我是个研究人员!:The role of trust in biomedical research. Med Health Care Philos 2017 Mar;20(1):43-50 [免费全文] [CrossRef] [Medline]
  42. Larson HJ, Clarke RM, Jarrett C, Eckersberger E, Levine Z, Schulz WS,等。衡量疫苗接种的信任:一项系统回顾。疫苗免疫学报,2018;14(7):1599-1609 [j]免费全文] [CrossRef] [Medline]
  43. 李建军,张建军。基于网络的健康信息信任与可信度研究进展。医学互联网研究,2017;19(6):e218 [J]免费全文] [CrossRef] [Medline]
  44. 可解释机器学习。2019。URL:https://christophm.github.io/interpretable-ml-book/[2019-10-18]访问
  45. 刘建军,刘建军,李建军,等。机器辅助医疗决策的不确定性量化研究。Nat Mach intel 2019 1月7日;1(1):20-23。(CrossRef]
  46. 人工智能面临可重复性危机。Science 2018年2月16日;359(6377):725-726。(CrossRef] [Medline]
  47. Wilkinson MD, Dumontier M, Aalbersberg IJ, Appleton G, Axton M, Baak A,等。科学数据管理和管理的公平指导原则。科学数据2016;3(1):160018 [j]免费全文] [CrossRef] [Medline]
  48. GitHub。FAIR Metrics 2019https://github.com/FAIRMetrics/Metrics[2019-10-05]访问
  49. 工会的种种折磨。欧洲联盟出版署。将公平变为现实:欧盟委员会公平数据专家组的最终报告和行动计划https://publications.europa.eu/en/publication-detail/-/publication/7769a148-f1f6-11e8-9982-01aa75ed71a1[2019-07-04]访问
  50. 哈佛大学,2019。迈向综合、公平的科研数据管理https://scholar.harvard.edu/mercecrosas/presentations/towards-integrated-and-fair-research-data-management-harvard[2019-04-10]访问
  51. 数据——从对象到资产。Nature 2019 Oct 15;574(7778):317-320。(CrossRef]
  52. 马林B.家族数据库记录的再识别。AMIA年会程序2006:524-528 [免费全文] [Medline]
  53. 杨建军,杨建军,李建军,等。医疗数据再识别攻击的系统分析。PLoS One 2011; 12 (12):e28071 [j]免费全文] [CrossRef] [Medline]
  54. Dankar FK, El Emam K, Neisa A, Roffey T.评估临床数据集的再识别风险。中国医学杂志2012年7月9日;12(1):66 [j]免费全文] [CrossRef] [Medline]
  55. 李建平,李建平。基于隐私规则的信息再识别风险评估。中华医学杂志,2010;17(2):169-177 [J]免费全文] [CrossRef] [Medline]
  56. 州长威廉·维尔德医疗信息的“重新识别”。社会科学研究网2012:19。
  57. Emam KE, Dankar FK, Vaillancourt R, Roffey T, Lysyk M.评估医院处方记录中患者再识别的风险。中华实用医学杂志;2009;32 (4):307-319 [J]免费全文] [Medline]
  58. 库林尼奇,格里利。临床基因组学、大数据和电子病历:当隐私和科学发生冲突时,如何调和患者权利与研究。法律生物学报,2017;4(1):94-132 [J]免费全文] [CrossRef] [Medline]
  59. 李建军,李建军,李建军,等。罕见病研究:突破隐私壁垒。苹果学报,2014;01;3(2):23-29 [j]免费全文] [CrossRef] [Medline]
  60. 张建军,张建军,李建军,等。基于DNA测序技术的人类样本快速鉴定。eLife互联网2019:6。(CrossRef]
  61. 张建军,张建军,张建军,张建军。大数据健康研究伦理审查的研究进展。PLoS ONE 2018;13(10):e0204937。(CrossRef]
  62. 卢基德斯,邓杰,马林柏。诊断代码的披露可能会侵犯研究参与者的隐私。中华医学杂志,2010;17(3):322-327 [J]免费全文] [CrossRef] [Medline]
  63. Malin B, Benitez K, Masys D.匿名永远不会太老:基于HIPAA隐私规则的人口统计数据共享的统计标准。中华医学杂志,2011;18(1):3-10 [J]免费全文] [CrossRef] [Medline]
  64. El Emam K, Moher E.为公共卫生目的收集数据时面临的隐私和匿名挑战。中华医学杂志(英文版);2013;01:37-41。(CrossRef] [Medline]
  65. A,扎瓦提M.基因组生物银行的国际隐私指南(或多元化的意外美德)。[J]法律医学伦理,2015;43:4。(CrossRef]
  66. O'Neill L, Dexter F,张宁。临床麻醉研究数据发表对患者隐私的风险。生态学报,2016;22(6):2017-2027。(CrossRef] [Medline]
  67. 张建军,张建军,张建军,等。参与式健康与社交媒体时代患者健康信息需求的关系研究。医学年鉴2018;Aug;27(1):29-36 [j]免费全文] [CrossRef] [Medline]
  68. 刘建军,刘建军,刘建军,刘建军。匿名化和去身份化在生物医学文献中的应用与理解。中国医学信息学报,2019;21(5):888 - 888。(CrossRef]
  69. Dixon P.“不伤害”的失败——印度的Aadhaar生物识别身份计划及其与欧洲和美国措施相关的隐私保护能力[j] .卫生技术,2017;7(4):539-567 [j]免费全文] [CrossRef] [Medline]
  70. Rengers JM, Heyse L, Otten S, Wittek RPM。“以同样的方式公开或诚实地生活并不总是可能的”——无国界医生组织对男女同性恋人道主义援助工作者的工作场所包容。前沿心理2019年2月27日;10:32 [免费全文] [CrossRef] [Medline]
  71. Stangl AL, Lloyd JK, Brady LM, Holland CE, Baral S. 2002 - 2013年减少艾滋病毒相关污名和歧视干预措施的系统回顾:我们已经走了多远?中华艾滋病杂志,2013;11;16(3增刊2):18734 [J]免费全文] [Medline]
  72. 刘建军,张建军,张建军,张建军。基因检测、保险歧视和医学研究:美国可以向其他国家学习什么?中华医学杂志,2019,25(8):1198-1204。(CrossRef] [Medline]
  73. Bardey D, De Donder P, Mantilla c。基因检测如何影响逆向选择和歧视风险之间的权衡?理论和实验。卫生经济杂志2019年9月30日;68:102223。(CrossRef] [Medline]
  74. 全球基因组学与健康联盟。URL:https://www.ga4gh.org/[2019-10-05]访问
  75. 欧盟的GDPR.ORG。URL:https://eugdpr.org/[2019-10-05]访问
  76. JMIR医学信息学。电子馆藏“大数据”网址:https://medinform.www.mybigtv.com/themes/183
  77. JMIR医学信息学。电子合集“卫生专业人员决策支持”网址:https://medinform.www.mybigtv.com/themes/186
  78. 医学互联网研究杂志。电子合集“人工智能(临床决策支持除外)”//www.mybigtv.com/themes/797


人工智能:人工智能
CPOE:计算机化供应商订单输入
GA4GH:全球基因组学与健康联盟
GDPR:《一般资料保护规例》
RECIST:实体瘤反应评价标准
snom CT:系统化医学术语。临床术语


G·艾森巴赫编辑;提交09.10.19;由A Benis, D Gunasekeran进行同行评审;对作者13.10.19的评论;修订版本收到18.10.19;接受20.10.19;发表08.11.19

版权

基督教洛维斯©。原载于2019年11月8日《医学互联网研究杂志》(//www.mybigtv.com)。

这是一篇在知识共享署名许可(https://creativecommons.org/licenses/by/4.0/)下发布的开放获取文章,该许可允许在任何媒介上不受限制地使用、分发和复制,前提是原始作品首次发表在《医学互联网研究杂志》上,并适当引用。必须包括完整的书目信息,到//www.mybigtv.com/上原始出版物的链接,以及版权和许可信息。


Baidu
map