发表在第9卷第2期(2022):4月- 6月

本文的预印本(早期版本)可在https://preprints.www.mybigtv.com/preprint/35421,首次出版
为在临床环境中使用人工智能建立生态有效的概念框架:在保护技术和临床医生方面需要系统思考、问责制、决策、信任和患者安全考虑

为在临床环境中使用人工智能建立生态有效的概念框架:在保护技术和临床医生方面需要系统思考、问责制、决策、信任和患者安全考虑

为在临床环境中使用人工智能建立生态有效的概念框架:在保护技术和临床医生方面需要系统思考、问责制、决策、信任和患者安全考虑

本文作者:

Avishek Choudhury1 作者Orcid图片

的观点

美国西弗吉尼亚州摩根敦市西弗吉尼亚大学Benjamin M Statler工程与矿产资源学院工业与管理系统工程

通讯作者:

Avishek Choudhury博士

工业与管理系统工程“,

本杰明M斯塔特勒工程与矿产资源学院

西弗吉尼亚大学

埃文斯代尔路1306号

邮箱6107号

Morgantown, WV, 26506-6107

美国

电话:1 5156080777

电子邮件:avishek.choudhury@mail.wvu.edu


医疗保健管理和医疗从业者文献缺乏一个描述性的概念框架来理解临床医生和人工智能(AI)系统之间的动态和复杂的相互作用。由于现有的大多数文献都是从统计(分析)的角度研究人工智能的性能和有效性,缺乏确保人工智能生态有效性的研究。在这项研究中,我们得出了一个框架,明确关注人工智能和临床医生之间的互动。提出的框架建立在成熟的人为因素模型,如技术接受模型和期望理论。该框架可用于执行定量和定性分析(混合方法),以捕捉临床医生- ai交互如何根据预期、工作量、信任、与吸收能力和有限理性相关的认知变量以及对患者安全的担忧等人为因素而变化。如果加以利用,提出的框架可以帮助确定影响临床医生使用人工智能意图的因素,从而提高人工智能的接受度,解决人工智能问责制缺乏的问题,同时保护患者、临床医生和人工智能技术。总体而言,本文讨论了多学科决策文献的概念、命题和假设,构成了一种扩展分布式认知理论的社会认知方法,从而解释了人工智能的生态有效性。

JMIR Hum Factors 2022;9(2):e35421

doi: 10.2196/35421

关键字



随着多学科合作保健的发展[1],临床医生比以往任何时候都有更多的信息和专业知识来指导临床决策[2].然而,当面对的信息和知识(1)并不总是在临床医生的主要或重点专业知识的范围内,并且(2)数量如此之多,以至于临床医生难以可靠、有效和及时地处理时,临床医生往往会求助于有限的理性,在某些情况下,是不正确的诊断、治疗和其他临床决策[3.].对临床医生有限的吸收和认知能力的相关问题的回应是将人工智能(AI)集成到医疗保健决策中[4-6].然而,在多学科、复杂和协作决策中,对有限的吸收和认知能力问题的技术解决方案可能会引入新的情况[7].例如,团队科学在临床环境中,可能会出现相互竞争的诊断和治疗和健康处方[89].此外,当新技术用于决策时从上面(例如,通过管理,而不是有机地)或从下面(例如,在临床医生层面,临床医生可能并不总是信任或打算使用这些技术)[10].

关于人工智能的信任和人工智能系统在临床决策中的使用的问题说明了理性决策模型和描述性决策模型之间的经典区别。对临床决策的研究表明,在临床决策中引入综合技术(包括但不限于人工智能)的理性模式并不总是得到数据的支持。换句话说,临床决策的理性模型[61112]和决策,一般来说在生态上是无效的;他们假设完美的信息,理想的吸收和认知能力,最佳的信任,以及无限的资源来做出充分和正确的决策。描述性实证研究表明,由于最终用户(护理提供者)的认知能力有限、信息过载或数据缺乏以及对技术的次优信任,临床环境中技术辅助决策的混合影响[71314].

与大多数技术类似,人工智能在医疗保健生态系统中可能是福也可能是祸。随着医疗保健领域自主活动的增加,关于人工智能和人为因素的挑战可能在个人层面(例如,意识和信任)、宏观层面(例如,法规和政策)和技术层面(例如,可用性和可靠性)明显表现出来,因为许多医疗保健人工智能应用程序设计不佳,没有得到彻底评估[15].因此,在医疗人工智能系统中考虑人的因素和人机工程学(HFE)已成为必要。如果在开发人工智能系统时加以利用,HFE原则和方法可以在不影响患者安全或临床协议的情况下增加其使用和采用。在人工智能在医疗保健领域可能造成的所有HFE挑战中,次优临床医生-人工智能交互非常重要。在医疗保健中集成设计不佳的人工智能可能会使临床医生和计算机(智能)系统之间的关系复杂化。与其他医疗保健技术不同,人工智能的复杂性更高,因为它可以(通过聊天机器人、自动推荐系统、健康应用程序等)根据从临床医生和患者那里收到的输入(反馈)与他们互动。人工智能的输出(人工智能产生的结果)很大程度上取决于输入的信息,例如某些类型的人工智能,强化学习[16],根据用户输入进行学习和调整,以优化结果。因此,临床医生与人工智能的互动可能会影响人工智能的表现,进而影响临床医生对人工智能的看法。最佳和成功的临床医生-人工智能交互取决于几个因素,包括情景意识、认知工作量、工作环境和情感资源(例如,当前的精神状态、使用人工智能的意愿、以前使用人工智能技术的经验、对技术的信任等)。大多数关于医疗保健AI的研究都忽略了(1)生态有效性和(2)人类认知,这可能会在与临床医生和临床环境的界面上带来挑战。此外,针对改善人为因素的研究不足,主要表现在:(1)如何确保临床医生是否正确实施;(2)在压力环境中工作的临床医生的认知工作量;(3)对临床医生的情况意识、临床决策和患者安全结局的影响。尽管关于人工智能的研究已经报告了其在医学上的巨大性能和潜力[17-19],研究突破(研究环境中的人工智能表现)并不一定会转化为可用于高风险环境的技术[20.,比如医疗保健。此外,大多数在研究和文献中具有突出能力的AI在临床环境中无法执行[2122].根据技术准备水平(TRL),大多数人工智能系统,至少在儿科和新生儿重症监护中,如果不是全部的话,都没有资格实施[17].

TRL是一个衡量系统,用以评估某项技术的成熟程度[23].它包括9个类别(准备程度),其中trl1分是最低的,trl9分是最高的(文本框1).

技术准备水平(TRLs;1 - 9)。

具有TRL 1-4的技术可在实验室环境中执行,其主要目标是进行研究。这个阶段是概念的验证。

  • TRL 1:所观察到的技术的基本原理
  • TRL 2:技术概念的制定
  • TRL 3:概念开发的实验证明
  • TRL 4:在研究实验室验证的技术

TRL 5-7技术处于开发阶段,功能原型已经准备就绪。

  • TRL 5:在相关环境中验证的技术(现实环境中的受控设置)
  • TRL 6:在相关环境中展示的技术
  • TRL 7:在操作环境中演示的系统原型

最后,TRL 8和9的技术处于操作阶段,其主要目标是实现。

  • TRL 8:系统完成并认证用于商业用途
  • TRL 9:在实际操作环境中批准并实施的系统
文本框1。技术准备水平(TRLs;1 - 9)。

例如,在临床环境中,护士和医生已经表现出对人工智能缺乏信任,包括机器学习分析和决策工具[7];为提高决策效率和效力而设计的许多其他信息技术,如药物管理系统[13]、事件报告系统[14],以及电子医疗纪录系统[24];以及基因治疗等临床生物技术[25].有证据显示不正确使用临床技术,例如对自动化护理工具的毫无根据的信任和依赖,导致了不良的健康后果,包括但不限于可避免的死亡[11]及不适当使用医疗仪器对病人造成伤害[1226].重要的是要理解人工智能的影响,特别是在医疗保健领域,不仅是其潜在数学过程的准确性的函数,而且是人类认知因素的函数,包括信任、感知、可用性和安全性。因此,为了最大限度地减少医疗保健AI造成的错误(如其他医疗信息技术文献,如电子医疗记录),必须采用整体方法,将医疗保健视为一个动态的社会技术系统,其中的子元素相互作用。


本研究旨在从认知人为因素和决策文献中提出一个描述性的概念框架。请注意,这个框架不是一个理性模型。然后,未来的研究可以利用这一框架,并为最终开发最佳人工智能临床医生交互的规范性框架提供信息。提出的框架可以最好地用于混合方法研究。换句话说,描述性概念框架将有助于捕捉临床医生和人工智能之间的交互。规范框架(由实验研究结果指导)将有助于开发更好的人工智能-临床医生互动。

本研究中提出的描述框架的新颖之处在于,它使用系统思维,并结合多种描述性(与理性)人为因素方法来理解决策中的临床医生-人工智能交互作用。尽管临床决策中的人为因素考虑可以增强人工智能等综合决策技术预期的积极影响,但到目前为止,关于临床医生如何以及在多大程度上使用人工智能进行诊断和医疗决策的研究很少。此外,临床环境中AI的实证研究的优势集中在AI驱动的诊断和护理决策的技术方面,即AI所需要的过多的机器学习算法和高维数据[27].少数关于人工智能在决策中使用人为因素的研究并不关注临床样本和背景,而是关注其他行业和经济部门的非临床应用,包括但不限于军事[28];交通运输(29];组织设计,一般来说[30.].


医疗保健管理和医生文献缺乏一个概念框架,以从系统的角度捕捉人工智能的影响,同时理解生态上有效的临床医生与人工智能的相互作用,特别是关注这种相互作用如何根据预期、信任、与吸收能力和有限理性相关的认知变量以及对患者安全的担忧等人为因素而变化。为了得出概念框架,本研究利用了(1)关于医疗实践中的系统思维和人工智能的文献,(2)人类决策中的信息使用,(3)信任和人工智能决策的通知,以及(4)患者安全和人工智能决策的通知。

医疗实践中的系统思维与人工智能

概述

技术进步和创新的扩散正在支持生活的各个方面的结构和制度的迅速转变,医疗实践也不例外。技术现在可以促进人类曾经认为不可能的活动的完成,并对卫生保健领域的重大社会和公共政策变化负责。例如,Widmer等人[31]讨论了美国医疗保健政策改革与技术进步和社会转变的融合,作为在医疗保健实践中大量使用人工智能的支持。他们认为,这些都是变革的力量,影响着为医学问题制定复杂解决方案的能力。这些解决方案的技术形式往往依赖人工智能来支持决策。卡德里等[32]调查了新医疗保健技术的现状,揭示了人工智能和依赖人工智能的工具在医学中的无处不在。例如,医疗保健物联网对医疗保健信息技术的影响是巨大的[32,随着系统变得越来越智能和广泛,技术创新的巨大规模无情地向前推进。随着这些系统成为卫生保健的一个组成部分,系统思维将变得越来越重要,因为卫生保健所需的任务技术匹配的复杂性。

医疗保健行业在技术和临床工作流程方面都出现了一些设计错误。集成未经过适当设计和测试的HITs极有可能导致新类型的技术诱导错误,通常是医疗保健领域的新错误。这种错误通常表现在实际临床使用过程中,卫生保健提供者与HIT之间的复杂互动中。例如,在最近,手术机器人造成144名患者死亡,1391名患者受伤[33].一旦整合,这些技术还可以改变现有的临床工作流程。例如,将AI集成到临床工作流程中,而不考虑其对临床医生、患者、医院费用、工作流程速度、保险索赔流程(先前的授权)和其他方面的影响,可能会扰乱整个护理流程。例如,考虑到人工智能对数据的依赖,我们可以假设,即使是最好的人工智能系统有时也会出错,导致患者安全受损。虽然临床错误和未遂事故在医疗保健中很常见,但人工智能错误可能是非常独特的。首先,人工智能系统产生的错误可能会在临床医生没有发现的情况下变得广泛,导致整个系统的错误,而不是由于任何提供者的错误而造成有限数量的患者受伤。其次,跟踪AI错误也可能变得非常具有挑战性,主要是在深度学习算法的支持下。如此复杂的系统(AI)由于其固有的不透明性质,可能会使根本原因分析非常令人生畏,几乎不可能。人工智能系统的性能在很大程度上取决于它们所训练的数据。由于现有的数据存储库存在偏见,在不解决数据质量问题的情况下,人工智能集成可能会加剧医疗保健偏见。

卫生保健当局必须考虑几个外部因素,如临床医生在临床实践中使用人工智能的意愿,获得不同专业知识的临床医生所需的人工智能培训的持续时间和频率,以及为个别临床医生和患者个性化人工智能的可行性。此外,作为医院AI的潜在用户,医生和护士也可能由于缺乏AI素养或AI的可用性不佳而滥用系统。因此,系统思维方法对于人工智能的安全集成至关重要。

此外,基于人工智能的技术可能不适用于罕见疾病患者,因为他们的数据并不充分。卫生保健当局还必须确保,随着时间的推移,临床专家不会因为人工智能的实施而丧失技能或被永久取代。换句话说,安全和可持续的人工智能集成需要一种系统方法,其中考虑到不同卫生保健利益相关者之间的所有互动。

与任何复杂系统类似,医疗保健和人工智能的子系统可以在三个主要层面上受到几个因素的影响:(1)治理——政策、法规和协议;(2)组织性[34]——问责制、恢复力、生态有效性和可行性;(3)个人对人工智能和安全实践的信任(图1).

图1。影响医疗保健中人工智能使用的因素——系统观点。
查看此图
治理水平

在这项研究中,AI治理被定义为在大型医疗保健生态系统中调节和控制AI的一组系统。它指导组织目标和风险监控,以实现优化的性能。换句话说,人工智能治理是一个系统中的系统这需要一种全面的方法,将战略规划纳入所有组织层面。现有研究将医疗保健人工智能治理限制在组织结构和临床决策过程的边界内,不利用专有权利的透明度,技术的公平性和问责制[35].

然而,许多关键因素没有被考虑。弹性;生态效度;使用人工智能的安全操作协议;参与;利益相关者,包括保险公司的责任;人为因素也应作为医疗人工智能治理的重要组成部分。系统思考可以帮助监管机构和组织将人工智能和医疗保健的整合视为两个复杂系统的合并。换句话说,系统方法将使我们能够捕捉和理解各种因素之间的动态关系,如政策和协议,如何影响将人工智能纳入医疗保健生态系统的弹性和可行性。明确定义的政策和协议以及所有利益相关者的参与也将有助于解决当前对人工智能问责制的担忧——谁应该为有缺陷的人工智能系统或不正确的人工智能输出负责?从人为因素的角度来看,系统方法可以倡导人工智能的生态有效性,确保该技术是针对给定的不受控制的环境进行适当的设计和开发的。解决这些问题可以增加临床医生对人工智能技术的初始信任,从而增加他们接受人工智能的可能性。

组织层面

的子组件进一步展开图1医疗保健中的人工智能治理应考虑(1)弹性思维方法,(2)问责制,(3)人工智能的生态有效性。弹性思维是一种全面的方式,研究在不确定性或系统性错误期间,临床医生和临床环境(包括人工智能技术)的交互系统如何得到最佳管理。

这项研究定义了AI问责在这个过程中,医疗保健从业者有潜在的责任来证明他们的临床操作对患者(或家属),并对任何即将对患者健康产生的积极或消极影响负责。在使用基于人工智能的决策支持系统时,只有临床医生在决定遵循人工智能时才会被问责,从而导致患者受到伤害。如果临床医生偏离了标准方案,他们也要承担责任[36].这可能令人担忧,因为在这种情况下,临床医生只会在人工智能符合他们的判断并符合标准方案的情况下才会使用人工智能,这使得人工智能没有得到充分利用。根据我们最近的调查(机构审查委员会2022-007由美国史蒂文斯理工学院批准的)由265名积极在美国执业的临床医生组成,缺乏人工智能问责制是医疗保健领域采用人工智能的重大障碍。临床医生犹豫并拒绝使用AI,因为他们不想为错误的AI承担责任。我们调查的参与者主张与患者签订合同协议,制定政策,保护他们免受人工智能错误和相关患者安全问题的影响。文本框2显示了临床医生提供的一些反应。

由卫生保健从业人员提供的解决方案,以解决缺乏人工智能(AI)问责-类别和样本响应。

与患者的合同协议

  • “我认为解决方案需要让患者签署知情同意书,让人工智能在他们的护理中使用,而且人工智能做出的决定不能反映在提供者的护理中。”
  • “只有当患者愿意填写一份关于使用人工智能的利弊以及潜在的危害或好处的问卷时,才应该使用人工智能,让从业者了解他们可能实现或可能无法实现的潜在结果。”
  • “(我)认为,如果使用人工智能,患者应该签署弃权书。”

政策及安全措施

  • “将其与现有的培训和保障措施结合使用。”
  • “人工智能的使用需要受到监管。制造商应该为任何关于病人护理的疏忽或错误决定承担全部责任。”
  • “(我)不想为人工智能的建议负责。制定保护临床医生的政策很重要。”
文本框2。由卫生保健从业人员提供的解决方案,以解决缺乏人工智能(AI)问责-类别和样本响应。

作为一个复杂的系统,卫生保健机构的子系统受到若干内部和外部因素的影响。医疗保健系统的这种复杂性可以通过使用人为因素方法来很好地解释,例如患者安全安全工程倡议(SEIPS)框架[37].由Carayon等人开发[37], SEIPS框架部分基于Donabedian著名的卫生保健质量结构-过程-结果模型[38].可以说,它是医疗保健中最受认可和发表的基于系统的人为因素框架之一。SEIPS框架说明了人(患者和临床医生)、技术(此处为人工智能)、任务(支持患者安全和健康的临床活动)和环境(临床和组织设置)之间的动态交互。然而,还没有研究使用SEIPS框架从系统的角度来理解人工智能对医疗保健的影响。

个人层面

当医疗从业人员考虑在病人护理中应用新技术时,仔细审查是必不可少的。人工智能在医疗实践中的好处也有局限性。在进行创新决策时,特别是当人类生命处于危险之中时,如果不承认它们,可能会导致系统事故。研究[39讨论了人工智能在医学上应用的局限性,重点讨论了其在肿瘤学中的应用。他们指出,机器学习在肿瘤实践中发挥着重要作用。机器学习是人工智能的一个子集,涉及计算机通过数据输入自主学习的能力[39].在肿瘤学领域,机器学习的好处包括应用于风险建模、参与诊断和分期调查、预后预测和治疗反应预测。在使用AI时仍然存在局限性,例如成本、对数据质量的过度依赖、黑箱效应、获得对机器学习技术的信任和接受[39].门德尔松(40]呼应了Khan等人讨论的一些局限性[39,他指出,医生在对乳房成像检查的结果做出决定时,不能只依赖人工智能。门德尔松(40]将人工智能的首选角色描述为支持诊断和患者管理。

尽管医生和研究人员描述了由于人工智能的分析能力和偏见而在接受人工智能方面的一些限制,但其他人为因素往往被忽视。虽然人工智能用于决策的方法和程序不断改进,但必须进一步探索利用人为因素原则。保护人工智能和患者的解决方案是接受医疗保健的系统思维方法,在这种方法中,医生将人工智能纳入一个角色,如Mendelson [40注意的,支持性质的。正如Khan等人所描述的[39],由于黑盒效应,人工智能的信任问题似乎是有根据的,在黑盒效应中,人工智能提供了解决方案的结果;然而,无法描述该解决方案的基本原理。桥本等[41他指出,尽管黑盒效应存在,但人们正在努力设计解决方案,以减轻医疗实践中的黑盒效应。神经网络方法得到的黑盒结果可以得到正确的响应[41].然而,在做出对患者生死攸关的决定时,医生不能只依赖人工智能的结果。这个体系无法自我解释。尽管医生可以更多地了解人工智能,以更好地理解结果[40],人类对人工智能的信任问题仍然具有挑战性,因为人工智能的设计不支持透明度[40].因此,人工智能的局限性并不仅仅是基于人工智能本身,而是基于人工智能及其用户对技术缺乏理解之间的关系并非所有依赖人工智能所需的信任都能来自更好的设计功能。有些肯定来自于技术的广泛接受,系统思维的跨学科性质可以在改善人类和AI在医学上的关系方面发挥作用.然而,必须记住信任的动态性质,用户需要对技术有先验的信任才能第一次使用它。展望未来,他们对它的信任可以成为他们对技术及其有效性的经验的功能。

除了医疗服务中断可能对患者造成伤害外,系统如何组合在一起的复杂性也可能导致系统事故。Kappagoda [42]讨论了航空系统事故的问题,以说明当存在设计缺陷、不良维护实践和监管失误时可能出现的问题。同样,在医疗保健领域,糟糕的人工智能设计也会导致患者受到伤害,临床医生可能会误解人工智能信息,或者在人工智能显示器上点击错误的选项。不充分的维护,即不使用新的患者数据重新训练AI,可能会影响其预测的准确性,从而阻碍患者的安全[43].此外,有时床边护理提供者做出的临床决策不一定符合标准指南(针对特定患者类型)或跳过规定的临床步骤(在工作量过大的情况下),以迅速完成特定的临床目标[44].因此,人工智能开发人员在设计他们的产品时应该考虑到这种人类行为,这样人工智能就可以作为一种支持,而不是日常临床工作流程中的障碍。

美国有一些与医疗设备有关的保证。其中包括国际标准化组织13485医疗器械质量标准[45联邦法规第820.3(l)号第21条[46].尽管这些认证和法规的存在是为了保护患者,但当系统事故伤害到患者时,医务人员仍然可以负责处理。因此,尽管人工智能可以对患者有很大的好处,并成为支持工作人员决策的有用工具,但医疗专业人员在评估护理策略时必须进行系统思考。

人类决策中的信息使用

在决策中使用或不使用某些信息的动机是复杂的,一些理论视角,如情境意识和期望理论,可以支持对这种动机的理解。索尔塔尼和法哈普尔[47]调查了用户使用信息服务的动机。他们的研究框架是期望理论。他们发现,用户使用信息服务的动机受到对结果价值的认识和对可访问性的看法的显著影响[47].虽然期望理论似乎在描述为什么使用或不使用人工智能方面发挥了作用,但其他人为因素可以支持预测用户行为.O ' reilly [48]审查了信息源使用方面的变化,以了解信息质量和可获得性作为影响其使用的因素的影响。O ' reilly [48]发现使用频率是最重要的使用影响因素。

吸收能力与使用信息的能力的关联是决策心理学的另一个重要方面。廖等人的研究结果[49]表明吸收能力对创新有影响,但以创新为目标的信息使用是复杂的[50].施密特(50发现吸收能力的决定因素是不同的,这取决于所吸收知识的类型。因此,吸收能力是路径依赖于它如何导致信息使用。这种复杂性限制了决策。在决策研究中,信息的感知相关性和信息的获取是理解信息使用的关键。Streufert是最早了解复杂环境中信息相关性对决策影响的研究之一。51].她的研究框架是复杂性理论。她指出,信息相关性是影响复杂决策反应的一个因素,但同一因素(信息相关性)未能影响简单决策反应[51].这些发现对于理解信息在决策研究中的重要性至关重要,因为它们支持决策研究的本质环境意识在决策者中。她的结论是,复杂决策受相关性影响,简单决策受信息负荷影响,这是一个关键的发现,对复杂性理论提出了一些限制。雪铁龙(52]探讨了信息在组织高管战略决策中的作用。该方法要求管理人员在一个结构化的过程中收集和使用信息,以支持消除决策过程中的不确定性。Streufert的研究结果[51]和雪铁龙[52]支持情境意识作为影响决策者使用信息的一个因素的作用。

决策中的信息接受是决策研究中的另一个关键因素。根据一个被称为技术接受模型的成熟模型,接受度与决策中的易用性和有用性有关[53].在决策过程中纳入资料似乎很重要。然而,它的纳入和决策支持系统等工具仍然是决策者面临的挑战。Todd和Benbasat [54研究了信息在决策中的使用。他们的研究对于假设掌握更多信息的管理者会做出更好的决策是至关重要的。他们发现努力的节约当经理们得到更多的信息时。决策支持系统等工具并没有很大可能将信息用于决策[54].这些发现可能会对人工智能形成的人类决策的研究产生重大影响,因为人工智能通常涉及聚合几堆数据,以构建对所调查现象的全面理解。然而,如果Todd和Benbasat [54]所提出的观点与决策者目前的信息处理方法是一致的,聚合数据创建优雅的模型来理解一种现象将是徒劳的。关于个人为什么选择依赖信息系统来做决策的研究已经存在。斯尼德和哈勒尔[55]研究了管理层使用期望理论的决策支持系统的决策。研究结果表明,期望力模型可以确定使用决策支持系统的管理行为意图[55].行为理论对这些研究是有帮助的,因为它可以支持基于意图和动机的评估,为什么人们使用以前没有使用过的系统。

吸收能力与人工智能的使用有关,人工智能的研究结果至关重要。吸收能力在与创新相关的决策中也是必不可少的,它取决于用户如何优化信息系统功能。此外,吸收能力也会在行业创新方面影响AI。人工智能使用的一个限制是用户缺乏对工具的理解或对发现的实质性解释.史等[56发现人工智能的使用在局限性方面带来了挑战,比如有限的知识转移。员工在使用人工智能工具和解释其发现方面接受的培训程度有限。因此,在使用人工智能的商业环境中,吸收能力受到工人能力的限制。

在支持决策时,人工智能的知识和相关性也是必不可少的考虑因素。普雷维代罗等人[57调查了人工智能在医疗环境中应用的挑战。他们指出,在临床环境中,期望和人工智能应用之间存在差异,人工智能在放射学等任务中的作用将纯粹从技术角度迅速发展,而不会从人为因素的角度解决所有用户需求。普雷维代罗等人[57他指出,人工智能应该成为开发临床相关结果的一部分,人工智能应该在未来的决策中发挥作用。然而,这也是Prevedello等人的预测[57发现之前的研究没有实现。庄园(58讨论了人工智能和人类决策的问题。他将人工智能与其他类型的定量分析程序共享几种关系,因为每种方法都对诊断有用。他还指出,人工智能的一个关键限制是缺乏前瞻性推理的能力,不确定性和偏好是需要考虑的关键因素。58].

在决策中接受人工智能是一个关键的技术概念,其中检验和确定人工智能的易用性和有用性。由于缺乏对该技术或其潜在能力的了解,人工智能在决策中的使用和益处受到了实质性的挑战.陈及Zary [59讨论了人工智能在医学教育中的应用和挑战。限制AI在医学界使用的主要因素之一是,医学院的课程未能培养未来的医疗专业人员来理解AI算法[59].知识和开发的缺乏导致了工具的有限使用。未来使用人工智能的一个关键限制似乎不是由技术的限制或复杂性引起的,而是由人类使用该技术的决定引起的。59].孙及权[60]研究了几种技术接受理论,以了解哪种框架最适合接受人工智能。他们的研究包括技术接受模型、计划行为理论、技术接受与使用统一理论和基于价值的采用模型。研究结果支持基于价值的采用模型作为确定用户接受人工智能的最佳模型。具体来说,有最显著影响的因素是享受而且主观规范60].这些发现提供了证据,证明使用AI的动机更多地是由对技术的兴趣驱动,而不是AI的功利方面。

用人工智能信任和告知决策

在一些情况下,对技术的信任具有影响力,包括在使用计算机为媒介的沟通进行团队沟通的情况下[61],支援客户或从事电子渠道、电子商务的客户[62],以及航空活动[63].对技术的信任和对人类的信任在很多方面都有区别[6465,即对人的信任与人际关系质量有关。相比之下,对技术的信任与可靠性和性能有关。尽管如此,信任仍然是人类技术体验的一个重要方面[65].

对技术的信任似乎与预期失验理论等理论一致。这一理论与个体对经验的满意度有关,这些经验与他们的信念是否在经历中得到证实有关,以及期望和感知表现如何影响他们的初始信念[66].对技术的信任是复杂的,原因有很多。对技术的信任之所以复杂,原因之一是技术存在风险和不确定性。李等[67调查了在工作环境中人们对新技术的信任度。他们发现,最初信任的形成取决于几个因素,包括信任基础、信念、态度、组织的主观规范和信任意图。其他涉及技术的研究假设,对技术的信任可以通过组织中的治理来形成。温菲尔德和吉罗特卡[34讨论了道德治理框架的开发,涉及组织中的机器人和人工智能系统。考虑的因素包括伦理、标准、监管、负责任的研究、创新和公众参与。这些因素被认为是在技术和公众之间建立信任的关键因素。这种方法的问题在于,它没有考虑用户对技术的感知、与之相关的风险的感知以及它对用户认知工作量和情境意识的影响等人为因素。

与这项研究最相关的是对医疗技术的信任问题。蒙塔古等[68]研究了对医疗技术的信任,并试图将医疗技术描述为与对一般技术的信任不同的结构。在他们的研究中包括了关于技术信任的文献综述。他们的文献讨论包括断言,先前的研究结果支持信任人类和信任技术之间缺乏区别。然而,McKnight等人[64]及兰顿等人[65的调查结果和讨论表明,对人类的信任和对技术的信任之间存在着实质性的差异。研究结果的差异支持进一步的调查。除了对一般技术的信任之外,不应在后续研究中考虑是否存在一个单独的结构来确定是否存在一个单独的结构,以描述或衡量对医疗技术的信任。然而,这超出了本研究的范围。

具体来说,对人工智能的信任仍然是一个重要问题,随着人工智能越来越多地融入我们日常生活中使用的产品,信任将随着时间的推移而显著增长。关于人工智能应该如何被信任,人工智能继续给研究人员带来一些困难。人工智能使用大量数据来支持基于强大可预测性而获得关注和考虑的决策,同时不模仿人类的思维过程。赫尔伯特(69)讨论了人工智能作为一种不断扩大其影响范围的技术,人们在日常生活中越来越依赖人工智能的使用。问题在于,人们往往缺乏对人工智能是否有能力完成被选择来执行的工作的考虑。

此外,人工智能的漏洞仍然存在。赫尔伯特(69他指出,人工智能只能在一定程度上被信任。然而,选择AI来完成任务的考虑和信任行为更适合于个人评估AI工具,而不是任务本身。

我们也主张对人工智能所做的决定持一定程度的怀疑态度。做出最准确的临床决策所需的怀疑程度取决于临床医生和人工智能系统的能力。假设我们了解了人工智能工具的好处和限制。在这种情况下,关于是否使用工具的决策需要放置信任(本质上是二进制的),而不是考虑具有预定义规范的工具在多大程度上可以被信任。在涉及信任的人工智能文献中,作者将对人工智能的信任与对人类的信任进行类比的努力是值得注意的。例如,在Hengstler等人的研究中[70],对自动驾驶汽车和医疗辅助设备等工具中使用的人工智能的信任度进行了调查[70].他们试图将应用在汽车上的人工智能与人类社会互动进行类比。70].他们的重点是理解人类和自动化之间的关系,理解信任是如何建立的。他们得出的结论是,对人工智能的信任与个人对创造人工智能的公司的信任密不可分。这项研究的哲学方法与研究人员对一般技术信任的研究方法非常不同[6465].研究人员的重点是建立对技术的信任和对人类的信任是完全不同的概念。因此,人工智能作为一种类似于人类智能的智能形式,其本质可能会影响人们对人工智能的看法,甚至在学术研究中也是如此。

人们对人工智能的信任在自动化(非人工智能技术)和人际信任(对人类的信任)之间具有共同点。格里克森和伍利[71]讨论了之前关于人类对人工智能信任的研究。他们指出,人工智能和其他技术之间存在着关键的差异,这影响了信任的形成和运作方式,类似于人类和技术的信任。对人工智能的认知和情感信任与人工智能的表现形式(无论是机器人的、基于网络的还是嵌入式的)和人工智能系统的智能水平有关。这些因素对于建立人们对人工智能的认知和情感信任是不可或缺的。在人工智能在医疗保健中的应用范围内,将人工智能概念化为具有一些拟人化的品质变得越来越明显。Kerasidou [72研究了人工智能在医疗保健中的应用,重点关注移情、同情和信任等问题。她指出,这些都是人们不应该重视人工智能的特征。然而,人工智能在医疗中扮演的角色是人工智能完成传统上由人类完成的几项任务。该技术必须以任务为导向,并通过执行更多与患者治疗的情感和舒适方面相关的活动来支持人类的医疗保健。总之,这些发现为人工智能提供了进一步的支持,该工具可以发挥支持作用,并使人类能够获得信任,从而有利于他们的医疗服务。

患者安全与人工智能决策

医疗护理最基本的方面是医生不伤害(患者安全)的承诺。希波克拉底誓言是卫生保健专业人员在与患者合作时必须遵守的标准。因此,了解人工智能如何影响患者安全对这项研究至关重要。

医疗保健人工智能研究对药物开发、个性化医疗和患者护理监测做出了积极贡献[73-76].人工智能也已被纳入电子健康记录,以识别、评估和减轻对患者安全的威胁[77].最近的研究和综述主要集中在人工智能在诊断层面的表现,如疾病识别[78-83],以及手术和疾病管理中的人工智能机器人[84-87].其他研究也在临床层面实施了人工智能技术,包括评估跌倒风险[88]和用药错误[8990].然而,这些研究中的许多(如果不是全部的话)尚未在临床环境中实施人工智能,或已被临床医生用于常规临床活动。因此,我们注意到缺乏证据可以证实人工智能对现实生活中患者安全结果的积极影响。

人工智能对患者安全的影响在很大程度上取决于临床医生如何正确理解人工智能输出(信息和建议),并据此做出临床决策。换句话说,对人工智能输出的误读可能会误导临床医生,并鼓励他们做出错误的临床决策,从而将患者的安全置于危险之中。随着人工智能的融合,技术的角色从单纯的传递信息信息识别而且决策因此,阐明了临床医生-人工智能交互和协作决策的重要性。医疗保健背景下的大多数决策文献都集中在共同决策(临床医生-患者)及其对患者安全的影响。然而,没有研究考虑人工智能在临床决策(临床医生-人工智能)和患者安全方面可以发挥的重要作用。伍尔夫等人[91]认为明智的选择应该以人际关系的方式进行。Légaré等[92]还讨论了增加共享决策的重要性。

然而,医疗保健决策文献的关键发现也可能适用于基于人工智能的决策。例如,Edwards等人[93研究发现,在患者和临床医生共同决策的过程中,患者的健康素养程度决定了他们理解治疗的能力(在临床医生和患者之间建立了共享的心理模型)。同样,临床医生的人工智能素养将评估他们理解人工智能结果的能力,并做出明智的临床决策,从而确保治疗的依从性和安全性。

一般来说,信息解释和分析的重要性已在文献中得到充分承认[94].例如,Tuffaha等[95]讨论了在医疗保健中使用信息分析的价值作为支持医疗保健决策方法的模型。信息分析方法的价值支持决策不确定性的测量和证据的充分性评估,以支持技术实施。宾德尔斯等[94]支持在卫生保健决策中使用信息分析的价值。尽管信息分析的价值是决策的一种实用方法,但目前缺乏人工智能的实施,也缺乏分析其对临床决策和患者安全影响的研究。这些发现提供了证据,证明安全问题必须以实证研究的形式得到进一步的关注,以为患者安全和关于人工智能的知情决策提供信息。目前的研究包括大量关于在任务和决策支持角色中使用人工智能的研究,在这些任务和决策支持角色中,用户或依赖人工智能使用的人可能面临人工智能技术可能造成伤害的风险。


基于之前讨论的文献,本研究提出以下概念框架(图2).该框架强调了临床医生对人工智能的认知功能和看法,涉及他们对技术的信任以及对患者安全(风险)的看法。此外,框架强调了认知功能情况意识、工作量、期望(表现和努力)、信任、患者安全、临床医生对人工智能的看法,以及对人工智能问责制的看法

图2。人工智能的生态验证——使用人工智能的信任、安全和决策。
查看此图

为了探索描述临床决策中临床医生-人工智能相互作用的概念框架,每个自变量在认知人为因素和行为经济学文献中都有操作先例。情境意识的测量方法有很多,包括但不限于Endsley的3层模型、知觉周期模型[96],活动理论模型[97].同样的,工作负载有许多基于专业或职业的适度竞争性操作,包括但不限于科学和临床工作和职业[9899].关于对人工智能的认知,在操作上的先例相对较少[One hundred.101].与临床医生-人工智能交互描述模型中的自变量类似,的因变量信任在人工智能而且对患者安全的认知在计算机科学和医疗保健文献中有大量的操作化[102103].

因此,该框架构成了一种社会认知方法,扩展了分布式认知理论,从而解释了人工智能的生态有效性。该模型利用了前几节中回顾的研究所暗示的(通常是明确陈述的)措施,必须包括这些措施,以理解决策中任何人类-人工智能交互模型的生态有效性。这些经过验证和完善的量表包括修改后的美国国家航空航天局的任务负荷指数[104],技术接受与使用模型的扩展统一理论[105]、多项目和先前验证的信任量表[106]及任务意识评定量表[107]用于态势感知[108].从本质上讲,认知工作量和情境意识是有限理性的操作化[109],期望和感知分别是动机和风险的操作化[110].

现实生活中的决策过程偏离了新古典主义或理性的决策模型,该模型假设完美的信息和无限的吸收能力、时间、精力和其他资源——正如框架所暗示的那样。该模型的基本理论是动机的期望值理论,该理论假定,以特定方式行事的特定决策(即临床医生的人工智能派生决策)的概率取决于决策者相信特定行为将引发预期结果(即患者安全)的程度。该模型可以根据未来研究者的定量建模进行不同的说明。该框架强调了可能影响临床医生使用人工智能系统意愿的形成因素。该框架捕捉了影响临床医生在其临床工作流程中使用人工智能的意图的因素。换句话说,未来的研究人员可以利用这个框架来探索影响临床医生使用人工智能系统的认知功能的因素,并依次影响患者对安全性或风险的感知、对人工智能的信任以及使用该技术的意图。随后,该框架还使我们能够了解人工智能是否以及如何影响临床决策。

利益冲突

没有宣布。

  1. 希格斯J,琼斯MA。临床决策和多重问题空间。入:希格斯J,詹森GM,洛夫特斯S,克里斯滕森N,编辑。卫生专业的临床推理。第三版。英国牛津:Butterworth-Heinemann;2008:3-18。
  2. 协同信息综合I:医学和公共卫生领域科学家的信息行为模型。科学学报2006 11月;57(13):1740-1749 [免费全文] [CrossRef
  3. 原因J.人为错误。英国剑桥:剑桥大学出版社;1990.
  4. Plsek PE, Greenhalgh T.复杂性科学:医疗保健复杂性的挑战。英国医学杂志2001 9月15日;323(7313):625-628 [免费全文] [CrossRef] [Medline
  5. Plsek PE, Wilson T.,医疗保健组织中的复杂性、领导力和管理。英国医学杂志2001 9月29日;323(7315):746-749 [免费全文] [CrossRef] [Medline
  6. 帕特尔VL,张杰,Yoskowitz NA, Green R, Sayan OR。危重病护理环境中决策支持的转化认知:综述。J Biomed Inform 2008 Jun;41(3):413-431 [免费全文] [CrossRef] [Medline
  7. 基于机器学习的临床决策支持中的信任和透明度。见:周杰,陈峰,编辑。人类和机器学习:可见、可解释、值得信赖和透明。瑞士占姆:施普林格;2018:279 - 292。
  8. Cypko MA, Stoehr M, Kozniewski M, Druzdzel MJ, Dietz A, Berliner L,等。临床贝叶斯网络模型在头颈部肿瘤治疗多学科决策中的验证工作流程。国际计算机辅助放射外科2017年11月;12(11):1959-1970。[CrossRef] [Medline
  9. 王晓明,王晓明,王晓明。多学科团队决策的影响因素研究。国际妇科癌症杂志2008;18(2):215-222。[CrossRef] [Medline
  10. Wekre LJ, Melby L, Grimsmo a .多剂量药物分配系统的早期经验——信任问题?Scand J Prim Health Care 2011 Mar;29(1):45-50 [免费全文] [CrossRef] [Medline
  11. 对技术的不适当信任:对重症护理护士的影响。护理危重症护理2011;16(2):92-98。[CrossRef] [Medline
  12. 医疗设备对患者健康的影响:患者安全和风险分析。中华临床杂志2011 7月;36(3):105-108。[CrossRef
  13. 何国强,韦奕利,夏霞。年龄差异对药物管理系统的信任与依赖。交互计算2005 Dec;17(6):690-710 [免费全文] [CrossRef
  14. 吴建辉,沈文伟,林林明,格林斯RA,贝茨DW。测试用于评估医疗保健专业人员使用不良事件报告系统的意图的技术接受模型。国际卫生保健杂志2008年4月20日(2):123-129。[CrossRef] [Medline
  15. Kleinman Z.大多数医疗保健应用程序不符合NHS标准。BBC新闻,2021年2月16日。URL:https://www.bbc.com/news/technology-56083231[2022-05-10]访问
  16. Mnih V, Kavukcuoglu K, Silver D, Graves A, Antonoglou I, Wierstra D.使用深度强化学习玩atari。arXiv预印本发布于2013年12月19日。[CrossRef
  17. adgboro CO, Choudhury A, Asan O, Kelly MM.人工智能改善NICU和PICU的健康结果:系统综述。Hosp儿科2022年1月01日;12(1):93-110。[CrossRef] [Medline
  18. 陈志强,李志强,李志强。机器学习在老年慢性疾病临床护理中的应用:一项系统文献综述。JAMIA公开赛2020年10月;3(3):459-471 [免费全文] [CrossRef] [Medline
  19. Lin S.临床医生的人工智能(AI)指南:为什么以及如何初级保健应该领导医疗保健AI革命。J Am Board Fam medicine 2022;35(1):175-184 [免费全文] [CrossRef] [Medline
  20. Martínez-Plumed F, Gómez E, Hernández-Orallo J.人工智能的未来通过技术准备水平。Telemat Inform 2021年5月;58:101525 [免费全文] [CrossRef
  21. 潘奇·T,玛蒂·H,切莉·洛杉矶。关于人工智能在医疗领域的“难以忽视的真相”。NPJ数字医学2019年8月16日;2:77 [免费全文] [CrossRef] [Medline
  22. 李志强,李志强。机器学习在医学中的应用。中华医学杂志2019年4月04日;38(14):1347-1358。[CrossRef] [Medline
  23. 在搜索技术准备水平(TRL) 10。航空科学技术2015 10月;46:12 -320 [免费全文] [CrossRef
  24. 奥尔特加·埃格亚JM, Román González MV。解释医生接受EHCR系统:TAM与信任和风险因素的延伸。Comput Human behaviour 2011 Jan;27(1):319-332 [免费全文] [CrossRef
  25. 信任和对风险和利益的认知对基因技术接受的影响。风险分析2000年4月20日(2):195-203。[CrossRef] [Medline
  26. 帕特尔VL, Kannampallil TG,肖特利夫EH。认知在产生和减轻临床错误中的作用。BMJ Qual Saf 2015七月;24(7):468-474。[CrossRef] [Medline
  27. Nsoesie EO。评估人工智能在临床环境中的应用。2018年美国医学会网络公开赛9月07日;1(5):e182658 [免费全文] [CrossRef] [Medline
  28. van den Bosch K, Bronkhorst A.人类与人工智能合作有利于军事决策。北大西洋公约组织-科学和技术组织,2018。URL:https://www.sto.nato.int/publications/STO%20Meeting%20Proceedings/STO-MP-IST-160/MP-IST-160-S3-1.pdf[2022-05-10]访问
  29. Bandaragoda T, Adikari A, Nawaratne R, Nallaperuma D, Luhach AK, Kempitiya T,等。基于人工智能的通勤行为分析框架,利用物联网进行实时决策。神经计算与应用2020年2月20日;32(20):16057-16071 [免费全文] [CrossRef
  30. 史瑞莎,本-米纳赫姆,冯·克拉夫。人工智能时代的组织决策结构。加州马纳格Rev 2019年7月13日;61(4):66-83。[CrossRef
  31. 马伟德,斯旺森,辛克BJ,派恩JM。急诊医学中的复杂系统思维:快速变化和相互关联的医疗保健景观的新范式。中华临床医学杂志2018年6月24日(3):629-634。[CrossRef] [Medline
  32. Qadri YA, Nauman A, Zikria YB, Vasilakos AV, Kim SW。医疗物联网的未来:新兴技术调查IEEE公共测量教程2020年2月11日;22(2):1121-1167。[CrossRef
  33. 机器人手术14年内涉及144例死亡。NBC新闻,2015年7月22日。URL:https://www.nbcnews.com/tech/tech-news/robotic-surgery-linked-144-deaths-2000-n395811[2022-06-07]访问
  34. Winfield AF, Jirotka M.道德治理对于在机器人和人工智能系统中建立信任至关重要。Philos Trans A数学物理工程科学2018年10月15日;376(2133):20180085 [免费全文] [CrossRef] [Medline
  35. Reddy S, Allan S, Coghlan S, Cooper P. AI在医疗保健应用的治理模型。J Am Med Inform association 2020年3月01日;27(3):491-497 [免费全文] [CrossRef] [Medline
  36. 价格2nd WN, Gerke S, Cohen IG。医生使用人工智能的潜在责任。美国医学会2019年11月12日;322(18):1765-1766。[CrossRef] [Medline
  37. Carayon P, Schoofs Hundt A, Karsh B, Gurses AP, Alvarado CJ, Smith M,等。患者安全工作系统设计:SEIPS模型。Qual Saf保健2006年12月;15增刊1:i50-i58 [免费全文] [CrossRef] [Medline
  38. A.评估医疗保健质量。米尔班克股票基金Q 1966七月;44(3):166-206。[Medline
  39. Khan OF, Bebb G, Alimohamed NA。医学中的人工智能:肿瘤学家需要了解它的潜力和局限性。Oncol Exch 2017 11月;16(4):p8-13。
  40. 门德尔松EB。乳房成像中的人工智能:潜力与限制。美国放射学杂志2019年2月;212(2):293-299。[CrossRef] [Medline
  41. Hashimoto DA, Witkowski E, Gao L, Meireles O, Rosman G.人工智能在麻醉学中的应用:当前技术,临床应用和局限性。麻醉学2020年2月;132(2):379-394 [免费全文] [CrossRef] [Medline
  42. Kappagoda A.系统思维在医学中的力量。医学杂志2014年3月3日;200(4):189。[CrossRef] [Medline
  43. 乔杜里,阿山。人为因素:人工智能与患者安全的桥梁。人体健康2020年9月16日;9(1):211-215。[CrossRef
  44. 护理捷径可以减少安全。护理2009年12月39(12):16-17。[CrossRef] [Medline
  45. Abuhav I. ISO 13485:2016:医疗器械行业质量管理完整指南,第二版。博卡拉顿,佛罗里达,美国:CRC出版社;2016年5月11日。
  46. CFR -联邦法规法典第21篇。美国食品和药物管理局,2020年。URL:https://www.accessdata.fda.gov/scripts/cdrh/cfdocs/cfCFR/CFRSearch.cfm?fr=820.3[2021-03-28]访问
  47. 刘国强,刘国强。区域科技信息中心信息服务用户使用动机研究。Lib Philos Pract 2017:1649。
  48. 决策者使用信息源的差异:信息质量和可获取性的影响。中国科学院学报1982年12月1日;25(4):756-771 [免费全文] [CrossRef
  49. 廖世生,费文伟,陈成昌。知识共享、吸收能力与创新能力:台湾知识密集型产业的实证研究。J . Inf科学2007 6月1日;33(3):340-359 [免费全文] [CrossRef
  50. 吸收能力:一刀切?企业层面对不同类型知识吸收能力的分析。Manage Decis Econ 2009年1月;31(1):1-18 [免费全文] [CrossRef
  51. 复杂环境中信息相关性对决策的影响。Mem Cogn 1973 Sep;1(3):224-228 [免费全文] [CrossRef
  52. 雪铁龙CL。信息在战略决策中的作用。2011年12月;31(6):493-501 [免费全文] [CrossRef
  53. 戴维斯FD,巴戈齐RP,沃肖PR.计算机技术的用户接受:两种理论模型的比较。中国农业科学,1989年8月1日;35(8):982-1003。[CrossRef
  54. 本巴萨特I.在决策中使用信息:基于计算机的决策辅助影响的实验调查。MIS Q 1992 Sep;16(3):373-393 [免费全文] [CrossRef
  55. Snead Jr KC, Harrell AM。期望理论的应用解释管理者使用决策支持系统的意图。科学通报1994年7月;25(4):499-510 [免费全文] [CrossRef
  56. 史刚,马志,冯军,朱峰,白晓霞,桂波。知识转移绩效对人工智能产业创新网络的影响——基于中国企业的实证研究。PLoS One 2020年5月18日;15(5):e0232658 [免费全文] [CrossRef] [Medline
  57. Prevedello LM, Halabi SS, Shih G, Wu CC, Kohli MD, Chokshi FH,等。医学成像人工智能研究的挑战和图像分析比赛的重要性。Radiol Artif Intell 2019年1月;1(1):e180031 [免费全文] [CrossRef] [Medline
  58. 庄园JC。人工智能和人类决策。欧洲法令1997年5月16日;99(1):3-25 [免费全文] [CrossRef
  59. 陈KS, Zary N.在医学教育中实施人工智能的应用和挑战:综合综述。JMIR Med Educ 2019 6月15日;5(1):e13930 [免费全文] [CrossRef] [Medline
  60. 孙k,权五。基于人工智能的智能产品的技术接受理论及影响因素。Telemat Inform 2020年4月;47:101324 [免费全文] [CrossRef
  61. 张东,周玲,傅晓霞。文化、社会存在感和群体构成对技术支持决策群体信任的影响。Inf Syst J 2010 5月;20(3):297-315 [免费全文] [CrossRef
  62. 约翰逊DS。通过身份承诺、计算承诺和对技术的信任,通过电子渠道实现客户价值。J Interact Mark 2007 Aug 01;21(4):2-22 [免费全文] [CrossRef
  63. 信任和技术:航空监管的社会基础。中华医学杂志2010 3月61(1):83-106。[CrossRef] [Medline
  64. Mcknight DH, Carter M, Thatcher JB, Clay PF.对特定技术的信任:对其组成和度量的调查。ACM Trans Manage Inf Syst 2011 Jun 01;2(2):1-25。[CrossRef
  65. 兰顿NK,麦克奈特DH。信任Facebook意味着什么?:研究技术和人际信任信念。SIGMIS数据库2011 5月24日;42(2):32-54 [免费全文] [CrossRef
  66. 奥利弗RL。预期和不确认对暴露后产品评价的影响:另一种解释。中华心理医学杂志,2007;26(4):489 - 497。[CrossRef
  67. 李晓霞,王志强,王志强。我们为什么相信新技术?组织信息系统初始信任形成研究。J strategic Inf Syst 2008 3月;17(1):39-71 [免费全文] [CrossRef
  68. 蒙塔古EN,凯鹏华盈BM,温彻斯特III WW。对医疗技术信任的实证理解。国际工业与工效杂志2009 july;39(4):628-634 [免费全文] [CrossRef
  69. Hurlburt G.人工智能有多可信?IT教授2017年8月17日;19(4):7-11。[CrossRef
  70. 亨斯特勒M, Enkel E, Duelli S.应用人工智能和信任-自动驾驶汽车和医疗辅助设备的案例。技术预测Soc变化2016年4月;105:105-120 [免费全文] [CrossRef
  71. 格里克森E,伍利AW。人类对人工智能的信任:实证研究综述。中国科学院学报2020年7月;14(2):627-660。[CrossRef
  72. Kerasidou A.人工智能以及医疗保健中对同理心、同情和信任的持续需求。牛世界卫生机构2020年04月01日;98(4):245-250 [免费全文] [CrossRef] [Medline
  73. 蒋峰,蒋勇,智华,董勇,李华,马松,等。医疗保健领域的人工智能:过去、现在和未来。脑卒中血管神经病学2017年6月21日;2(4):230-243 [免费全文] [CrossRef] [Medline
  74. Banerjee I, Li K, Seneviratne M, Ferrari M, Seto T, Brooks JD,等。弱监督自然语言处理用于评估前列腺癌治疗后以患者为中心的结果。2019年4月2日(1):150-159 [免费全文] [CrossRef] [Medline
  75. 谢尔武J,沈SC, Stallcup K, Thomas A, Farnum MA, Lobanov v,等。一个新的风险和问题管理系统,以提高生产力,质量和临床试验的合规性。2019年7月;2(2):216-221 [免费全文] [CrossRef] [Medline
  76. Ronquillo JG, Erik Winterholler J, Cwikla K, Szymanski R, Levy C.健康IT,黑客攻击和网络安全:受保护健康信息数据泄露的国家趋势。2018年7月1日(1):15-19 [免费全文] [CrossRef] [Medline
  77. 杜丽娟,刘志强,李志强,等。系统工程和人为因素支持一个系统的新型电子病历集成工具,以防止伤害在医院。J Am Med Inform association 2019年6月01日;26(6):553-560 [免费全文] [CrossRef] [Medline
  78. Sanchez-Morillo D, Fernandez-Granero MA, Leon-Jimenez a .预测算法在慢性阻塞性肺疾病和哮喘家庭监测中的应用:一项系统综述。Chron Respir Dis 2016 Aug;13(3):264-283 [免费全文] [CrossRef] [Medline
  79. 佩莱格里尼E, Ballerini L, Hernandez MD, Chappell FM, González-Castro V, Anblagan D,等。神经成像的机器学习辅助诊断认知障碍和痴呆:系统综述。老年痴呆症(Amst) 2018 Aug 11;10:519-535 [免费全文] [CrossRef] [Medline
  80. 萨夫达尔,扎法尔,扎法尔,汗NF。基于机器学习的心脏病诊断决策支持系统综述。Artif Intell Rev 2018年12月;50(4):597-623。[CrossRef
  81. 刘志刚,刘志刚,刘志刚。机器学习和微观模拟技术对老年痴呆症预后的影响:一项系统文献综述。PLoS One 2017 6月29日;12(6):e0179804 [免费全文] [CrossRef] [Medline
  82. 刘x, Faes L, Kale AU, Wagner SK, Fu DJ, Bruynseels A,等。深度学习表现与医疗保健专业人员在从医学成像检测疾病方面的比较:系统回顾和荟萃分析。柳叶刀数字健康2019 10月;1(6):e271-e297 [免费全文] [CrossRef] [Medline
  83. 陈敏,郝勇,黄凯,王磊,王磊。基于医疗保健社区大数据的机器学习疾病预测。IEEE Access 2017年4月26日;[CrossRef
  84. 叶德华,谭淑娟,冯凯,MacNeil SD,刘杰,Winquist E,等。经口机器人手术与放疗治疗口咽鳞状细胞癌——文献系统综述。欧洲外科杂志2015年12月;41(12):1603-1614。[CrossRef] [Medline
  85. Ficarra V, Novara G, Rosen RC, Artibani W, Carroll PR, Costello A,等。对机器人辅助根治性前列腺切除术后尿失禁恢复的研究进行系统回顾和荟萃分析。《欧洲泌尿学杂志》2012年9月;62(3):405-417。[CrossRef] [Medline
  86. 杜斯韦特,刘俊杰,刘志强,刘志强。经口机器人手术在口咽癌治疗中的作用:文献综述。ISRN Oncol 2012;2012:945162 [免费全文] [CrossRef] [Medline
  87. Karthik K, colate - stone T, Dasgupta P, Tavakkolizadeh A, Sinha J.创伤和骨科机器人手术:系统综述。骨联合杂志2015 Mar;97-B(3):292-299。[CrossRef] [Medline
  88. Klock M, Kang H, Gong Y.使用质量标准和机器学习对患者跌倒报告进行评分。种马健康技术通知2019年8月21日;264:639-643。[CrossRef] [Medline
  89. 王娥,康宏,龚颖。基于FDA MAUDE报告的卫生信息技术事件数据库的生成。种马健康技术通知2019年8月21日;264:883-887。[CrossRef] [Medline
  90. 周松,康宏,姚波,龚艳。一种分析临床用药事件报告的自动化管道。BMC Med Inform Decis Mak 2018 Dec 07;18(Suppl 5):113 [免费全文] [CrossRef] [Medline
  91. Woolf SH, Chan EC, Harris R, Sheridan SL, Braddock 3rd CH, Kaplan RM,等。促进知情选择:改变卫生保健,为决策提供知识。安实习医学2005年8月16日;143(4):293-300。[CrossRef] [Medline
  92. Légaré F, Adekpedjou R, Stacey D, Turcotte S, Kryworuchko J, Graham ID,等。增加医疗保健专业人员共享决策使用的干预措施。Cochrane Database Syst Rev 2018 7月19日;7(7):CD006732 [免费全文] [CrossRef] [Medline
  93. 爱德华兹M,戴维斯M,爱德华兹a .医疗咨询中信息交换和共享决策的外部影响是什么:文献的综合。患者教育杂志2009年4月;75(1):37-52。[CrossRef] [Medline
  94. 宾德尔斯J, Ramaekers B, Ramos IC, Mohseninejad L, Knies S, Grutters J,等。医疗保健决策中信息价值的使用:探索多角度。药物经济学2016 Mar;34(3):315-322 [免费全文] [CrossRef] [Medline
  95. Tuffaha HW, Gordon LG, Scuffham PA。肿瘤信息分析的价值:证据的价值和证据的价值。J Oncol Pract 2014年3月10日(2):e55-e62。[CrossRef] [Medline
  96. 史密斯K,汉考克PA。情境意识是一种适应性的、外部导向的意识。Hum Factors 1995 3月1日;37(1):137-148。[CrossRef
  97. 活动与情境意识理论。中华实用医学杂志1999年1月3日(1):63-72。[CrossRef
  98. 尼葛伦TE。主观工作量测量技术的心理测量特性:在感知心理工作量评估中使用的影响。Hum Factors 1991 Feb 1;33(1):17-33。[CrossRef
  99. 李德昌,李志强,李志强。工作负荷测量方法。应用临床试验2010年8月2日。URL:https://www.appliedclinicaltrialsonline.com/view/workload-measurement[2022-05-10]访问
  100. 王东,Weisz JD, Muller M, Ram P, Geyer W, Dugan C,等。数据科学中的人类与人工智能合作:探索数据科学家对自动化人工智能的看法。Proc ACM Hum Comput交互2019 11月07日;3(CSCW):1-24。[CrossRef
  101. Salminen J,刘永华,Şengün S, Santos JM, Jung SG, Jansen BJ。数字和文本信息对人工智能驱动的人物界面的视觉参与和感知的影响。见:第25届智能用户界面国际会议论文集,2020年3月,IUI '20;2020年3月17日至20日;卡利亚里,意大利,页357-368。[CrossRef
  102. Arnold M, Bellamy RK, Hind M, Houde S, Mehta S, Mojsilovic A,等。事实说明:通过供应商的一致性声明增加对人工智能服务的信任。IBM J Res Dev 2019 9月18日;63(4/5):6:1-613。[CrossRef
  103. 李世强,潘伟强,杜曼,王志强,李志强。交接、安全文化和实践:来自医院对患者安全文化调查的证据。BMC Health Serv Res 2016 7月12日;16:254 [免费全文] [CrossRef] [Medline
  104. 党亚明,张毅刚,Brown SA,陈辉。心理负荷和任务技术拟合对社交媒体搜索系统用户接受度的影响研究。Inf系统前沿2018年9月8日;22(3):697-718。[CrossRef
  105. 曹国伟厘米。决定使用移动学习的行为意图的因素:UTAUT模型的应用和扩展。前沿精神2019年7月16日;10:1652 [免费全文] [CrossRef] [Medline
  106. Ghazizadeh M, Peng Y, Lee JD, Boyle LN。用信任增强技术接受模型:商业司机对监控和反馈的态度。Proc Hum Factors Ergon Soc Annu Meet 2012年9月01日;56(1):2286-2290。[CrossRef
  107. Matthews MD, Beal SA。在实地训练演习中评估态势意识。美国陆军行为和社会科学研究所,2002年9月。https://apps.dtic.mil/sti/pdfs/ADA408560.pdf[2022-05-10]访问
  108. 简问。人力绩效和态势感知措施。博卡拉顿,佛罗里达,美国:CRC出版社;2019.
  109. 有限意识:道德决策的影响。器官行为Hum Decis Process 2016 Sep;136:95-105 [免费全文] [CrossRef
  110. 鲍曼先生,邦纳BL.期望理论研究团队协调:专业知识、任务特征和成员行为。J Behav Dec Making 2017 april 01;30(2):407-419 [免费全文] [CrossRef


人工智能:人工智能
HFE:人为因素和人体工程学
冲击:卫生信息技术
SEIPS:患者安全安全工程倡议
实验室:技术准备水平


编辑:A Kushniruk;提交03.12.21;G Maddern, OS Liang同行评审;对作者06.03.22的评论;订正版本收到日期26.03.22;接受20.05.22;发表21.06.22

版权

©Avishek Choudhury。最初发表在JMIR Human Factors (https://humanfactors.www.mybigtv.com), 21.06.2022。

这是一篇根据创作共用署名许可协议(https://creativecommons.org/licenses/by/4.0/)发布的开放获取文章,允许在任何媒介上不受限制地使用、分发和复制,前提是正确引用了首次发表在JMIR Human Factors上的原创作品。必须包括完整的书目信息,https://humanfactors.www.mybigtv.com上的原始出版物的链接,以及此版权和许可信息。


Baidu
map