JMIR人为因素 JMIR嗡嗡声因子 JMIR人为因素 2292 - 9495 卡塔尔世界杯8强波胆分析 加拿大多伦多 v9i2e35421 35727615 10.2196/35421 的观点 的观点 为在临床环境中使用人工智能建立生态有效的概念框架:在保护技术和临床医生方面需要系统思考、问责制、决策、信任和患者安全考虑 Kushniruk 安德烈 Maddern 的家伙 欧斯特拉 Choudhury Avishek 博士学位 1
工业与管理系统工程“, 本杰明M斯塔特勒工程与矿产资源学院 西弗吉尼亚大学 埃文斯代尔路1306号 邮箱6107号 Morgantown, WV, 26506-6107 美国 1 5156080777 avishek.choudhury@mail.wvu.edu
https://orcid.org/0000-0002-5342-0709
工业与管理系统工程“, 本杰明M斯塔特勒工程与矿产资源学院 西弗吉尼亚大学 西弗吉尼亚州摩根城 美国 通讯作者:Avishek Choudhury avishek.choudhury@mail.wvu.edu Apr-Jun 2022 21 6 2022 9 2 e35421 3. 12 2021 6 3. 2022 26 3. 2022 20. 5 2022 ©Avishek Choudhury。最初发表在JMIR Human Factors (https://humanfactors.www.mybigtv.com), 21.06.2022。 2022

这是一篇根据创作共用署名许可协议(https://creativecommons.org/licenses/by/4.0/)发布的开放获取文章,允许在任何媒介上不受限制地使用、分发和复制,前提是正确引用了首次发表在JMIR Human Factors上的原创作品。必须包括完整的书目信息,https://humanfactors.www.mybigtv.com上的原始出版物的链接,以及此版权和许可信息。

医疗保健管理和医疗从业者文献缺乏一个描述性的概念框架来理解临床医生和人工智能(AI)系统之间的动态和复杂的相互作用。由于现有的大多数文献都是从统计(分析)的角度研究人工智能的性能和有效性,缺乏确保人工智能生态有效性的研究。在这项研究中,我们得出了一个框架,明确关注人工智能和临床医生之间的互动。提出的框架建立在成熟的人为因素模型,如技术接受模型和期望理论。该框架可用于执行定量和定性分析(混合方法),以捕捉临床医生- ai交互如何根据预期、工作量、信任、与吸收能力和有限理性相关的认知变量以及对患者安全的担忧等人为因素而变化。如果加以利用,提出的框架可以帮助确定影响临床医生使用人工智能意图的因素,从而提高人工智能的接受度,解决人工智能问责制缺乏的问题,同时保护患者、临床医生和人工智能技术。总体而言,本文讨论了多学科决策文献的概念、命题和假设,构成了一种扩展分布式认知理论的社会认知方法,从而解释了人工智能的生态有效性。

卫生保健 人工智能 生态效度 信任人工智能 临床工作负载 患者安全 AI问责 可靠性
简介

随着多学科合作保健的发展[ 1],临床医生比以往任何时候都有更多的信息和专业知识来指导临床决策[ 2].然而,当面对的信息和知识(1)并不总是在临床医生的主要或重点专业知识的范围内,并且(2)数量如此之多,以至于临床医生难以可靠、有效和及时地处理时,临床医生往往会求助于有限的理性,在某些情况下,是不正确的诊断、治疗和其他临床决策[ 3.].对临床医生有限的吸收和认知能力的相关问题的回应是将人工智能(AI)集成到医疗保健决策中[ 4- 6].然而,在多学科、复杂和协作决策中,对有限的吸收和认知能力问题的技术解决方案可能会引入新的情况[ 7].例如, 团队科学在临床环境中,可能会出现相互竞争的诊断和治疗和健康处方[ 8 9].此外,当新技术用于决策时 从上面(例如,通过管理,而不是有机地)或 从下面(例如,在临床医生层面,临床医生可能并不总是信任或打算使用这些技术)[ 10].

关于人工智能的信任和人工智能系统在临床决策中的使用的问题说明了理性决策模型和描述性决策模型之间的经典区别。对临床决策的研究表明,在临床决策中引入综合技术(包括但不限于人工智能)的理性模式并不总是得到数据的支持。换句话说,临床决策的理性模型[ 6 11 12]和决策,一般来说在生态上是无效的;他们假设完美的信息,理想的吸收和认知能力,最佳的信任,以及无限的资源来做出充分和正确的决策。描述性实证研究表明,由于最终用户(护理提供者)的认知能力有限、信息过载或数据缺乏以及对技术的次优信任,临床环境中技术辅助决策的混合影响[ 7 13 14].

与大多数技术类似,人工智能在医疗保健生态系统中可能是福也可能是祸。随着医疗保健领域自主活动的增加,关于人工智能和人为因素的挑战可能在个人层面(例如,意识和信任)、宏观层面(例如,法规和政策)和技术层面(例如,可用性和可靠性)明显表现出来,因为许多医疗保健人工智能应用程序设计不佳,没有得到彻底评估[ 15].因此,在医疗人工智能系统中考虑人的因素和人机工程学(HFE)已成为必要。如果在开发人工智能系统时加以利用,HFE原则和方法可以在不影响患者安全或临床协议的情况下增加其使用和采用。在人工智能在医疗保健领域可能造成的所有HFE挑战中,次优临床医生-人工智能交互非常重要。在医疗保健中集成设计不佳的人工智能可能会使临床医生和计算机(智能)系统之间的关系复杂化。与其他医疗保健技术不同,人工智能的复杂性更高,因为它可以(通过聊天机器人、自动推荐系统、健康应用程序等)根据从临床医生和患者那里收到的输入(反馈)与他们互动。人工智能的输出(人工智能产生的结果)很大程度上取决于输入的信息,例如某些类型的人工智能,强化学习[ 16],根据用户输入进行学习和调整,以优化结果。因此,临床医生与人工智能的互动可能会影响人工智能的表现,进而影响临床医生对人工智能的看法。最佳和成功的临床医生-人工智能交互取决于几个因素,包括情景意识、认知工作量、工作环境和情感资源(例如,当前的精神状态、使用人工智能的意愿、以前使用人工智能技术的经验、对技术的信任等)。大多数关于医疗保健AI的研究都忽略了(1)生态有效性和(2)人类认知,这可能会在与临床医生和临床环境的界面上带来挑战。此外,针对改善人为因素的研究不足,主要表现在:(1)如何确保临床医生是否正确实施;(2)在压力环境中工作的临床医生的认知工作量;(3)对临床医生的情况意识、临床决策和患者安全结局的影响。尽管关于人工智能的研究已经报告了其在医学上的巨大性能和潜力[ 17- 19],研究突破(研究环境中的人工智能表现)并不一定会转化为可用于高风险环境的技术[ 20.,比如医疗保健。此外,大多数在研究和文献中具有突出能力的AI在临床环境中无法执行[ 21 22].根据技术准备水平(TRL),大多数人工智能系统,至少在儿科和新生儿重症监护中,如果不是全部的话,都没有资格实施[ 17].

TRL是一个衡量系统,用以评估某项技术的成熟程度[ 23].它包括9个类别(准备程度),其中trl1分是最低的,trl9分是最高的( 文本框1).

技术准备水平(TRLs;1 - 9)。

具有TRL 1-4的技术可在实验室环境中执行,其主要目标是进行研究。这个阶段是概念的验证。

TRL 1:所观察到的技术的基本原理

TRL 2:技术概念的制定

TRL 3:概念开发的实验证明

TRL 4:在研究实验室验证的技术

TRL 5-7技术处于开发阶段,功能原型已经准备就绪。

TRL 5:在相关环境中验证的技术(现实环境中的受控设置)

TRL 6:在相关环境中展示的技术

TRL 7:在操作环境中演示的系统原型

最后,TRL 8和9的技术处于操作阶段,其主要目标是实现。

TRL 8:系统完成并认证用于商业用途

TRL 9:在实际操作环境中批准并实施的系统

例如,在临床环境中,护士和医生已经表现出对人工智能缺乏信任,包括机器学习分析和决策工具[ 7];为提高决策效率和效力而设计的许多其他信息技术,如药物管理系统[ 13]、事件报告系统[ 14],以及电子医疗纪录系统[ 24];以及基因治疗等临床生物技术[ 25].有证据显示不正确使用临床技术,例如对自动化护理工具的毫无根据的信任和依赖,导致了不良的健康后果,包括但不限于可避免的死亡[ 11]及不适当使用医疗仪器对病人造成伤害[ 12 26].重要的是要理解人工智能的影响,特别是在医疗保健领域,不仅是其潜在数学过程的准确性的函数,而且是人类认知因素的函数,包括信任、感知、可用性和安全性。因此,为了最大限度地减少医疗保健AI造成的错误(如其他医疗信息技术文献,如电子医疗记录),必须采用整体方法,将医疗保健视为一个动态的社会技术系统,其中的子元素相互作用。

客观的

本研究旨在从认知人为因素和决策文献中提出一个描述性的概念框架。请注意,这个框架不是一个理性模型。然后,未来的研究可以利用这一框架,并为最终开发最佳人工智能临床医生交互的规范性框架提供信息。提出的框架可以最好地用于混合方法研究。换句话说,描述性概念框架将有助于捕捉临床医生和人工智能之间的交互。规范框架(由实验研究结果指导)将有助于开发更好的人工智能-临床医生互动。

本研究中提出的描述框架的新颖之处在于,它使用系统思维,并结合多种描述性(与理性)人为因素方法来理解决策中的临床医生-人工智能交互作用。尽管临床决策中的人为因素考虑可以增强人工智能等综合决策技术预期的积极影响,但到目前为止,关于临床医生如何以及在多大程度上使用人工智能进行诊断和医疗决策的研究很少。此外,临床环境中AI的实证研究的优势集中在AI驱动的诊断和护理决策的技术方面,即AI所需要的过多的机器学习算法和高维数据[ 27].少数关于人工智能在决策中使用人为因素的研究并不关注临床样本和背景,而是关注其他行业和经济部门的非临床应用,包括但不限于军事[ 28];交通运输( 29];组织设计,一般来说[ 30.].

框架开发

医疗保健管理和医生文献缺乏一个概念框架,以从系统的角度捕捉人工智能的影响,同时理解生态上有效的临床医生与人工智能的相互作用,特别是关注这种相互作用如何根据预期、信任、与吸收能力和有限理性相关的认知变量以及对患者安全的担忧等人为因素而变化。为了得出概念框架,本研究利用了(1)关于医疗实践中的系统思维和人工智能的文献,(2)人类决策中的信息使用,(3)信任和人工智能决策的通知,以及(4)患者安全和人工智能决策的通知。

医疗实践中的系统思维与人工智能 概述

技术进步和创新的扩散正在支持生活的各个方面的结构和制度的迅速转变,医疗实践也不例外。技术现在可以促进人类曾经认为不可能的活动的完成,并对卫生保健领域的重大社会和公共政策变化负责。例如,Widmer等人[ 31]讨论了美国医疗保健政策改革与技术进步和社会转变的融合,作为在医疗保健实践中大量使用人工智能的支持。他们认为,这些都是变革的力量,影响着为医学问题制定复杂解决方案的能力。这些解决方案的技术形式往往依赖人工智能来支持决策。卡德里等[ 32]调查了新医疗保健技术的现状,揭示了人工智能和依赖人工智能的工具在医学中的无处不在。例如,医疗保健物联网对医疗保健信息技术的影响是巨大的[ 32,随着系统变得越来越智能和广泛,技术创新的巨大规模无情地向前推进。随着这些系统成为卫生保健的一个组成部分,系统思维将变得越来越重要,因为卫生保健所需的任务技术匹配的复杂性。

医疗保健行业在技术和临床工作流程方面都出现了一些设计错误。集成未经过适当设计和测试的HITs极有可能导致新类型的技术诱导错误,通常是医疗保健领域的新错误。这种错误通常表现在实际临床使用过程中,卫生保健提供者与HIT之间的复杂互动中。例如,在最近,手术机器人造成144名患者死亡,1391名患者受伤[ 33].一旦整合,这些技术还可以改变现有的临床工作流程。例如,将AI集成到临床工作流程中,而不考虑其对临床医生、患者、医院费用、工作流程速度、保险索赔流程(先前的授权)和其他方面的影响,可能会扰乱整个护理流程。例如,考虑到人工智能对数据的依赖,我们可以假设,即使是最好的人工智能系统有时也会出错,导致患者安全受损。虽然临床错误和未遂事故在医疗保健中很常见,但人工智能错误可能是非常独特的。首先,人工智能系统产生的错误可能会在临床医生没有发现的情况下变得广泛,导致整个系统的错误,而不是由于任何提供者的错误而造成有限数量的患者受伤。其次,跟踪AI错误也可能变得非常具有挑战性,主要是在深度学习算法的支持下。如此复杂的系统(AI)由于其固有的不透明性质,可能会使根本原因分析非常令人生畏,几乎不可能。人工智能系统的性能在很大程度上取决于它们所训练的数据。由于现有的数据存储库存在偏见,在不解决数据质量问题的情况下,人工智能集成可能会加剧医疗保健偏见。

卫生保健当局必须考虑几个外部因素,如临床医生在临床实践中使用人工智能的意愿,获得不同专业知识的临床医生所需的人工智能培训的持续时间和频率,以及为个别临床医生和患者个性化人工智能的可行性。此外,作为医院AI的潜在用户,医生和护士也可能由于缺乏AI素养或AI的可用性不佳而滥用系统。因此,系统思维方法对于人工智能的安全集成至关重要。

此外,基于人工智能的技术可能不适用于罕见疾病患者,因为他们的数据并不充分。卫生保健当局还必须确保,随着时间的推移,临床专家不会因为人工智能的实施而丧失技能或被永久取代。换句话说,安全和可持续的人工智能集成需要一种系统方法,其中考虑到不同卫生保健利益相关者之间的所有互动。

与任何复杂系统类似,医疗保健和人工智能的子系统可以在三个主要层面上受到几个因素的影响:(1)治理——政策、法规和协议;(2)组织性[ 34]——问责制、恢复力、生态有效性和可行性;(3)个人对人工智能和安全实践的信任( 图1).

影响医疗保健中人工智能使用的因素——系统观点。

治理水平

在这项研究中,AI治理被定义为在大型医疗保健生态系统中调节和控制AI的一组系统。它指导组织目标和风险监控,以实现优化的性能。换句话说,人工智能治理是一个 系统中的系统这需要一种全面的方法,将战略规划纳入所有组织层面。现有研究将医疗保健人工智能治理限制在组织结构和临床决策过程的边界内,不利用专有权利的透明度,技术的公平性和问责制[ 35].

然而,许多关键因素没有被考虑。弹性;生态效度;使用人工智能的安全操作协议;参与;利益相关者,包括保险公司的责任;人为因素也应作为医疗人工智能治理的重要组成部分。 系统思考可以帮助监管机构和组织将人工智能和医疗保健的整合视为两个复杂系统的合并。换句话说,系统方法将使我们能够捕捉和理解各种因素之间的动态关系,如政策和协议,如何影响将人工智能纳入医疗保健生态系统的弹性和可行性。明确定义的政策和协议以及所有利益相关者的参与也将有助于解决当前对人工智能问责制的担忧——谁应该为有缺陷的人工智能系统或不正确的人工智能输出负责?从人为因素的角度来看,系统方法可以倡导人工智能的生态有效性,确保该技术是针对给定的不受控制的环境进行适当的设计和开发的。解决这些问题可以增加临床医生对人工智能技术的初始信任,从而增加他们接受人工智能的可能性。

组织层面

的子组件进一步展开 图1医疗保健中的人工智能治理应考虑(1)弹性思维方法,(2)问责制,(3)人工智能的生态有效性。 弹性思维是一种全面的方式,研究在不确定性或系统性错误期间,临床医生和临床环境(包括人工智能技术)的交互系统如何得到最佳管理。

这项研究定义了 AI问责在这个过程中,医疗保健从业者有潜在的责任来证明他们的 临床操作对患者(或家属),并对任何即将对患者健康产生的积极或消极影响负责。在使用基于人工智能的决策支持系统时,只有临床医生在决定遵循人工智能时才会被问责,从而导致患者受到伤害。如果临床医生偏离了标准方案,他们也要承担责任[ 36].这可能令人担忧,因为在这种情况下,临床医生只会在人工智能符合他们的判断并符合标准方案的情况下才会使用人工智能,这使得人工智能没有得到充分利用。根据我们最近的调查( 机构审查委员会2022-007由美国史蒂文斯理工学院批准的)由265名积极在美国执业的临床医生组成,缺乏人工智能问责制是医疗保健领域采用人工智能的重大障碍。临床医生犹豫并拒绝使用AI,因为他们不想为错误的AI承担责任。我们调查的参与者主张与患者签订合同协议,制定政策,保护他们免受人工智能错误和相关患者安全问题的影响。 文本框2显示了临床医生提供的一些反应。

由卫生保健从业人员提供的解决方案,以解决缺乏人工智能(AI)问责-类别和样本响应。

与患者的合同协议

“我认为解决方案需要让患者签署知情同意书,让人工智能在他们的护理中使用,而且人工智能做出的决定不能反映在提供者的护理中。”

“只有当患者愿意填写一份关于使用人工智能的利弊以及潜在的危害或好处的问卷时,才应该使用人工智能,让从业者了解他们可能实现或可能无法实现的潜在结果。”

“(我)认为,如果使用人工智能,患者应该签署弃权书。”

政策及安全措施

“将其与现有的培训和保障措施结合使用。”

“人工智能的使用需要受到监管。制造商应该为任何关于病人护理的疏忽或错误决定承担全部责任。”

“(我)不想为人工智能的建议负责。制定保护临床医生的政策很重要。”

作为一个复杂的系统,卫生保健机构的子系统受到若干内部和外部因素的影响。医疗保健系统的这种复杂性可以通过使用人为因素方法来很好地解释,例如患者安全安全工程倡议(SEIPS)框架[ 37].由Carayon等人开发[ 37], SEIPS框架部分基于Donabedian著名的卫生保健质量结构-过程-结果模型[ 38].可以说,它是医疗保健中最受认可和发表的基于系统的人为因素框架之一。SEIPS框架说明了人(患者和临床医生)、技术(此处为人工智能)、任务(支持患者安全和健康的临床活动)和环境(临床和组织设置)之间的动态交互。然而,还没有研究使用SEIPS框架从系统的角度来理解人工智能对医疗保健的影响。

个人层面

当医疗从业人员考虑在病人护理中应用新技术时,仔细审查是必不可少的。人工智能在医疗实践中的好处也有局限性。在进行创新决策时,特别是当人类生命处于危险之中时,如果不承认它们,可能会导致系统事故。研究[ 39讨论了人工智能在医学上应用的局限性,重点讨论了其在肿瘤学中的应用。他们指出,机器学习在肿瘤实践中发挥着重要作用。机器学习是人工智能的一个子集,涉及计算机通过数据输入自主学习的能力[ 39].在肿瘤学领域,机器学习的好处包括应用于风险建模、参与诊断和分期调查、预后预测和治疗反应预测。在使用AI时仍然存在局限性,例如成本、对数据质量的过度依赖、黑箱效应、获得对机器学习技术的信任和接受[ 39].门德尔松( 40]呼应了Khan等人讨论的一些局限性[ 39,他指出,医生在对乳房成像检查的结果做出决定时,不能只依赖人工智能。门德尔松( 40]将人工智能的首选角色描述为支持诊断和患者管理。

尽管医生和研究人员描述了由于人工智能的分析能力和偏见而在接受人工智能方面的一些限制,但其他人为因素往往被忽视。虽然人工智能用于决策的方法和程序不断改进,但必须进一步探索利用人为因素原则。保护人工智能和患者的解决方案是接受医疗保健的系统思维方法,在这种方法中,医生将人工智能纳入一个角色,如Mendelson [ 40注意的,支持性质的。正如Khan等人所描述的[ 39],由于黑盒效应,人工智能的信任问题似乎是有根据的,在黑盒效应中,人工智能提供了解决方案的结果;然而,无法描述该解决方案的基本原理。桥本等[ 41他指出,尽管黑盒效应存在,但人们正在努力设计解决方案,以减轻医疗实践中的黑盒效应。神经网络方法得到的黑盒结果可以得到正确的响应[ 41].然而,在做出对患者生死攸关的决定时,医生不能只依赖人工智能的结果。这个体系无法自我解释。尽管医生可以更多地了解人工智能,以更好地理解结果[ 40],人类对人工智能的信任问题仍然具有挑战性,因为人工智能的设计不支持透明度[ 40].因此, 人工智能的局限性并不仅仅是基于人工智能本身,而是基于人工智能及其用户对技术缺乏理解之间的关系 并非所有依赖人工智能所需的信任都能来自更好的设计功能。有些肯定来自于技术的广泛接受,系统思维的跨学科性质可以在改善人类和AI在医学上的关系方面发挥作用.然而,必须记住信任的动态性质,用户需要对技术有先验的信任才能第一次使用它。展望未来,他们对它的信任可以成为他们对技术及其有效性的经验的功能。

除了医疗服务中断可能对患者造成伤害外,系统如何组合在一起的复杂性也可能导致系统事故。Kappagoda [ 42]讨论了航空系统事故的问题,以说明当存在设计缺陷、不良维护实践和监管失误时可能出现的问题。同样,在医疗保健领域,糟糕的人工智能设计也会导致患者受到伤害,临床医生可能会误解人工智能信息,或者在人工智能显示器上点击错误的选项。不充分的维护,即不使用新的患者数据重新训练AI,可能会影响其预测的准确性,从而阻碍患者的安全[ 43].此外,有时床边护理提供者做出的临床决策不一定符合标准指南(针对特定患者类型)或跳过规定的临床步骤(在工作量过大的情况下),以迅速完成特定的临床目标[ 44].因此,人工智能开发人员在设计他们的产品时应该考虑到这种人类行为,这样人工智能就可以作为一种支持,而不是日常临床工作流程中的障碍。

美国有一些与医疗设备有关的保证。其中包括国际标准化组织13485医疗器械质量标准[ 45联邦法规第820.3(l)号第21条[ 46].尽管这些认证和法规的存在是为了保护患者,但当系统事故伤害到患者时,医务人员仍然可以负责处理。因此,尽管人工智能可以对患者有很大的好处,并成为支持工作人员决策的有用工具,但医疗专业人员在评估护理策略时必须进行系统思考。

人类决策中的信息使用

在决策中使用或不使用某些信息的动机是复杂的,一些理论视角,如情境意识和期望理论,可以支持对这种动机的理解。索尔塔尼和法哈普尔[ 47]调查了用户使用信息服务的动机。他们的研究框架是期望理论。他们发现,用户使用信息服务的动机受到对结果价值的认识和对可访问性的看法的显著影响[ 47]. 虽然期望理论似乎在描述为什么使用或不使用人工智能方面发挥了作用,但其他人为因素可以支持预测用户行为.O ' reilly [ 48]审查了信息源使用方面的变化,以了解信息质量和可获得性作为影响其使用的因素的影响。O ' reilly [ 48]发现使用频率是最重要的使用影响因素。

吸收能力与使用信息的能力的关联是决策心理学的另一个重要方面。廖等人的研究结果[ 49]表明吸收能力对创新有影响,但以创新为目标的信息使用是复杂的[ 50].施密特( 50发现吸收能力的决定因素是不同的,这取决于所吸收知识的类型。因此,吸收能力是路径依赖于它如何导致信息使用。这种复杂性限制了决策。在决策研究中,信息的感知相关性和信息的获取是理解信息使用的关键。Streufert是最早了解复杂环境中信息相关性对决策影响的研究之一。 51].她的研究框架是复杂性理论。她指出,信息相关性是影响复杂决策反应的一个因素,但同一因素(信息相关性)未能影响简单决策反应[ 51].这些发现对于理解信息在决策研究中的重要性至关重要,因为它们支持决策研究的本质 环境意识在决策者中。 她的结论是,复杂决策受相关性影响,简单决策受信息负荷影响,这是一个关键的发现,对复杂性理论提出了一些限制。雪铁龙( 52]探讨了信息在组织高管战略决策中的作用。该方法要求管理人员在一个结构化的过程中收集和使用信息,以支持消除决策过程中的不确定性。Streufert的研究结果[ 51]和雪铁龙[ 52]支持情境意识作为影响决策者使用信息的一个因素的作用。

决策中的信息接受是决策研究中的另一个关键因素。根据一个被称为技术接受模型的成熟模型,接受度与决策中的易用性和有用性有关[ 53].在决策过程中纳入资料似乎很重要。然而,它的纳入和决策支持系统等工具仍然是决策者面临的挑战。Todd和Benbasat [ 54研究了信息在决策中的使用。他们的研究对于假设掌握更多信息的管理者会做出更好的决策是至关重要的。他们发现 努力的节约当经理们得到更多的信息时。决策支持系统等工具并没有很大可能将信息用于决策[ 54].这些发现可能会对人工智能形成的人类决策的研究产生重大影响,因为人工智能通常涉及聚合几堆数据,以构建对所调查现象的全面理解。然而,如果Todd和Benbasat [ 54]所提出的观点与决策者目前的信息处理方法是一致的,聚合数据创建优雅的模型来理解一种现象将是徒劳的。关于个人为什么选择依赖信息系统来做决策的研究已经存在。斯尼德和哈勒尔[ 55]研究了管理层使用期望理论的决策支持系统的决策。研究结果表明,期望力模型可以确定使用决策支持系统的管理行为意图[ 55].行为理论对这些研究是有帮助的,因为它可以支持基于意图和动机的评估,为什么人们使用以前没有使用过的系统。

吸收能力与人工智能的使用有关,人工智能的研究结果至关重要。吸收能力在与创新相关的决策中也是必不可少的,它取决于用户如何优化信息系统功能。此外,吸收能力也会在行业创新方面影响AI。 人工智能使用的一个限制是用户缺乏对工具的理解或对发现的实质性解释.史等[ 56发现人工智能的使用在局限性方面带来了挑战,比如有限的知识转移。员工在使用人工智能工具和解释其发现方面接受的培训程度有限。因此,在使用人工智能的商业环境中,吸收能力受到工人能力的限制。

在支持决策时,人工智能的知识和相关性也是必不可少的考虑因素。普雷维代罗等人[ 57调查了人工智能在医疗环境中应用的挑战。他们指出,在临床环境中,期望和人工智能应用之间存在差异,人工智能在放射学等任务中的作用将纯粹从技术角度迅速发展,而不会从人为因素的角度解决所有用户需求。普雷维代罗等人[ 57他指出,人工智能应该成为开发临床相关结果的一部分,人工智能应该在未来的决策中发挥作用。然而,这也是Prevedello等人的预测[ 57发现之前的研究没有实现。庄园( 58讨论了人工智能和人类决策的问题。他将人工智能与其他类型的定量分析程序共享几种关系,因为每种方法都对诊断有用。他还指出,人工智能的一个关键限制是缺乏前瞻性推理的能力,不确定性和偏好是需要考虑的关键因素。 58].

在决策中接受人工智能是一个关键的技术概念,其中检验和确定人工智能的易用性和有用性。由于缺乏对该技术或其潜在能力的了解,人工智能在决策中的使用和益处受到了实质性的挑战.陈及Zary [ 59讨论了人工智能在医学教育中的应用和挑战。限制AI在医学界使用的主要因素之一是,医学院的课程未能培养未来的医疗专业人员来理解AI算法[ 59].知识和开发的缺乏导致了工具的有限使用。未来使用人工智能的一个关键限制似乎不是由技术的限制或复杂性引起的,而是由人类使用该技术的决定引起的。 59].孙及权[ 60]研究了几种技术接受理论,以了解哪种框架最适合接受人工智能。他们的研究包括技术接受模型、计划行为理论、技术接受与使用统一理论和基于价值的采用模型。研究结果支持基于价值的采用模型作为确定用户接受人工智能的最佳模型。具体来说,有最显著影响的因素是 享受而且 主观规范 60].这些发现提供了证据,证明使用AI的动机更多地是由对技术的兴趣驱动,而不是AI的功利方面。

用人工智能信任和告知决策

在一些情况下,对技术的信任具有影响力,包括在使用计算机为媒介的沟通进行团队沟通的情况下[ 61],支援客户或从事电子渠道、电子商务的客户[ 62],以及航空活动[ 63].对技术的信任和对人类的信任在很多方面都有区别[ 64 65,即对人的信任与人际关系质量有关。相比之下,对技术的信任与可靠性和性能有关。尽管如此,信任仍然是人类技术体验的一个重要方面[ 65].

对技术的信任似乎与预期失验理论等理论一致。这一理论与个体对经验的满意度有关,这些经验与他们的信念是否在经历中得到证实有关,以及期望和感知表现如何影响他们的初始信念[ 66].对技术的信任是复杂的,原因有很多。对技术的信任之所以复杂,原因之一是技术存在风险和不确定性。李等[ 67调查了在工作环境中人们对新技术的信任度。他们发现,最初信任的形成取决于几个因素,包括信任基础、信念、态度、组织的主观规范和信任意图。其他涉及技术的研究假设,对技术的信任可以通过组织中的治理来形成。温菲尔德和吉罗特卡[ 34讨论了道德治理框架的开发,涉及组织中的机器人和人工智能系统。考虑的因素包括伦理、标准、监管、负责任的研究、创新和公众参与。这些因素被认为是在技术和公众之间建立信任的关键因素。这种方法的问题在于,它没有考虑用户对技术的感知、与之相关的风险的感知以及它对用户认知工作量和情境意识的影响等人为因素。

与这项研究最相关的是对医疗技术的信任问题。蒙塔古等[ 68]研究了对医疗技术的信任,并试图将医疗技术描述为与对一般技术的信任不同的结构。在他们的研究中包括了关于技术信任的文献综述。他们的文献讨论包括断言,先前的研究结果支持信任人类和信任技术之间缺乏区别。然而,McKnight等人[ 64]及兰顿等人[ 65的调查结果和讨论表明,对人类的信任和对技术的信任之间存在着实质性的差异。研究结果的差异支持进一步的调查。除了对一般技术的信任之外,不应在后续研究中考虑是否存在一个单独的结构来确定是否存在一个单独的结构,以描述或衡量对医疗技术的信任。然而,这超出了本研究的范围。

具体来说,对人工智能的信任仍然是一个重要问题,随着人工智能越来越多地融入我们日常生活中使用的产品,信任将随着时间的推移而显著增长。关于人工智能应该如何被信任,人工智能继续给研究人员带来一些困难。人工智能使用大量数据来支持基于强大可预测性而获得关注和考虑的决策,同时不模仿人类的思维过程。赫尔伯特( 69)讨论了人工智能作为一种不断扩大其影响范围的技术,人们在日常生活中越来越依赖人工智能的使用。问题在于,人们往往缺乏对人工智能是否有能力完成被选择来执行的工作的考虑。

此外,人工智能的漏洞仍然存在。赫尔伯特( 69他指出,人工智能只能在一定程度上被信任。然而,选择AI来完成任务的考虑和信任行为更适合于个人评估AI工具,而不是任务本身。

我们也主张对人工智能所做的决定持一定程度的怀疑态度。做出最准确的临床决策所需的怀疑程度取决于临床医生和人工智能系统的能力。假设我们了解了人工智能工具的好处和限制。在这种情况下,关于是否使用工具的决策需要放置信任(本质上是二进制的),而不是考虑具有预定义规范的工具在多大程度上可以被信任。在涉及信任的人工智能文献中,作者将对人工智能的信任与对人类的信任进行类比的努力是值得注意的。例如,在Hengstler等人的研究中[ 70],对自动驾驶汽车和医疗辅助设备等工具中使用的人工智能的信任度进行了调查[ 70].他们试图将应用在汽车上的人工智能与人类社会互动进行类比。 70].他们的重点是理解人类和自动化之间的关系,理解信任是如何建立的。他们得出的结论是,对人工智能的信任与个人对创造人工智能的公司的信任密不可分。这项研究的哲学方法与研究人员对一般技术信任的研究方法非常不同[ 64 65].研究人员的重点是建立对技术的信任和对人类的信任是完全不同的概念。因此,人工智能作为一种类似于人类智能的智能形式,其本质可能会影响人们对人工智能的看法,甚至在学术研究中也是如此。

人们对人工智能的信任在自动化(非人工智能技术)和人际信任(对人类的信任)之间具有共同点。格里克森和伍利[ 71]讨论了之前关于人类对人工智能信任的研究。他们指出,人工智能和其他技术之间存在着关键的差异,这影响了信任的形成和运作方式,类似于人类和技术的信任。对人工智能的认知和情感信任与人工智能的表现形式(无论是机器人的、基于网络的还是嵌入式的)和人工智能系统的智能水平有关。这些因素对于建立人们对人工智能的认知和情感信任是不可或缺的。在人工智能在医疗保健中的应用范围内,将人工智能概念化为具有一些拟人化的品质变得越来越明显。Kerasidou [ 72研究了人工智能在医疗保健中的应用,重点关注移情、同情和信任等问题。她指出,这些都是人们不应该重视人工智能的特征。然而,人工智能在医疗中扮演的角色是人工智能完成传统上由人类完成的几项任务。该技术必须以任务为导向,并通过执行更多与患者治疗的情感和舒适方面相关的活动来支持人类的医疗保健。总之,这些发现为人工智能提供了进一步的支持,该工具可以发挥支持作用,并使人类能够获得信任,从而有利于他们的医疗服务。

患者安全与人工智能决策

医疗护理最基本的方面是医生不伤害(患者安全)的承诺。希波克拉底誓言是卫生保健专业人员在与患者合作时必须遵守的标准。因此,了解人工智能如何影响患者安全对这项研究至关重要。

医疗保健人工智能研究对药物开发、个性化医疗和患者护理监测做出了积极贡献[ 73- 76].人工智能也已被纳入电子健康记录,以识别、评估和减轻对患者安全的威胁[ 77].最近的研究和综述主要集中在人工智能在诊断层面的表现,如疾病识别[ 78- 83],以及手术和疾病管理中的人工智能机器人[ 84- 87].其他研究也在临床层面实施了人工智能技术,包括评估跌倒风险[ 88]和用药错误[ 89 90].然而,这些研究中的许多(如果不是全部的话)尚未在临床环境中实施人工智能,或已被临床医生用于常规临床活动。因此,我们注意到缺乏证据可以证实人工智能对现实生活中患者安全结果的积极影响。

人工智能对患者安全的影响在很大程度上取决于临床医生如何正确理解人工智能输出(信息和建议),并据此做出临床决策。换句话说,对人工智能输出的误读可能会误导临床医生,并鼓励他们做出错误的临床决策,从而将患者的安全置于危险之中。随着人工智能的融合,技术的角色从单纯的 传递信息 信息识别而且 决策因此,阐明了临床医生-人工智能交互和协作决策的重要性。医疗保健背景下的大多数决策文献都集中在共同决策(临床医生-患者)及其对患者安全的影响。然而,没有研究考虑人工智能在临床决策(临床医生-人工智能)和患者安全方面可以发挥的重要作用。伍尔夫等人[ 91]认为明智的选择应该以人际关系的方式进行。Légaré等[ 92]还讨论了增加共享决策的重要性。

然而,医疗保健决策文献的关键发现也可能适用于基于人工智能的决策。例如,Edwards等人[ 93研究发现,在患者和临床医生共同决策的过程中,患者的健康素养程度决定了他们理解治疗的能力(在临床医生和患者之间建立了共享的心理模型)。同样,临床医生的人工智能素养将评估他们理解人工智能结果的能力,并做出明智的临床决策,从而确保治疗的依从性和安全性。

一般来说,信息解释和分析的重要性已在文献中得到充分承认[ 94].例如,Tuffaha等[ 95]讨论了在医疗保健中使用信息分析的价值作为支持医疗保健决策方法的模型。信息分析方法的价值支持决策不确定性的测量和证据的充分性评估,以支持技术实施。宾德尔斯等[ 94]支持在卫生保健决策中使用信息分析的价值。尽管信息分析的价值是决策的一种实用方法,但目前缺乏人工智能的实施,也缺乏分析其对临床决策和患者安全影响的研究。这些发现提供了证据,证明安全问题必须以实证研究的形式得到进一步的关注,以为患者安全和关于人工智能的知情决策提供信息。目前的研究包括大量关于在任务和决策支持角色中使用人工智能的研究,在这些任务和决策支持角色中,用户或依赖人工智能使用的人可能面临人工智能技术可能造成伤害的风险。

建议架构

基于之前讨论的文献,本研究提出以下概念框架( 图2).该框架强调了临床医生对人工智能的认知功能和看法,涉及他们对技术的信任以及对患者安全(风险)的看法。此外,框架强调了认知功能 情况意识、工作量、期望(表现和努力)、信任、患者安全、临床医生 对人工智能的看法,以及对人工智能问责制的看法

人工智能的生态验证——使用人工智能的信任、安全和决策。

为了探索描述临床决策中临床医生-人工智能相互作用的概念框架,每个自变量在认知人为因素和行为经济学文献中都有操作先例。情境意识的测量方法有很多,包括但不限于Endsley的3层模型、知觉周期模型[ 96],活动理论模型[ 97].同样的, 工作负载有许多基于专业或职业的适度竞争性操作,包括但不限于科学和临床工作和职业[ 98 99].关于 对人工智能的认知,在操作上的先例相对较少[ One hundred. 101].与临床医生-人工智能交互描述模型中的自变量类似,的因变量 信任 在人工智能而且 对患者安全的认知在计算机科学和医疗保健文献中有大量的操作化[ 102 103].

因此,该框架构成了一种社会认知方法,扩展了分布式认知理论,从而解释了人工智能的生态有效性。该模型利用了前几节中回顾的研究所暗示的(通常是明确陈述的)措施,必须包括这些措施,以理解决策中任何人类-人工智能交互模型的生态有效性。这些经过验证和完善的量表包括修改后的美国国家航空航天局的任务负荷指数[ 104],技术接受与使用模型的扩展统一理论[ 105]、多项目和先前验证的信任量表[ 106]及任务意识评定量表[ 107]用于态势感知[ 108].从本质上讲,认知工作量和情境意识是有限理性的操作化[ 109],期望和感知分别是动机和风险的操作化[ 110].

现实生活中的决策过程偏离了新古典主义或理性的决策模型,该模型假设完美的信息和无限的吸收能力、时间、精力和其他资源——正如框架所暗示的那样。该模型的基本理论是动机的期望值理论,该理论假定,以特定方式行事的特定决策(即临床医生的人工智能派生决策)的概率取决于决策者相信特定行为将引发预期结果(即患者安全)的程度。该模型可以根据未来研究者的定量建模进行不同的说明。该框架强调了可能影响临床医生使用人工智能系统意愿的形成因素。该框架捕捉了影响临床医生在其临床工作流程中使用人工智能的意图的因素。换句话说,未来的研究人员可以利用这个框架来探索影响临床医生使用人工智能系统的认知功能的因素,并依次影响患者对安全性或风险的感知、对人工智能的信任以及使用该技术的意图。随后,该框架还使我们能够了解人工智能是否以及如何影响临床决策。

缩写 人工智能

人工智能

HFE

人为因素和人体工程学

打击

卫生信息技术

SEIPS

患者安全安全工程倡议

实验室

技术准备水平

没有宣布。

希格斯 J 琼斯 希格斯 J 詹森 通用汽车 Loftus 年代 克里斯坦森 N 临床决策和多重问题空间 卫生专业的临床推理。第三版 2008 牛津大学,英国 Butterworth-Heinemann 3. 18 布莱克 C 普拉特 W 协同信息综合I:医学和公共卫生领域科学家的信息行为模型 J Am Soc Inf科学 2006 11 57 13 1740 9 10.1002 / asi.20487 原因 J 人为错误 1990 英国剑桥 剑桥大学出版社 Plsek 体育 格林哈尔希 T 复杂性科学:医疗保健复杂性的挑战 BMJ 2001 09 15 323 7313 625 8 10.1136 / bmj.323.7313.625 11557716 PMC1121189 Plsek 体育 威尔逊 T 医疗保健组织中的复杂性、领导力和管理 BMJ 2001 09 29 323 7315 746 9 10.1136 / bmj.323.7315.746 11576986 PMC1121291 帕特尔 六世 J Yoskowitz NA 绿色 R 萨彦岭 危重病护理环境中决策支持的转化认知:综述 J生物医学信息 2008 06 41 3. 413 31 10.1016 / j.jbi.2008.01.013 18343731 s1532 - 0464 (08) 00016 - 6 PMC2459228 车载信息 C J F 基于机器学习的临床决策支持的信任和透明度 人类和机器学习:可见、可解释、值得信赖和透明 2018 可汗、瑞士 施普林格 279 92 Cypko Stoehr Kozniewski Druzdzel 乔丹 迪茨 一个 柏林 l Lemke 临床贝叶斯网络模型在头颈部肿瘤治疗多学科决策中的验证工作流程 国际计算辅助放射外科 2017 11 12 11 1959 70 10.1007 / s11548 - 017 - 1531 - 7 28204986 10.1007 / s11548 - 017 - 1531 - 7 Lanceley 一个 野蛮人 J 梅农 U 雅可布 多学科团队决策的影响 妇科癌症 2008 18 2 215 22 10.1111 / j.1525-1438.2007.00991.x 17511801 IJG991 Wekre LJ 梅尔 l Grimsmo 一个 多剂量药物分配系统的早期经验——信任问题? Scand J Prim医疗保健公司 2011 03 29 1 45 50 10.3109 / 02813432.2011.554002 21323496 PMC3347930 布朗 烹饪 P 对技术的不适当信任:对重症护理护士的影响 Nurs急救护理 2011 16 2 92 8 10.1111 / j.1478-5153.2010.00407.x 21299762 Hijazi R 医疗器械对患者健康的影响:患者安全和风险分析 临床科 2011 7 36 3. 105 8 10.1097 / JCE.0b013e318223c7b2 G 惠特利 D Scialfa CT 年龄差异对药物管理系统的信任与依赖 交互第一版 2005 12 17 6 690 710 10.1016 / j.intcom.2005.09.007 JH WS LM 绿色 类风湿性关节炎 贝茨 DW 测试用于评估医疗保健专业人员使用不良事件报告系统的意图的技术接受模型 优质卫生保健 2008 04 20. 2 123 9 10.1093 / intqhc / mzm074 18222963 mzm074 Kleinman Z 大多数医疗保健应用程序不符合NHS标准 BBC新闻 2021 2 16 2022-05-10 https://www.bbc.com/news/technology-56083231 Mnih V Kavukcuoglu K D 格雷夫斯 一个 Antonoglou Wierstra D 用深度强化学习玩雅达利 arXiv 预印本发布于2013年12月19日 10.48550 / arXiv.1312.5602 Adegboro 有限公司 Choudhury 一个 峨山 O 凯利 毫米 人工智能改善NICU和PICU的健康结果:系统回顾 Hosp Pediatr 2022 01 01 12 1 93 110 10.1542 / hpeds.2021 - 006094 34890453 183814 Choudhury 一个 Renjilian E 峨山 O 机器学习在慢性疾病老年临床护理中的应用:系统的文献综述 JAMIA开放 2020 10 3. 3. 459 71 10.1093 / jamiaopen / ooaa034 33215079 ooaa034 PMC7660963 年代 临床医生的人工智能(AI)指南:为什么以及如何初级保健应该领导医疗保健AI革命 J Am董事会Fam医疗 2022 35 1 175 84 10.3122 / jabfm.2022.01.210226 35039425 35/1/175 Martinez-Plumed F 戈麦斯 E Hernandez-Orallo J 未来人工智能通过技术准备水平 Telemat通知 2021 05 58 101525 10.1016 / j.tele.2020.101525 Panch T 玛蒂 H 附加评论 关于人工智能在医疗领域的“难以忽视的真相” NPJ数字医院 2019 8 16 2 77 10.1038 / s41746 - 019 - 0155 - 4 31453372 155 PMC6697674 Rajkomar 一个 迪安 J 小羽 机器学习在医学中的应用 N英语J医学 2019 04 04 380 14 1347 58 10.1056 / NEJMra1814259 30943338 Straub J 在搜索技术准备水平(TRL) 10 航空科学技术 2015 10 46 312 20. 10.1016 / j.ast.2015.07.007 奥尔特加Egea JM 罗马冈萨雷斯 MV 解释医生接受EHCR系统:TAM与信任和风险因素的延伸 计算人类行为 2011 1 27 1 319 32 10.1016 / j.chb.2010.08.010 Siegrist 信任和对风险和利益的认知对基因技术接受的影响 风险肛门 2000 04 20. 2 195 203 10.1111 / 0272 - 4332.202020 10859780 帕特尔 六世 Kannampallil TG Shortliffe 认知在产生和减轻临床错误中的作用 英国医学杂志Qual Saf 2015 07 24 7 468 74 10.1136 / bmjqs - 2014 - 003482 25935928 bmjqs - 2014 - 003482 Nsoesie EO 评估人工智能在临床环境中的应用 美国医学会网络公开赛 2018 09 07 1 5 e182658 10.1001 / jamanetworkopen.2018.2658 30646173 2703939 范登博世 K Bronkhorst 一个 人工智能合作有利于军事决策 北大西洋公约组织-科学和技术组织 2018 2022-05-10 https://www.sto.nato.int/publications/STO%20Meeting%20Proceedings/STO-MP-IST-160/MP-IST-160-S3-1.pdf Bandaragoda T Adikari 一个 Nawaratne R Nallaperuma D Luhach 正义与发展党 Kempitiya T 年代 Alahakoon D 德席尔瓦 D Chilamkurti N 基于人工智能的通勤行为分析框架,利用物联网进行实时决策 神经计算与应用 2020 02 20. 32 20. 16057 71 10.1007 / s00521 - 020 - 04736 - 7 Shrestha Ben-Menahem SM 冯·克罗 G 人工智能时代的组织决策结构 加州马纳Rev 2019 07 13 61 4 66 83 10.1177 / 0008125619862257 Widmer Swanson 钢筋混凝土 辛克 BJ 松树 JM 急诊医学中的复杂系统思维:快速变化和相互关联的医疗保健景观的新范式 J临床评估实践 2018 06 24 3. 629 34 10.1111 / jep.12862 29280244 Nauman 一个 Zikria YB Vasilakos AV 西南 医疗物联网的未来:新兴技术调查 IEEE commsurv教程 2020 2 11 22 2 1121 67 10.1109 / comst.2020.2973314 瓦格斯塔夫 K 机器人手术在14年内导致144人死亡 NBC新闻 2015 7 22 2022-06-07 https://www.nbcnews.com/tech/tech-news/robotic-surgery-linked-144-deaths-2000-n395811 温菲尔德 房颤 Jirotka 道德治理对于在机器人和人工智能系统中建立信任至关重要 数学、物理、工程科学 2018 10 15 376 2133 20180085 10.1098 / rsta.2018.0085 30323000 rsta.2018.0085 PMC6191667 Reddy 年代 艾伦 年代 Coghlan 年代 库珀 P 人工智能在医疗领域应用的治理模式 美国医学信息协会 2020 03 01 27 3. 491 7 10.1093 /地点/ ocz192 31682262 5612169 PMC7647243 价格2日 WN Gerke 年代 科恩 搞笑 医生使用人工智能的潜在责任 《美国医学会杂志》 2019 11 12 322 18 1765 6 10.1001 / jama.2019.15064 31584609 2752750 Carayon P Schoofs Hundt 一个 卡什 B Gurses 美联社 阿尔瓦拉多 CJ 史密斯 弗布伦南 P 患者安全工作系统设计:SEIPS模型 夸尔萨夫医疗中心 2006 12 15补充1 i50 8 10.1136 / qshc.2005.015842 17142610 15 / suppl_1 / i50 PMC2464868 Donabedian 一个 评估医疗服务质量 米尔班克Mem基金Q 1966 07 44 3. 166 206 5338568 贝比 G Alimohamed NA 医学中的人工智能:肿瘤学家需要了解它的潜力和局限性 肿瘤防治杂志Exch 2017 11 16 4 p8 13 门德尔松 海尔哥哥 乳房成像中的人工智能:潜力与限制 AJR Am J伦琴诺 2019 02 212 2 293 9 10.2214 / AJR.18.20532 30422715 桥本 Witkowski E l 莱斯 O Rosman G 麻醉学中的人工智能:当前技术、临床应用和局限性 麻醉学 2020 02 132 2 379 94 10.1097 / ALN.0000000000002960 31939856 00000542-202002000-00027 PMC7643051 Kappagoda 一个 系统思维在医学中的力量 医学J Aust 2014 03 03 200 4 189 10.5694 / mja14.c0303 24580507 10.5694 / mja14.c0303 Choudhury 一个 峨山 O 人为因素:连接人工智能和患者安全 人体健康因素 2020 09 16 9 1 211 5 10.1177 / 2327857920091007 比尤利 l 弗里曼 护理捷径可以减少安全 护理 2009 12 39 12 16 7 10.1097/01. nurse.0000365016.08493.41 19934734 00152193-200912000-00008 Abuhav ISO 13485:2016:医疗器械行业质量管理完整指南。第二版 2016 5 11 博卡拉顿,佛罗里达州,美国 CRC的新闻 CFR -联邦法规法典第21篇 美国食品和药物管理局 2020 2021-03-28 https://www.accessdata.fda.gov/scripts/cdrh/cfdocs/cfCFR/CFRSearch.cfm?fr=820.3 Farhadpoor 先生 Soltani G 区域科技信息中心信息服务用户使用动机研究 Lib Philos Pract 2017 1649 O ' reilly三世 CA 决策者使用信息源的差异:信息质量和可及性的影响 Acad Manag 1982 12 01 25 4 756 71 10.2307/256097 上海 WC CC 知识共享、吸收能力与创新能力:台湾知识密集型产业的实证研究 无穷科学 2007 6 1 33 3. 340 59 10.1177 / 0165551506070739 施密特 T 吸收能力:一刀切?企业层面对不同类型知识吸收能力的分析 管理经济决策 2009 1 31 1 1 18 10.1002 / mde.1423 Streufert SC 复杂环境下信息相关性对决策的影响 Mem Cogn 1973 9 1 3. 224 8 10.3758 / bf03198100 雪铁龙 CL 信息在战略决策中的作用 Int J Inf Manag 2011 12 31 6 493 501 10.1016 / j.ijinfomgt.2011.02.005 戴维斯 FD Bagozzi RP Warshaw 公关 计算机技术的用户接受:两种理论模型的比较 等科学 1989 08 1 35 8 982 1003 10.1287 / mnsc.35.8.982 托德 P Benbasat 信息在决策中的使用:基于计算机的决策辅助影响的实验调查 管理信息系统问 1992 09 16 3. 373 93 10.2307/249534 小大镰刀刀柄 KC 哈勒尔 期望理论的应用解释管理者使用决策支持系统的意图 决策科学 1994 07 25 4 499 510 10.1111 / j.1540-5915.1994.tb01857.x G Z J F X Gui B 知识转移绩效对人工智能产业创新网络的影响——基于中国企业的实证研究 《公共科学图书馆•综合》 2020 5 18 15 5 e0232658 10.1371 / journal.pone.0232658 32421743 玉米饼- d - 19 - 34736 PMC7233593 Prevedello LM Halabi 党卫军 G CC 克里 医学博士 Chokshi 跳频 埃里克森 BJ Kalpathy-Cramer J Andriole KP 弗兰德斯 AE 医学成像人工智能研究的挑战和图像分析比赛的重要性 Radiol Artif Intell 2019 01 1 1 e180031 10.1148 / ryai.2019180031 33937783 PMC8017381 庄园 JC 人工智能和人类决策 欧洲执法者 1997 5 16 99 1 3. 25 10.1016 / s0377 - 2217 (96) 00378 - 5 KS Zary N 在医学教育中实施人工智能的应用和挑战:综合评述 JMIR医学教育 2019 06 15 5 1 e13930 10.2196/13930 31199295 v5i1e13930 PMC6598417 K Kwon O 基于人工智能的智能产品技术接受理论及影响因素 Telemat通知 2020 04 47 101324 10.1016 / j.tele.2019.101324 洛瑞 PB D l X 文化、社会存在感和群体构成对技术支持决策群体信任的影响 Inf系统J 2010 5 20. 3. 297 315 10.1111 / j.1365-2575.2009.00334.x 约翰逊 DS 通过身份承诺、计算承诺和对技术的信任,通过电子渠道实现客户价值 J交互标志 2007 08 01 21 4 2 22 10.1002 / dir.20091 唐纳 J 信任和技术:航空监管的社会基础 Br J社会 2010 03 61 1 83 106 10.1111 / j.1468-4446.2009.01303.x 20377598 BJOS1303 麦克奈特 DH 卡特 撒切尔夫人 简森-巴顿 粘土 PF 对特定技术的信任:对其组成部分和措施的调查 ACM Trans Manage Inf系统 2011 06 01 2 2 1 25 10.1145/1985347.1985353 Lankton NK 麦克奈特 DH 信任Facebook意味着什么?:研究技术和人际信任信念 SIGMIS数据库 2011 05 24 42 2 32 54 10.1145/1989098.1989101 奥利弗 RL 预期和不确认对暴露后产品评价的影响:另一种解释 J应用精神科 1977 62 4 480 6 10.1037 / 0021 - 9010.62.4.480 X 赫斯 TJ Valacich JS 我们为什么相信新技术?组织信息系统初始信任形成研究 J战略Inf系统 2008 3. 17 1 39 71 10.1016 / j.jsis.2008.01.001 蒙塔古 Kleiner BM 温彻斯特三世 WW 对医疗技术信任的实证理解 Int J Ind Ergon 2009 7 39 4 628 34 10.1016 / j.ergon.2009.01.004 赫尔伯特 G 人工智能有多可信? 它教授 2017 8 17 19 4 7 11 10.1109 / mitp.2017.3051326 Hengstler Enkel E Duelli 年代 应用人工智能和信任——以自动驾驶汽车和医疗辅助设备为例 技术预测社会变化 2016 04 105 105 20. 10.1016 / j.techfore.2015.12.014 Glikson E 伍利 亚历山大-伍尔兹 人类对人工智能的信任:实证研究综述 Acad Manag Ann 2020 07 14 2 627 60 10.5465 / annals.2018.0057 Kerasidou 一个 人工智能以及对移情、同情和信任的持续需求 牛世界卫生机构 2020 04 01 98 4 245 50 10.2471 / BLT.19.237198 32284647 BLT.19.237198 PMC7133472 F Y H 越南盾 Y H 年代 Y 越南盾 H Y 医疗保健领域的人工智能:过去、现在和未来 中风血管神经 2017 6 21 2 4 230 43 10.1136 / svn - 2017 - 000101 29507784 svn - 2017 - 000101 PMC5829945 巴纳吉 K Seneviratne 法拉利 濑户 T 布鲁克斯 JD 鲁宾 戴斯。莱纳姆: Hernandez-Boussard T 弱监督自然语言处理用于评估前列腺癌治疗后以患者为中心的结果 JAMIA开放 2019 04 2 1 150 9 10.1093 / jamiaopen / ooy057 31032481 PMC6482003 Ciervo J SC Stallcup K 托马斯。 一个 Farnum Lobanov VS Agrafiotis DK 一个新的风险和问题管理系统,以提高生产力,质量和临床试验的合规性 JAMIA开放 2019 07 2 2 216 21 10.1093 / jamiaopen / ooz006 31984356 ooz006 PMC6951877 Ronquillo Erik Winterholler J Cwikla K 西曼斯基 R 莱维 C 医疗IT、黑客攻击和网络安全:受保护医疗信息数据泄露的全国趋势 JAMIA开放 2018 07 1 1 15 9 10.1093 / jamiaopen / ooy019 31984315 ooy019 PMC6951874 中间人 正义与发展党 富勒 T Garabedian P Ergai 一个 Balint C 贝茨 DW Benneyan J 系统工程和人为因素支持一个系统的新型电子病历集成工具,以防止伤害在医院 美国医学信息协会 2019 06 01 26 6 553 60 10.1093 /地点/ ocz002 30903660 5418902 PMC7647327 Sanchez-Morillo D Fernandez-Granero Leon-Jimenez 一个 预测算法在慢性阻塞性肺疾病和哮喘的家庭监测中的使用:一项系统综述 Chron Respir Dis 2016 08 13 3. 264 83 10.1177 / 1479972316642365 27097638 1479972316642365 PMC5720188 本赛季 E Ballerini l 埃尔南德斯 医学博士 Chappell 调频 Gonzalez-Castro V Anblagan D 短箫 年代 Munoz-Maniega 年代 工作 D Pernet C 其余的 G 麦吉利弗雷 TJ Trucco E Wardlaw JM 神经成像的机器学习辅助诊断认知障碍和痴呆:系统综述 阿尔茨海默氏症(Amst) 2018 8 11 10 519 35 10.1016 / j.dadm.2018.07.004 30364671 s2352 - 8729 (18) 30044 - 7 PMC6197752 Safdar 年代 征服者 年代 征服者 N NF 基于机器学习的心脏病诊断决策支持系统综述 Artif Intell Rev 2018 12 50 4 597 623 10.1007 / s10462 - 017 - 9552 - 8 Dallora 艾尔 Eivazzadeh 年代 门德斯 E 巴瑞 J Anderberg P 机器学习和微观模拟技术对痴呆预后的系统文献综述 《公共科学图书馆•综合》 2017 6 29 12 6 e0179804 10.1371 / journal.pone.0179804 28662070 玉米饼- d - 17 - 01248 PMC5491044 X 西班牙 l 羽衣甘蓝 非盟 瓦格纳 SK DJ Bruynseels 一个 Mahendiran T 莫拉 G Shamdas 克恩 C Ledsam 施密德 Balaskas K 托波尔 EJ 巴赫曼 LM 基恩 巴勒斯坦权力机构 丹尼斯顿 正义与发展党 深度学习表现与医疗保健专业人员在从医学成像检测疾病方面的比较:系统回顾和荟萃分析 柳叶刀手指健康 2019 10 1 6 e271 97 10.1016 / s2589 - 7500 (19) 30123 - 2 33323251 s2589 - 7500 (19) 30123 - 2 Y K l l 通过机器学习对医疗保健社区的大数据进行疾病预测 IEEE访问 2017 4 26 5 8869 79 10.1109 / ACCESS.2017.2694446 DH Tam 年代 K 麦克尼尔 SD J Winquist E 帕尔马 尼克尔斯 交流 经口机器人手术与放疗治疗口咽鳞状细胞癌——文献系统综述 Eur J外科医生 2015 12 41 12 1603 14 10.1016 / j.ejso.2015.09.007 26461255 s0748 - 7983 (15) 00773 - 8 Ficarra V 诺瓦拉 G 罗森 钢筋混凝土 Artibani W 卡罗尔 公关 科斯特洛 一个 梅农 Montorsi F 帕特尔 虚拟现实 Stolzenburg J 范德普尔 H 威尔逊 TG Zattoni F Mottrie 一个 对机器人辅助根治性前列腺切除术后尿失禁恢复的研究进行系统回顾和荟萃分析 欧元Urol 2012 09 62 3. 405 17 10.1016 / j.eururo.2012.05.045 22749852 s0302 - 2838 (12) 00629 - x Dowthwaite SA 富兰克林 JH 帕尔马 K J 尼克尔斯 交流 经口机器人手术在口咽癌治疗中的作用:文献综述 ISRN杂志 2012 2012 945162 10.5402 / 2012/945162 22606380 PMC3347745 恋人 K Colegate-Stone T 达斯古普塔 P Tavakkolizadeh 一个 Sinha J 创伤和整形外科中的机器人手术:系统综述 关节J 2015 03 97 - b 3. 292 9 10.1302 / 0301 - 620 x.97b3.35107 25737510 97 - b / 3/292 Klock纽约 H Y 使用质量标准和机器学习对患者跌倒报告进行评分 种马健康技术通知 2019 08 21 264 639 43 10.3233 / SHTI190301 31438002 SHTI190301 E H Y 根据FDA MAUDE报告生成健康信息技术事件数据库 种马健康技术通知 2019 08 21 264 883 7 10.3233 / SHTI190350 31438051 SHTI190350 年代 H B Y 用于分析临床设置中的药物事件报告的自动化管道 BMC Med通知Decis Mak 2018 12 07 18 5 5 113 10.1186 / s12911 - 018 - 0687 - 6 30526590 10.1186 / s12911 - 018 - 0687 - 6 PMC6284273 伍尔夫 上海 电子商务 哈里斯 R 谢里丹 SL 布拉多克3日 CH 卡普兰 RM 案发 一个 奥康纳 突尼斯 年代 促进知情选择:改变卫生保健,为决策提供知识 实习医生 2005 08 16 143 4 293 300 10.7326 / 0003-4819-143-4-200508160-00010 16103473 143/4/293 Legare F Adekpedjou R 斯泰西 D Turcotte 年代 Kryworuchko J 格雷厄姆 ID Lyddiatt 一个 Politi MC 汤姆森 R 埃尔温 G Donner-Banzhoff N 增加医疗保健专业人员共享决策使用的干预措施 Cochrane数据库系统版本 2018 07 19 7 7 CD006732 10.1002/14651858. cd006732.pub4 30025154 PMC6513543 爱德华兹 戴维斯 爱德华兹 一个 在医疗咨询中,信息交换和共享决策的外部影响是什么:文献的综合分析 病人教育计数 2009 04 75 1 37 52 10.1016 / j.pec.2008.09.025 19036550 s0738 - 3991 (08) 00526 - 0 Bindels J Ramaekers B 拉莫斯 集成电路 Mohseninejad l 小刀 年代 格拉特案的裁决 J Postma 艾尔 芬斯特拉 T Joore 医疗保健决策中信息价值的使用:探索多角度 药物经济学 2016 03 34 3. 315 22 10.1007 / s40273 - 015 - 0346 - z 26578403 10.1007 / s40273 - 015 - 0346 - z PMC4766221 Tuffaha HW 戈登 LG Scuffham 巴勒斯坦权力机构 肿瘤信息分析的价值:证据的价值和证据的价值 J Oncol实践 2014 03 10 2 e55 62 10.1200 / JOP.2013.001108 24194511 JOP.2013.001108 史密斯 K 汉考克 巴勒斯坦权力机构 情境意识是一种适应性的、外部导向的意识 哼因素 1995 3. 1 37 1 137 48 10.1518 / 001872095779049444 Bedny G 迈斯特 D 活动和情境意识理论 Int J Cogn Ergon 1999 01 3. 1 63 72 10.1207 / s15327566ijce0301_5 尼葛伦 TE 主观工作量测量技术的心理测量特性:在感知心理工作量评估中使用的影响 哼因素 1991 2 1 33 1 17 33 10.1177 / 001872089103300102 Lyddiardc J 布里格斯 J 科菲 Berridge J 工作负载测量 应用临床试验 2010 8 2 2022-05-10 https://www.appliedclinicaltrialsonline.com/view/workload-measurement D JD 穆勒 内存 P 盖尔 W Dugan C Tausczik Y Samulowitz H 灰色的 一个 数据科学中的人类与人工智能合作:探索数据科学家对自动化人工智能的看法 Proc ACM Hum计算交互 2019 11 07 3. 对CSCW 1 24 10.1145 / 3359313 Salminen J 本产品 Şengun 年代 桑托斯 JM 荣格 SG 詹森 BJ 数字和文本信息对人工智能驱动的人物界面的视觉参与和感知的影响 第25届智能用户界面国际会议论文集 2020 3. IUI 20 2020年3月17日至20日 卡利亚里意大利 357 68 10.1145/3377325.3377492 阿诺德 贝拉米 RK 厚德做人 年代 梅塔 年代 Mojsilovic 一个 奈尔 R 需要 KN 奥尔泰亚努 一个 来自 D 雷蒙 D 理查兹 J -蔡 J Varshney 基米-雷克南 事实说明:通过供应商的一致性声明增加对人工智能服务的信任 IBM J Res Dev 2019 9 18 63 4/5 6:1 13 10.1147 / jrd.2019.2942288 上海 显象 PH值 多尔曼 T 韦弗 SJ 普罗诺弗斯特 PJ 交接、安全文化和实践:来自医院对患者安全文化调查的证据 BMC运行状况服务决议 2016 07 12 16 254 10.1186 / s12913 - 016 - 1502 - 7 27405226 10.1186 / s12913 - 016 - 1502 - 7 PMC4941024 见鬼 YM YG 棕色(的) SA H 研究心理负荷和任务技术适合度对社交媒体搜索系统用户接受度的影响 系统前端 2018 9 8 22 3. 697 718 10.1007 / s10796 - 018 - 9879 - y 曹国伟 厘米 决定使用移动学习的行为意图的因素:UTAUT模型的应用和扩展 前面Psychol 2019 7 16 10 1652 10.3389 / fpsyg.2019.01652 31379679 PMC6646805 Ghazizadeh Y JD 博伊尔 LN 用信任增强技术接受模型:商业司机对监控和反馈的态度 Proc Hum Factors Ergon Soc annual meeting 2012 09 01 56 1 2286 90 10.1177 / 1071181312561481 马修斯 医学博士 比尔 SA 在实地训练演习中评估态势意识 美国陆军行为和社会科学研究所 2002 9 2022-05-10 https://apps.dtic.mil/sti/pdfs/ADA408560.pdf 全球之声 人力绩效和态势感知措施 2019 博卡拉顿,佛罗里达州,美国 CRC的新闻 Bazerman MH 经济特区 O 有限意识:对道德决策的影响 器官行为Hum Decis过程 2016 09 136 95 105 10.1016 / j.obhdp.2015.11.004 鲍曼 先生 邦纳 提单 小组协调的期望理论方法:专业知识、任务特征和成员行为 J行为十二月制作 2017 4 01 30. 2 407 19 10.1002 / bdm.1954
Baidu
map