%0期刊文章%@ 2291- 9694% I JMIR出版物%V 6%卡塔尔世界杯8强波胆分析 N 1% P e17% T评估医学文件的可读性:A排名方法%郑嘉平%俞a,洪%+医疗组织与实施研究中心,贝德福德退伍军人事务医疗中心,200斯普林路,贝德福德,MA, 01730,美国,1 781 687 2000,hong.yu@umassmed.edu %K电子健康记录%K可读性%K理解%K机器学习%D 2018 %7 23.03.2018 %9原始论文%J JMIR Med Inform %G英文%X背景:电子健康记录(EHR)系统的使用具有患者参与功能,包括查看、下载和传输健康信息,最近有了极大的增长。然而,由于电子病历叙述的复杂性和技术性,使用这些资源使患者参与管理自己的健康仍然具有挑战性。目的:我们的目标是开发一个基于机器学习的系统来评估复杂文档的可读性水平,如EHR笔记。方法:我们通过众包从90名读者中收集了电子病历笔记和维基百科文章的难度评级。我们利用表面文本特征和词嵌入建立了一个基于文本难度相对顺序的监督模型来评估可读性。我们评估系统性能使用肯德尔系数的一致性与人类评级。结果:我们的系统与人工注释者的一致性(.734)显著高于使用Flesch-Kincaid Grade Level(一个广泛采用的可读性公式)的基线(.531)。这种改善在不同的疾病主题中也是一致的。 This method’s concordance with an individual human user’s ratings was also higher than the concordance between different human annotators (.658). Conclusions: We explored methods to automatically assess the readability levels of clinical narratives. Our ranking-based system using simple textual features and easy-to-learn word embeddings outperformed a widely used readability formula. Our ranking-based method can predict relative difficulties of medical documents. It is not constrained to a predefined set of readability levels, a common design in many machine learning–based systems. Furthermore, the feature set does not rely on complex processing of the documents. One potential application of our readability ranking is personalization, allowing patients to better accommodate their own background knowledge. %M 29572199 %R 10.2196/medinform.8611 %U http://medinform.www.mybigtv.com/2018/1/e17/ %U https://doi.org/10.2196/medinform.8611 %U http://www.ncbi.nlm.nih.gov/pubmed/29572199
Baidu
map