自动疼痛识别

本文的主题是概念自动疼痛识别

导言

编辑

自动疼痛识别是一种客观测量疼痛的方法,同时它也是一个跨学科研究领域,涉及到医学、心理学、生理学与计算机科学。该方法的重点是,在机器学习基础上的计算机辅助的客观化疼痛识别。

自动疼痛识可以有效可靠地检测与监控那些无法口头沟通的人群的疼痛。机器学习过程可以预先通过单模态或者多模态躯体信号得到训练与验证[1]。检测疼痛的信号包括面部表情或者躯体姿势,也可以是(心理)生理或者副语言性质。迄今为止,自动疼痛识别的重点在于确定疼痛强度,其他诸如识别疼痛的性质、部位与时间过程的有远见的努力也正在实践中。

然而,这种方法的临床实施是疼痛研究领域中一个有争议的话题。自动疼痛识别的批评者认为,疼痛诊断只能由人,主观地实施进行。

背景

编辑

在口头报告受限这种特定情况下,比如口头能力或者认知能力受损的人群,或者处于镇静麻醉或机械通气状态的病人,疼痛诊断由受过训练的专业人士通过行为观察进行的[2]。此外,所有已知的观察方法(例如,苏黎世疼痛观察评估,ZOPA[2];痴呆病人的疼痛评估,BESD[3],为PAINAD量表的德语版)需要评估者具备足够的专业知识。由于评估者可能存在与观察或者解释有关的误判,这些观察方法的准确性较难保证。这些观察方法在设计、研究方法、评估样本及疼痛现象的概念化方面存在差异,因此,很难比较不同评估工具的质量标准。受过训练的人员理论上可以使用观察工具每天数次记录疼痛强度,但也不可能每分钟或每秒测量一次疼痛。自动疼痛识别的目标在于采用有效、稳健的疼痛反应模式,构建一个自动疼痛强度识别系统,能实现多模态的、动态的、高分辨率的疼痛识别。

过程

编辑

自动疼痛识别的疼痛相关参数,通常通过非侵入性传感器技术记录,该技术可以捕获疼痛的(物理)反应数据。录像技术可以获取面部表情、躯体姿势,而音频传感器可以记录副语言特征。(心理-)生理信息,例如肌肉张力和心率,可以通过生物电位传感器(电极)收集。

疼痛识别需要从收集的数据中提取有意义的特征或模式。这可以通过机器学习技术实现的,该技术能够提供训练(学习)后疼痛的评估,例如“无疼痛”,“轻度疼痛”或“重度疼痛”。

参数

编辑

疼痛现象包括不同的层面(感觉辨别,情感(情绪),认知,与(心理)运动)[4],自动疼痛识别目前依赖于疼痛反应的可测量性参数。这些参数可以大致分成“生理反应”和“行为反应”两大类。

生理反应

编辑

人类的疼痛总是能引发自主神经反应,这些反应可以通过测量各种生理信号反映出来。

生理信号

编辑

生理信号的测量通常包括皮肤电活动(EDA,也称为皮肤电导),肌电图(EMG),心电图(ECG),血容量脉冲(BVP),脑电图(EEG),呼吸与体温[5][6][7],这些能反映出交感神经和副交感神经系统的调节机制。生理信号主要使用特殊的非侵入性表面电极(用于EDA,EMG,ECG和EEG)、血容量脉冲传感器(BVP)、呼吸带(呼吸)与热传感器(体温)来记录。内分泌与免疫学参数也能被记录下来,但这些测量在某种程度上具有侵入性(例如,血液采样)。

行为反应

编辑

疼痛的行为反应具备两个功能:能保护躯体(例如,通过保护性反射)与实现疼痛的外在交流(例如,寻求帮助的呼救)。这些疼痛行为反应通常表现为面部表情、躯体姿势及副语言特征。

面部表情

编辑

行为信号包括面部表情模式(表达行为),其能借助于视频信号来测量。面部表情识别基于日常临床观察,即疼痛通常能表现在患者的面部表情中[8],但并不一定总是如此,因为面部表情可以通过自我控制来抑制。尽管面部表情可能被有意识地影响,但是面部表情行为仍是疼痛诊断的重要信息来源,也是自动疼痛识别的信息来源[9][10]。基于视频记录的面部表情识别的一个优点,是测量时不需直接接触,通过视频记录即可,但是,面部表情并非在所有的躯体姿势中都能记录到(例如,脸朝下躺着时无法记录),或者绷带包裹面部时也无法记录。面部表情分析依赖于神经肌肉活动的迅速、自发与动态变化,可在视觉上检测到面部变化。

躯体姿势

编辑

躯体姿势也主要通过非接触式相机技术捕获。运动型疼痛的反应各不相同,并且很大程度上取决于疼痛的类型和原因。它们包括突然的保护性反射(例如,四肢的自发性收缩或伸展)、激动焦虑(病理性不安)与回避行为(犹豫不决、谨慎小心的动作)。头部也有朝向疼痛部位的方向移动的趋势[11],患者往往会触摸身体上的疼痛部位。

副语言特征

编辑

此外,疼痛也能引发非语言行为,表现为叹气、喘气、呻吟、抱怨等[12]。副语言特征通常通过高灵敏度麦克风来记录。

算法

编辑

完成参数记录后,数据的预处理(例如,过滤)、相关特征的提取及优化信息融合可以陆续进行。在此过程中,来自不同信号源的模态能被合并以生成新的或更精确的知识点[13]

机器学习过程可以对疼痛进行分类。这一方法对疼痛识别率有很大的影响,并且在很大程度上取决于基础数据的质量和粒度。与情感计算领域类似,当前被使用的机器学习法如下:

支持向量机(SVM):SVM的目标是找到一个定义明确的最佳超平面,其能区别出两个(或更多)类别的最小距离。超平面能对未知模式分类进行决策。

随机森林(RF):RF由随机的、不相关的决策树的组成。每棵树单独判断一个未知模式,并分配为一个类别。然后,RF对模式的最终分类遵从多数决定。

K-近邻算法(k-NN):K-近邻算法使用类标签对未知对象进行分类,该类标签最常用来分类与其最接近的k个邻居。使用一个相似性度量(例如,欧几里德距离,Jaccard系数等)来确定其邻居们。

人工神经网络(ANNs):人工神经网络受到生物神经网络的启发,并以非常简化的方式对其组织原则和过程进行建模。类模式通过调整个体神经元连接的权重而被学习。

 
简化版自动疼痛识别过程。


数据库

编辑

为了实现以一种有效方式对疼痛进行分类,创建具备代表性的、可靠的及有效的疼痛数据库则显得尤为必要,以供机器学习者进行训练。一个理想的数据库应该够大,应该包括自然的(非实验性的)、高质量的疼痛反应。但是,自然反应难以被记录,且只能在有限的程度上获得,在大多数情况下它们质量欠佳。因此,目前可用的数据库包含实验性或准实验性疼痛反应,并且每个数据库基于不同的疼痛模型而构建。以下列举了最具相关性的疼痛数据库(最后更新时间为2019年1月):

·       UNBC-McMaster Shoulder Pain[14]

·       BioVid Heat Pain[15]

·       EmoPain[16]

·       SenseEmotion[12]

·       X-ITE Pain[1]

潜在应用

编辑

原则上,自动疼痛识别可以用于各种临床环境中,例如重症监护病房(恢复室)。不过,此方法的核心应用领域是病人疼痛交流能力受限的状况。另一个潜在的应用领域是,在人手不足的医院进行夜间疼痛检测。归根到底,避免止痛药使用不足及使用过量,是至关重要的。止痛药使用不足可能导致高风险病人出现疼痛慢性化与心血管应激反应,而使用过量会导致恶心、便秘、溃疡与胃肠道出血[3]。从长远来看,如果疼痛的其他特点(例如疼痛部位、质量、持续时间)能够被获取,自动疼痛识别可以有效地用于临床诊断和临床治疗。一个潜在的疼痛监测系统,例如电脑、平板电脑、手机等(见下图),可以提供与病人疼痛相关的实时、高分辨率信息。

 
疼痛监测屏幕的举例说明。

参考文献

编辑
  1. 1.0 1.1 S. Gruss, M. Geiger, P. Werner, O. Wilhelm, A. Al-Hamadi, S. Walter: Multimodal Signals for Analyzing Pain Responses to Thermal and Electrical Stimuli. To be published in: JoVe.
  2. 2.0 2.1 Elisabeth Handel: Praxishandbuch ZOPA: Schmerzeinschätzung bei Patienten mit kognitiven und/oder Bewusstseinsbeeinträchtigungen. Huber, Bern 2010, ISBN 978-3-456-84785-6.
  3. BESD videos. [2019-03-07]. 
  4. Henrik Kessler: Kurzlehrbuch Medizinische Psychologie und Soziologie (in German) 3. Edition. Thieme, Stuttgart/New York 2015, ISBN 978-3-13-136423-4, p. 34.
  5. S. Gruss et al.: Pain Intensity Recognition Rates via Biopotential Feature Patterns with Support Vector Machines. In: PLoS One. Vol. 10, No. 10, 2015, pp. 1–14, doi:10.1371/journal.pone.0140330.
  6. S. Walter et al.: Automatic pain quantification using autonomic parameters. In: Psychol. Neurosci. Nol. 7, No. 3, 2014, pp. 363–380, doi:10.3922/j.psns.2014.041.
  7. D. Lopez-Martinez, O. Rudovic, R. Picard: Physiological and behavioral profiling for nociceptive pain estimation using personalized multitask learning. November 2017, doi:10.1109/ACIIW.2017.8272611.
  8. P. Werner, A. Al-Hamadi, K. Limbrecht-Ecklundt, S. Walter, S. Gruss, H. C. Traue: Automatic Pain Assessment with Facial Activity Descriptors. In: IEEE Trans. Affect. Comput. Vol. 8, No. 3, 2017, doi:10.1109/TAFFC.2016.2537327.
  9. S. Brahnam, C. F. Chuang, F. Y. Shih, M. R. Slack: SVM classification of neonatal facial images of pain. In: Fuzzy Log. Appl. Vol. 3849, 2006, pp. 121–128, doi:10.1007/11676935_15.
  10. R. Niese et al.: Towards Pain Recognition in Post-Operative Phases Using 3D-based Features From Video and Support Vector Machines. In: JDCTA 3.4, 2009, pp. 21–33, doi:10.4156/jdcta.vol3.issue4.2.
  11. Harald C. Traue, Steffen Walter, Kerstin Limbrecht-Ecklundt, Ayoub Al-Hamadi, Philipp Werner: Head movements and postures as pain behavior. In: PLoS One. Vol. 13, No. 2, 2018, pp. e0192767, doi:10.1371/journal.pone.0192767.
  12. 12.0 12.1 P. Thiam et al.: Multi-modal Pain Intensity Recognition based on the SenseEmotion Database. To be published in: IEEE Trans. Affect. Comput.
  13. S. Walter et al.: Data fusion for automated pain recognition. In: IEEE. 9th International Conference on Pervasive Computing Technologies for Healthcare. 2015, pp. 261–264, doi:10.4108/icst.pervasivehealth.2015.259166.
  14. P. Lucey, J. F. Cohn, K. M. Prkachin, P. E. Solomon, I. Matthews: Painful data: The UNBC-McMaster shoulder pain expression archive database. In: IEEE Int. Conf. Autom. Face Gesture Recognit. Work. FG. 2011, pp. 57–64, doi:10.1109/FG.2011.5771462.
  15. S. Walter et al.: The biovid heat pain database: Data for the advancement and systematic validation of an automated pain recognition. In: IEEE International Conference on Cybernetics. CYBCONF 2013, doi:10.1109/CYBConf.2013.6617456.
  16. M. S. H. Aung et al.: The Automatic Detection of Chronic Pain-Related Expression: Requirements, Challenges and the Multimodal EmoPain Dataset. In: IEEE Trans. Affect. Comput. Vol. 7, No. 4, 2016, pp. 435–451, doi:10.1109/TAFFC.2015.2462830.