Nakyung Kyung1, Hywokkoo Eric Kwon2
(1. School of Computing, National University of Singapore, Singapore
2. Nanyang Business School, Nanyang Technological University, Singapore)
编者按:
近年来,人工智能(AI)在医疗领域掀起热潮,从影像诊断到药物研发,AI展现出超越人类的效率与精准度。但是在预防保健这一关键场景中,AI却面临“叫好不叫座”的困境。尽管AI能够生成媲美甚至超越人类专家的健康建议,用户对于AI的接受度仍然较低,预防保健领域的AI应用呈现出技术先进但用户不信任的矛盾。为何AI在技术性能上超越人类却难以获得同等信任?这项研究发现,在用户接受AI预防保健建议的过程中起决定性作用的是情感信任而非认知信任。AI在预防保健中的价值不仅在于技术突破,更在于能否构建“有温度的技术”。未来,随着情感计算、自然语言处理技术的进步,AI有望成为兼具效率与人文关怀的健康助手和伙伴,推动预防保健从“资源受限”走向“普惠可及”。
全球医疗运营系统正面临严峻的人力资源短缺问题。世界卫生组织数据显示,2013年全球医护人员缺口达1740万,预计至2030年仍仅能缓解17%。这一矛盾在预防保健领域尤为突出。美国约75%的医疗预算投入预防服务,但仅有22.4%的人群能够接受服务。AI因其高效处理数据、生成个性化建议的能力,成为了解决预防保健服务供应不足这一难题的变革力量。然而,AI在预防医疗中的应用面临核心挑战:用户对AI的信任度显著低于人类专家。一项针对2048名美国成年人的调查显示,仅20%的受访者表示信任AI提供的医疗建议。这种“技术性能高但接受度低”的矛盾,凸显了传统技术接受理论的局限性。当AI被视作人类的替代者时,用户的评估维度已超越单纯的技术理性,深入到情感与社会交互层面。
现有研究对AI在预防医疗中的应用研究存在以下空白。多数文献聚焦于诊断医疗(如AI辅助癌症诊断),但预防保健更依赖用户主动改变行为,其核心是建立长期信任关系,二者机制差异显著。传统研究侧重“认知信任”,如基于AI的准确性、效率等理性评估,但AI作为类人技术,用户会自然将其与人类对比,涉及“情感信任”,如感知AI的关怀、可靠性。这种情感维度在信息不对称的医疗健康场景中尤为重要。用户缺乏专业知识评估技术性能,更依赖情感信号做出决策。当前研究推动个人接受AI预防保健干预的理论与实践策略相对有限,如何通过设计提升其情感信任、缩小与人类专家的差距,仍是未被充分探索的实践问题。基于此,本研究聚焦以下目标:评估情感信任和认知信任在个人接受AI预防保健干预中的相对重要性,从而考察AI是否能够有效替代人类健康专家在预防保健干预中的角色,以及提供理论驱动、实践验证的策略以进一步提高人们对AI的信任,并增强AI在预防保健干预中的有效性。
研究首先进行了一项调查,验证了个人对AI预防保健干预的接受度显著低于人类(即专家)预防保健干预,AI干预者与人类干预者的认知信任无显著差别,但情感信任显著低于人类干预者。这表明,情感信任在个人对AI干预的接受决策中起着决定性作用。
随后,本研究对韩国最受欢迎的移动健康应用之一进行了为期一周的随机实地实验。两个实验组分别采用AI和人类专家的干预方式向用户推荐个性化建议,对照组不提示建议来源。通过对比用户接受度和实际健康行为,发现尽管AI干预组低于人类干预组,但是AI干预组表现出了比对照组更高的接受度与实际健康行为改变。这表明使用和披露AI显著提高了预防保健干预的接受度和个人健康行为,这与以往关于AI披露的负面影响的研究结果相悖。
在此基础上进一步扩展,设置了两种额外干预措施,分别是AI与人类专家合作干预以及提升AI透明度的干预,并将AI干预组作为对照组。结果显示,AI和人类合作、增加AI透明度可以增强对AI的情感信任以及对AI干预的接受度。后续实验进一步验证了情感信任与AI干预接受度和健康行为改变之间的因果关系,并发现AI与人类合作干预的方式比人类干预更有效。
本研究揭示了预防医疗保健中AI应用的核心矛盾:用户对AI的认知信任与人类相当,但情感信任的缺失导致其效果受限。在信息不对称的预防保健场景中,用户更依赖情感信号而非技术性能评估,这与诊断医疗中认知信任主导的模式截然不同。通过“技术+情感”双重设计可显著提升效果,例如,AI辅助专家决策或增加算法透明度。AI与人类合作干预的效果甚至超越单纯的人类干预,表明AI不仅是替代工具,更是增强人类服务规模与精准度的合作伙伴。
本研究首次在预防医疗场景中验证情感信任的决定性作用,修正了传统模型对“理性评估”的单一侧重。此外,本研究证实AI需模拟人类交互中的情感维度,而非仅追求技术性能。本研究还为预防保健领域AI设计和应用提供了实践指导:在预防保健干预中使用AI时应明确披露,管理者应避免过度注重技术而忽视通过有效沟通和个性化关注来与用户建立信任,政府和监管机构要推动建立透明的AI法律框架,推动AI在预防保健领域的应用、保障消费者获得算法决策解释的权力。
资料来源:
根据Kyung和Kwon于2025年发表在Production and Operations Management期刊题目为《Rationally trust, but emotionally? The roles of cognitive and affective trust in laypeople's acceptance of AI for preventive care operations》的文章缩写整理而成。
(本文责任编辑:郭瑞芳)