人工智能(AI)的迅猛发展正在重塑现代生活的方方面面,从自动化复杂的任务到在医疗保健和教育领域提供全新的解决方案。尤其引人入胜的一个发展领域在于社交情感智能领域,人工智能,特别是大型语言模型,正在展现出一种非凡的能力来模仿类人互动。这些模型可以生成看似具有同理心的文本,以过去被认为是人类独有的方式提供支持和理解。然而,越来越多的研究表明,一个关键的区别是:即使输出结果相当,但源自人类的同理心始终比人工智能产生的同理心更受重视。
这种偏好不仅仅是技术复杂性的问题;它深入探讨了人类联系和信任的根本方面。耶路撒冷希伯来大学的研究人员进行的一项综合研究,涉及超过 6,000 名参与者,跨越九项实验,反复证明了这一现象。即使在呈现相同的同理心反应时,个人始终认为归因于人类的反应更具支持性、情感共鸣和关怀。这表明,同理心的*来源*与*内容*本身同等重要,甚至更为重要。随着我们考虑人工智能日益融入心理健康、教育和客户服务等敏感领域,其影响是深远的。该研究强调了一种“情感权衡”,人们更喜欢人类较慢、可能效率较低的同理心,而不是人工智能快速但情感“平淡”的反应。
这种偏好背后的原因多种多样。一个关键因素是人类对真实联系的内在需求。同理心的核心是一种深刻的关系体验,建立在共同的脆弱性和理解之上。虽然人工智能可以通过复杂的算法和庞大的数据集*模拟*同理心,但它缺乏支持人类同理心的生活经验和真正的情感能力。即使是潜意识里察觉到的这种真实性的缺失,也会降低人工智能生成反应的感知价值。此外,研究表明,即使是专家,第三方评估者也常常认为人工智能比人类心理健康专业人员*更*有同情心,这似乎是一个自相矛盾的发现。这表明人工智能可以擅长*表现出*同理心,但这种看法并不一定转化为与人直接互动时所经历的相同程度的信任和情感共鸣。有趣的是,这种偏好也延伸到了动物理解;人类的同理心显著提高了我们解释动物声音的能力,这是人工智能目前缺乏的一项技能。经济合作与发展组织(OECD)也已经开始分析这些趋势,认识到人工智能正在为社会带来的广泛转型,以及理解人工智能与人际关系之间关系的必要性。
到2030年,我们将看到进一步的演变。随着脑机接口技术的进步,人类与人工智能之间的界限将变得更加模糊。想象一下,通过脑机接口,人类的情感和感受可以直接传输给人工智能系统,从而使人工智能能够生成更加真实和有意义的响应。然而,这种进步也将引发关于隐私和情感所有权的伦理问题。谁拥有人工智能系统中表达的情感?如果人工智能系统复制了人类的情感,它是否有权受到保护?这些问题需要我们仔细考虑和解决,以确保人工智能的负责任和符合道德的发展。
“人性化人工智能”的兴起——即刻意使人工智能文本听起来更像人类的努力——强调了这种动态的重要性。到2025年,将人工智能文本转换为听起来更像人类的声音不再是一种偏好,而是实现真正联系和取得成功的根本要求。然而,仅仅模仿人类语言是不够的。希伯来大学的这项研究还表明,除非明确告知他们正在与人类互动,否则人们更可能拒绝来自人工智能聊天机器人的情感支持。这突出了透明度的关键作用以及欺骗的可能性。此外,研究表明,人工智能聊天机器人在试图表现出同理心时可能会无意中延续偏见,从而进一步复杂化它们在敏感互动中的作用。那么问题不仅仅是人工智能*能否*提供同理心,而是*应该*在什么条件下提供?新兴的共识表明,虽然人工智能可以成为增强人类能力的宝贵工具,但它不太可能完全取代人类同理心的独特和不可替代的价值,尤其是在需要深刻情感联系和信任的情况下。未来可能在于一种协作方式,利用人工智能在数据分析和效率方面的优势,同时保留同理心和理解的基本人类要素。
随着人工智能能力不断提升,未来社会可能会出现一种全新的“情感经济”。那些能够提供真正同理心和情感支持的人将变得更加稀缺和珍贵。企业将需要重新评估其员工培训计划,以确保员工具备必要的社交情感技能,才能在与客户和同事互动时提供有意义的体验。同时,人工智能将越来越多地用于自动化重复性和低价值的任务,从而使人类能够专注于更具创造性和情感意义的工作。这种转变将要求我们重新思考教育和技能发展的重点,并帮助人们为未来做好准备,在未来,人类情感的价值将得到前所未有的重视。
总而言之,尽管人工智能在模拟人类情感方面取得了显著进展,但研究表明,人们仍然更重视来自人类的同理心。这种偏好源于人类对真实联系的内在需求以及对人工智能缺乏真实情感能力的不信任。未来,我们可能会看到人工智能与人类之间的更多协作,人工智能负责处理数据和提高效率,而人类则提供情感支持和理解。这将需要我们重新思考教育和技能发展的重点,并确保人工智能的负责任和符合道德的发展,从而在不断变化的技术环境中最大限度地发挥人类的潜力。
发表评论