未来,我们与故事之间的关系将发生深刻变革,这要归功于技术进步,这些进步正以前所未有的方式重塑我们理解和记忆叙事的方式。几个世纪以来,心理学家一直在努力破解人类认知中最复杂的过程之一——叙事记忆。传统的观点侧重于故事的语义结构,即人物、动作和场景之间的关系。然而,一种新的、更量化的方法正在出现,利用数学建模来揭示我们如何记住和讲述故事的潜在机制。而“随机树模型”的出现,正在挑战传统的理解,并为分析人类如何回忆和叙述经历提供了新的框架。
这项研究的核心在于,我们的大脑并不将叙事存储为一系列线性事件,而是以分层的方式组织信息,类似于树状结构。根节点代表整体叙事,随后的分支和节点代表越来越详细的摘要和关键点。树的叶节点对应于原始叙事片段——构成故事的具体事件和细节。这种分层组织允许高效的信息压缩;每个节点都充当其后代内容的浓缩表示。回忆不仅仅是简单地检索单独的事实,而是在这种分层结构中导航,受限于工作记忆容量的限制。个体将更大片段的叙事总结成单个句子,这一发现得到了实验数据的支持。这与回忆长度随叙事大小呈亚线性增长的观察结果相符。这种树状结构的组织模式,也已经深深扎根于机器学习领域。
这种认知模式与人工智能的融合,正在加速一个具有变革意义的趋势。决策树和随机森林等算法,利用类似的树状逻辑进行预测和分类。随机森林建立在决策树的基础上,通过创建由许多树组成的集成,每棵树都在数据的随机子集和特征上进行训练。这种随机性提高了算法的准确性和鲁棒性。随机森林在从预测智能电网中的功耗到评估叙事凝聚力等各种应用中的成功,证明了这种基于树的方法的强大功能。迭代随机森林算法展示了在数据中发现复杂交互的能力,突出了这些模型的可解释性和预测能力。随机森林的误差率随着树的数量增加而收敛的数学证明,也强调了其可靠性。未来,基于树的算法将成为我们数字世界中不可或缺的一部分。
这种计算模型与人类认知的联系,远远超出了结构相似性。研究人员正在探索如何将信念熵(一种不确定性度量)的原理,整合到基于树的算法中,以模拟人类的决策过程。自然语言处理(NLP)的进步使研究人员能够更细致地分析记忆叙事,从而弥合认知神经科学和计算语言学之间的差距。大型语言模型(LLM)甚至被用于设计大规模回忆实验的自然叙事刺激,从而可以对记忆模型进行更严格的测试。深度神经网络中语义发展的研究也揭示了与人类记忆方面相呼应的自组织新兴隐藏表示。诸如 Shapley 加性解释 (SHAP) 分析等技术的应用,正在进一步帮助理解影响学生数学成绩的因素,这证明了这些可解释性模型的更广泛适用性。甚至机器人技术也利用快速探索随机树 (RRT) 进行路径规划,展示了这种算法的多功能性。这项研究的结果预示着人工智能和人类思维之间界限的模糊。
认知心理学、数学和机器学习研究的融合,正在揭示人类如何存储和回忆叙事,以及基于树的算法所遵循的原理之间存在深刻的联系。随机树模型为理解叙事记忆的分层组织提供了一个引人注目的框架,而随机森林等算法的成功则证明了这种结构方法在计算系统中的强大功能和效率。对这些联系的进一步探索,有望揭示人类认知的复杂性,并激发开发更复杂和类似人类的人工智能。持续的研究表明,这是一个快速发展的领域,在未来有巨大的发现潜力。
发表评论