在大众的认知中,人类的思维分为系统 1(System 1,直觉的、快速的、无意识的、自动思考)和系统 2(System 2,有逻辑的、缓慢的、有意识的、计划和推理)。
如今,一种不同于 System 1 和 System 2 的新思维 System 0(系统 0)出现了。
系统 0 不属于人类思维,但能够增强人类的认知能力,
由人类在与人工智能(AI)系统互动的过程中产生。
在一篇发表在 Nature Human Behaviour 上的 Correspondence 专栏文章中,科学家们首次定义了系统 0 的概念。
“AI 工具迅速融入我们的日常生活,正在重塑我们的思维和决策方式。我们认为,数据驱动的 AI 系统超越了单个人工制品,与一个动态的多人工制品生态系统交互,构成了一个独特的心理系统。我们将其称为系统 0。”
他们在文章中指出,系统 0 提供了大量信息和快速反馈,使得用户可以更高效地处理和分析数据,增强了人类的思维能力,并探讨了系统 0 对自主性、批判性思维和伦理的潜在影响。
系统 0:对人类认知的一种扩展
人类与 AI 系统的不断交互,促使了系统 0 概念的形成。
与操作于个体大脑内部的系统 1 和系统 2 不同,系统 0 形成了一种人工、非生物的底层分布式智能层,既与直觉性思维交互,也增强了分析性思维过程。 它通过与人类互动,成为辅助直觉性思维(系统 1)和分析性思维(系统 2)的基础。
文章指出,系统 0 是对人类认知的一种扩展,这一观点基于 Clark 和 Chalmers 的“延展心灵假说”。系统 0 满足 Heersmink 定义的认知扩展标准,包括信息流、可靠性、耐久性、信任、程序透明性、信息透明性、个性化和认知转变。
另外,系统 0 可以与系统 1 和系统 2 配合,通过提供快速、高效的信息处理和个性化反馈,增强人类的思维能力。例如,系统 0 可帮助处理复杂的决策任务,尤其是在数据分析或重复性高的工作中,它通过加速信息处理,减少人类思维的负担。
然而,尽管系统 0 在信息处理上表现出色,但它自身并不具备固有的意义建构能力——这仍需要系统 1 和系统 2 的人类判断和解读。这意味着系统 0 的作用更多是为传统的认知过程提供辅助,而非替代。
风险:人类失去自主权与批判性思维
文章特别指出,系统 0 并非毫无风险,对其过于依赖可能导致人类失去自主思考能力。随着越来越多的日常任务被 AI 接管,人类可能逐渐放弃独立决策,从而过于依赖 AI 提供的答案和建议。
而且,如果人类不再质疑 AI 提供的答案和建议,这种无意识的信任极有可能削弱创新精神、降低人们的批判性思维能力。例如,在内省领域,当 AI 系统根据数据生成关于个体心理状态的分析时,虽然这些分析可能基于海量信息,但它们并不能替代人类的主观体验。一旦人类逐渐将自我反思交给 AI 系统处理,这可能侵蚀人们独特的内省能力,进而影响人们对自我和现实的理解。
此外,随着 AI 生成数据的广泛应用,信息的真实性和可靠性问题也日益突出。系统 0 处理的许多数据可能是合成的或经过处理的,如果这些合成数据被广泛使用且缺乏质疑,人们可能会逐渐偏离对真实世界的认识。
事实上,自主性降低已经成为系统 0 面临的一大伦理挑战。
另一个潜在的伦理挑战是责任归属问题,即人们是否应该为自己基于 AI 的决策负责?如果人们没有能力质疑或理解 AI 的处理过程,如何确保基于这些 AI 建议的决策不会偏离道德规范或违背人类价值观?
在这一情境下,研究团队指出,制定负责任和合伦理的 AI 决策流程使用指南至关重要。此外,他们还积极鼓励开展关于 AI 增强认知的伦理影响及其对人类自主性和决策潜在影响的公共对话。
总而言之,在看到系统 0 能为人们提供强大认知支持的同时,我们不可忽视盲目信任它可能会导致的削弱独立思考能力与自主权的风险。在未来,我们需要不断加强对 AI 系统透明度和可靠性的监督,重视培养人类的批判性思维与数字素养,从而正确发挥和利用系统 0 的强大潜力。