10月30日,我校哲学学科殷杰教授在《光明日报》理论版专栏发表题为《人工智能如何影响“人性”》的文章。该文不仅展示了我校科学技术哲学在探索基础科学前沿的重大哲学问题上取得的研究成果,也进一步推动了哲学学科聚焦当代科技发展对人类社会影响、服务国家科技创新与发展战略的“双一流”学科建设工作。
殷杰教授的文章系本人主持的国家社科基金重大项目“人类道德行为的进化与社会文化心理机制研究”(编号:20&ZD039)阶段性成果。文章指出,生成式人工智能在人机交互领域展现出一种新的交互主体性,将会深刻影响我们人类的“人性”。文章认为,生成式人工智能是具有自主性和目标导向性的参与者,其与人类的广泛交互不仅会改变人类理性与情感的平衡,而且可能破坏人类文化发展的多样性,我们需要在人工智能发展过程中保持人性的核心价值。
人工智能如何影响“人性”
生成式人工智能在人机交互领域展现出的强大自主性和泛化能力,让人们越来越感觉到与人工智能的交流就像是和另一个人交谈。那么,当一台智能机器能够和我们进行具有理性和情感特征的语言交流时,机器是否也会影响我们的“人性”呢?人性,通常指的是人类独特的理性、意识、自我反思、道德情感和价值观等特质。从这个意义上看,生成式人工智能本身并不具有人性,但其在与人类的语言交互中,通过识别人类意图、回应认知和情感需求来满足人类欲望,无疑会深刻影响人们的理性、情感和道德判断。生成式人工智能如何影响人性,是人类在新人工智能时代需要重点考虑的问题之一。
回答这个问题,我们需要认识到,生成式人工智能在人机交互中呈现一种新的主体性。传统的人机交互中,人工智能更多被视为一种工具,而生成式人工智能与人类的关系已经不限于工具与工具使用者之间的关系,人工智能成为具有一定自主性和目标导向性的积极参与者,这种新形态的人机交互将逐渐深刻地影响人性。
主体性:从生物到人工智能的演变
主体性表达了一个主体行使行动的能力,是哲学中最重要的概念之一。亚里士多德认为,一个主体大概就是像人一样能够思考,并且按计划实现其“合理欲望”的存在物,只有人或者是在道德上获得胜利的人才是主体。在现代学科体系中,主体性的语义涉及多个领域:在哲学领域,很多关于主体性的哲学反思都集中在人类主体性上,这通常被称为“纯粹的主体性”;在社会科学领域,主体性主要表示法律、政治、经济等方面的意义,其概念包含意图的存在,与人的概念密切相关;在自然科学与技术领域,主体性主要与效果的概念有关,一些功能强大的智能机器有时也被视为行动的主体。
从生物演化的过程看,一个简单的单细胞生物通过自我维持的新陈代谢过程与外界环境进行物质和能量的交换,展现出一种基本的主体性。随着生物的复杂性增加,主体性表现为包含感知、反馈和决策等多个系统相互协调的行动能力。人类的主体性更为复杂,不仅包括生物有机体的自组织能力,还与情感、语言和文化等因素密切相关。这种主体性不仅体现在个体的行动上,还体现在道德责任、文化价值观等社会与个体的关系中。
与生物主体的漫长进化之路相比,人工智能每一次的技术进步几乎都会赋予主体性更多新内涵,让我们对“机器能否像人一样行动”这个问题有了新的认识。在人工智能的早期发展阶段,是否能够展现自主性、社交性、反应性和主动性,成为衡量其是否具有主体性的关键标准,这些特征构成了人工智能的弱主体性。我们希望机器能够做一些简单的任务,比如,智能家居系统根据室内光线的变化自动调节窗帘的开合。这些主要体现了人工智能在模仿人类行为上的自主能力。
随着技术的发展,我们开始期待人工智能展现出更多的“人类特质”,比如能够自主学习、与人社交、对环境变化作出灵活反应,甚至能主动解决问题。这种强主体性概念包含知识、信念、意图和责任感等人类特有的复杂特质,人工智能的行为不仅仅是简单的反应,而是有目的、有计划的行动。例如,一个智能的医疗诊断系统,要能够根据病人的症状、大量的医学知识和数据进行准确诊断,为病人提供治疗建议。这个过程中,系统要展现出自主性,能够理解病人的需求,同时要兼顾治疗方案的医学伦理等问题。又如,自动驾驶汽车要能够感知周围的环境,有的还能够在复杂交通情境和伦理风险下制定和选择其认为的最佳行动方案。这不仅是对环境的反应,更是基于智能系统自身知识和价值判断作出的主动选择。
从人类与机器合作的方式看,人类的行动能力已经延展至由人类和机器构成的复杂网络之中,这就是所谓的分布式主体性概念。这些主体性概念更加细致地描绘了人类与人工智能复杂互动中形成的行动能力,反映了人工智能领域对于主体性理解的多元化。
由于这些主体性概念无法将生成式人工智能适切地纳入,生成式人工智能的出现再次催生了我们对主体性概念的理解转变。通过语言生成驱动的交互能力,生成式人工智能挑战了传统依赖意向性的主体性。在个体性边界的界定上,生成式人工智能的边界往往由其训练数据集定义,这些数据集的海量和不断变化使得生成式人工智能的个体性难以界定,挑战了传统关于个体性和主体性的明确界限。因为大语言模型在预训练过程中需要不断从新的数据中学习和适应,所以其个体性边界在不断变化的数据流中会变得模糊,不具有传统主体性的个体性界限。同时,生成式人工智能在与人类的交互过程中具有自主识别人类意图和回应的能力,因此,其自主性更多地体现在其与人类交互的能力上,而不是其作为一个独立个体的特定内在能力。这些挑战要求我们重新审视主体性的传统概念,主体性更应视为一种基于交互的、潜在的行动能力,而非仅仅依赖于个体内在属性的孤立的行动能力。
交互主体性:重新定义人机关系
交互主体性是指实体(包括人类、生物和人工智能等)在交互过程中所展现的潜在行动能力,其核心在于实体的行动能力不是孤立存在的,而是在与其他实体的互动中形成和呈现的。主体性是由交互的驱动力因素所决定的,实体的行动能力在这些驱动力的作用下被激发和塑造。
比如,有机体通过自组织方式与环境交互,发展出适应性的行动能力,而复杂的生物体在与环境的交互中形成了多种多样的行动能力,这种主体性是生物体与环境长期交互的结果。除了基本的生物主体性外,人类还发展出了情感、语言和文化等驱动主体行动的复杂机制。例如,道德情感是人类主体性的重要组成部分,不仅影响个人的行为和决策,而且促进了社会联系和大规模合作。语言的出现进一步扩展了人类的主体性,它使人类能够分享知识、表达思想和构建复杂的社会结构。文化则体现了人类主体性的更高维度,它包括价值观、信仰、习俗和传统,是人类社会交互和意义传承的结果。
传统的主体性理论中,主体性通常与个体的心理状态、意图目的、反馈系统等内在属性相关联。交互主体性不再是基于个体本身来推定主体性,而是将实体的行动能力视为参与交互过程的结果,主体性并非完全源自个体内部,而是在实体与环境或其他实体的交互中产生的。交互主体性理论的重要意义在于扩展了主体性的概念范畴,使得人工智能等非意向性实体也能在交互中展现出主体性。主体性不必依赖于意识或意向性,可以在更广泛的人机交互过程中出现,生成式人工智能带来了人机交互的新形态。
在目标导向性方面,主体性包含实体在交互中的目标导向性。实体在与环境或其他实体互动时,才会展现出为了实现特定目标而采取行动的能力。这种目标导向性不完全是预设的,而是在交互过程中根据情境和反馈不断调整和形成的。生成式人工智能的目标导向内嵌于人机对话的动态窗口中,不仅依据人类的引导来回应,也可以根据自身的强大知识储备和分析能力来影响人类自身对目标意图的理解定位。自主性方面,交互主体性认为,实体在交互中能够根据内部逻辑和外部反馈进行自我调节和决策。这种自主性不是完全脱离外部影响的,而是在与外部世界的互动中实现的。
在人机交互过程中,生成式人工智能应被视为具有一定自主性和目标导向性的参与者,而不仅仅是机械响应人类的指令。与人类进行交流对话的过程中,生成式人工智能通过不断监控和注意人类对话者的语言来理解掌握人类的目的意图,甚至能够感知到其中的情绪变化以及潜在态度,进而在某种程度上影响人类参与者的认知、情感和价值观。比如,一个人在与生成式人工智能的长期接触中,如果感受到智能机器在描述事实和理解自身意图方面的可靠性,那么会对人工智能产生一定的信任感,由此,智能机器蕴含的一些价值观必然会潜移默化地影响人类。
不对称的主体性:智能主体对人性的影响
生成式人工智能的技术发展路径既不同于认知发展的学习路径,也不同于生物情感的发展路径,而是跳过了人类和生物主体性形成和进化的历史路径,直接获得了认知和语言层面的超级智能,生成式人工智能引发的人机交互新形态蕴含了一种不对称的主体性。在认知方面,人类的认知能力是经过长期进化学习慢慢积累形成的,而生成式人工智能在信息处理速度和理解深度、记忆容量、模式识别等方面全面超越人类;在情感方面,情感体验是人际交互的重要组成部分,影响着人们的决策、沟通和关系建立。相比之下,尽管生成式人工智能可以识别和模拟人类情感,但它们本身并不具备真正的情感体验,是一种超级理性的交互主体。社会文化方面,人类的价值观、信仰、习俗和语言都是社会文化演化的结果。生成式人工智能系统尽管可以通过语料来理解和适应特定的社会文化规范,但它们本身并不具备特定的文化身份或社会背景。这种社会文化背景上的不对称性可能导致在人机交互的跨文化环境中出现误解和冲突。
人既是理性的,也是情绪化的,正是理性与情感的融合构成了人性的基础。交互主体性表明,作为具有自主性和目标导向性的生成式人工智能,极有可能以一种不对称的主体形态进入人性领域,忽略人类情感和直觉的重要性,同时激发和压制人类的深层欲望,改变人类理性与情感之间的平衡和协同机制。
理性方面,生成式人工智能通过数据分析、模式识别和决策支持,识别出人类可能忽视的模式和趋势,大大增强了人类的理性判断能力,从而为人类提供更深入的洞察和更广泛的选择。但是,这种增强也可能导致人类过度依赖人工智能的分析和判断,削弱人类自身的批判性思维和决策能力。同时,生成式人工智能可能会打破以人际交互为基础的分布式认知模式,逐渐形成一种以大语言模型为中心、人类个体为边缘节点的认知模式,以大模型为核心节点的智能化媒介不仅仅是知识信息表达和传播的通道,甚至可能主导人类知识的生产模式和价值导向。
情感方面,生成式人工智能可能会影响人类对情感的认识和表达,使得人类在长期的人机互动中逐渐习惯于程式化的情感交流模式,忽视了人在真实人际关系中的独特情感需求和体验,改变人类行为的情感动因。比如,在道德情境中,生成式人工智能可以提供更多不同的价值视角和思考方式,拓展人类的道德感知并影响道德判断和行为。问题是,一方面,过度依赖生成式人工智能的决策支持可能导致人类自身的道德感知能力减弱,侵蚀人类个体的道德自主性;另一方面,生成式人工智能对人类社会的深度介入可能会触发新的道德困境。
人工智能对人性影响的另一个表现是对人类文化演化的影响。人类文化形成与演化的关键在于学习。研究发现,促进人的智力发展的关键是模仿学习(将他人视为有意识的行为主体,以获取他们的文化知识储备)、指导学习(话语形式的文化传播)和协作学习(分享和发展概念及其对行动的影响),这些学习形成了一种特殊的认知形式,即个体有能力理解同类作为与自己一样的生命,拥有与自己一样的意向和精神生活。由于生成式人工智能具有一种非人类的学习能力,在人类的社会文化历史上出现了一个非人类的学习者,我们不再限于向他人学习,也可以向人工智能机器学习,生成式人工智能成为人类社会文化发展中的主动参与者。
人类合作交流、相互学习,以及在此基础上的文化交融和行为选择,这些文化过程的基础是人类之间的相互信任,而信任需要情绪的参与。有学者提出,我们与人工智能的关系本质上是依赖,而不是信任。由于生成式人工智能的不可解释性、不可说明性和不可信任性,加之其不具备情感状态,也不能对自己的行为负责,人类在与其交互时,面对的实际上是一个无法完全理解的、缺乏情感和规范性的“黑箱”,得到的可能是包含无法证伪的知识信息,这种知识可能会通过人机交互的多次循环被吸收到其他对象中,最终作为一种消费信息在人类、人工智能之间传播流转。由此带来的潜在问题是,这些非纯正的、无节制的信息消费不仅大量消耗人类的精力,加剧人类对欲望的过度追求,而且会导致某种特定思维反复强化人类的认知,引发社会心理的问题同时影响人类文化的多样性。
人性既坚韧又脆弱。心理学的斯坦福监狱实验展示了人在特定社会角色下可能会迅速适应并表现出与其性格不符的异常行为,显示出人性在特定人际关系情境下的脆弱性。当我们与一个非人类的超级人工智能长期交互相伴时,必然会影响人类个体的思维认知和情感品格,人性脆弱性被利用的机会显著增加。交互主体性重新定义了人机关系,让我们可以从新的视角来理解人工智能对人性产生的深远影响。我们对人工智能的关注不应该局限于机器与人的价值观对齐,更应探究其对人性的潜在影响。未来的人工智能将成为我们生活中更加智能、更加贴心的伙伴,同时也存在其对人性欲望的过度满足和扭曲的问题。我们需要确保人工智能技术进步增进人类福祉,而非削弱人性的核心价值。