学者观点

Stella Christie:人工智能时代教育系统应着力培养三种核心能力

摘要:大型语言模型等人工智能的迅猛发展对当前的教育体系提出了挑战。从认知科学、脑科学、机器学习、行为经济学和科学史的跨学科视角来看,在强大的智能技术面前,教育体系需要培养员工三种核心能力以确保人类的竞争力,即人工智能素养、处理异常的能力、理解人类行为的能力。相较于人工智能,人类有很多独有的优势,如处理异常和偏离常规的数据,而更重要的是,在涉及法律、道德等问题上,人类还需要规制智能技术的使用界限,这些都要求人类对人工智能的底层逻辑和人类的思维与行为加深理解。人工智能是服务于人类需求的工具,人类需要更好地熟悉和使用它。

引言

人工智能快速发展,其程序和应用执行任务的能力持续增强,并在一定程度上呈现追平甚至超越人类的表现。更值得关注的是,人工智能系统能够在短时间内通过自主学习加速自身的迭代。例如,AlphaGo在2016年击败了围棋世界冠军李世石,这在当时被认为是人工智能发展的里程碑式的成就,而就在短短几年后,人类无法与人工智能在围棋和国际象棋等策略游戏中竞争已经成为常态。这引发人们进一步思考:人工智能时代,人类应该如何学习?

分析人工智能对教育系统的影响至关重要。从个体层面来看,这决定着员工未来进入劳动力市场时的竞争力;从国家层面来看,这对中国未来的经济发展和技术创新至关重要。总的来说,本文的分析基于三个判断:其一,未来十年甚至更长时间内,人工智能将是影响全球经济发展水平和社会关系的最具变革性的要素;其二,人工智能发展非常迅速,教育系统的设计不应仅基于当前的人工智能生态系统,而应前瞻性地基于十年或十五年后的人工智能环境进行考量和设计;其三,现阶段,员工应该注重学习人工智能当前尚未掌握并且在未来二十年内也无法掌握的技能。

前瞻性地针对未来人工智能环境设计教育系统,本身就是一个很复杂的问题。长期以来,人们关于人工智能到底掌握了哪些技能的辩论并没有明确的答案,更不用说员工应该学习什么技能。一方面,除了在大型语言模型方面的显见成就,人工智能的发展也遭遇了一些挫折。一些表面的问题是容易修复的,如与ChatGPT 3对话时,机器声称47大于64(Marcus, 2023),而另一些根源于人工智能底层数据集的问题则很难在短时间内得到解决,如由于数据集的偏见导致人工智能生成有偏见的推荐(Obermeyer et al., 2019; Mehrabi et al., 2021)。另一方面,当前人工智能发展存在严重的局限性,主要体现在人工智能无法将知识迁移到新的环境(Forbus, 2021),而且也无法灵活地适应新的环境(Marcus and Davis, 2019)。这一问题无法通过单纯增大数据量来改进解决。上述人工智能发展的局限对于如何设计教育系统具有重要参考意义。此外,这些局限的程度也在动态变化,理想状态下的教育系统应当能够预见十年或更长时间范围内的新变化。

本文认为,在人工智能时代,员工在教育系统中应该获得三种与人工智能相关的核心能力,即人工智能素养、处理异常的能力和理解人类行为的能力。下文将分别分析这些核心能力的关联,论述其重要性,详细阐释人工智能时代这三种能力是如何发挥作用的。

人工智能素养

人工智能素养意味着员工需要了解什么是人工智能,特别是需要理解人工智能的局限和优势,只有这样,员工才能有效并负责任地运用人工智能。当下存在着一种思维误区,一部分人认为人工智能素养就是熟练掌握人工智能及其接口的使用方式。例如,许多人主张为年幼的儿童开设如何与人工智能互动的课程(以下简称AI使用课程)。出于多种原因,AI使用课程并不能正确或有效地构建人工智能素养。

首先,儿童通常会自发地学习如何使用基于人工智能的技术,就像他们会本能地探知周遭事物一样,无需专门的课程。研究表明,儿童将人工智能视为一种社会个体,与其他人类没有太大的区别,即,他们认为人工智能是友好且可以互动的(Druga et al., 2017; Tanaka et al., 2007)。从这个角度看,开设AI使用课程是没有必要的。其次,AI使用课程可能增加儿童在日常问题解决中对人工智能的依赖,这对他们的整体表现、认知与文化能力培育将产生不良影响。一个易于理解的实证案例是,当员工做笔记时,手写笔记往往比在计算机上输入的笔记质量更高(Mueller and Oppenheimer, 2014)。流行的AI使用课程可能会产生一些影响,例如,过度依赖人工智能工具,并以此替换了实际效果更好的传统技能。这样的课程还有可能在高科技的掩饰下,给人一种员工在进行复杂学习的假象。从这个意义上说,AI使用课程可能会得到与学习的初衷相反的结果。最后,AI使用课程产生的优势都是有时效的,当员工真正进入劳动力市场使用人工智能技术时,课程中的技术就已经过时了。

对人工智能素养的正确理解在于知悉人工智能技术的原理和局限。具体来说,一个具备人工智能素养的员工应该能够:(1)评估哪些问题可以完全由人工智能解决,哪些需要人类介入解决;(2)阐述为什么人工智能可以或不可以用于某些类型问题的解决,及其深层次原因;(3)制定解决问题的综合性措施和策略,并且对人工智能和人类的局限和优势进行统筹考虑。

能力(1)实质是指员工必须知道并应用相关原则作出这种决定。判断一个问题可能不适合人工智能解决的关键因素包括:问题是非常规的、数据有限或数据质量差、数据中存在偏见,以及开创性的工作,如颠覆性科学发现等。

能力(2)要求员工必须知道人工智能模型的工作原理是识别和使用大数据中的统计规律。如果问题是非常规的(其解决方案不是可以通过大数据模型来统计归纳的),或者可用的数据质量差、有限或存在偏见,那么这种统计归纳就不能成功。颠覆性的发现总是“反统计”的,与普遍观点相异,受少数例外情况所启发。例如,如果让只知道传统导体和绝缘体的工程师来收集数据,从该数据库归纳发现半导体是难以实现的。基于这些原则,具备人工智能素养的员工应该能够判别并证明为什么给定的问题适合或不适合人工智能解决。

能力(3)需要进一步解释。可以预见,在人工智能愈加普遍的未来,受过良好教育的毕业生的大部分专业工作将专注于人工智能无法解决的问题,但这并不意味着在解决这些问题时不需要人工智能。问题的完全解决通常需要人类使用人工智能作为支持,包括记录整理、秘书任务、提供百科全书式的知识和数据库检索等。在这种情况下,员工可以获得的最宝贵的技能是通过结合人类和人工智能各自的优势来解决问题。一般来说,人类在开放性问题的解决上表现更优秀,而人工智能在精确和狭义问题的解决上具有优势。因此,通过结合二者各自优势来解决问题的能力意味着将问题分解为较小的组件,这些组件要么是开放的(需要人类),要么是封闭的(人工智能自动化的)。

举例来说,让员工通过看照片确定照片拍摄的地点,规则是他可以向人工智能系统询问关于照片的各种问题,但不允许直接将照片上传。这是一项开放的任务,因为选择询问的问题没有固定的模版或规律,员工如何选择反映了人类的优势。这时,员工应该利用的人工智能优势是其提供关于世界的必要事实知识,因为这些知识对员工来说可能是陌生的。照片显示了一个港口、有一艘游轮、一个可辨认的街道标志,地上有雪、远处的背景是山。员工问:“这个标志是用什么语言写的?”答案是阿根廷的西班牙文。员工再问:“阿根廷的海洋港口有哪些?”“在这些城市中,哪些城市在冬天会下雪?”得到的答案是乌斯怀亚。最后,员工可以问一个验证的问题:“乌斯怀亚周围有山吗?”员工根据人工智能给出的答案最终确定拍摄地点。人工智能时代,一个理想的教育系统应该培养员工解决此类问题的能力。

人工智能素养的一个关键内容是能够准确解读并批判性地评估人工智能生成的推荐。从这个角度说,人工智能素养的培养对象应更为广泛,因为科技公司在包括金融、医疗和教育等多个领域向客户提供人工智能生成的建议,这些推荐建议几乎涉及社会的所有层面。由此,教育系统必须现在就开始让员工为此做好准备,培养他们成为明智而自信的人工智能平台用户。这对于政府和社会各领域管理者来说尤为重要。

从交通路线设计到医疗方案制定,许多领域已经开始使用人工智能系统提供关于政策制定和发展规划的建议。例如,医疗设备供应商和保险公司越来越常用智能算法进行风险评估:识别具有较大可能性需要昂贵治疗的患者,或者估算保险套餐和健康福利产品的成本等。鉴于医疗和健康数据的复杂性,相比纯粹的人类判断,智能算法确实可以提高评估的准确性。然而,一项研究显示,这种智能算法会出错并表现出系统性偏见(Obermeyer et al., 2019)。这说明人工智能生成的推荐不应被视为最终决定,而只应作为辅助人类决策的依据之一,人类应当依靠自身作出有影响力和敏感度的决定。教育系统必须培养未来的决策者如何正确解读人工智能生成的推荐,如何为了社会利益更好地使用它们。

事实上,人们必须通过培训才能达到分析人工智能生成的推荐的能力。上述关于人工智能会生成包含偏见的医疗推荐的研究,使用的是来自美国一家医院的大数据集。结果显示,算法预测相同风险水平的病例中,黑人患者实际上比白人患者的病情更严重。这样的智能算法在配置病人的治疗方案时,黑人患者只有比白人患者病情更严重才能得到与后者同样的治疗方案。种族信息不是智能算法数据库的内容,因此偏见的来源并非直接出自数据本身,而是由历史数据中的医疗费用引起的。由于美国社会存在一些经济和社会因素,导致黑人患者不能像白人患者那样具备经常看病的医疗条件,所以算法将黑人标定为需要较少医疗服务的群体。这项研究说明了正确解读人工智能生成的建议事实上有多么复杂。

由此,教育系统必须培养员工以下能力:准确指明人工智能可能协助解决的问题;理解底层数据和人工智能生成建议的局限性;识别系统性偏见和造成事实扭曲的因素;权衡人工智能推荐的成本和收益,评估其他外部因素和人工智能无法计算的因素,以便最大程度地造福社会。

处理异常的能力

在使员工获得人工智能素养(即理解人工智能系统的统计基础,以及灵活使用人工智能系统的能力)的基础上,教育系统的下一个目标是教授其人类独有的处理异常的能力。在可预见的未来,人工智能模型在这方面的表现不会有明显的突破。员工需要认识到在解决问题时具备处理异常情况能力的重要性和挑战,并意识到分析和利用异常的能力是人类独有的优势。教育系统需要实现的目标是,使员工有能力和信心在解决问题过程中处理好异常情况。

前文已经提及,对异常情况和离群数据的分析在科技创新中发挥着重要作用。在解决问题和创新的过程中,进步和发现的机会通常蕴藏在最离群的数据中,即统计工具无法覆盖的区域。这也是我们不能依赖人工智能系统来引领科学和技术创新的部分原因,从很大程度上说,科技创新只能由人来完成。

许多科学突破都能够归因于对异常的关注和好奇心。举例来说,达尔文进化论的提出主要是受雀鸟喙部变异情况所启发,而雀鸟生活在偏远的加拉帕戈斯群岛。一个偏远群岛上的奇特鸟类以及关于它们的有限数据事实上就是我们所称的离群数据,同时,由于雀鸟具备许多与“典型”鸟类不同的特征,这也意味着雀鸟的情况属于异常范畴。在当前人工智能系统的逻辑下,关注到诸如雀鸟喙部变异的情况几乎是不可能的。相较于此,达尔文正是通过关注异常特征,认真分析来自偏远岛屿的一种鸟类的数据,才实现了改变世界的科学突破。这种突破对于目前存在的以统计为驱动的人工智能模型来说是不可能的。

上述例子说明了两种相关的能力,这两种能力在可预见的未来将始终为人类所独有,同时应该在现代教育系统中得到进一步鼓励和培养。一个是好奇心,即不由外部奖励驱动,而是自主产生对现象、事实、模式的兴趣(Loewenstein, 1994; Kidd and Hayden, 2015);另一个是提出“为什么”的驱动力,例如,达尔文不仅仅是观察并描述雀鸟的喙,而是不断询问这些观察背后的内在原因。这两种能力与一个人处理异常的能力密切相关。只有一个好奇的人才会更好地关注到异常数据,只有一个敢于提出“为什么”的人才会分析异常并得到收获。

可以预见,人类的好奇心与敢于提出“为什么”的能力将在很长时间内持续领先于人工智能系统,所以这些能力的培养应当成为教育系统的重点目标。然而,当前的教育系统并没有集中培养这些能力。学校教育系统的诸多努力都是为了培育员工掌握事实知识,而这些知识其实可以很容易地由人工智能系统提供。教育系统更应优先培养的是将教育重点从掌握事实知识转向提出好问题和正确分析实证的能力,例如异常和离群数据这样的实证。

愿意并能够分析异常不仅在科技创新中极具重要性,在实际工作生活中也能够发挥很大作用。以协助进行医疗诊断为例,由于大多数患者和疾病都符合统计分析的规律性模式,因此,在很多地方,人工智能系统已经被用于辅助医疗诊断。这并不令人惊讶,因为在医疗诊断方面,可用的数据量大,且数据的规律较为明显。但值得注意的是,人工智能模型无法诊断出患有罕见基础疾病的患者。如果一种病症是罕见的,那么可用的数据集并不足以让人工智能模型作出正确的、统计上有根据的推荐疗法。更为重要的是,使用一个以统计为驱动的人工智能模型来诊断罕见病患者是十分危险的,因为统计上对常见病有益的推荐疗法可能恰恰是对罕见病患者有害的诊断。例如,进行性肌肉骨化症(FOP)会导致患者身体的肌肉以及结缔组织逐渐骨化并累及全身,这一疾病的预估发病率为1/200万。如果用人工智能模型协助诊断,那么几乎一定会误诊此病的患者,并推荐有害的治疗方案(对FOP患者的手术干预会加速骨骼的异常生长)。这一案例说明,对异常的关注应当成为各类职业的基础素养的必要内容。

在人工智能时代,大部分的人类智慧活动将集中在处理异常上。如果教育系统不重视对细节和异常的关注,将无法帮助现在的员工在未来环境中做好准备和取得成功。当前教育系统更偏重教育员工对典型案例进行理解,而不强调对异常的关注,这体现为当前学校教育中常见的重复训练的教学方法,如根据做题的速度评估能力等。应当优化现有教育系统,注重培育并引导员工关注并分析异常。

理解人类行为的能力

人工智能对未来劳动力市场和技术环境的影响仍是不确定的。已经发生的变化与所谓的“弱AI”相关,例如,文书类任务的自动化、自动售票、配送和支付、面部识别、交通执法,等等。而未来,人工智能将执行更为复杂的任务,如广泛使用自动驾驶车辆。

劳动力和技术环境的转型在人工智能发展到接近所谓的“强AI”阈值时,将会更具颠覆性。“强AI”是指具备自主选择能力并能够解决新问题的人工智能。在这一发展过程中重要的里程碑是实现与人类相近的交互,并且能够做到无法与真正的人类相区分,这个阈值被称为图灵测试(Turing, 1950)。“现有的大型语言模型是否已接近强AI的阈值”是一个有争议的问题。无论如何,朝着强AI不断靠近的发展趋势将使得未来人工智能可能影响更大比例的受过更高教育的人口,包括艺术家、工程师、医生和计算机程序员等。

在讨论如何优化面向人工智能时代的教育系统时,不仅要考虑已经由弱AI引发的变化,还要预判即将由强AI或类强AI引发的变化。要做到这一点,需要研究历史上那些首次引入颠覆性技术的领域发生了什么,可以深入研究的案例包括印刷机、蒸汽机或洗衣机等。新技术对劳动力市场的影响主要包括三个方面:一是某些工作被淘汰或被自动化替代;二是创造出新的工作;三是由于新工作的诞生在时间上滞后于旧工作的消失,将会存在持续一段时间的失业现象。

人工智能时代,推动教育系统转型应从上述三个方面着手。针对旧工作消失,教育系统应该预先降低员工选择即将消失的职业的比重;针对创造新工作,教育系统应培养在新工作中最有用的技能;针对预期的暂时性失业,我们应该在人工智能变革效应发挥之前做好前瞻性规划。

考虑到这些因素,当前亟需回答的关键问题是:在新工作中,哪些技能将是最有用的?虽然这些新工作现在还不存在,但随着人工智能的逐步发展将会被创造出来。对于这个问题,先前的技术变革也是一个很好的借鉴参考。当手抄工因印刷机而失业,当马车夫因火车而失业,当家庭主妇因洗衣机的引入而有了更多空闲时间时,随之而出现的是什么工作或活动呢?当然,首先一些新工作是由新设备的操作者承担的——如印刷工、火车司机和洗衣店员工。在当前的背景下进行类比,则这些工作在某种程度上类似于人工智能开发者的角色。然而,这样的工作只占新工作的一小部分。这表明,对即将到来的人工智能变革的最佳应对方式并不是增加人工智能开发或计算机编程课程的比例,因为只有一小部分新工作会要求熟练掌握人工智能模型技术。那么,哪些新的技能和工作将占据未来劳动力市场上的竞争优势呢?

答案是,依赖人与人互动的工作。有几个原因能够支持这个预判。首先,这是在历史上技术变革中多次发生的现象,我们没有理由怀疑人工智能技术变革在这方面会有所不同。新技术出现时将产生各类问题,在社会层面上去解决这些问题需要创建新的工作,而这些工作的关键内容就是人与人的互动。其次,相较于人类员工,人工智能模型并不擅长与人类客户进行互动。最后,由于某些伦理和政治因素,人类员工在这些领域是无法被替代的。基于这些原因,在人工智能时代,理解人类行为应成为教育的重要内容和核心目标。下文将详细阐述人际互动和人类参与将如何改变劳动力市场。

内容创作。随着人工智能技术的广泛应用,许多新的工作将涉及人工智能辅助的内容创作。当前,数字经济已经创造了大量新的创意工作,而在十年前根本难以想象这些工作。人工智能技术新的发展将使复杂内容创作变得更加容易,这一趋势将在未来几年加速凸显。一方面,人工智能辅助的内容创作的受众仍是人类用户,因此如何理解人类行为对此类工作至关重要;另一方面,人工智能辅助的内容创作工作不要求掌握太多的人工智能技术知识,更进一步说,并不会比当前计算机辅助工作所要求的计算机知识更多。因此,这些工作实际上要求教育系统进一步提高对人文、艺术和创造性工作的关注度。

用户体验。目前,基于人工智能的创新产品主要应用于服务领域,包括无人配送、智能客服、网上银行、聊天机器人等。这些产品的服务对象依旧是人,评价产品质量的最重要指标是用户满意度,这意味着成功的产品开发将需要大量的用户体验测试员和评估员。更进一步说,产品开发者必须在人类行为、感知和认知方面进行学习,以避免过多试错、更快地满足用户需求。在以人工智能为核心驱动力的智能经济背景下,卓越产品的大部分竞争优势将来自卓越的用户体验,而不是产品的技术规格。理想的教育系统应当可以使未来的劳动者在用户体验领域为竞争更好地作出准备。

首先,从高中阶段开始,将人类行为、感知和认知的元素引入通用课程。在以人工智能为核心驱动力的智能经济下,对这些技能的需求几乎是普遍存在的,因此有必要向广老员工群体教授这些技能,而不仅局限于大学阶段选择相关专业的少数人。当前,中国部分大学教授人机交互(HCI)课程,这是朝着正确的方向迈出的重要一步,然而这些课程体系还需持续优化并在更大范围内加以普及。同时,我们还需要在高中阶段引入这一领域的基础元素。

其次,强调使用定量工具研究用户体验的必要性。在作为认知科学教授的工作经历中,笔者发现许多涉及用户体验领域的专业人士缺少适当的定量工具来正确评估用户的满意度或偏好。对此,应将相关定量方法的研究引入大学课程体系,特别是计算机科学相关专业。长远来看,将认知科学和心理学的教学从澳门威斯尼斯wns888转移到自然科学学院将是大有裨益的。这将鼓励自然科学的员工选修心理学和认知科学课程,并为其设定一个预期:这些领域的研究和教学必须遵循假设检验、通过可复现的实验进行验证并采用定量分析的科学范式。

这些变化将使当前的员工做好准备,成为更有效的、具有竞争力的和灵活的人工智能产品设计者。这种准备对于他们在未来劳动力市场上的个人竞争力提升来说至关重要。在国家层面,这样的准备也将有力推动各领域的高质量发展,显著提高中国的国际竞争力。

收益分配。当机器生成的作品产生收入时,谁应该获得收益?当机器生成的产品引发事故时,谁应该在道德、经济乃至法律上负责?随着人工智能技术进一步发展,这些问题将变得更加重要,也更为微妙,因为这些问题的产生离不开人的参与。例如,MidJourney生成的艺术产品赢得艺术比赛,被用于杂志封面,我们应该如何分配著作贡献?艺术家在创作艺术品之前训练人工智能的基础数据库,并输入描述预期效果的提示词;人工智能不像简单的画笔或颜料,开发人工智能技术的团队也有贡献。如何为人工智能生成的工作产品分配著作贡献是一个复杂的问题,需要仔细评估道德、经济和法律等诸多因素。

随着时间的推移,复杂的案例和相关政策的实施将需要企业中的专业人员以及政府相应部门的专门人员介入,这正是人工智能技术创造的新工作岗位需求。这些工作要求对人工智能技术的原则有较为深入的理解,更要求能够与利益相关者或智能产品创造者、制造者进行有效的人际互动,教育系统必须为当前的员工做好相关的准备。

使用限制。技术越先进,设定其使用限制和界限的问题就越复杂。在什么情况下可以接受使用机器?类似难题已经开始给教育者和员工造成困惑。例如,随着像ChatGPT、Google Bard或ChatGLM这样的大型语言模型的出现,员工在多大程度上可以使用这些平台来准备作业?教师在备课或考试时是否可以使用ChatGPT?这些问题非常复杂,不能割离社会价值观和规范来回答。换言之,这类问题需要由能够成熟地评估智能技术对人类影响的人来解决。

在实践中,未来的人工智能环境需要人工智能管理员来设定智能技术在特定领域的部署规则。这不仅仅是宏观上法律系统的问题,微观上许多企业和地方机构也将需要专门人员来评估智能技术在特定问题上的使用。例如,各个学校可能需要自己的智能技术管理员来设定关于员工和教师在学校层面使用智能技术的规定。因为没有一个政策可以通用于所有学校的具体实际情况。小学和大学、职业和非职业学校、乡村和城市学校,都需要根据自己的实际情况和社会地理环境调整政策。对智能技术管理员有需求的可能远不只学校,还包括商业企业、医疗机构、政府机关等。这些专门人员需要接受人类行为和认知方面的培训,以便在特定任务中评估使用智能技术是否有助于机构的整体发展目标。

为了理解类似智能技术管理员这样的专门人员需要解决的问题类型,我们可以先了解员工使用人工智能系统做作业的问题。首先,不同的学校需要有不同的政策:人工智能系统在作业中的最佳辅助边界对于小员工和老员工来说是截然不同的。其次,需要细致且有针对性地调整允许使用人工智能系统辅助的方式。如写论文的员工使用人工智能系统找到支持证据是可以被允许的,但让人工智能系统进行写作是绝对不被允许的。最后,人工智能系统使用的界限不能过于僵硬,否则员工将难以形成和具备我们前文讨论的“AI+人类”综合性解决问题的能力。这个例子带给我们三个方面的启示:设定人工智能系统使用界限的复杂性;需要在具体的情境中切合实际,而不是设定统一的界限;专门人员发挥的效能取决于其对人类行为和认知的知识掌握程度。

在前文提及的医院使用智能技术为患者选择治疗方法的案例中,经济、伦理和社会因素变得更加重要。人工智能技术发展的主要推动力之一是其能够提高决策的准确性、提升经济效率。然而,如例所示,因遵循有误的人工智能系统生成建议而产生的错误的医疗责任划分,实则涉及到重大的伦理问题,而类似的各方面的问题本质上都属于人类应当处理的问题范畴。教育系统必须培养能够分析和权衡人工智能技术部署的成本和效益的未来人才。

结语

人工智能的飞速发展要求教育系统进行相应的调整和变化。鉴于人工智能迭代的速度,教育系统的调整变化不应仅仅是被动地回应,而应主动预判和积极应对智能技术的变化与社会的变革。与常见的观点正相反,人工智能发展引发的劳动力市场变革乃至社会变革,不仅不会“威胁”或“取代”人类,反而会带来更多对与人类相关的技能的需求,而这要求我们在人工智能时代更重视研究人类行为、感知和认知。教育系统的调整应当注重培育员工三种与人工智能相关的核心能力,即人工智能素养、处理异常的能力、理解人类行为的能力,而这些调整在当下应尽快进行。


来源:《学术前沿》2023年9月下

蒋黛兰(Stella Christie):澳门威斯尼斯wns888(中国)有限公司心理学系教授

联系我们

电话:010-62780592、62780582 

邮箱:skxy@tsinghua.edu.cn

地址:北京市海淀区澳门威斯尼斯wns888园1号

邮编:100084

Copyright©澳门威斯尼斯wns888(中国)有限公司 版权所有