特色专题:混合智能中的情感交互与协同决策

数字企业人机群体智慧决策的微观基础

  • 刘涛 , 1, 2 ,
  • 于文环 , 3 ,
  • 何琳 , 1, 2, * ,
  • 于晓宇 1, 2
展开
  • 1. 上海大学管理学院, 上海 200444
  • 2. 上海企业创新与高质量发展研究中心, 上海 200444
  • 3. 浙江大学管理学院, 杭州 310058
何琳(通信作者),博士后,研究方向为神经创业与营销,电子信箱:

刘涛,教授,研究方向为神经创业、数智决策,电子信箱:

于文环(共同第一作者),博士研究生,研究方向为神经管理,电子信箱:

收稿日期: 2023-09-05

  网络出版日期: 2025-03-07

基金资助

国家自然科学基金面上项目(72472094)

国家自然科学基金重点项目(72232010)

上海市智库青年领军人才专项课题(2024TRC018)

国家资助博士后研究人员计划(GZC20240972)

中国博士后科学基金项目(2024M761922)

上海市超级博士后激励计划(2024231)

版权

版权所有,未经授权,不得转载。

Microfoundations of human-machine collaborative decision-making in digital enterprises

  • Tao LIU , 1, 2 ,
  • Wenhuan YU , 3 ,
  • Lin HE , 1, 2, * ,
  • Xiaoyu YU 1, 2
Expand
  • 1. School of Management, Shanghai University, Shanghai 200444, China
  • 2. Shanghai Center for Enterprise Innovation and High-Quality Development Research, Shanghai 200444, China
  • 3. School of Management, Zhejiang University, Hangzhou 310058, China

Received date: 2023-09-05

  Online published: 2025-03-07

Copyright

All rights reserved. Unauthorized reproduction is prohibited.

摘要

随着企业数字化转型的推进,人工智能在管理决策制定中的作用愈发重要,企业高管团队与智能决策系统进行协同决策成为新趋势。本文对人机群体智慧决策现有研究进行综述,指出人机协同效果受到管理者认知、信任、人机互动模式等因素影响。未来研究需基于微观基础视角进一步关注人机群体智慧决策的伦理道德问题、人机协同决策的交互机制与神经基础、智能决策系统对高管认知的长期影响以及人机群体智慧决策过程的治理策略等问题。

本文引用格式

刘涛 , 于文环 , 何琳 , 于晓宇 . 数字企业人机群体智慧决策的微观基础[J]. 科技导报, 2025 , 43(3) : 59 -73 . DOI: 10.3981/j.issn.1000-7857.2023.09.01355

2022年10月16日,习近平总书记在党的二十大报告中再次强调,“高质量发展是全面建设社会主义现代化国家的首要任务,为此要不断促进数字经济和实体经济深度融合……”同年,科技部等6部门印发《关于加快场景创新以人工智能高水平应用促进经济高质量发展的指导意见》,系统指导各地方和各主体加快人工智能场景应用,推动经济高质量发展。2024年5月11日,国务院常务会议审议通过《制造业数字化转型行动方案》,指出“制造业数字化转型是推进新型工业化、建设现代化产业体系的重要举措……要加大对中小企业数字化转型的支持……探索形成促进中小企业数字化转型长效机制”。由此可见,企业要实现高质量发展,推动数字化转型势在必行[1]
企业数字化转型的最终结果是走向数字企业[2],基于“数据+算法”构建企业智慧大脑,使企业的战略决策方式从传统的经验决策升级为数据决策[3]。具体来讲,企业大脑是基于云、大数据、物联网及人工智能等新技术融合迭代而构建的企业智能决策系统,通过实时、持续处理企业海量异构数据,提取关键信息,从而形成最优化决策建议与实施方案[4]。因此,数字企业的智能决策系统必将对企业原有的战略决策方式产生巨大影响[5]。而企业高管团队与智能决策系统的协同融合也将成为数字企业高质量发展的核心驱动力与关键挑战[4, 6-7]
随着企业数字化转型的逐步推进,探究数字企业的2个“大脑”(即企业高管团队和智能决策系统)之间相互影响的微观作用机制和协同融合的动态演化过程势在必行。企业家和高管团队作为战略决策的主体,是企业战略管理的重要研究对象[8]。战略管理领域“微观基础”研究关注个体心理、情绪、决策风格、认知模式,以及人际关系和互动对组织战略层面结果的影响,旨在理解个体层面的因素如何影响组织绩效,并系统剖析将个体行动聚合成最终宏观结果的过程[9]。微观基础研究得到了战略与组织研究领域学者的广泛关注与认可[10-12],有助于揭示企业决策者与创业者的战略决策过程,深入理解战略决策的底层逻辑和认知基础[9]。战略的微观基础研究范围进一步拓展,研究方法上也开始与神经科学等多学科方法相结合,不仅从行为层面关注个体因素对组织战略层面结果的影响,还关注诱发战略行为、结果,甚至是思维的神经机制,强调从“神经—生理—心理”多层次来研究战略决策情境中个体对外界刺激的加工和反应机制[8]
认知神经科学的理论和技术为探究人机群体智慧决策的微观基础提供了更为便利的条件。首先,认知神经科学有助于减少因高管主观因素所带来的结果偏差,更真实地记录高管的决策过程。自我报告法、行为观察法和相关性研究法等传统方法受到了高管主观因素的影响,导致结果偏差难以避免。高管既可能出于社会称许性等原因刻意地回避相关内容,例如,不愿意承认对新技术(如人工智能)的质疑等,也可能因为回忆偏见或者回忆扭曲(recall distortion)的干扰而在问卷访谈中无意地给予了违背现实的回答[13]。认知神经科学技术可以测量企业决策者的大脑及生理反应,更为客观地描绘出企业决策者的信息加工和决策过程,能够与传统研究方法相互补充与印证,获得更为真实全面的研究结论。其次,认知神经科学技术有助于探究人机协同决策中企业决策者的认知动态变化过程。过往研究较多关注人机协同对最终决策效果的影响,缺乏对决策产生过程以及人机交互过程的探究。认知神经科学技术可以实时记录整个决策过程中企业决策者的大脑及生理反应,有助于解释人机协同过程中“人机信任如何动态变化”“如何形成战略决策”等关键问题,为深入理解人机协同决策的微观基础提供了更为完整的视图。
鉴于认知神经科学技术对于揭示人机协同决策微观基础的独特价值,本文所回顾的微观基础研究主要聚焦于人类对智能决策系统的感知、信任及人机交互等过程中的认知神经机制。具体而言,这篇综述将综合多领域、多方法的研究,从企业家和高管团队决策研究现状出发,介绍人机协同决策的优势与挑战,重点回顾人机群体智慧决策的神经机制相关研究,并基于现有成果讨论未来数字企业人机群体智慧决策的微观基础这一主题的未来研究方向。

1 企业家和高管团队决策的现状

在探讨企业高管团队与智能决策系统的协同决策之前,需要对企业家与高管团队决策的相关研究进行回顾。企业战略是管理者的“一系列决策模式”[14]。在个体决策层面,以往研究普遍认为,受到诸多主客观条件的影响,人类的决策受到有限理性的约束[15-16]。在客观层面,人类的认知资源与认知能力有限,因而在决策过程中无法完全详尽地搜索信息,且无法准确评估所有决策结果的可能性[17-18]。此外,受到自身偏好、过往经验及情绪等主观因素的影响,人类在决策过程中也无法完全避免有意识和无意识的偏见[19]。一般来说,客观认知资源的限制与主观偏见往往会对理性的、一致性的决策产生负面影响[20]
企业家与高管团队的决策同样受到有限理性的影响。Hambrick等[21]的“高阶梯队理论”(upper echelons theory,UTH)指出,高阶领导的认知结构和价值观影响着其战略选择和相应的绩效结果。因此,研究企业的战略决策需要充分考虑高管团队的经验、能力和认知风格[22]。有限理性往往会导致管理者在决策过程中无法做出最优选择,有时甚至对企业绩效产生负面影响[23],例如,高管自身的知识经验可能会导致认知惯性与过度自信,进而阻碍创新决策[24]和战略突变[22]。但管理者可以通过适当的方式对决策过程加以修正完善。例如,首席执行官(chief executive officer,CEO)反思能力可以在一定程度上克服有限理性在高管决策中产生的负面影响,促进企业可持续发展绩效[25]。Yu等[26]综合构建了较为完整的企业家战略决策的认知框架,强调了基因、认知、情绪、环境等因素对企业家决策制定的影响,整合了影响战略决策的宏观因素与微观基础,为后续研究提供了理论框架。
鉴于管理决策的复杂性和个体在决策过程中的有限理性,学界与业界越来越多地关注管理中的群体决策问题。团队协作是企业管理中的普遍形式,部分研究表明,群体成员在群体决策中可能比个体决策时更加理性[27]。同时,团队协作可以提高积极性、生产力和工作满意度,员工在与他人合作时往往会取得更高的成绩,并感到更强的内在动力[28],也有助于激发更高的创造力[29]和更多的利他主义行为[30]。在企业战略决策过程与机制层面,以往研究就战略决策过程的整合模型、不确定性环境下基于类比推理的战略决策过程[31]、急速变化环境下的战略决策精炼规则[32]等进行了讨论,并主要从行为整合机制、共享心智模型、认知演化机制等角度剖析了团队决策过程,指出团队决策本质上是以团队交互为基础的团队认知适应性变化过程。多个成员间的信息交换和经验共享可以使团队对问题、战略有更全面的理解,同时也协调并减少了团队异质性引起的冲突,从而更好地推动新决策的制定和实施[33-34]。但需要注意的是,高管团队决策可能受到群体思维、群体极化、社会影响、隐藏信息等群体偏差的负面影响[35]。例如,在并购决策中,高管团队成员先前的立场会得到加强,出现群体极化效应,先前的并购溢价经验会导致更高的并购溢价[36]。同时,高管团队对先前成功经验的自我归因也会导致群体过度自信,进而对并购决策产生负面影响[37]
综上所述,企业决策者的有限理性可能会导致决策质量下降,产生不理想的绩效结果。高管团队协同决策在一定程度上克服了个体独立决策的局限性,但仍受到群体偏见等因素的影响。相较于企业家与高管团队决策,人工智能可以实现更加详尽的信息搜索和复杂的决策计算,可能会对人类决策的有限理性进行解构补充。

2 数字化背景下人机协同决策的内涵与特征

20世纪五六十年代,在企业管理领域开始出现计算机辅助管理活动的情境,并逐步探索如何利用计算机技术来提高管理效率和决策质量。早期的相关研究集中讨论了计算机作为辅助工具如何减轻管理者的工作负担,尤其是在数据处理和分析方面[38]。进入20世纪70年代,随着计算机技术的进步,企业开始采用企业资源计划系统(ERP)和制造执行系统(MES)等自动化系统,以实现生产和管理过程的自动化。这一时期的研究主要探讨了如何通过系统集成优化资源配置和提高生产效率[39]。1990年,钱学森等提出了“综合集成工程”构想,即将计算机和专家二者有机结合起来构成一个高度智能化的人机交互系统,为人机协同在中国的发展奠定了基础。之后的研究相继提出了“人机系统”“协作智能”(collaborative intelligence)等概念,强调人与机器可以优势互补,从而协同高效地完成工作[34, 40]
数字化转型进程中,企业正在经历从“工业化管理模式”向“数字化管理模式”的变革[41],企业生产管理趋向智能化、企业营销管理趋向精准化、企业资源管理趋向高效化,从而带来企业管理范式,乃至制度的颠覆式创新[42-43]。在数字化转型过程中,企业主体将逐渐成为由具有强大智能的数字化技术,以及被数字化技术赋能的人所构成的复杂系统[44]。人类智慧与数字智能的协同融合也必将成为影响企业高质量发展的关键挑战[4]。随着数字化技术的逐步发展,算法智能日渐强大并展现出类人(human-like)的互动模式。为此,行动者网络理论[45-47]认为智能技术和人具有等同性,需要深入研究智能技术和人共同形成的行动者联合体(alliances of actors),关注人和智能技术之间相互影响和塑造的关系,及其共同组成的协作网络如何演化、发展和维护[48]。基于此,本节将对管理研究中人机协同决策的内涵及应用领域、人机协同决策的优势与挑战2个方面进行回顾。

2.1 管理研究中人机协同决策的内涵及应用领域

人工智能(AI)是一种旨在模拟人类智能的高性能复杂技术,是“第四次工业革命”的核心[49]。先前的技术革新专注于改变或取代常规的手工任务,但人工智能涉及认知、关系和结构复杂性[50-51],因此,人机协同给社会经济发展带来的变化与以往的工业革命有着显著的不同。在管理研究中,人工智能被定义为能够通过以下方式与环境进行交互的新一代技术:(1)从外部(包括自然语言)或其他计算机系统收集信息;(2)解释这些信息、识别模式、归纳规则或预测事件;(3)生成结果、回答问题或向其他系统发出指令;(4)评估其行动结果并改进其决策系统以实现特定目标[52]。更进一步,Puranam[53]将“人类-人工智能协同决策”定义为在知识工作中,人类和人工智能算法通过某种形式的协作,共同产生由第三方执行的决策(如选股、投资、判决、筛选候选人等)。
目前,企业管理中的人机协同决策主要集中于运营管理任务,如人脸识别或市场分析[54]。也有组织在人力资源管理中使用算法来雇佣和解雇员工[55],管理员工的优先级[56],并帮助员工选择医疗保健计划[57]。但正如近期的一项研究[58]显示,目前只有少数公司将人工智能应用于管理决策过程;其中一个原因是,仍然对人类管理者和人工智能之间的协作机制知之甚少[59]

2.2 管理研究中人机协同决策的优势与挑战

既有研究指出,人类与人工智能具有互补优势,二者协同合作有助于形成集体智能[60-62],从而实现更高质量的决策[63-64]。例如,Shirado等[65]通过对4000名参与者的在线实验发现,人工智能帮助人类玩家提高了其在在线游戏中的表现,将解决问题的时间缩短了55.6%。Xiong等[20]回顾了人机协作进行风险决策的相关研究,提出人机协作在高风险决策方面具有巨大的潜力。机器可以收集信息、评估不确定性,有助于节省人类决策者的认知资源,帮助人类决策者修正决策的主观偏差并限制情感影响。Krishna等[66]提出,在与人的交互中不断学习的智能体(社会化AI)具有更高的决策性能,并通过视觉问答任务发现,与其他智能体相比,社会化智能体识别新视觉信息的性能提高了112%。在管理实践中,以往研究表明,人工智能具有为企业节省成本的潜力。人工智能可以提高效率、减少错误、节约成本并提供更准确的结果,从而改善战略成果[67-69]。例如,Abrokwah-Larbi等[54]对加纳225个中小企业的调研表明,在营销管理中使用AI对提升财务绩效、客户绩效、内部业务流程绩效以及学习与成长绩效具有显著影响。在研发投资决策背景下,基于人工智能的建议被认为比人类建议更值得信赖[70]。在团队决策层面,人类和人工智能之间的合作也被证明可以提高商业团队的智商[71]
人工智能具有提升决策效果的潜力,但人机协同融合的过程仍面临诸多挑战[72]。在行业实践中,许多公司在人工智能上投入了大量时间、精力和资源,但却没有得到预期的好处[73]。波士顿咨询集团和麻省理工学院对高管进行的一项调查发现,70%的人工智能项目对企业绩效几乎没有产生积极影响,人工智能实施计划从2019年的20% 下降到了2020年的4%[67]。已有研究探究了人机融合效果不佳的主要原因。例如,De Cremer等[74]通过实验研究发现,人们反对在领导角色中使用人工智能,因为其认为人工智能不太公平。但人类也并不想完全拒绝算法,人们更偏好60%~40%的人-机伙伴关系。Shrestha等[75]分析了人工决策与AI决策之间的关系,结果发现,由于算法决策过程是一个黑箱,管理者需要对算法决策的结果负责。因此,多数企业管理者对算法决策缺乏足够的信任,仍将自己的决策作为首选。另一方面,由于算法在决策建议和结论推演的过程中较少关注道德、情绪等感性因素,企业管理者对某些情境下基于算法衍生的决策建议和结论的有效性也存在较多疑虑[76]
还需注意的是,随着人类对智能系统信任和依赖的加深,智能系统也可能会对人类的认知产生负面影响。有研究表明,过度依赖智能系统会造成组织中的个体技能丧失,使得组织和员工被“套牢”在既定的流程和路径中[64]。Mirbabaie等[77]的研究表明,引入人工智能可能会对员工的工作认同产生负面影响,加剧对被取代的恐惧。该研究基于以往文献构建了工作场所中人工智能身份威胁的影响因素模型,并基于访谈等数据进行模型验证。结果发现,工作变化、地位丧失,以及员工的人工智能身份(在多大程度上认为AI是自身身份的一部分)是影响工作场所中人工智能身份威胁的重要因素。类似的实证研究也表明,担心自己被智能技术、人工智能、机器人和算法取代的员工会经历更高的离职率、愤世嫉俗、抑郁,组织承诺和职业满意度也较低[78]。因此,如何在人类与人工智能的伙伴关系中建立信任并找到合作的最佳模式成为亟待解决的问题。
综上,智能算法的纯粹理性和高计算能力使得人工智能在许多情境下都成为优于人类的潜在决策者,高级人工智能正在从一种工具逐渐变为团队成员,甚至可以作为团队领导者/任务分配者[79],对企业管理者的控制权和决策权均产生了巨大的挑战[1, 80]。即便如此,人的主观经验、洞察力等仍是智能算法无法替代的,特别是在非预见未知条件下问题的求解,人的智慧显得尤为重要[4]。因此,当前最重要的研究问题不是人工智能决策是否优于人类决策,而是如何发挥人类智慧和算法智能之间的互补性优势,找到二者之间的最佳协作模式,从而更大限度地提升数字化效能,促进企业高质量发展。

3 群体决策与人机决策的认知神经机制

随着人工智能和大数据的快速发展,多人协同与智能系统进行互动融合必将成为数字时代的新发展趋势[65, 81]。为此,系统研究群体决策与团队协同的认知神经机制是设计优化以人机群体协同为核心的复杂智能系统的基础性科学问题。人机协同决策系统是一个具有复杂特征的决策系统,其决策效果涉及多种因素的影响。本部分将重点评述人类的认知能力、对智能决策系统的感知、人机信任与人机互动等因素影响决策过程与效果的微观基础。

3.1 人类群体决策的认知神经机制

在群体决策神经机制的研究方面,受制于传统脑科学与认知科学的研究方法,直到2010年左右,随着以脑电和近红外光谱脑功能成像为基础的超扫描技术(hyperscanning,即同时测量2个人或多个人脑活动的技术)的发展,越来越多的研究人员才开始关注这一前沿科学问题[82-83]。利用超扫描技术,有研究人员发现,在双人协同合作时,交互双方的大脑皮层之间会出现脑活动同步的现象,称为人际神经耦合(interpersonal neural coupling)[84]。在此基础上,以往研究进一步讨论了人际神经耦合与群体协作绩效的关系。Liu等[85]首次提出了群体决策与协同的研究范式框架,有效整合了前人研究发现中所存在的差异。Lu等[29]基于功能性近红外光谱(functional near-infrared spectroscopy,fNIRS)超扫描技术探究了竞争与合作模式对团队创造性表现的影响,结果表明,合作条件下团队创造性表现更佳,且相比于竞争模式,合作模式下团队成员特定脑区的神经耦合增强可能是合作促进创造性表现的微观基础。He等[86]基于fNIRS超扫描技术探究了指定领导者、领导者自动显现对团队创造性表现的影响,结果发现,与指定领导者条件相比,领导者自动显现时团体创造性表现越好,且领导者与追随者在多个脑区的神经耦合程度可以有效预测领导者-追随者之间的观点采择行为。在基于磁共振功能成像(fMRI)的超扫描实验中,Tang等[87]发现,相比于参与者面孔被遮挡的情况,当参与者面对面进行最后通牒游戏时,双方右侧颞顶联合区(TPJ)的脑活动同步性更高;且脑活动同步性与共同意图(shared intentionality)、合作决策中的积极信念以及游戏绩效呈正相关关系。与之类似,Jiang等[88]使用基于fNIRS的超扫描技术对无领导小组讨论过程进行了研究,并同时测量了每组3名参与者的脑活动。研究发现,在无领导小组讨论中,某些参与者会自发成为讨论的领导者。相较于跟随者之间的大脑活动关系,领导者与跟随者在左侧颞顶联合区表现出更强的脑活动同步性,说明领导者有效协调了讨论各方的信息。Liu等[89]结合图论理论与社交网络模型,使用基于fNIRS的超扫描技术从群体脑网络的角度研究了团队协同的认知神经机制。研究发现,在团队协同中,团队成员社会脑区(social brain)之间所构成的脑网络的拓扑属性,如网络全局效率,是高质量团队协同的认知神经基础。此外,也有研究人员探究了个体人格特征如何影响群体决策过程中的脑活动同步性,发现个体的亲和性和外向性与群体决策任务中的神经耦合显著相关[90]
综上,过往群体决策的认知神经机制研究表明,群体协同任务中,人际的大脑活动同步性与群体协作绩效、团队创造性表现等密切相关。这些研究也为理解人机群体智慧决策提供了重要见解。与人类团队决策不同,人机团队进行协同决策的情境中,人类对人工智能队友的感知、信任,以及交互方式均区别于人类队友,进而可能对协作绩效产生影响。

3.2 人机感知的认知神经机制

以往研究从神经机制层面探讨了人类如何感知机器人或人工智能的动作、情感、注视及评价反馈等。部分研究表明,人们对人类与机器人的感知存在相似之处。在动作感知层面,Gazzola等[91]发现,人们在观看人类或是工业机械臂抓取物体时,大脑中行动观察网络(action observation network,AON)的部分脑区表现出了相似的激活特征。在情感感知层面,以往的脑成像研究表明,人类在观察机器人的情感表达[92],以及机器人与其他人互动的情境时[93],在神经层面均表现出了人类感知网络(person perception network,PPN)的激活状态。类似的研究表明,人们观察人类表情与观察虚拟面孔表情所诱发的杏仁核激活是相似的,即虚拟面孔也可以唤起大脑中类似于真实面孔的情感处理[94]
但最近的研究也表明,人们对人类与人工智能的感知仍存在本质差异。例如,在注视感知层面,Belkaid等[95]通过脑电实验研究了类人机器人的注视(与人相互注视或不注视)对人们在社会决策环境中策略推理方式的影响,并提出具有社交行为的机器人可能并不总是对人类有益。具体而言,机器人与人类相互注视会减慢人类的决策反应速度,同时相互注视还伴随着α波(一种与抑制注意力有关的脑电波)活动的增加,表明参与者需要在专注于游戏的同时抑制分心,从而导致更长的反应时间。这一发现证明,机器人的注视对人类来说是一种强烈的社会信号,影响着人类的反应时间、决策阈值、神经同步,以及选择策略和对结果的敏感性。Vaitonytė等[96]进一步对13篇相关文献进行了总结,指出在观看人类/人工智能图片和视频刺激时,与理解他人的意图、信念和情感(即心理理论,theory of mind)有关的颞顶联合区(TPJ)对人类的反应更敏感,而与自我相关信息处理和情感评估相关的楔前叶(PreC)和腹内侧前额叶皮层(VMPFC)对人工智能的反应更强烈。这可能表明,在面对人工智能时,人们并没有简单地将其视为具有意图、信念和情感的人类个体。
虽然上述研究尚未得出统一结论,但总的来说,相比于处理与人工智能相关的信息,在处理人类相关信息时,更多地调用了负责社会认知和社交行为的“社会脑”。但当实验任务不涉及交互时(例如,观看人类或机械臂抓取物体时),对人类和人类智能的感知在大脑层面会表现出类似的激活特征。这表明,当人工智能成为群体决策的互动成员之一时,对人类队友与机器队友的感知很可能存在差异,进而影响决策绩效,相关问题有待未来进一步探讨研究。

3.3 人机信任的认知神经机制

人机信任是影响智能决策系统效能的重要因素之一[97-99]。信任指个体对代理在不确定性条件下帮助其达成目标的态度。Glikson等[97]在人际信任实证研究综述中指出,人工智能的有形性(tangibility)、透明性(transparency)、可靠性(reliability)和亲近行为(immediacy behaviors)影响了人们对人工智能的认知信任;而人工智能的拟人化程度则影响人们的情感信任;对于智能系统而言,人机信任更多地受智能系统可靠性的影响。例如,有研究发现,在人机互动中,信任会随着人工智能在交互过程中逐渐暴露功能不足和失误逐渐降低[100]。在对不同类型的人工智能的信任程度上,研究表明,人们对于机器人人工智能(robotic AI)的信任随着实践经验的累积而增加;而对于虚拟和嵌入式人工智能,通常最初的高度信任会随着经验的积累而下降[97]
影响人机信任的因素主要包括智能系统准确性、人类自身认知与特质等。从智能系统的角度,以往研究表明,人类对智能系统的信任和依赖程度随着智能系统可靠性的提高而显著增加[101]。在人机协同任务中向人类展示智能系统的整体准确率(可靠性)有利于校正人类对智能系统的合理信任水平,从而提高人机协同绩效[98]。从人类自身的角度,也有研究探讨了决策者本身的知识水平与人工智能信任程度的关系。例如,Logg等[102]基于一系列实验研究发现,外行人更信任来自算法而非人类的建议。Fügener等[103]基于实验研究结果提出,人类的元认知能力(即准确认知、判断自身能力的能力)有助于科学合理地在人与人工智能之间分配任务并完成合作,因而是提升人机协同决策绩效的关键因素。元认知能力的缺乏将导致人类无法稳定、有效地将自身不擅长的工作委派给人工智能。Leyer等[104]基于调研数据发现,尽管承认人工智能有许多潜在的好处,但人类——尤其是在倾向于规避风险的文化中——往往不愿将决策委托给人工智能,主要是因为人类希望保持控制,并且在处理情况时(过度)自信。这些研究表明,人类决策者的自身特质与人机信任程度密切相关,进而显著影响人机协同决策效果。此外,人因工程领域的研究表明,人们可能对智能系统过度信任、盲目依赖而导致对智能系统的滥用(misuse),或是由于不信任智能系统而导致弃用(disuse)[99, 105],2种现象都将对人机协同绩效产生负面影响[100]
在神经机制层面,吴俊等[106]对人机信任相关实证研究进行了元分析,并将信任分为认知信任和情绪信任2个维度。元分析结果表明,透明度是认知信任的前因,而拟人化是情绪信任的前因。同时,这项研究也基于对人机信任相关神经科学实验的元分析揭示了人机协作过程中,“信任”的神经生理机制。结果表明,认知信任和情绪信任与大脑的壳核和颞上回密切相关。其中,壳核的激活表征对奖励的预期,而颞上回的激活则表征了较高的共情反应。Fareri等[107]基于fMRI实验探究了人际信任与人机信任的神经反应差异,结果发现,相比于年轻人,老年人在人际信任期间表现出比人机信任显著更强的默认模式网络与颞顶联合区(DMN-TPJ)连接性。这表明相比于人机信任,人际信任涉及更多的社会认知过程,且人机信任与人际信任的神经反应差异可能与年龄相关。
上述研究表明,智能系统的准确度等特征,以及人类自身的认知能力等与人机信任程度和人机协同绩效密切相关。实现高效的人机协同需要“知己知彼”且“相互信任”。虽然已有部分研究探究了人机信任的内在神经机制,但是很多关键问题仍未完全解决,例如,在企业管理情境中,管理者的神经机制如何支持其与人工智能的互动与协同决策?随着人工智能越来越深入地融入管理实践中,企业员工与管理者对人工智能的认知与信任如何随着时间的推移而变化的?对这些问题的深入讨论将有助于更好地理解人类与人工智能协作决策的心理与神经生物学基础,对人机协同决策中人工智能的设计与开发具有重要意义[108]

3.4 人机互动的认知神经机制

个体在与人类/人工智能交互时,其神经机制也存在较大差异。例如,在消费决策情景中,Xie等[109]的研究表明,相比于算法推荐的体验产品,消费者对算法推荐的搜索产品接受度更高。进一步地,事件相关电位研究的证据表明,当人工智能(相比于人类)推荐体验产品时,消费者表现出了更高水平的认知冲突(即更大的N2值)。在人机交流情景中,Hogenhuis等[110]基于fMRI数据揭示了个体与人或机器人交谈时神经反应的异同。参与者被邀请与人/机器人通过视频实时讨论水果和蔬菜的营销活动。fMRI数据结果显示,与机器人相比,在交谈中倾听人类的声音会导致个体顶上小叶和双侧顶下小叶、额中回、左侧颞中回等脑区的激活增加。在交流中,人/人工智能主要引发了感知和语言等低阶认知加工过程上的差异,但在心智理论网络等高阶认知加工过程上人和人工智能给个体带来的影响是相似的。在人机反馈情景中,Schindler等[111]使用fMRI考察了计算机和人类对个体进行评价时个体的神经反应差异。结果显示,与来自计算机算法评估反馈相比,来自人类评估反馈激活了个体“社会脑”网络中的多个区域,包括额叶上部、内侧前额叶等。Yun等[112]的研究发现,当医疗人工智能使用个性化而不是机械对话时,消费者表现出对使用医疗人工智能服务的积极意愿。但神经层面的证据显示,消费者与使用个性化对话的人类医生互动时,其大脑中与亲社会相关的区域被激活。与之相反,即使是和使用个性化对话的医疗人工智能互动,消费者大脑中与隐性冷漠情绪相关的区域也会被显著激活。
综上所述,部分研究初步表明,人际交互与人机交互在社会认知等加工过程上存在显著的差异,但目前对人机协同的神经机制还缺乏清晰的了解。在行为层面,以往研究围绕协作模式如何影响人机协同绩效等问题已取得了较为丰富的成果,为人机协同的神经机制研究指明了可以进一步探究的关键问题。以往研究表明,在人类与人工智能协同决策的过程中,协作模式对人机协同的决策效果起到至关重要的作用[79]。在协作模式的分类方面,Sowa等[113]将人机协作中的相互依赖关系分为4个层面(图 1),包括:(1)人与人工智能相互竞争或完全独立工作;(2)人与人工智能在一定范围内相互补充,人工智能专注于一些算法擅长的任务,如处理复杂的计算或处理大量数据,而人类专注于涉及复杂决策、社交、情感技能或灵活性更高的任务;(3)人与人工智能相互依赖,当可用数据并不充分时,人工智能的预测和决策过程需要人类加以干预和指导;(4)人工智能成为人类大脑的延伸,两者为完全协作关系。Murray等[114]按照决策过程中协议开发和操作选择的主体(人或技术)不同,将人与技术之间的协同分为:(1)与辅助技术的协同(如心脏手术辅助机器);(2)与阻止技术的协同(当人类设定的某条件得到满足时,技术自动执行操作);(3)与增强技术的协同(如基于历史消费数据的智能推荐算法);(4)与自动化技术的协同(如IBM公司的深蓝)。Leyer等[104]将作为工具的人工智能与能够提供新颖性的人工智能进行了区分,认为作为工具的人工智能可以完成人类自身能力范围内的认知任务(如用于数据分析的软件工具),而提供新颖性的人工智能可以完成超越人类能力的任务(例如,通过面部识别来确定个人特征),进而提出人机协作的4种模式:工具增强、工具自动化、新颖性增强和新颖性自动化。更具体地,Kellogg等[59]确定了利用人工智能更好地指导并管理员工的6种机制,包括限制、推荐、记录、评级、替代和奖励。
图1 人机协作中的相互依赖关系
在协作模式对人机协同决策结果的影响方面,针对12个行业1075家公司的调研结构发现,人类和人工智能之间的合作越结构化,人工智能在灵活性、速度、成本、收入和其他绩效指标维度上的表现就越好[115]。在最近的研究中,Jia等[116]通过田野实验探究了人机协同中的工作设计、员工特征与员工创造力的关系,结果发现,AI协助寻找潜在客户可以提升员工在后续销售说服中回答客户问题的创造力,进而提升了销售额;同时,这种人机协同的工作设计对于高技能员工的创造力提升更为显著。具体而言,AI协助促进了员工与更可能发展的客户间的互动,使高技能员工在后续销售说服中产生创新性脚本与积极情绪,从而有助于创造力的提高。而低技能员工在使用AI协助时对脚本的改进有限并在工作中经历消极情绪。Xiong等[117]比较了不同人机协作模式下,风险决策任务绩效、人类行为和对机器的主观感知。结果发现,人机协同模式与人类主导模式实现了相当的任务绩效,且均优于人类决策者和机器单独决策。对于人机协作时的责任归属问题,研究表明,在分配正面和负面结果的责任归属时,参与者会表现出自我服务偏差,倾向于将正面结果归因于自己,而将负面结果归因于机器合作伙伴[118]。在人类对不同人机协同决策模式的偏好方面,研究发现,管理者并不希望将机器完全排除在管理决策之外,而是更喜欢人类拥有多数投票权的伙伴关系(人类决策权重约为70%,机器约为30%)[119]
综上所述,以往研究较为一致地表明,人工智能很可能成为未来工作中不可分割的一部分[120]。因此,人类对人工智能的认知、信任以及人机协同的具体模式如何影响协作绩效是企业数字化管理研究的重点问题。从人类决策者的视角,人类决策者自身的认知水平、对人工智能的信任程度等因素均是影响人机协同决策质量的重要变量。从人机协作模式的角度,人机协同决策的质量很大程度上取决于协作过程中的具体模式、工作设计、任务委派、人机决策权重等关键因素。因而,全面客观地理解、整合人与人工智能的优势与局限,并依据管理任务的不同特征采用具有针对性的人机协作模式,是创造人机协作竞争优势的必要条件。值得注意的是,现阶段的研究主要聚焦于单个个体与人工智能的交互,对人机群体智慧决策的神经机制尚缺乏讨论,无法全面揭示人机群体决策的动态认知过程及其对决策绩效的影响。

4 人机群体智慧决策微观基础的未来研究方向

4.1 人机群体智慧决策的道德伦理问题

人工智能已经深刻改变了企业的经营和决策方式。尽管人工智能技术有能力高速处理海量异构数据,组织领导决策的自动化可能会提高组织领导决策的最优性和透明度,但重要的道德和伦理难题仍未得到充分解决,例如,人类是否要有对智能决策提出的方案的否决权等[121]。人机协同决策中的伦理道德问题主要体现在算法偏见与情感缺失等方面。首先,人工智能不能实现纯粹理性的愿望,因为该技术永远不会完全没有偏见。例如,用有偏见的数据训练算法,或者程序员在开发算法时存在偏见。其次,由于AI无法理解和表达情感、缺乏共情,可能对道德决策产生负面影响[122]。例如,人们不愿意接受人工智能提出的道德决策,因为人工智能的权衡策略在这种情况下是令人反感的[123]。Krügel等[124]的实验研究表明,人类对道德困境的反应可能会受到人工智能对话机器人ChatGPT所写陈述的影响,且人类可能低估了其道德判断受到ChatGPT影响的程度。还有研究发现,强调机器人(相比人类)在灾难中的帮助行为,会降低旁观者对勇气的感知,减少受到的鼓舞,最终负面影响亲社会性[125]。最后,管理决策中的人机协同实践应关注责任归因等问题,避免因将负面结果归咎于机器而产生的不良道德决策等[118]
综上,基于机器学习和人工智能的技术给人类生活带来了极大的便利,但同时也带来了一系列的算法“黑箱”、歧视和伦理问题。此外,人工智能面临的更为广泛的挑战包括从技术或数据相关的挑战到社会、经济、政治和法律挑战,以及组织和管理挑战。人机群体智慧决策的伦理道德问题还缺乏坚实的理论基础和系统性的经验证据;尤其是在道德决策情境中,人机群体协同决策的认知神经基础是亟待解决的基础科学问题。

4.2 企业高管团队与智能决策系统协同决策的微观基础

在人工智能算法和大数据融合裂变的过程中,智能决策系统可以越来越快速、准确地掌握市场和运营规律,为决策提供大量信息支持。数字时代,作为管理团队中的一员,智能决策系统将极大地改变原有企业战略决策的信息不确定条件和决策制定模式[7]。目前的研究主要关注单个个体与人工智能的协同决策,对群体人机协同决策讨论尚存在较大不足。人机协同决策与人类单独决策之间存在着显著的差异[103],同时,个体决策与团队决策的认知过程也不尽相同[35]。在群体人机协同决策情境中,决策的过程和绩效可能会受企业高管团队自身特质、对智能决策系统态度(信任)[126]、高管团队间的交互等复杂因素的影响。因此,有必要从行为—心理—神经多个角度深入研究智能决策系统与企业高管团队决策模式的交互协同机制,尤其是关注人机协同的融合程度对企业科技创新(如研发投入,可能在人的战略眼光和人工智能的短视算法之间存在冲突),以及社会责任战略决策(可能在人的感性,例如,企业家精神和人工智能的理性之间存在冲突)的影响[127-128]。另外,如何培养人工智能系统/机器人和高管团队成员的团队认同感与信任,管理人员如何在决策过程中利用人工智能软件的能力和避免过度失去控制之间找到平衡也成为亟待解决的问题。

4.3 智能决策系统对企业高管团队认知能力和企业家精神的长期影响

企业高管团队与智能决策系统的交互协同是一个长期动态的过程。深度学习等人工智能算法使得智能决策系统越发精准的同时,也越来越匹配企业高管团队的决策风格和行为习惯,从而提高了企业战略决策的效率。但是,反过来,在这个双向融合的过程中,企业高管团队也必然受智能决策系统的影响而逐渐改变自身的认知和思维模式[129-130]。陈冬梅等[1]指出,未来的管理学研究可以更多地以人为核心来构建理论体系,讨论不同特征组合对人的认知、态度、行为的影响。随着对智能决策系统信任和协同融合的逐步加深,企业高管团队可能会越发依赖智能决策系统,而模糊自身的角色认知和自我效能。企业高管团队的执行功能、创新能力,以及企业家精神对企业的高质量发展至关重要。因此,有必要从长期视角深入研究智能决策系统对企业高管团队个体认知能力和企业家精神的负面影响。

4.4 数字企业人机群体智慧决策的治理策略

在人类与人工智能协同决策的过程中,如何治理人机团队中决策成员的复杂性、人机关系的复杂性,以及协作模式的复杂性对决策效果起到至关重要的作用[79]。以往研究多探究了不同人机协作模式的分类界定,少有研究从工作设计等视角关注人机混合智能决策的具体治理策略。因此,未来研究有必要在前人理论研究的基础上,探究人机协同决策过程中,工作设计等关键治理要素影响决策效果的底层机制,并探索人机协同决策的最佳模式与治理策略。

5 结语

随着企业数字化转型的逐步深入,人工智能在企业决策制定与实施过程中发挥着日益重要的作用,逐渐从决策辅助工具转变为决策团队的成员之一。在此背景下,企业高管团队如何与智能决策系统交互协同以提升决策效果成为重要的研究课题。现有研究表明,在个体决策层面,人机协同可能给管理者决策带来了效率、准确性等方面的提升,但受到管理者认知、信任、协作模式等多方面因素影响,人机协同决策系统在企业中的应用仍面临着一系列挑战。同时在诸多决策情境,可能会遇到人的感性和人工智能的理性、人的战略眼光和人工智能的短视算法、人的启发式决策与人工智能的分析式决策之间的冲突。在群体决策层面,多人协同与智能系统进行互动融合必将成为数字时代的新发展趋势,但人机群体智慧决策的微观基础问题仍缺乏坚实的理论基础研究和系统性的经验证据。本文基于对现有研究的回顾提出了数字企业人机群体智慧决策的未来研究方向,以期鼓励研究人员立足当前企业实践,进一步探索如何实现企业中人与人工智能之间道德、安全、科学、高效的协同合作。
1
陈冬梅, 王俐珍, 陈安霓. 数字化与战略管理理论: 回顾、挑战与展望[J]. 管理世界, 2020, 36 (5): 220- 236.

DOI

2
Verhoef P C , Broekhuizen T , Bart Y , et al. Digital transformation: A multidisciplinary reflection and research agenda[J]. Journal of Business Research, 2021, 122: 889- 901.

DOI

3
Sebastian I M, Ross J W, Beath C, et al. How big old companies navigate digital transformation[M]//Strategic Information Management. London: Routledge, 2020: 133-150.

4
刘业政, 孙见山, 姜元春, 等. 大数据的价值发现: 4C模型[J]. 管理世界, 2020, 36 (2): 129- 138.

DOI

5
Cascio W F , Montealegre R . How technology is changing work and organizations[J]. Annual Review of Organizational Psychology and Organizational Behavior, 2016, 3: 349- 375.

DOI

6
Fügener A , Grahl J , Gupta A , et al. Will humans-in-the-loop become borgs? merits and pitfalls of working with AI[J]. MIS Quarterly, 2021, 45 (3): 1527- 1556.

DOI

7
Larson L , DeChurch L . Leading teams in the digital age: Four perspectives on technology and what they mean for leading teams[J]. The Leadership Quarterly, 2020, 31 (1): 101377.

DOI

8
李炜文, 于晓宇, 任之光, 等. 中国情境下战略与创业微观基础研究机遇与挑战: 首届战略与创业微观基础学术会议综述[J]. 研究与发展管理, 2021, 33 (6): 175- 182.

9
Felin T , Foss N J , Ployhart R E . The microfoundations movement in strategy and organization theory[J]. Academy of Management Annals, 2015, 9 (1): 575- 632.

DOI

10
Foss N J , Lindenberg S . Microfoundations for strategy: A goal-framing perspective on the drivers of value creation[J]. Academy of Management Perspectives, 2013, 27 (2): 85- 102.

DOI

11
Paruchuri S , Eisenman M . Microfoundations of firm R&D capabilities: A study of inventor networks in a merger[J]. Journal of Management Studies, 2012, 49 (8): 1509- 1535.

DOI

12
李炜文, 李晓彤, 陈衍泰, 等. 组织能力的微观基础: 研究述评与展望[J]. 外国经济与管理, 2024, 1- 22.

13
Podsakoff P M , MacKenzie S B , Lee J Y , et al. Common method biases in behavioral research: A critical review of the literature and recommended remedies[J]. Journal of Applied Psychology, 2003, 88 (5): 879- 903.

DOI

14
Mintzberg H . An emerging strategy of "direct" research[J]. Administrative Science Quarterly, 1979, 24 (4): 582.

DOI

15
March J G . Bounded rationality, ambiguity, and the engineering of choice[J]. The Bell Journal of Economics, 1978, 9 (2): 587.

DOI

16
Simon H A . Models of man[M]. New York: John Wiley and Sons, 1957.

17
Cokely E T , Kelley C M . Cognitive abilities and superior decision making under risk: A protocol analysis and process model evaluation[J]. Judgment and Decision Making, 2009, 4 (1): 20- 33.

DOI

18
Deck C , Jahedi S . The effect of cognitive load on economic decision making: A survey and new experiments[J]. European Economic Review, 2015, 78: 97- 119.

DOI

19
刘永芳. 有限理性的本质辨析与价值之争[J]. 心理学报, 2022, 54 (11): 1293- 1309.

20
Xiong W , Fan H M , Ma L , et al. Challenges of human-machine collaboration in risky decision-making[J]. Frontiers of Engineering Management, 2022, 9 (1): 89- 103.

DOI

21
Hambrick D C , Mason P A . Upper echelons: The organization as a reflection of its top managers[J]. Academy of Management Review, 1984, 9 (2): 193- 206.

DOI

22
杨林, 和欣, 顾红芳. 高管团队经验、动态能力与企业战略突变: 管理自主权的调节效应[J]. 管理世界, 2020, 36 (6): 168- 188.

23
Sundaramurthy C , Lewis M . Control and collaboration: Paradoxes of governance[J]. Academy of Management Review, 2003, 28 (3): 397- 415.

DOI

24
薛鸿博, 杨俊, 迟考勋. 创业者先前行业工作经验对新创企业商业模式创新的影响研究[J]. 管理学报, 2019, 16 (11): 1661- 1669.

DOI

25
Jia Y Y , Tsui A S , Yu X Y . Beyond bounded rationality: CEO reflective capacity and firm sustainability performance[J]. Management and Organization Review, 2021, 17 (4): 777- 814.

DOI

26
Yu X Y , Liu T , He L , et al. Micro-foundations of strategic decision-making in family business organisations: A cognitive neuroscience perspective[J]. Long Range Planning, 2023, 56 (5): 102198.

DOI

27
Cooper D J , Kagel J H . Are two heads better than one? team versus individual play in signaling games[J]. American Economic Review, 2005, 95 (3): 477- 509.

DOI

28
Carr P B , Walton G M . Cues of working together fuel intrinsic motivation[J]. Journal of Experimental Social Psychology, 2014, 53: 169- 184.

DOI

29
Lu K L , Xue H , Nozawa T , et al. Cooperation makes a group be more creative[J]. Cerebral Cortex, 2019, 29 (8): 3457- 3470.

DOI

30
Cason T N , Mui V L . A laboratory study of group polarisation in the team dictator game[J]. The Economic Journal, 1997, 107 (444): 1465- 1483.

DOI

31
廖颖, 刘鹏, 席酉民. 不确定环境下的战略决策: 类比推理的作用[J]. 外国经济与管理, 2018, 40 (8): 17- 29.

32
李平, 杨政银. 简练规则: 急速变革时代的战略决策, 管理悖论及动态能力: 与凯瑟琳·艾森哈特的对话[J]. 清华管理评论, 2016 (12): 56- 64.

33
何贵兵, 陈诚, 何泽桐, 等. 智能组织中的人机协同决策: 基于人机内部兼容性的研究探索[J]. 心理科学进展, 2022, 30 (12): 2619- 2627.

DOI

34
胡保亮, 梅婕, 张素平. 人机协同决策: 文献综述[J]. 信息与管理研究, 2024, 9 (2/3): 51- 64.

35
Mueller-Saegebrecht S . Business model innovation decisions: The role of group biases and risk willingness[J]. Management Decision, 2024, 62 (13): 69- 108.

DOI

36
关健, 杨白沙, 段澄梦. 企业并购溢价决策中的群体极化效应研究: TMT同质性与CEO权力的调节作用[J]. 中南大学学报(社会科学版), 2018, 24 (4): 97- 106.

37
Twardawski T , Kind A . Board overconfidence in mergers and acquisitions[J]. Journal of Business Research, 2023, 165: 114026.

DOI

38
Simon H A . The new science of management decision[M]. New York: Harper, 1960.

39
Davenport T , Short J E . The new industrial engineering: Information technology and business process redesign[J]. Sloan Management Review, 1990, 31: 11- 27.

40
曾大军, 张柱, 梁嘉琦, 等. 机器行为与人机协同决策理论和方法[J]. 管理科学, 2021, 34 (6): 55- 59.

41
陈剑, 黄朔, 刘运辉. 从赋能到使能: 数字化环境下的企业运营管理[J]. 管理世界, 2020, 36 (2): 117- 128.

DOI

42
刘淑春, 闫津臣, 张思雪, 等. 企业管理数字化变革能提升投入产出效率吗[J]. 管理世界, 2021, 37 (5): 170- 190.

DOI

43
Frynas J G , Mol M J , Mellahi K . Management innovation made in China: Haier's rendanheyi[J]. California Management Review, 2018, 61 (1): 71- 93.

DOI

44
李平, 杨政银. 人机融合智能: 人工智能3.0[J]. 清华管理评论, 2018 (7/8): 73- 82.

45
Latour B . On actor-network theory: A few clarifications[J]. Soziale Welt, 1996, 47 (4): 369- 381.

46
Tatnall A. Actor-network theory in information systems research[M]//Encyclopedia of Information Science and Technology, First Edition. Pennsylvania: IGI Global, 2005: 42-46.

47
Walsham G. Actor-network theory and IS research: Current status and future prospects[M]//Information Systems and Qualitative Research. Boston, MA: Springer US, 1997: 466-480.

48
谢小云, 左玉涵, 胡琼晶. 数字化时代的人力资源管理: 基于人与技术交互的视角[J]. 管理世界, 2021, 37 (1): 200- 216.

DOI

49
Schwab K . The fourth industrial revolution[M]. Crown Business, 2017.

50
Kaplan A , Haenlein M . Rulers of the world, unite! The challenges and opportunities of artificial intelligence[J]. Business Horizons, 2020, 63 (1): 37- 50.

DOI

51
Syam N , Sharma A . Waiting for a sales renaissance in the fourth industrial revolution: Machine learning and artificial intelligence in sales research and practice[J]. Industrial Marketing Management, 2018, 69: 135- 146.

DOI

52
Ferràs-Hernández X . The future of management in a world of electronic brains[J]. Journal of Management Inquiry, 2018, 27 (2): 260- 263.

DOI

53
Puranam P . Human-AI collaborative decision-making as an organization design problem[J]. Journal of Organization Design, 2021, 10 (2): 75- 80.

DOI

54
Abrokwah-Larbi K , Awuku-Larbi Y . The impact of artificial intelligence in marketing on the performance of business organizations: Evidence from SMEs in an emerging economy[J]. Journal of Entrepreneurship in Emerging Economies, 2024, 16 (4): 1090- 1117.

DOI

55
How big data is playing recruiter for specialized workers [EB/OL]. (2013-04-27) [2024-10-05]. http://www.nytimes.com.

56
The Wall Street Journal. The world's largest hedge fund is building an algorithmic model from its employees' brains [EB/OL]. (2016-12-23) [2024-10-05]. https://www.wsj.com/.

57
The Wall Street Journal. Picking a health plan? An algorithm could help[EB/OL]. (2015-11-11) [2024-10-05]. https://www.wsj.com/.

58
Allas T, Bughin J, Chui M, et al. Crossing the frontier. How to apply AI for impact[R]. San Francisco, California: McKinsey, 2018.

59
Kellogg K C , Valentine M A , Christin A . Algorithms at work: The new contested terrain of control[J]. Academy of Management Annals, 2020, 14 (1): 366- 410.

DOI

60
张志学, 华中生, 谢小云. 数智时代人机协同的研究现状与未来方向[J]. 管理工程学报, 2024, 38 (1): 1- 13.

61
Metcalf L , Askay D A , Rosenberg L B . Keeping humans in the loop: Pooling knowledge through artificial swarm intelligence to improve business decision making[J]. California Management Review, 2019, 61 (4): 84- 109.

DOI

62
Schoemaker P J H, Tetlock P E. Building a more intelligent enterprise[M]//Who Wins in a Digital World? Cambridge: The MIT Press, 2019: 103-122.

63
Jarrahi M H . Artificial intelligence and the future of work: Human-AI symbiosis in organizational decision making[J]. Business Horizons, 2018, 61 (4): 577- 586.

DOI

64
Raisch S , Krakowski S . Artificial intelligence and management: The automation-augmentation paradox[J]. Academy of Management Review, 2021, 46 (1): 192- 210.

DOI

65
Shirado H , Christakis N A . Locally noisy autonomous agents improve global human coordination in network experiments[J]. Nature, 2017, 545 (7654): 370- 374.

DOI

66
Krishna R , Lee D , Li F F , et al. Socially situated artificial intelligence enables learning from human interaction[J]. Proceedings of the National Academy of Sciences of the United States of America, 2022, 119 (39): e2115730119.

67
The Economist. Businesses are finding AI hard to adopt [EB/OL]. (2020-06-11) [2024-10-05]. https://www.economist.com/technology-quarterly/2020/06/11/businesses-are-finding-ai-hard-to-adopt.

68
Davenport T , Guha A , Grewal D , et al. How artificial intelligence will change the future of marketing[J]. Journal of the Academy of Marketing Science, 2020, 48 (1): 24- 42.

DOI

69
Paschen U , Pitt C , Kietzmann J . Artificial intelligence: Building blocks and an innovation typology[J]. Business Horizons, 2020, 63 (2): 147- 155.

DOI

70
Keding C , Meissner P . Managerial overreliance on AI-augmented decision-making processes: How the use of AI-based advisory systems shapes choice behavior in R&D investment decisions[J]. Technological Forecasting and Social Change, 2021, 171: 120970.

DOI

71
Willcox G, Rosenberg L. Short paper: Swarm intelligence amplifies the IQ of collaborating teams[C]//Proceedings of Second International Conference on Artificial Intelligence for Industries (AI4I). Piscataway, NJ: IEEE, 2019: 111-114.

72
Günther W A , Rezazade Mehrizi M H , Huysman M , et al. Debating big data: A literature review on realizing value from big data[J]. The Journal of Strategic Information Systems, 2017, 26 (3): 191- 209.

DOI

73
Fountain T , Mccarthy B , Saleh T . Building the AI-powered organization technology isn't the biggest challenge, culture is[J]. Harvard Business Review, 2019, 97 (4): 62- 73.

74
De Cremer D , McGuire J . Human-algorithm collaboration works best if humans lead (because it is fair!)[J]. Social Justice Research, 2022, 35 (1): 33- 55.

DOI

75
Shrestha Y R , Ben-Menahem S M , von Krogh G . Organizational decision-making structures in the age of artificial intelligence[J]. California Management Review, 2019, 61 (4): 66- 83.

DOI

76
Jago A S . Algorithms and authenticity[J]. Academy of Management Discoveries, 2019, 5 (1): 38- 56.

DOI

77
Mirbabaie M , Brünker F , Möllmann Frick N R J , et al. The rise of artificial intelligence-understanding the AI identity threat at the workplace[J]. Electronic Markets, 2022, 32 (1): 73- 99.

DOI

78
Brougham D , Haar J . Smart technology, artificial intelligence, robotics, and algorithms (STARA): Employees' perceptions of our future workplace[J]. Journal of Management & Organization, 2018, 24 (2): 239- 257.

79
Seeber I , Bittner E , Briggs R O , et al. Machines as teammates: A research agenda on AI in team collaboration[J]. Information & Management, 2020, 57 (2): 103174.

80
徐鹏, 徐向艺. 人工智能时代企业管理变革的逻辑与分析框架[J]. 管理世界, 2020, 36 (1): 122- 129.

DOI

81
Rahwan I , Cebrian M , Obradovich N , et al. Machine behaviour[J]. Nature, 2019, 568 (7753): 477- 486.

DOI

82
Kingsbury L , Hong W Z . A multi-brain framework for social interaction[J]. Trends in Neurosciences, 2020, 43 (9): 651- 666.

DOI

83
Liu T , Pelowski M . A new research trend in social neuroscience: Towards an interactive-brain neuroscience[J]. PsyCh Journal, 2014, 3 (3): 177- 188.

DOI

84
Hasson U , Ghazanfar A A , Galantucci B , et al. Brain-to-brain coupling: A mechanism for creating and sharing a social world[J]. Trends in Cognitive Sciences, 2012, 16 (2): 114- 121.

DOI

85
Liu T , Pelowski M . Clarifying the interaction types in two-person neuroscience research[J]. Frontiers in Human Neuroscience, 2014, 8: 276.

86
He Y Y , Wang X Y , Lu K L , et al. Letting leaders spontaneously emerge yields better creative outcomes and higher leader-follower interbrain synchrony during creative group communication[J]. Cerebral Cortex, 2023, 33 (11): 6559- 6572.

DOI

87
Tang H H , Mai X Q , Wang S , et al. Interpersonal brain synchronization in the right temporo-parietal junction during face-to-face economic exchange[J]. Social Cognitive and Affective Neuroscience, 2016, 11 (1): 23- 32.

DOI

88
Jiang J , Chen C S , Dai B H , et al. Leader emergence through interpersonal neural synchronization[J]. Proceedings of the National Academy of Sciences of the United States of America, 2015, 112 (14): 4274- 4279.

89
Liu T , Duan L , Dai R N , et al. Team-work, team-brain: Exploring synchrony and team interdependence in a nine-person drumming task via multiparticipant hyperscanning and inter-brain network topology with fNIRS[J]. NeuroImage, 2021, 237: 118147.

DOI

90
Zhang M M , Jia H B , Zheng M X , et al. Group decision-making behavior in social dilemmas: Inter-brain synchrony and the predictive role of personality traits[J]. Personality and Individual Differences, 2021, 168: 110315.

DOI

91
Gazzola V , Rizzolatti G , Wicker B , et al. The anthropomorphic brain: The mirror neuron system responds to human and robotic actions[J]. NeuroImage, 2007, 35 (4): 1674- 1684.

DOI

92
Hortensius R , Hekele F , Cross E S . The perception of emotion in artificial agents[J]. IEEE Transactions on Cognitive and Developmental Systems, 2018, 10 (4): 852- 864.

DOI

93
Wang Y , Quadflieg S . In our own image? Emotional and neural processing differences when observing human-human vs human-robot interactions[J]. Social Cognitive and Affective Neuroscience, 2015, 10 (11): 1515- 1524.

DOI

94
Kätsyri J , de Gelder B , de Borst A W . Amygdala responds to direct gaze in real but not in computer-generated faces[J]. NeuroImage, 2020, 204: 116216.

DOI

95
Belkaid M , Kompatsiari K , De Tommaso D , et al. Mutual gaze with a robot affects human neural activity and delays decision-making processes[J]. Science Robotics, 2021, 6 (58): eabc5044.

DOI

96
Vaitonytė J , Alimardani M , Louwerse M M . Scoping review of the neural evidence on the uncanny valley[J]. Computers in Human Behavior Reports, 2023, 9: 100263.

DOI

97
Glikson E , Woolley A W . Human trust in artificial intelligence: Review of empirical research[J]. Academy of Management Annals, 2020, 14 (2): 627- 660.

DOI

98
Du N , Huang K Y , Yang X J . Not all information is equal: Effects of disclosing different types of likelihood information on trust, compliance and reliance, and task performance in human-automation teaming[J]. Human Factors, 2020, 62 (6): 987- 1001.

DOI

99
Lee J D , See K A . Trust in automation: Designing for appropriate reliance[J]. Human Factors, 2004, 46 (1): 50- 80.

DOI

100
Madhavan P , Wiegmann D A . Similarities and differences between human-human and human-automation trust: An integrative review[J]. Theoretical Issues in Ergonomics Science, 2007, 8 (4): 277- 301.

DOI

101
Wiegmann D A , Rich A , Zhang H . Automated diagnostic aids: The effects of aid reliability on users' trust and reliance[J]. Theoretical Issues in Ergonomics Science, 2001, 2 (4): 352- 367.

DOI

102
Logg J M , Minson J A , Moore D A . Algorithm appreciation: People prefer algorithmic to human judgment[J]. Organizational Behavior and Human Decision Processes, 2019, 151: 90- 103.

DOI

103
Fügener A , Grahl J , Gupta A , et al. Cognitive challenges in human–artificial intelligence collaboration: Investigating the path toward productive delegation[J]. Information Systems Research, 2022, 33 (2): 678- 696.

DOI

104
Leyer M , Schneider S . Decision augmentation and automation with artificial intelligence: Threat or opportunity for managers?[J]. Business Horizons, 2021, 64 (5): 711- 724.

DOI

105
Parasuraman R , Riley V . Humans and automation: Use, misuse, disuse, abuse[J]. Human Factors, 1997, 39 (2): 230- 253.

DOI

106
吴俊, 张迪, 刘涛, 等. 人类对人工智能信任的接受度及脑认知机制研究: 实证研究与神经科学实验的元分析[J]. 管理工程学报, 2024, 38 (1): 60- 73.

107
Fareri D S , Hackett K , Tepfer L J , et al. Age-related differences in ventral striatal and default mode network function during reciprocated trust[J]. NeuroImage, 2022, 256: 119267.

DOI

108
Henschel A , Hortensius R , Cross E S . Social cognition in the age of human-robot interaction[J]. Trends in Neurosciences, 2020, 43 (6): 373- 384.

DOI

109
Xie E H , Liu M D , Li K S , et al. The single- and dualbrain mechanisms underlying the adviser's confidence expression strategy switching during influence management[J]. NeuroImage, 2023, 270: 119957.

DOI

110
Hogenhuis A , Hortensius R . Domain-specific and domaingeneral neural network engagement during human-robot interactions[J]. The European Journal of Neuroscience, 2022, 56 (10): 5902- 5916.

DOI

111
Schindler S , Kruse O , Stark R , et al. Attributed social context and emotional content recruit frontal and limbic brain regions during virtual feedback processing[J]. Cognitive, Affective & Behavioral Neuroscience, 2019, 19 (2): 239- 252.

112
Yun J H , Lee E J , Kim D H . Behavioral and neural evidence on consumer responses to human doctors and medical artificial intelligence[J]. Psychology & Marketing, 2021, 38 (4): 610- 625.

113
Sowa K , Przegalinska A , Ciechanowski L . Cobots in knowledge work Human-AI collaboration in managerial professions[J]. Journal of Business Research, 2021, 125: 135- 142.

DOI

114
Murray A , Rhymer J , Sirmon D G . Humans and technology: Forms of conjoined agency in organizations[J]. Academy of Management Review, 2021, 46 (3): 552- 571.

DOI

115
Daugherty P R . Collaborative intelligence: Humans and AI are joining forces[J]. Harvard Business Review, 2018, 96 (4): 114- 123.

116
Jia N , Luo X M , Fang Z , et al. When and how artificial intelligence Augments Employee creativity[J]. Academy of Management Journal, 2024, 67 (1): 5- 32.

DOI

117
Xiong W , Wang C , Ma L . Partner or subordinate? Sequential risky decision-making behaviors under human-machine collaboration contexts[J]. Computers in Human Behavior, 2023, 139: 107556.

DOI

118
Xiong W, Tsao L, Ma L. Preferences for the decision weight and accountability assignment in risky decision-making under human-machine collaboration contexts[C]// Proceedings of AHFE International, Intelligent Human Systems Integration (IHSI 2024): Integrating People and Intelligent Systems. AHFE International, 2024: 532-540.

119
Haesevoets T , De Cremer D , Dierckx K , et al. Human-machine collaboration in managerial decision making[J]. Computers in Human Behavior, 2021, 119: 106730.

DOI

120
Huang M H , Rust R T . Artificial intelligence in service[J]. Journal of Service Research, 2018, 21 (2): 155- 172.

DOI

121
Parry K , Cohen M , Bhattacharya S . Rise of the machines[J]. Group & Organization Management, 2016, 41 (5): 571- 594.

122
Zhou Y Y , Fei Z Y , He Y Q , et al. How human-chatbot interaction impairs charitable giving: The role of moral judgment[J]. Journal of Business Ethics, 2022, 178 (3): 849- 865.

DOI

123
Dietvorst B J , Bartels D M . Consumers object to algorithms making morally relevant tradeoffs because of algorithms' consequentialist decision strategies[J]. Journal of Consumer Psychology, 2022, 32 (3): 406- 424.

DOI

124
Krügel S , Ostermaier A , Uhl M . ChatGPT's inconsistent moral advice influences users' judgment[J]. Scientific Reports, 2023, 13 (1): 4569.

DOI

125
Chen F Y , Huang S C . Robots or humans for disaster response? Impact on consumer prosociality and possible explanations[J]. Journal of Consumer Psychology, 2023, 33 (2): 432- 440.

DOI

126
Dietvorst B J , Simmons J P , Massey C . Algorithm aversion: People erroneously avoid algorithms after seeing them err[J]. Journal of Experimental Psychology General, 2015, 144 (1): 114- 126.

DOI

127
Miklós-Thal J , Tucker C . Collusion by algorithm: Does better demand prediction facilitate coordination between sellers?[J]. Management Science, 2019, 65 (4): 1552- 1561.

DOI

128
Wray-Lake L , Syvertsen A K . The developmental roots of social responsibility in childhood and adolescence[J]. New Directions for Child and Adolescent Development, 2011, 2011 (134): 11- 25.

DOI

129
Beane M . Shadow learning: Building robotic surgical skill when approved means fail[J]. Administrative Science Quarterly, 2019, 64 (1): 87- 123.

DOI

130
Sergeeva A V , Faraj S , Huysman M . Losing touch: An embodiment perspective on coordination in robotic surgery[J]. Organization Science, 2020, 31 (5): 1248- 1271.

DOI

文章导航

/