在人工智能技术的驱动下,人机协同决策效能逐步提升,展现出巨大的潜力。然而,当前人机协同决策领域面临情感问题、信任问题、决策权力分配问题和道德对齐问题等挑战。其中,人机协同情感问题涉及机器如何克服人机异质性、准确识别人类的情感状态并做出适当响应;信任问题关系到人类对机器决策的依赖程度和信任水平,需要在过度信任和信任不足之间找到平衡;决策权力分配问题则聚焦于在人机协作中如何合理分配决策权,以防止机器权力过大或不足;道德对齐问题探讨如何确保机器决策符合人类的道德标准和价值观,保障决策的伦理性和社会接受度。提出了人机协同决策的未来发展方向,包括提升机器对人类情感的理解和响应能力、建立稳固的信任机制、优化决策权力的分配方式,以及确保机器决策符合伦理和道德标准。在迈向人机共生的道路上,不仅需要技术创新,还需要结合心理学视角来应对这些挑战,以实现更加高效、安全和可持续的人机协同决策。
探讨了大语言模型(LLMs)是否能够通过语言任务的预训练而产生情感智能,并从心理学的角度提出了测试大语言模型的情感智能水平的方法,以及情感智能大模型在心理学的应用。从情感智能的定义出发,回顾了大语言模型的发展历程,总结出目前LLMs相关研究主要集中于提升模型在自然语言处理任务中的性能,而忽视了模型的情感智能,即感知、理解、使用和管理情绪的能力。尽管LLMs在处理语言任务方面表现出色,但在理解和生成情感文本方面仍存在局限性,因此,提出对大模型的情感智能水平进行全面评估的必要性。从心理学角度出发,总结了LLMs情感智能评估相关的工作,倡议心理学把大语言模型作为新的研究对象,重点关注大模型的情感道德问题。从情感认知科学的角度,论述大语言模型作为一种工具,对新时代的情绪心理学研究的重要价值。
随着企业数字化转型的推进,人工智能在管理决策制定中的作用愈发重要,企业高管团队与智能决策系统进行协同决策成为新趋势。本文对人机群体智慧决策现有研究进行综述,指出人机协同效果受到管理者认知、信任、人机互动模式等因素影响。未来研究需基于微观基础视角进一步关注人机群体智慧决策的伦理道德问题、人机协同决策的交互机制与神经基础、智能决策系统对高管认知的长期影响以及人机群体智慧决策过程的治理策略等问题。
自动驾驶技术大规模部署面临技术、法规、信任等挑战。人机共生理念有助于推动自动驾驶技术发展。旨在通过深度合作和相互理解,克服技术、法规、信任等挑战,提高用户信任,优化系统设计,实现人机深度交互和共生。研究结果显示,SAE Level4的自动驾驶车辆未通过此图灵测试。人机交互设计和真实场景研究在增强用户对系统的信任和推动技术应用方面至关重要。未来研究应关注真实场景中的人机信任和用户体验,以优化自动驾驶系统设计,提高技术的接受度。技术的发展将进一步推动人机关系演变,而深度的人机交互和用户信任感将是实现人机共生的关键因素。
以技术接受模型为理论基础,旨在探究不同维度知识背景对自动驾驶车辆使用意愿的影响,检验技术焦虑、技术自我效能感和信任感的中介作用及驾驶经验的调节作用。通过对633名被试进行问卷调查发现:有用性、可靠性和智能性维度知识背景正向影响自动驾驶车辆使用意愿;技术焦虑、技术自我效能感和信任感在知识背景对使用意愿的影响中起中介作用;驾驶经验调节有用性、可靠性和智能性作用于信任感和技术自我效能感,以及技术自我效能感和技术焦虑作用于使用意愿的路径。研究扩展了技术接受模型,拓宽了未来自动驾驶车辆相关知识普及方向的视野,以期丰富公众自动驾驶车辆知识体系。