人工智能技术的广泛应用引发了隐私泄露风险、隐私保护、隐私治理等困境。要解决人工智能隐私困境,需要不同主体共同参与,构建由政府引导,科学家、企业、社会组织、媒体、社会公众等多元主体共同参与的伦理责任共同体。伦理责任共同体具有共同的利益诉求、价值共识、伦理基础和愿景目标,是利益、责任和价值的有机统一体。通过满足各责任主体利益诉求, 形成伦理责任主体价值共识,推进伦理责任主体共治模式,实现人工智能隐私困境的善治。
进攻性人工智能指人为地滥用人工智能(AI)来完成信息搜集并执行恶意进攻指令的智能体,其源于早期的棋盘博弈,现已被广泛应用于国家安全部署、情报搜集与意识形态等领域。然而,其道德问题不容忽视,具体讲,技术“黑匣子”致使伦理责任模糊,非法情报搜集威胁全球公众的隐私安全,复杂场景下机器判断具有不可控性,这都将国际局势推向新的政治不稳定境遇。有鉴于此,必须建立人类之于机器的“道德主权”,在全球范围内构建“复合网络”的伦理考量体系,并优化风险分级预案,从而为机器的“道德嵌入”、道德分级,以及“不可接受性风险”的伦理审查提供支持。
个人基因信息在基因技术中的应用存在隐私泄露、基因歧视等伦理风险。对于基因信息应用伦理风险的治理,机构内设伦理委员会审查模式难以保证审查公正性、既有的匿名化标准不足以肩负保护公民个人基因信息的重任、反基因歧视法律法规亟待完善、增强型基因编辑规制不足。通过研究中国基因信息保护的制度现状,确定了基因信息技术伦理治理的基本立场,提出了基因信息应用伦理风险治理的优化路径,具体包括严格基因信息应用的伦理审查机制、确立基因信息的合理使用标准、完善反基因歧视法律法规、完善非法植入基因编辑、克隆胚胎罪。
神经科学技术的主要对象是人脑,而人脑在人的属性中占据重要位置,是具有人之所以为人的特殊属性。因此,通过梳理神经科学技术在脑隐私、个人同一性、人的尊严、安全性及对现行法律规范挑战等方面存在的伦理问题,进而从国家科技伦理委员会、科学+伦理+法律协同治理模式、公众参与、建立技术研究与应用的指南和标准等方面提出了科技伦理治理的一些政策建议,以帮助神经科学技术朝着人类福祉最大化方向发展。
人类可遗传基因组编辑临床试验是将编辑过的胚胎植入女性子宫、妊娠和足月生产的系统性研究活动,临床试验条件是规范技术应用于临床的重要的伦理标准。从增进健康福祉、安全慎行、尊重自主,以及社会公正4个方面审视临床试验的“十条”标准,集中体现了生命伦理学4个原则中尊重患者生命健康和自主性的核心内涵。可遗传基因组编辑临床试验条件充分评估了拟解决疾病的严重程度与潜在风险,恰当地在“行动优先”与“防范优先”2类立场中间找到平衡,为其临床应用提供伦理指导。通过对临床试验条件的伦理审视,旨在为贯彻落实这“十条”标准提供一种思维方式和分析路径。
脑机接口技术在教育、医疗等领域已经得到了广泛应用,所具有的“非接触式的信息传播”“人体机能的深度强化”“高效的数据传输”等诸多机能对于赋能情报活动开展具有一定的现实意义。通过分析脑机接口技术对于情报活动存在的具体功能,在情报活动中应用脑机接口技术会存在的现实风险,构建了从原则指导到规则锚定的合规保护机制,力求有效保障脑机接口技术在情报领域中的全面应用。此外,在应用过程中还需要坚持预防性利益保护原则、利益位阶保护原则、惩罚与奖励相结合原则,从保护个人自决权、制定隐私合规保护策略、强化情报机构的监督责任、完善数据安全审查制度、制定数据合规保护奖惩机制这5个方面,消解脑机接口技术在情报领域应用中可能面临的风险。
伴随新兴信息技术的创新、应用及数据成为主要的生产要素,信息隐私人格权与财产权侵权伦理风险呈现加剧趋势。遵循《关于加强科技伦理治理的意见》将制度规范、制度保障作为科技伦理治理主要手段的意见,在信息隐私人格权侵权伦理风险的制度规范方面,论述了个人信息身份控制权制度、公法私法并举的系统性保护制度、包含敏感个人信息大数据处理业务的职业资格限制与禁止制度等新制度。在信息隐私财产权侵权伦理风险的制度规范方面,首先,论证了确立个人信息财产权制度的经济合理性;其次,论述了个人信息财产权的性质与权项制度;最后,阐述了规范信息隐私财产权侵权伦理风险的3项新制度,即个人信息许可处理合同制度、个人信息保护基金制度和个人信息集体管理制度。