人工智能技术的广泛应用引发了隐私泄露风险、隐私保护、隐私治理等困境。要解决人工智能隐私困境,需要不同主体共同参与,构建由政府引导,科学家、企业、社会组织、媒体、社会公众等多元主体共同参与的伦理责任共同体。伦理责任共同体具有共同的利益诉求、价值共识、伦理基础和愿景目标,是利益、责任和价值的有机统一体。通过满足各责任主体利益诉求, 形成伦理责任主体价值共识,推进伦理责任主体共治模式,实现人工智能隐私困境的善治。
进攻性人工智能指人为地滥用人工智能(AI)来完成信息搜集并执行恶意进攻指令的智能体,其源于早期的棋盘博弈,现已被广泛应用于国家安全部署、情报搜集与意识形态等领域。然而,其道德问题不容忽视,具体讲,技术“黑匣子”致使伦理责任模糊,非法情报搜集威胁全球公众的隐私安全,复杂场景下机器判断具有不可控性,这都将国际局势推向新的政治不稳定境遇。有鉴于此,必须建立人类之于机器的“道德主权”,在全球范围内构建“复合网络”的伦理考量体系,并优化风险分级预案,从而为机器的“道德嵌入”、道德分级,以及“不可接受性风险”的伦理审查提供支持。
人类可遗传基因组编辑临床试验是将编辑过的胚胎植入女性子宫、妊娠和足月生产的系统性研究活动,临床试验条件是规范技术应用于临床的重要的伦理标准。从增进健康福祉、安全慎行、尊重自主,以及社会公正4个方面审视临床试验的“十条”标准,集中体现了生命伦理学4个原则中尊重患者生命健康和自主性的核心内涵。可遗传基因组编辑临床试验条件充分评估了拟解决疾病的严重程度与潜在风险,恰当地在“行动优先”与“防范优先”2类立场中间找到平衡,为其临床应用提供伦理指导。通过对临床试验条件的伦理审视,旨在为贯彻落实这“十条”标准提供一种思维方式和分析路径。
脑机接口技术在教育、医疗等领域已经得到了广泛应用,所具有的“非接触式的信息传播”“人体机能的深度强化”“高效的数据传输”等诸多机能对于赋能情报活动开展具有一定的现实意义。通过分析脑机接口技术对于情报活动存在的具体功能,在情报活动中应用脑机接口技术会存在的现实风险,构建了从原则指导到规则锚定的合规保护机制,力求有效保障脑机接口技术在情报领域中的全面应用。此外,在应用过程中还需要坚持预防性利益保护原则、利益位阶保护原则、惩罚与奖励相结合原则,从保护个人自决权、制定隐私合规保护策略、强化情报机构的监督责任、完善数据安全审查制度、制定数据合规保护奖惩机制这5个方面,消解脑机接口技术在情报领域应用中可能面临的风险。