按提交时间
按主题分类
按作者
按机构
  • 规避AI领域“切尔诺贝利事故”的安全底线设计

    分类: 综合学科 >> 综合学科 发布时间: 2025-03-25

    摘要:AI技术及相关产业的发展在推动智能时代的同时伴生安全风险。但既有研究对AI安全风险的认知局限于一般社会风险治理视角,缺乏底线性思维。为弥补研究局限,提出AI领域“切尔诺贝利事故”的极端安全风险隐喻,基于风险社会“自反性”现代化的理论视域构想AI安全底线设计。在阐述AI极端安全风险“黑天鹅”与“灰犀牛”的双重形态以及“认知不对称”与数字“蝴蝶效应”的生成逻辑基础上,提出AI安全底线设计的三大基准性考量,一是透明性基准,回应认知困境与事后追责难题;二是预防性基准,意在进行底线防控与常态可控;三是阻断性基准,思考风险传递与代际公平。在三大基准指导下,相应进行安全底线设计的制度建构,一是围绕透明性基准进行算法黑箱透明、人机交互透明、数据流动透明的制度建构;二是围绕预防性基准进行安全阀值、最坏情形、冗余容错的制度建构;三是围绕阻断性基准进行阻断能源消耗、伦理债务、社会解构等代际传递风险的制度建构。