摘要: AI技术及相关产业的发展在推动智能时代的同时伴生安全风险。但既有研究对AI安全风险的认知局限于一般社会风险治理视角,缺乏底线性思维。为弥补研究局限,提出AI领域“切尔诺贝利事故”的极端安全风险隐喻,基于风险社会“自反性”现代化的理论视域构想AI安全底线设计。在阐述AI极端安全风险“黑天鹅”与“灰犀牛”的双重形态以及“认知不对称”与数字“蝴蝶效应”的生成逻辑基础上,提出AI安全底线设计的三大基准性考量,一是透明性基准,回应认知困境与事后追责难题;二是预防性基准,意在进行底线防控与常态可控;三是阻断性基准,思考风险传递与代际公平。在三大基准指导下,相应进行安全底线设计的制度建构,一是围绕透明性基准进行算法黑箱透明、人机交互透明、数据流动透明的制度建构;二是围绕预防性基准进行安全阀值、最坏情形、冗余容错的制度建构;三是围绕阻断性基准进行阻断能源消耗、伦理债务、社会解构等代际传递风险的制度建构。
[V1] | 2025-03-25 09:19:37 | PSSXiv:202503.02601V1 | 下载全文 |
1. 项目学习视域下综合实践活动课程的设计与实施 | 2025-04-26 |
2. 保存原生性数字文化遗产:电子游戏研究中计算方法的应用及挑战 | 2025-04-14 |
3. 系统思维视域下高校铸牢中华民族共同体意识研究 | 2025-04-21 |
4. 社区治理数字化转型:现实困境、内在逻辑及优化路径_何宗元 | 2025-04-07 |
5. 网络主流意识形态安全治理:风险挑战、逻辑机理与治理路径 | 2025-04-03 |