分类: 信息资源管理 >> 情报学 发布时间: 2025-03-31 合作期刊: 《内蒙古社会科学》
摘要:ChatGPT类生成式人工智能写作作为智能时代不可忽视的写作现象,具有交互的主体性、流动的劳动分工和“镜像化”的文本内容等特点。随着生成式人工智能在各类写作实践中的普及,人类或将面临写作主体性被消解、政治秩序被撕裂和写作劳动被异化的风险。因此,应立足生成式人工智能的运行机理和价值本源,通过重塑人机共享主体性、重构国家安全智能治理生态和重建智能劳动体系来应对和化解潜在风险,促进ChatGPT类生成式人工智能写作实践的良性健康发展。
分类: 法学 >> 宪法学与行政法学 发布时间: 2025-04-24 合作期刊: 《贵州警察学院学报》
摘要:OpenAI推出生成视频类智能工具Sora,引发了人们对Sora、ChatGPT等为代表的生成式人工智能潜在风险的又一轮讨论浪潮。为探索解决生成式人工智能潜在风险问题的综合性治理措施,从生成式人工智能可能引发的社会风险与犯罪风险两个方面,多层次、多角度对生成式人工智能在就业领域、知识产权保护领域和虚假信息传播领域等社会层面,以及以新型电信网络诈骗、新型智能合约诈骗为例的国家安全层面进行分析。提出生成式人工智能所引起的潜在风险具有复杂性与隐蔽性共存、全新性和未知性叠加、危害性强且不易防范的复杂特征,对国家治理体系和治理能力现代化产生巨大挑战。通过宏观和微观角度对法律法规的完善方向提出建议,确保生成式人工智能技术的健康、可持续发展。
分类: 应用经济学 >> 金融学 发布时间: 2024-08-29 合作期刊: 《新金融》
摘要:近年来,生成式人工智能(GAI) 迅速迭代,ChatGPT以其突破性算法与交互模型为金融行业发展带来创新探索浪潮,特别是2024 年5 月发布的ChatGPT⁃4o,为生成式人工智能赋能养老金融提供更为高效的技术实现路径。本文基于技术⁃经济范式,分析GAI 通过提供更多信息、发现新知识与规律、提供新方向以及为养老金融应用实践探索新场景等,为养老金融发展提供更多机遇,同时也带来一些问题与挑战。为此,应从加强金融素养培育、严格养老金融数据使用与管理、注重隐私与安全保护以及探索GAI应用场景等方面着手,合力推动其使用的规范与安全,助力GAI更好地赋能养老金融,以推动中国养老金融的高质量发展。
分类: 马克思主义理论 >> 马克思主义基本原理 发布时间: 2025-04-24 合作期刊: 《海南开放大学学报》
摘要:以ChatGPT为代表的生成式人工智能凭借强大的生成性能,在诸多领域展现出广泛的应用前景,引起了社会各界的广泛关注。然而,在享受生成式人工智能带来的便捷智能服务时,我们亦需正视其潜在的负面影响,特别是劳动异化、交往异化以及情感异化等问题,应坚定站在“人本主义"立场,明确生成式人工智能的发展宗旨,厘清人机责任边界,并积极推动构建人机协同合作新模式,以期引领技术向善发展,实现科技与人文和谐共生。
分类: 新闻传播学 >> 编辑出版学 发布时间: 2025-04-15
摘要:人工智能生成内容(AIGC)改变了传统的学术知识生产与出版生态,也带来了新的伦理挑战。为引导学术出版中AIGC的负责任使用,本研究选择问责制、透明度、公平性和隐私性4个维度,结合网络调研数据深入分析国内外学术出版机构AIGC使用政策的现状。研究发现:国内外学术出版机构AIGC使用政策已普遍确立人类作者最终责任(问责制),要求披露AI使用情况(透明度),注重防范学术不端使用行为(公平性),并开始关注数据保护要求(隐私性);但在责任追溯机制、AI使用披露规范明确性、AI介入规则界定、数据安全风险关注等层面仍然存在不足。建议进一步明确人机协作的责任边界,制定标准化的使用披露规范,确立合规的AI介入机制,强化敏感数据保护措施。
分类: 信息资源管理 >> 档案学 发布时间: 2025-03-17 合作期刊: 《档案与建设》
摘要:生成式人工智能为档案馆智慧编研带来了机遇和挑战。在生成式人工智能背景下,档 案馆智慧编研显露出档案数据处理智能化、编研作品呈现多样化、用户服务推荐智慧化等态势,存 在语料构建成本高、技术应用难度大和相关人才储备少等困境,需要推进全国档案资源集成与整 合,加强语料安全控制;扶持国内生成式人工智能技术,降低技术应用风险;开展档案工作人员专 业化培训,提升档案编研水平等。
分类: 哲学 >> 科学技术哲学 发布时间: 2024-09-09 合作期刊: 《南通大学学报(社会科学版)》
摘要:生成式人工智能的发展构成了数字资本主义发展的高级节点和最新样态。随着以 ChatGPT和Sora等为代表的生成式人工智能的升级选代与日常化应用,生成式人工智能日趋成为推动人类公共性扩张和变革的关键要素。数字资本主义生产方式在本质上带有“反公共性”的逻辑,数字生产资料作为数字劳动的产物被数字平台所有者私人占有,其发展与公共性产生了严重抵牾,私人所有”的数字平台所炮制的“公共使用”的美丽骗局更是进一步蚕食了公共性。生成式人工智能发展前景下人类公共性的消解突出表现为公共性主体渐趋“自我中心化”公共性信息渐趋“同质茧房化”公共性领域渐趋“碎片分裂化”。基于此,揭露数字资本主义生产方式的反公共性逻辑,重构数字生产关系,发展平台社会主义,呼唤数字技术公共性本质的价值回归,引导数字技术公共性放应的发挥,不失为重建人类公共性的现实通道。
分类: 信息资源管理 >> 档案学 发布时间: 2024-08-02 合作期刊: 《档案与建设》
摘要:生成式人工智能虽然具有令人惊叹的强大功能、惊人的更迭速度和广阔的应用前景,但是现阶段将其应用 于档案开发利用尚存在诸多瓶颈。文章分三个阶段分析了生成式人工智能应用于档案开发利用的瓶颈所在,认为数据 准备阶段在数据库层面和数据量层面均存在发展瓶颈,内容生成阶段在内容生成机制和内容生成结果两个方面存在风 险,社会传播阶段瓶颈产生的根源则主要包括其高并发性和强破坏性。
分类: 法学 >> 法学理论 发布时间: 2024-05-10 合作期刊: 《华东政法大学学报》
摘要:随着以ChatGPT为代表的生成式人工智能技术的突飞猛进,人工智能的伦理问题受到了广泛关注。生成式人工智能引发了削弱人类主体价值、加剧算法偏见与歧视、过度依赖拟态环境输出结果、人机协作双向价值对齐困难等伦理难题,亟须从人工智能伦理治理组织机制、人工智能伦理规范机制两方面入手,明确生成式人工智能应用中的人本主义立场,建构生成式人工智能治理的伦理规则,为增进人类福祉提供有力的伦理支撑。
分类: 工商管理学 >> 技术经济及管理 发布时间: 2025-03-21 合作期刊: 《山东青年政治学院学报》
摘要:从价值认同的信任内涵及维度看,生成式人工智能Sora的出现,使价值认同在主体乐信、文本可信、时空能信三个维度上经历着从复制到定制、从抽象到具象、从在场到离场的叙事逻辑转换。但文生视频 Sora也面临着算法推荐迟滞主体能动性发挥、言语偏见阉割图像传播效度、网络圈层阻隔社会公信力生成等问题,造成生成式人工智能时代价值认同主体信任关系失序、文本信任关系失真、时空信任关系失衡等价值认同风险。为化解风险,通过价值注入与技术赋能、伦理审视与法律审查、破壁入圈与连圈接层等方法,扩大信任视角下生成式人工智能时代价值认同的范围并提升其效度。
分类: 信息资源管理 发布时间: 2025-02-20
摘要:摘 要:[目的/意义]跨模态是生成式人工智能的关键属性之一。本研究通过社会符号学的视角对用户与AI的跨模态交互行为过程进行微观分析,揭示在AI素养教育框架下用户多模态素养教育的必要性与紧迫性。[方法/过程]本研究采用混合方法研究,通过问卷调查、参与式观察以及用户与AI交互文本的分析共同揭示出文学素养、美学素养等其他素养在用户与AI的跨模态交互中的重要地位。[结果/结论]本研究有以下三个重要结论:(1)应从多模态理解能力、跨模态转换能力、多模态创作能力、多模态判断能力四个方面深化当前AI素养教育的框架与内涵;(2)用户与AI的交互呈现出“跨界素养”的特点,用户与AI的创造性交互需要依赖更加广泛而互涉的素养集;(3)AI素养教育范式应当从“技能培训者”转向“素养架构师”,未来图书馆的核心竞争力将体现在多元素养融合的教育能力上。
分类: 信息资源管理 >> 档案学 发布时间: 2025-02-12 合作期刊: 《档案与建设》
摘要:文生视频技术快速发展,在视频档案管理方面具有广阔的应用前景,有助于创新视频 档案生成与管理模式,推动新型视频档案内容、管理、传播、体验生态的构建。但同时,其应用也引 发社会关于视频档案内容创新性、真实性、安全性以及权威性方面的思考。应该看到,文生视频技 术带来便利的同时也存在一定的风险,应从政策、资源、主体三个方面重塑视频档案管理路径,进而 实现文生视频技术的可持续发展。
分类: 法学 >> 宪法学与行政法学 发布时间: 2024-11-01 合作期刊: 《海南开放大学学报》
摘要:生成式人工智能技术目前正处于蓬勃发展时期,但其在训练数据收集和处理时,潜在的合规、泄露和偏见等风险时刻威胁着生成式人工智能技术的健康发展、扰乱社会秩序,成为生成式人工智能治理必须解决的问题。我国目前对生成式人工智能训练数据风险治理既有政策支持,又有法律保障。在这些基础上,行政机关可以建立生成式人工智能基础模型信息库,预防训练数据合规风险;也可以开发、使用合成数据,扩大训练数据来源,规避训练数据泄露风险;还可以通过适当细化训练数据审核制度和逐步实施生成式人工智能企业数据信用制度的方式,规范生成式人工智能训练数据使用行为,降低风险发生概率。
分类: 法学 >> 法学理论 发布时间: 2025-04-21 合作期刊: 《法学教育研究》
摘要:科技是法学教育现代化的重要支撑。类ChatGPT大模型具备理解、运用和生成自然语言的能力,有望多维赋能平台、教育者和受教育者在内的法学教育现代化进程。 与此同时,必须警惕生成式人工智能技术赋能法学教育的潜在挑战:误导性结论对准确“法理解”的阐释性挑战、技术依赖对学术诚信的价值挑战以及知识自动生产对教育数据安全的法治挑战。 生成式人工智能在法学教育领域既要积极发展,也要规范控制,就此,应秉持 “人本主义”取向的核心治理理念,坚持“人为中心,技术辅助”的总体定位,并导向教育主体的实际需求。 在应用发展层面,从正确认知教育范式变迁、完善顶层设计和培育主体素养方面做好类ChatGPT大模型赋能法学教育的事先预备。 在法治保障层面,需要确立过程性教育数据信息合法性保障机制、类 ChatGPT大模型“前置预训练”机制和用户输入端“误导性指令”的禁止机制等。
分类: 教育学 >> 教育技术学 发布时间: 2025-03-26 合作期刊: 《教育与教学研究》
摘要:以ChatGPT为代表的生成式人工智能推出后对教育带来极大冲击与挑战。各国政府纷纷通过发布行政命令、制定应用指南等方式,表明对生成式人工智能在教育领域应用的基本立场和所关注的关键议题。其中,英国对生成式人工智能的风险防范极为关注,美国则对人工智能在教育场景的创新价值持肯定态度,高度重视技术研发及法律修订,日本积极引导各级学校利用生成式人工智能推动信息应用能力培养。各国政策虽存在差异,但也体现出一些共性,例如一致强调监管的重要性,普遍认可透明、公平、责任等治理原则和逐步开展国际合作等。为了应对生成式人工智能的未来发展,我国应该进一步推进顶层设计,完善监管评估,重视教育公平,加强国际交流。
分类: 法学 >> 刑法学 发布时间: 2025-03-17 合作期刊: 《重庆理工大学学报(社会科学)》
摘要:生成式人工智能ChatGPT给社会带来福社的同时,也蕴含着潜在的刑事风险。对涉及ChatG-PT等生成式人工智能犯罪中研发者的不法与责任进行判断,有助于明确刑法介入人工智能技术风险的边界。涉及ChatGPT等生成式人工智能犯罪中研发者行为不法的确定,核心在于研发行为与法益侵害结果之间是否具有刑法上的因果关系。客观归责理论中是否创造并实现法不允许的危险,可以作为判断法益侵害结果是否属于研发者“作品”的标准。而ChatGPT等生成式人工智能犯罪中研发者责任问题的解决,则主要涉及研发者主观罪过的判定。当法益侵害结果出现时,研发者以引发社会秩序紊乱为初衷,将反社会语言程序注入ChatGPT中,应认定其具有直接故意。如若研发者以促进科技进步为初衷,未将反社会语言程序注入ChatGPT中,研发者主观罪过是否为过失取决于其是否履行了相应的注意义务。
分类: 应用经济学 >> 国民经济学 分类: 马克思主义理论 >> 马克思主义中国化研究 分类: 中共党史党建学 >> 中共党史党建学 发布时间: 2025-02-17
摘要:生成式人工智能正推动生产力进入新阶段,通过其创造性内容生成能力,在创意产业、制造业和医疗保健等领域带来变革。它优化生产流程,提高效率,同时创造新就业机会。然而,技术进步也引发就业结构变化、数据安全和伦理挑战。对策包括制定支持性政策、技术监管、人才培养和社会伦理框架。未来研究需探讨其在各行业的具体应用,及如何通过政策和技术创新克服挑战,确保技术发展惠及社会。
分类: 信息资源管理 >> 情报学 发布时间: 2024-11-01 合作期刊: 《情报资料工作》
摘要:[目的/意义]当前研究对于生成式人工智能训练数据的治理问题关注较少。然而,训练数据的生命周期中存在着诸多不容忽视的风险,亟需有效的治理。[方法/过程]文章在论证了训练数据是生成式人工智能核心驱动力的基础上,使用数据生命周期的理论模型,全面归纳了训练数据生命周期中可能出现的风险样态。然后,从训练数据自身特性、生态性因素与生成式人工智能开发者操作性因素等角度分析了相关风险的成因。[结果/结论]数据本身的碎片化特性与偏见性是风险发生的起点;数据的生态失衡是风险发生的外部成因;同时,“黑箱”中的训练数据、偏差的数据标注与懈怠的数据脱敏则是风险发生的内在成因。由此,针对训练数据的特性,可以借助“可怜圆点”的框架,为其构建一个综合法律、市场、社群规范以及架构的风险治理方案。
分类: 信息资源管理 >> 情报学 发布时间: 2024-06-04 合作期刊: 《情报资料工作》
摘要: 目的/意义 生成式人工智能的广泛应用催生了多重数据安全风险,传统的回应型治理和集中式治理模式显然难以应对新挑战,而敏捷治理则以其灵活的姿态彰显了独特的优越性。 方法/过程 首先,梳理生成式人工智能在数据安全领域引发的多重风险,进而对三类治理模式在风险管理上的成效进行对比分析,在此基础上提出我国应当尽快实现治理模式转变。然后以此为指导,构建具体的治理制度。 结果/结论 敏捷治理模式凭借其适应性、柔韧性和包容性特质,为应对生成式人工智能等新兴技术的数据安全风险提供了有效的方案,能够在实践中不断优化生成式人工智能数据安全治理体系。在敏捷治理模式下,应当树立“预防与应对并重”的适应性治理理念,构建“多元参与,合作互动”的韧性治理机制,运用“技术叠加法律”的包容性治理工具,从而形成综合的生成式人工智能数据安全治理体系。
分类: 马克思主义理论 >> 马克思主义基本原理 发布时间: 2025-04-26
摘要:自工业革命以来,人类社会通过科技的进步实现生产力的爆炸式增长,人类自身的物质生活与精神生活亦得到极大丰富。生成式人工智能作为当代科技领域的前沿成就,为人类实现自由全面发展带来理论上的可能。从辩证唯物主义的视角出发,生成式人工智能的迅速发展为人类带来了前所未有的机遇,同时也引发了新的挑战。一方面,生成式人工智能技术的进步显著提升了社会效率和人类能力,使得许多复杂任务变得更加简便易行,为丰富人类日常生活和开辟自我实现的新途径提供了可能。另一方面,生成式人工智能超乎人类设想的能力与功能正在快速向人类社会延伸,从而与人的发展紧密结合,甚至抢占人的生存空间。作为人类社会长期实践的结晶,生成式人工智能的发展必须在技术进步与人文价值之间找到适当的平衡,始终以实现人的自由全面发展为价值标准,确保科技进步不偏离基本的人类价值观和道德标准,使科技真正服务于人类的整体利益。唯有如此,才能最大限度地促进人的自由全面发展,实现技术进步与人类社会的和谐共生。