新書推薦:
《
一间只属于自己的房间 女性主义先锋伍尔夫代表作 女性精神独立与经济独立的象征,做自己,比任何事都更重要
》
售價:NT$
203.0
《
泉舆日志 幻想世界宝石生物图鉴
》
售價:NT$
611.0
《
养育女孩 : 官方升级版
》
售價:NT$
230.0
《
跨界:蒂利希思想研究
》
售價:NT$
500.0
《
千万别喝南瓜汤(遵守规则绘本)
》
售價:NT$
203.0
《
大模型启示录
》
售價:NT$
510.0
《
东法西渐:19世纪前西方对中国法的记述与评价
》
售價:NT$
918.0
《
养育男孩:官方升级版
》
售價:NT$
230.0
|
編輯推薦: |
(1)标准著作:本书尝试从10个方面为生成式AI的安全、监管、合规、伦理问题提供解决方案,可作为该领域的标准参考著作。(2)专业严谨:本书由多位来自法律、技术和教育领域的专家的跨学科经验凝结而成,确保了内容的专业性和严谨性。(3)全球视野:本书梳理了全球主要国家和地区在生成式AI领域的监管、立法和司法实践,案例丰富,数据翔实。(4)实操指南:本书内容全面涵盖生成式AI面临的合规与安全问题,从问题分析到应对策略,提供实战指导。
|
內容簡介: |
内容简介这是一部从技术安全、监管框架、合规要求、伦理道德等角度全面讲解生成式人工智能安全问题的实战性著作。本书在坚实的理论基础之上,通过丰富的案例和翔实的数据,系统梳理了企业当下在生成式人工智能实践中面临的各种安全挑战,并给出了应对策略。本书的目标是为读者提供全面且实用的行动框架和实操指南,以促进生成式人工智能行业的健康发展。本书融合了跨学科专家的技术和经验,作者团队包括安全领域的资深技术精英、微软创新教育专家(MIEE)、生成式人工智能技术专家,以及在大数据企业、法律界深耕多年的知识产权与数据合规方面的专家。他们凭借各自的专业知识和实践经验,将理论与实务紧密结合,为读者提供了宝贵的见解和参考。阅读并掌握本书,你将收获以下10个方面知识:(1)大模型安全的范畴、现状和挑战:包括安全、监管与合规的关键问题,以及国家安全和社会治理角度安全隐患和风险点。(2)大模型技术层面的安全风险:包括信息安全原则、传统安全风险、识别和分析人类意图的挑战,以及大模型的固有脆弱性。(3)大模型监管与合规的法律框架:包括全球范围内的AIGC的监管现状,如诉讼压力、执法调查和立法进展,以及国内监管体系和国外典型法域的监管实践。(4)大模型知识产权合规:在大模型的开发和应用中,如何确保知识产权的合规性,包括著作权、开源协议、专利权、商标权和商业秘密的保护。(5)大模型数据合规:在大模型的构建过程中如何确保数据合规,包括模型训练、应用和优化等全流程的数据合规。(6)大模型内容安全:在大模型的应用过程中如何确保内容安全,包括内容监管、内容安全风险和内容安全合规。(7)大模型算法合规:在大模型的构建和应用开发过程中如何确保算法合规,包括算法备案、人工智能安全评估、算法公开透明、算法生成内容标识、算法反歧视、与算法有关的侵权和算法合规要点总结。(8)大模型伦理安全:在大模型的构建和应用过程中如何确保伦理安全,包括伦理风险、成因分析、治理实践、应对策略和自查工具表。(9)大模型的安全保障方案:如何构建一个既安全又可信的大模型环境,包括传统技术层面的安全保障、数据层面的保障策略和可信属性角度的安全防护策略。(10)生成式人工智能的发展趋势:从技术视角和法律视角,洞察大模型在安全、监管与合规方面的发展趋势。
|
關於作者: |
作者简介
王贤智
上海交通大学法律硕士,数责科技(上海)创始人兼CEO,数据安全与个人信息保护新知分享平台“合规社”主理人,数据合规知识社区博主,前众安在线旗下众安学院院长,知名咨询公司首席内容官。拥有国家法律职业资格、数据安全评估师(DSA)、数据安全工程师(高级)、Leading SAFe、MCE等认证。
兰芯数智法律服务团队
该团队是上海兰迪律师事务所的特色法律服务团队,成员具备计算机和法律等专业背景、企业和律所的双重视角。团队成员持续给头部企业提供优质服务,典型法律服务包括数据要素流通合规、AIGC合规服务和企业出海数据合规等。团队成员均入选律新社《精品法律服务品牌指南(2024):数据合规领域》律师名录。
丁学明律师是兰迪律所执行主任、高级合伙人,华东政法大学校外导师,上海律协数字科技与人工智能专业委员会委员,律新社“2024品牌之星:实力律师”。
叶娟律师是兰迪律所专业化建设委员会委员,华东理工大学法学院校外导师,中国网络安全审查技术与认证中心培训导师。
陈梦园律师是数据合规领域资深律师,领先IoT企业外聘DPO,上海律协数据合规专业委员会委员,律新社“2024品牌之星:新锐律师”。
熊雅洁律师具备国外法学教育背景与多年涉外法律服务经验,善于通过国际化视野为企业提供出海域外数据合规法律服务。
刘子旭
微软创新教育专家(MIEE)、微软Azure AI工程师、国家人力资源和社会保障局入库专家、上海交通大学特聘AIGC讲师、契阔资本AI战略投资顾问、MaxFuture AI创始人、沐嘉传媒CEO,在商业摄影、导演和制片领域屡获殊荣,具有丰富的视觉影像制作经验。凭借多元化的专业背景和实践经验,致力于为企业和机构提供前沿的AIGC培训和商业服务。
陈学进
资深架构师和AI技术专家。早年就职于国信朗讯和上海惠普有限公司电信业务服务部,担任架构师等职务;后来又加入平安科技、众安科技和恒生电子等金融科技公司,从事基于AI和大数据的数字化营销系统的架构设计和技术管理工作。深度参与过AI和AIGC相关的项目研发及应用,对AI和AIGC相关的工程化及业务应用有较深的研究。
|
目錄:
|
前言
第1章 大语言模型安全及其挑战1
1.1 大语言模型的发展历史与技术现状2
1.1.1 序章:起源与早期形态2
1.1.2 转折:神经网络的兴起2
1.1.3 现代巨人:GPT与BERT的时代3
1.1.4 技术现状与应用领域4
1.2 大语言模型安全的范畴5
1.2.1 大语言模型的技术安全:关键挑战是什么5
1.2.2 大语言模型的监管与合规:面临哪些关键问题6
1.3 生成式人工智能安全的重要性6
1.3.1 提升大语言模型的社会信任和声誉7
1.3.2 降低大语言模型的法律风险9
1.3.3 保护大语言模型的用户数据隐私9
1.3.4 保障大语言模型服务的连续性10
1.3.5 提高大语言模型的系统稳定性11
1.4 大语言模型安全的现状与挑战11
1.4.1 大语言模型的安全隐患与主要风险点12
1.4.2 大语言模型与国家安全风险14
1.4.3 大语言模型安全治理之道:发展与安全并重15
第2章 大语言模型技术层面的安全风险17
2.1 大语言模型的信息安全原则18
2.1.1 机密性18
2.1.2 完整性18
2.1.3 可用性18
2.2 传统安全风险19
2.2.1 传统网络攻击依然具有威力20
2.2.2 常见的传统网络攻击方式21
2.3 识别和分析人类意图上的挑战21
2.3.1 恶意意图的识别难题22
2.3.2 AI生成虚假信息传播23
2.3.3 利用AI进行黑客攻击24
2.4 大语言模型的固有脆弱性24
2.4.1 对抗攻击25
2.4.2 后门攻击29
2.4.3 Prompt攻击30
2.4.4 数据投毒攻击31
2.4.5 模型窃取攻击32
2.4.6 数据窃取攻击33
2.4.7 其他常见安全风险34
第3章 大语言模型监管与合规的法律框架37
3.1 全球视野下的AIGC监管现状38
3.1.1 AIGC企业面临的诉讼压力38
3.1.2 针对AIGC企业的执法调查屡见不鲜41
3.1.3 各国抓紧AIGC相关立法44
3.2 国内的监管体系45
3.2.1 国内监管体系概述45
3.2.2 国内现行监管政策梳理与总结48
3.2.3 国内重点监管政策解读50
3.3 国外的典型法域54
3.3.1 欧盟54
3.3.2 美国68
3.3.3 英国73
3.3.4 新加坡75
3.3.5 加拿大77
3.3.6 韩国78
第4章 大语言模型知识产权合规81
4.1 著作权82
4.1.1 著作权概述82
4.1.2 AIGC生成物的著作权定性分析82
4.1.3 AIGC技术相关的著作权侵权风险85
4.1.4 典型案例分析88
4.1.5 小结99
4.2 开源协议103
4.2.1 开源协议概述103
4.2.2 开源协议引发的侵权风险106
4.2.3 涉及开源协议的相关案例107
4.2.4 涉及开源协议的侵权风险防范措施109
4.3 专利权109
4.3.1 专利权概述109
4.3.2 AIGC场景下的专利权相关问题110
4.4 商标权112
4.4.1 商标权概述112
4.4.2 AIGC场景下的商标侵权113
4.4.3 人工智能生成物与商标侵权113
4.5 商业秘密115
4.5.1 商业秘密概述115
4.5.2 AIGC场景下常见的商业秘密相关风险116
4.5.3 典型案例分析118
4.5.4 小结120
第5章 大语言模型数据合规123
5.1 模型训练阶段124
5.1.1 数据采集124
5.1.2 数据质量提升134
5.2 模型应用阶段137
5.2.1 告知同意138
5.2.2 个人信息权利行使138
5.2.3 收集儿童个人信息139
5.2.4 数据跨境139
5.3 模型优化阶段142
5.3.1 数据使用142
5.3.2 数据安全143
第6章 大语言模型内容安全145
6.1 内容安全监管146
6.1.1 国内视角下的监管146
6.1.2 国外视角下的监管147
6.2 内容安全风险149
6.2.1 权利人提起的民事侵权责任149
6.2.2 监管机构提起的行政处罚150
6.2.3 刑事处罚150
6.3 内容安全合规151
6.3.1 模型训练阶段151
6.3.2 模型应用阶段155
6.3.3 模型优化阶段160
第7章 大语言模型算法合规163
7.1 算法合规框架概述164
7.2 算法备案164
7.2.1 法律依据及实施概况164
7.2.2 备案流程166
7.2.3 算法备案入口及角色167
7.2.4 备案所需准备的文件及材料168
7.2.5 备案期限168
7.3 人工智能安全评估169
7.4 算法公开透明170
7.5 算法生成内容标识173
7.6 算法反歧视176
7.6.1 算法设计178
7.6.2 训练数据选择179
7.6.3 模型生成和优化180
7.7 与算法有关的侵权181
7.8 算法合规要点总结185
第8章 大语言模型伦理安全187
8.1 大语言模型伦理:AI技术进步的道德维度188
8.1.1 三个案例引发对AI伦理的思考188
8.1.2 人工智能伦理概述:一个复杂且涵盖多方面的议题191
8.2 人工智能伦理的重要性191
8.2.1 提升公众信任:大语言模型伦理规范的社会影响192
8.2.2 确保合规性:企业和组织遵守伦理规范的必要性192
8.2.3 面向可持续的未来:伦理规范的长期社会影响193
8.3 大语言模型伦理安全风险及成因分析194
8.3.1 主要的伦理风险194
8.3.2 伦理风险的成因195
8.4 我国人工智能伦理治理实践195
8.4.1 我国人工智能伦理相关法规政策概述196
8.4.2 确立科技伦理治理体制机制198
8.5 大语言模型伦理风险应对策略205
8.5.1 研究开发者的责任205
8.5.2 设计制造者的责任206
8.5.3 部署应用者的责任207
8.5.4 用户的责任208
第9章 大语言模型的安全保障方案211
9.1 传统技术层面的安全保障212
9.1.1 大语言模型在系统层面的安全挑战212
9.1.2 大语言模型中可应用的经典安全技术214
9.1.3 应用传统安全实践的经验215
9.2 数据层面的保障策略217
9.2.1 数据收集阶段面临的安全挑战218
9.2.2 训练阶段的安全建议219
9.2.3 模型推理阶段的安全建议220
9.3 可信属性角度的安全防护策略221
9.3.1 大语言模型可信任的支柱222
9.3.2 人类监管和监督223
9.3.3 技术健壮性和安全性223
9.3.4 隐私和数据治理224
9.3.5 透明度226
9.3.6 多样性和公平性228
9.3.7 社会和环境变革229
9.3.8 问责机制231
第10章 生成式人工智能未来展望233
10.1 技术视角看大语言模型安全的发展趋势234
10.1.1 增强安全性与可靠性234
10.1.2 提高透明性与可解释性235
10.1.3 优化性能与效率236
10.1.4 应对深度伪造技术237
10.1.5 区块链技术的集成238
10.2 法律视角看大语言模型安全的发展趋势239
10.2.1 全球数据保护法律法规在大模型领域的细化与完善240
10.2.2 全球范围内算法监管框架的逐渐完善241
10.2.3 AI时代的知识产权244
10.2.4 伦理规范的法律化251
|
內容試閱:
|
前 言
当前正处于人工智能飞速发展的黄金时期,以ChatGPT为代表的生成式人工智能(Artificial Intelligence Generated Content,AIGC)技术极大地丰富了创意表达的方式,加速了知识的传播,并为社会变革注入了新的动力。在我国,大语言模型(Large Language Model,LLM,简称“大模型”)的发展势如破竹,至2024年1月,已有超过40款大语言模型产品获得官方备案。这些来自互联网巨头、科研机构和新兴科技公司的模型,如百度的文心一言、抖音的云雀、智谱AI的GLM、中国科学院的紫东太初、百川智能的百川模型,展现了国内在该领域的创新活力和大语言模型广泛的应用潜力。
2024年2月16日,这一技术迎来了新的里程碑—OpenAI发布了名为Sora的革命性模型。Sora是首个能够根据文本指令生成高清视频的人工智能模型,它的问世不仅挑战了我们对人工智能能力的传统认知,更将人工智能的应用扩展到了视频创作领域,标志着人类在探索人工智能潜能的旅程中又迈出了一大步。
这些激动人心的进展背后,却伴随着一系列复杂的安全、监管与合规问题。正如历史上的探险者面临未知领域时的谨慎与思考一样,人们在拥抱生成式人工智能的同时,也不得不面对这些技术可能引发的风险和挑战。作为生成式人工智能的一个重要分支,大语言模型虽然能力强大,但其潜在的风险十分复杂,从误导性内容的生成、数据泄露的风险,到算法偏见的可能性,甚至是技术滥用带来的社会不安,不一而足。因此,其安全使用、合规发展以及伦理考量的问题亟待人们深入探讨和解答。
本书的核心目标是,对以大语言模型为代表的生成式人工智能在安全、监管与合规方面的关键议题进行深入探讨。我们将从技术层面的安全风险出发,探索系统的稳定性和应用的安全性如何成为技术发展的基石。此外,监管与合规层面的因子,包括知识产权的合规性、数据的合理使用、内容的安全性以及算法的规范性,也是我们关注的焦点。本书不仅介绍了理论基础,还提供了大量的实际案例分析,以及在实践中解决相关问题的策略,旨在提供一个全面、实用的框架,帮助行业应对这些挑战。
本书突出了独特的跨学科视角,将技术细节与法律和伦理原则相结合。我们的写作方式旨在清晰阐述复杂概念,并提供实际操作的指南。本书的结构旨在逐步引导读者深入理解主题,同时提供丰富的案例研究和实用建议。
本书面向的读者群体包括致力于生成式人工智能技术的专业人士、法律界的实践者、伦理领域的研究者、政策的制定者,以及那些对AI领域中的安全问题感兴趣的学术圈成员和学生。我们的目的是跨越不同的专业背景,为所有读者提供深入的分析、实践的指导和策略性的见解,以帮助大家在这一充满挑战的领域中找到可行的路径和解决方案。
在此,我们要感谢所有为本书付出努力和智慧的合著者、审稿人和编辑。他们的专业知识和热情是本书顺利面市的关键。我们也非常感谢那些提供案例研究、数据、洞见的行业专家和学术界同人,他们的贡献使本书内容更加丰富和实用。
最后,我们要特别感谢你—我们的读者,因为你的兴趣和参与是我们写作的最大动力。希望本书能够成为你在探索这一充满挑战和机遇的领域时的可靠指南。
祝你阅读愉快!
|
|