|
|
|
|
|
|
|
|
ISBN |
9787111763239 |
定价 |
RMB99.00 |
售价 |
RM108.90 |
优惠价 |
RM81.68 * (-25%)
|
作者 |
王賢智等
|
出版社 |
機械工業出版社
|
出版日期 |
2024-10-01 |
装订 |
平裝. 無. 252 页. 26. |
库存量 |
海外库存 下单时可选择“空运”或“海运”(空运和海运需独立下单)。空运费每本书/CD是RM31.50。 空运需时8-11个工作天,海运需时约30个工作天。 (以上预计时间不包括出版社调货的时间以及尚未出版的预购商品) |
|
我要订购 有现货时通知我 |
|
放入下次购买清单 |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
購買中國簡體書籍請注意:
1. 因裝幀品質及貨運條件未臻完善,中國簡體書可能有出現磨痕、凹痕、折痕等問題,故簡體字館除封面破損、內頁脫落、缺頁等較嚴重的狀態外,其餘所有商品將正常出貨。
|
|
|
|
|
|
|
|
|
目錄
前言
第1章 大語言模型安全及其挑戰
1.1 大語言模型的發展歷史與技術現狀
1.1.1 序章:起源與早期形態
1.1.2 轉折:神經網絡的興起
1.1.3 現代巨人:GPT與BERT的時代
1.1.4 技術現狀與應用領域
1.2 大語言模型安全的範疇
1.2.1 大語言模型的技術安全:關鍵挑戰是什麼
1.2.2 大語言模型的監管與合規:面臨哪些關鍵問題
1.3 生成式人工智能安全的重要性
1.3.1 提升大語言模型的社會信任和聲譽
1.3.2 降低大語言模型的法律風險
1.3.3 保護大語言模型的用戶數據隱私
1.3.4 保障大語言模型服務的連續性
1.3.5 提高大語言模型的系統穩定性
1.4 大語言模型安全的現狀與挑戰
1.4.1 大語言模型的安全隱患與主要風險點
1.4.2 大語言模型與國家安全風險
1.4.3 大語言模型安全治理之道:發展與安全並重
第2章 大語言模型技術層面的安全風險
2.1 大語言模型的信息安全原則
2.1.1 機密性
2.1.2 完整性
2.1.3 可用性
2.2 傳統安全風險
2.2.1 傳統網絡攻擊依然具有威力
2.2.2 常見的傳統網絡攻擊方式
2.3 識別和分析人類意圖上的挑戰
2.3.1 惡意意圖的識別難題
2.3.2 AI生成虛假信息傳播
2.3.3 利用AI進行黑客攻擊
2.4 大語言模型的固有脆弱性
2.4.1 對抗攻擊
2.4.2 後門攻擊
2.4.3 Prompt攻擊
2.4.4 數據投毒攻擊
2.4.5 模型竊取攻擊
2.4.6 數據竊取攻擊
2.4.7 其他常見安全風險
第3章 大語言模型監管與合規的法律框架
3.1 全球視野下的AIGC監管現狀
3.1.1 AIGC企業面臨的訴訟壓力
3.1.2 針對AIGC企業的執法調查屢見不鮮
3.1.3 各國抓緊AIGC相關立法
3.2 國內的監管體系
3.2.1 國內監管體系概述
3.2.2 國內現行監管政策梳理與總結
3.2.3 國內重點監管政策解讀
3.3 國外的典型法域
3.3.1 歐盟
3.3.2 美國
3.3.3 英國
3.3.4 新加坡
3.3.5 加拿大
3.3.6 韓國
第4章 大語言模型知識產權合規
4.1 著作權
4.1.1 著作權概述
4.1.2 AIGC生成物的著作權定性分析
4.1.3 AIGC技術相關的著作權侵權風險
4.1.4 典型案例分析
4.1.5 小結
4.2 開源協議
4.2.1 開源協議概述
4.2.2 開源協議引發的侵權風險
4.2.3 涉及開源協議的相關案例
4.2.4 涉及開源協議的侵權風險防範措施
4.3 專利權
4.3.1 專利權概述
4.3.2 AIGC場景下的專利權相關問題
4.4 商標權
4.4.1 商標權概述
4.4.2 AIGC場景下的商標侵權
4.4.3 人工智能生成物與商標侵權
4.5 商業秘密
4.5.1 商業秘密概述
4.5.2 AIGC場景下常見的商業秘密相關風險
4.5.3 典型案例分析
4.5.4 小結
第5章 大語言模型數據合規
5.1 模型訓練階段
5.1.1 數據采集
5.1.2 數據質量提升
5.2 模型應用階段
5.2.1 告知同意
5.2.2 個人信息權利行使
5.2.3 收集兒童個人信息
5.2.4 數據跨境
5.3 模型優化階段
5.3.1 數據使用
5.3.2 數據安全
第6章 大語言模型內容安全
6.1 內容安全監管
6.1.1 國內視角下的監管
6.1.2 國外視角下的監管
6.2 內容安全風險
6.2.1 權利人提起的民事侵權責任
6.2.2 監管機構提起的行政處罰
6.2.3 刑事處罰
6.3 內容安全合規
6.3.1 模型訓練階段
6.3.2 模型應用階段
6.3.3 模型優化階段
第7章 大語言模型算法合規
7.1 算法合規框架概述
7.2 算法備案
7.2.1 法律依據及實施概況
7.2.2 備案流程
7.2.3 算法備案入口及角色
7.2.4 備案所需準備的文件及材料
7.2.5 備案期限
7.3 人工智能安全評估
7.4 算法公開透明
7.5 算法生成內容標識
7.6 算法反歧視
7.6.1 算法設計
7.6.2 訓練數據選擇
7.6.3 模型生成和優化
7.7 與算法有關的侵權
7.8 算法合規要點總結
第8章 大語言模型倫理安全
8.1 大語言模型倫理:AI技術進步的道德維度
8.1.1 三個案例引發對AI倫理的思考
8.1.2 人工智能倫理概述:一個複雜且涵蓋多方面的議題
8.2 人工智能倫理的重要性
8.2.1 提升公眾信任:大語言模型倫理規範的社會影響
8.2.2 確保合規性:企業和組織遵守倫理規範的必要性
8.2.3 面向可持續的未來:倫理規範的長期社會影響
8.3 大語言模型倫理安全風險及成因分析
8.3.1 主要的倫理風險
8.3.2 倫理風險的成因
8.4 我國人工智能倫理治理實踐
8.4.1 我國人工智能倫理相關法規政策概述
8.4.2 確立科技倫理治理體制機制
8.5 大語言模型倫理風 |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
王賢智 上海交通大學法律碩士,數責科技(上海)創始人兼CEO,數據安全與個人信息保護新知分享平臺“合規社”主理人,數據合規知識社區博主,前眾安在線旗下眾安學院院長,知名諮詢公司首席內容官。擁有國家法律職業資格、數據安全評估師(DSA)、數據安全工程師(高級)、Leading SAFe、MCE等認證。 |
|
|
|
|
|
|
|
|
|
|
|