人工智能伦理风险
2022-08-02 09:17:07 0 举报
AI智能生成
人工智能技术的伦理风险分析,本文档主要从四个方面予以展开,算法伦理、数据伦理、应用伦理以及长期和间接的伦理风险。
作者其他创作
大纲/内容
算法伦理风险
算法安全
风险产生的原因
存在泄露风险
可信赖性问题
部分场景下的算法对随时可用的要求较高
许多场景的应用都与人身安全息息相关
风险带来的影响
给算法的所有者和用户造成损失
随时可用的要求对其可靠性带来挑战
算法和运行系统可能直接或间接地引发人身伤害,并引发一系列法律<br>追责困境
风险的应对
算法漏洞
加强算法保密性,如加密安全防护措施,确保算法<br>不被轻易泄露<br>
可信赖性
安全防护措施防范参数被非法修改
随时可用性
算法需要考虑
正常的算法输入
异常的算法输入,<br>保持其可用性<br>
可能的人身伤害
明确风险提示
选择稳定性高、原理可解释的算法
加强系统的可测试性
算法可解释性
算法可解释的定义
解释人工智能算法输入的某些特性引<br>起的某个特定输出结果的原因<br>
可解释性安全风险产生的原因
涌现性和自主性,使其比较难以理解和解释
可解释性安全风险的影响
关涉人类的知情利益和主体地位,“人类知情利益保障”<br>是一个比较棘手的问题<br>
涌现性和自主性,导致理性原则失效
可解释性安全风险的应对
要发展可解释的决策,识别人工智能算法输入<br>的哪些特性引起了某个特定的输出结果<br>
国家人工智能标准体系可通过操作标准、<br>伦理标准以及数据模型传递与解释标准等<br>的制定加强对算法可解释性的要求<br>
舍弃解释因果关系,进而从解释相关关系的需求突破,可能<br>是兼顾算法消费者利益和减轻企业解释成本负担的有效路径
算法决策困境
决策风险产生的原因
算法结果的不可预测性
AI 可以计算大量的可能性,选择空间大于人类,可尝试从未考虑<br>的解决方案<br>
受限于人类自身的认知能力,无法预见智能产品的决策和效果
决策风险的应对
提高算法的可解释性
引入相应的算法终结机制
嵌入自我毁灭机制
数据伦理风险
隐私保护
个人隐私曝光导致消费者的日常生活受扰
个人信息泄露导致个人财产和人身安全造成影响
隐私保护不利导致企业信任度的降低
隐私保护推高企业数据存储及维护成本
个人敏感信息的识别和处理
个人财产信息
个人健康生理信息
个人生物识别信息
个人身份信息
网络身份标识信息
其他信息
应用伦理风险
算法歧视
算法歧视的定义
指在看似没有恶意的程序设计中,由于算法的设计者或开发人员<br>对事物的认知存在某种偏见,或者算法执行时使用了带有偏见的<br>数据集等原因,造成该算法产生带有歧视性的结果<br>
人为造成的歧视
价格歧视
地理位置
浏览记录
消费记录等
结果偏袒
算法倾向性,致结果偏袒
算法漏洞
设计时未考虑一些特殊的现实情况
数据驱动造成的歧视
草率选择的数据
不正确、过期的数据
数据选择的偏差
历史偏见的延续
机器自我学习造成的歧视
自我学习到数据的多维不同特征或者趋向
算法滥用
算法滥用的定义
利用算法进行分析、决策、协调、组织等活动中,其使用目的、<br>方式、范围等出现偏差并引发不良影响<br>
算法滥用风险产生的原因
出于自身利益,对用户进行不良诱导,隐蔽不利行为
过度依赖算法本身,算法的缺陷所致
盲目扩大算法的应用范围
算法滥用风险的影响
娱乐媒体,刺激和反馈机制,使用户上瘾,无法自拔
电子商务,分析用户的消费行为和消费取向,大数据杀熟
教育领域,儿童信息泄露,产品信息误判,影响学习效率
安防定罪,可能影响特征分析与匹配出错
算法滥用风险的应对
明确算法的应用领域,严格限定适用范围/边界
不过分依赖算法,坚持人类在算法应用中的主体性地位
通过行业标注、国家人工智能技术标准等引导算法的伦理取向
长期和间接伦理风险
算法与就业
短期,AI处于发展期,对就业影响有限,局部性和有限的
长期,AI推动新一轮技术革命,可能重构全新的产业生态,也可能带来悲观情绪
算法与产权
知识产权战争
知识产权制度冲击和挑战
算法与竞争
AI销售商拥有无限的数据攫取和分析能力,打破人类商户信息不对称壁垒,形成完全竞争状态
AI销售商拥有不断优化的算法和学习能力,可根据市场变化采用更有效的销售绩效方法
利用算法进行不正当竞争、恶行竞争、技术垄断,将会冲击社会稳定,市场自由、公平、<br>平等价值等最终损坏消费者利益,阻碍社会福利增进<br>
算法责任
责任范围划分和责任认定带来挑战
法律法规的不充足和局限性逐渐显现,新法律规则需求迫切
自主性、学习和适用能力不断增强,证明产品缺陷责任越来越困难,可能带来责任鸿沟,<br>被侵权人损坏难以得到弥补<br>
0 条评论
下一页