人工智能伦理风险
2022-08-02 09:17:07 0 举报
AI智能生成
登录查看完整内容
人工智能技术的伦理风险分析,本文档主要从四个方面予以展开,算法伦理、数据伦理、应用伦理以及长期和间接的伦理风险。
作者其他创作
大纲/内容
存在泄露风险
可信赖性问题
部分场景下的算法对随时可用的要求较高
许多场景的应用都与人身安全息息相关
风险产生的原因
给算法的所有者和用户造成损失
随时可用的要求对其可靠性带来挑战
算法和运行系统可能直接或间接地引发人身伤害,并引发一系列法律追责困境
风险带来的影响
加强算法保密性,如加密安全防护措施,确保算法不被轻易泄露
算法漏洞
安全防护措施防范参数被非法修改
可信赖性
正常的算法输入
异常的算法输入,保持其可用性
算法需要考虑
随时可用性
明确风险提示
选择稳定性高、原理可解释的算法
加强系统的可测试性
可能的人身伤害
风险的应对
算法安全
解释人工智能算法输入的某些特性引起的某个特定输出结果的原因
算法可解释的定义
涌现性和自主性,使其比较难以理解和解释
可解释性安全风险产生的原因
关涉人类的知情利益和主体地位,“人类知情利益保障”是一个比较棘手的问题
涌现性和自主性,导致理性原则失效
可解释性安全风险的影响
要发展可解释的决策,识别人工智能算法输入的哪些特性引起了某个特定的输出结果
国家人工智能标准体系可通过操作标准、伦理标准以及数据模型传递与解释标准等的制定加强对算法可解释性的要求
舍弃解释因果关系,进而从解释相关关系的需求突破,可能是兼顾算法消费者利益和减轻企业解释成本负担的有效路径
可解释性安全风险的应对
算法可解释性
算法结果的不可预测性
AI 可以计算大量的可能性,选择空间大于人类,可尝试从未考虑的解决方案
受限于人类自身的认知能力,无法预见智能产品的决策和效果
决策风险产生的原因
提高算法的可解释性
引入相应的算法终结机制
嵌入自我毁灭机制
决策风险的应对
算法决策困境
算法伦理风险
个人隐私曝光导致消费者的日常生活受扰
个人信息泄露导致个人财产和人身安全造成影响
隐私保护不利导致企业信任度的降低
隐私保护推高企业数据存储及维护成本
隐私保护
个人财产信息
个人健康生理信息
个人生物识别信息
个人身份信息
网络身份标识信息
其他信息
个人敏感信息的识别和处理
数据伦理风险
指在看似没有恶意的程序设计中,由于算法的设计者或开发人员对事物的认知存在某种偏见,或者算法执行时使用了带有偏见的数据集等原因,造成该算法产生带有歧视性的结果
算法歧视的定义
地理位置
浏览记录
消费记录等
价格歧视
利用算法或机器学习模型,讲不同的商品/服务对不同的用户/群体显示不同的价格
算法倾向性,致结果偏袒
结果偏袒
设计时未考虑一些特殊的现实情况
人为造成的歧视
草率选择的数据
不正确、过期的数据
数据选择的偏差
历史偏见的延续
数据驱动造成的歧视
自我学习到数据的多维不同特征或者趋向
机器自我学习造成的歧视
算法歧视
利用算法进行分析、决策、协调、组织等活动中,其使用目的、方式、范围等出现偏差并引发不良影响
算法滥用的定义
出于自身利益,对用户进行不良诱导,隐蔽不利行为
过度依赖算法本身,算法的缺陷所致
盲目扩大算法的应用范围
算法滥用风险产生的原因
娱乐媒体,刺激和反馈机制,使用户上瘾,无法自拔
电子商务,分析用户的消费行为和消费取向,大数据杀熟
教育领域,儿童信息泄露,产品信息误判,影响学习效率
安防定罪,可能影响特征分析与匹配出错
算法滥用风险的影响
明确算法的应用领域,严格限定适用范围/边界
不过分依赖算法,坚持人类在算法应用中的主体性地位
通过行业标注、国家人工智能技术标准等引导算法的伦理取向
算法滥用风险的应对
算法滥用
应用伦理风险
短期,AI处于发展期,对就业影响有限,局部性和有限的
长期,AI推动新一轮技术革命,可能重构全新的产业生态,也可能带来悲观情绪
算法与就业
知识产权战争
知识产权制度冲击和挑战
算法与产权
AI销售商拥有无限的数据攫取和分析能力,打破人类商户信息不对称壁垒,形成完全竞争状态
AI销售商拥有不断优化的算法和学习能力,可根据市场变化采用更有效的销售绩效方法
利用算法进行不正当竞争、恶行竞争、技术垄断,将会冲击社会稳定,市场自由、公平、平等价值等最终损坏消费者利益,阻碍社会福利增进
算法与竞争
责任范围划分和责任认定带来挑战
法律法规的不充足和局限性逐渐显现,新法律规则需求迫切
自主性、学习和适用能力不断增强,证明产品缺陷责任越来越困难,可能带来责任鸿沟,被侵权人损坏难以得到弥补
算法责任
长期和间接伦理风险
人工智能伦理风险
0 条评论
回复 删除
下一页