商业 来源:新浪 时间: 2021-12-06 20:33 阅读量:8633
深度丨大数据不香了。小数据人工智能正在崛起,产学界探索可信AI
每购买一个面包就会有一只柯基失去它的屁股。
在这个段子背后,是面包与柯基屁股的相似性引发的视觉混淆。
相似的事物尚且容易引发人眼的视觉混淆,具有相似特征的数据则会引发人工智能的误解,使AI程序抓取的数据出现偏差,从而使AI程序作出错误的判断。
利用机器学习的这一特征,攻击者直接将伪装的数据和信息注入人工智能程序,从而污染机器学习模型,误导AI做出错误判断,这一威胁网络安全的行为就被称为数据投毒。仅在试运行期间,UIH,星途新科等部分企业申请了算力,人工智能计算中心也帮助企业完成了图像识别,语音识别等场景的应用。在工业方面,Bitvish开发了170多种方法,可应用于建筑工地,水利,农业等复杂环境。
一直以来,人工智能都依赖大量的数据进行模型训练,但这带来了过度收集个人数据,脏数据清洗难度大,数据匮乏领域依然存在数据孤岛等问题最近几天,美国网络安全和新兴技术局发布研究报告《小数据人工智能的巨大潜力》,指出长期被忽略的小数据人工智能潜力不可估量
在当下人工智能产业迅速发展的情况下,大数据行业正在发生哪些变化人工智能行业的数据合规又将走向何方
从大数据回归小数据
自2006年,AI教父杰弗里·辛顿以及他的学生鲁斯兰·萨拉赫丁诺夫提出深度学习理念后,基于深度学习技术的人工智能浪潮席卷全球机器通过学习样本数据的内在规律与层次,从而获得预测能力
商体系下的行为数据生产,都是基于大规模数据分析结果,以此推动了整个数据产业的发展。在科研创新方面,武汉大学依托武汉人工智能计算中心的计算能力,打造了全球首个遥感专用框架。
在人工智能领域,小数据方法并不是新鲜词与依托于海量数据总结规律的学习方法不同,小数据方法是基于人类的先验知识,在仅有少量数据的情况下利用小样本数据集进行训练的人工智能方法,大致分为迁移学习,主动学习,强化学习,贝叶斯方法,数据生成等
一方面,在数据量较少或没有标记数据可用的情况下,不得不基于小样本数据加以人工的先验知识或者预训练模型来训练新模型。。
另一方面,伴随着深度学习算法的发展,数据价值不断被挖掘,同时,像开头所述的数据投毒等网络攻击使得数据治理的工作量加大,对机器处理复杂数据的能力也提出了更高的要求。
伴随着人工智能从感知走向认知,逐渐进入到商业本质,信息处理的维度使得人工智能进入到深水区天云数据CEO雷涛告诉记者,我们开始接触到信息化系统因为流程处理所沉淀的小数据,这些交易,流程中的数据价值密度更高,比图像视觉等传统信号体系复杂得多,因此需要认知层的人工智能基础设施来挖掘其中的含义
雷涛认为,在真正拥有推理和解决问题的强人工智能到来之前,在问题泛化表达能力出现之前,小数据可以用于进行数据本身的优化在机器模型建立的环节,需要大量的人借助先验知识的小数据和材料数据做交互,比如数据衍生,数据升维,数据降维,都是一些基于答案的数据或是基于业务的显性特征,利用算力和数据之间做交互,来完成模型更有效的学习
基于小样本数据的分析偏差也是显而易见的,李晓林告诉记者,避免小数据方法出现失误,势必需要丰富的人类先验知识作为支撑,进行迁移学习。
当下对小数据方法的重视并不意味着就摒弃了基于大数据的模型训练洞见科技CEO姚明表示,目前小数据模型主要用于和大数据模型的交叉核验,在二者相结合的情况下完善模型
数据合规背景下的可信AI探索
伴随着数据要素流通市场建设,在激活数据价值的同时,如何保护数据安全成为大众关注的焦点。
日前,《个人信息保护法》正式生效,对个人信息处理者收集,加工,使用,传输个人信息都提出了进一步要求。2021年5月31日,武汉人工智能计算中心建成投产。
个保法要求,任何组织,个人不得非法收集,使用,加工,传输他人个人信息,不得非法买卖,提供或者公开他人个人信息,个人信息处理者利用个人信息进行自动化决策,不得对个人在交易价格等交易条件上实行不合理的差别待遇,在公共场所安装图像采集,个人身份识别设备,应当设置显著提示标识。
个人数据收集的受限使得小数据方法发挥出特有的优势。
CSET报告指出,小数据方法能够减少收集个人数据的行为,通过人工生成新数据或使用模拟训练算法,第一不依赖于个体生成的数据,第二,经由模拟训练合成的数据也可以实现个人信息的脱敏。
对于数据匮乏的领域或因共享意愿不足导致的数据孤岛而言,可以通过小数据方法来处理数据缺失,用少量的数据点创建更多数据点,凭借关联领域的先验知识迁移学习,或者通过构建模拟或编码结构的假设,来开拓新领域的探索与预测。
首先我们不能回避的是,人工智能的优势就是面向个体的计算雷涛认为,人工智能运用于个体数据的计算无可避免,问题在于合规,适度的使用
由此,全球产学研界展开了对可信人工智能的研究与探讨。
据中国信通院统计,2020年可信人工智能研究论文的数量相比2017年增加近5倍,各国人工智能产业巨头也通过研发可信工具,制定可信的人工智能原则探索可信AI实践。
在2021年世界人工智能大会上,蚂蚁集团首席AI科学家漆远总结了可信人工智能领域的四个关键词:鲁棒性,隐私保护,可解释性,公平性。
其中,可解释性就包括模型可解释,样本可解释,结果可解释,将深度学习和人类知识结合起来,引进专家机制弥补传统纯深度学习的风险漆远指出,因果分析可以使机器学习更稳定,小数据下不用见多识广,因为基于人类经验的因果关系非常稳定
在产业界探索可信AI的过程中,使数据可用不可见,可用并可控,可控可计量的隐私计算技术迎来风口。
在获得个人信息使用的授权后,数据在加工过程中存在被复制,泄露,甚至被转售的风险,隐私计算从技术上保护了数据的安全金融行业作为数据聚集地,是隐私计算技术最早的应用领域,目前政务,医疗,工业互联网等领域在数据协同过程中,都已经开始使用隐私计算技术姚明告诉记者
雷涛指出,隐私计算的核心是解决数据的确权问题,将数据的所有权和使用权做到剥离,使得我们不用去搬移数据,访问数据的前提下也可以获取到数据价值的转移。
在数据要素流转的过程中,据李晓林介绍,隐私计算也被运用于政务数据开放与数据交易的场景之下在各地的政务数据流通过程中,不愿,不敢,不能共享的问题造成了数据孤岛的出现,打造基于隐私计算的共享智能平台可以帮助打通数据壁垒,实现数据的深度挖掘与价值释放
但中国工商银行发布的金融业首份隐私计算白皮书指出,现阶段我国并未出台匿名化技术标准或相关指引性文件,金融业可探讨专门出台隐私计算技术使用指引,以指导各方合规应用相关技术。
人工智能立法正在进行时
目前海内外对于人工智能的立法工作正在进行中。
就在12月5日,联合国成员国大会刚刚通过首个关于人工智能伦理的全球标准《人工智能伦理问题建议书》,旨在实现人工智能给社会带来的积极效果,同时也预防潜在风险。
具体来说,《建议书》呼吁个体应该有权访问甚至删除其个人数据记录它还包括改善数据保护和个体对自身数据的了解和控制权的行动,并将提高世界各地的监管机构的执行能力《建议书》明确禁止使用人工智能系统进行社会评分和大规模监控,并鼓励联合国各会员国考虑增设独立的人工智能伦理官员或其他相关机制,以监督审计和持续监测
今年6月,欧盟数据保护委员会和欧盟数据保护监督局针对欧盟今年4月发布的人工智能法规草案发表联合意见,进一步呼吁在公共场所禁止使用人工智能自动识别个人特征,包括人脸识别,步态,指纹,DNA,声音等生物或行为信号。
我国个保法第二十六条要求在公共场所安装图像采集,个人身份识别设备,应当为维护公共安全所必需,遵守国家有关规定,并设置显著的提示标识所收集的个人图像,身份识别信息只能用于维护公共安全的目的,不得用于其他目的,取得个人单独同意的除外
在上海人大刚刚通过的上海市数据条例中,更进一步地细化了人工智能技术的使用。
上海将限制个人信息采集的区域拓展至居住小区,商务楼宇等非公共场所,并要求不得以图像采集,个人身份识别技术作为出入上述场所或区域的唯一验证方式另外,通过自动化决策方式向个人进行信息推送,商业营销的,应当同时提供不针对其个人特征的选项,或向个人提供便捷的拒绝方式通过自动化决策方式作出对个人权益有重大影响的决定,个人有权要求处理者予以说明,并有权拒绝处理者仅通过自动化决策的方式作出决定
记者多方了解到,目前我国多地对于人工智能的地方立法正在探索中,目前天津,南京,杭州,深圳等地已相继出台管理条例规范人脸识别,未来人工智能相关管理条例将主要聚焦人工智能体规范和算法规范两大方面。目前已全面运营,二期正在扩建中。
——>
。声明:本网转发此文章,旨在为读者提供更多信息资讯,所涉内容不构成投资、消费建议。文章事实如有疑问,请与有关方核实,文章观点非本网观点,仅供读者参考。
上一篇:国内首家沃尔玛门店闭店:消费者拍照留念,同名公交站牌仍保留
下一篇:返回列表