首页 风水 便利伴随着担忧 “刷脸”会不会刷走安全

便利伴随着担忧 “刷脸”会不会刷走安全

浏览:2893 2019-10-09 12:47:24 作者

段伟文认为,要进一步加强人工智能的伦理设计,对算法的理论预设、内在机制与实践语境等进行全流程追问与核查,从算法决策的结果和影响中的不公正入手,反向核查其机制与过程有无故意或不自觉的曲解与误导,揭示存在的问题,并促使其修正和改进。

此外,深度学习还是一个典型的“黑箱”算法,可能连设计者都不知道算法如何决策,因而要在系统中发现是否存在歧视和歧视根源,技术上也较为困难。“算法的‘黑箱’特征使其决策逻辑缺乏透明性和可解释性。”李伦说,随着大数据“杀熟”、算法歧视等事件的出现,社会对算法的质疑也逐渐增多。政府和企业在使用数据的过程中,必须提高对公众的透明度,让选择权回归个人。

算法应更客观透明,要避免歧视与“杀熟”

很快,民警找到了受困的老人和小孩,并快速将他们背出现场。另外3人被困在火情最严重的二楼,为了尽快救出被困人员,龙强在旁边楼房的阳台把尼龙绳扔向受困人员,高建和祝运凤通过绳子降到1楼,脱离了火情现场。

“刷脸”进站、“刷脸”支付、“刷脸”签到、“刷脸”执法……人脸识别技术正走进更为广阔的应用场景,与指纹、虹膜等相比,人脸是一个具有弱隐私性的生物特征,因此,这一技术对于公民隐私保护造成的威胁性尤其值得重视。“人脸图像或视频广义上讲也是数据,如果没有妥善保管和合理使用,就会容易侵犯用户的隐私。”中国社会科学院哲学研究所研究员段伟文说。

原来,2月16日,龙王庙派出所民警在回所的路上,看到对面行驶过来的面包车乘坐人员挥手求助。民警遂停车询问,原来是村民毛某某在维修机动车过程中不慎将左手的食指、中指挤断。

“刷脸”会不会刷走安全(解码·人脸识别技术)

来源:养生固本健康人生

C、此外,斩断“学位附加值”这块蛋糕,对西安房价后续会产生哪些影响?

“大数据时代,个人在互联网上的任何行为都会变成数据被沉淀下来,而这些数据的汇集都可能最终导致个人隐私的泄露。”湖南师范大学人工智能道德决策研究所所长李伦认为,用户已经成为被观察、分析和监测的对象。

据徐建军介绍,大西南茶叶市场建于1998年,峨眉山市政府于2016年进行了提升改造,是西南地区重要的名优绿茶销售集散地。每年春茶上市期间,来自全国各地的茶叶经销商云集于此,日交易额达6000万元以上。峨眉山市亦逐步成为西南地区优质茶叶主产区和茶叶贸易中心,被四川省政府命名为“现代农业产业基地强县(茶叶)”。

▲河南:干部被判十年终获无罪 法院召开恢复名誉大会公开致歉。新京报我们视频出品

在信息爆炸的时代,数据的处理、分析、应用很多都是由算法来实现的,越来越多的决策正被算法所取代。从内容推荐到广告投放,从信用额度评估到犯罪风险评估,算法无处不在——它操作的自动驾驶或许比司机更加安全,它得出的诊断结果可能比医生更准确,越来越多的人开始习惯一个由算法构建的“打分”社会。

在曹建峰看来,应对人工智能带来的伦理问题,一是要构建算法治理的内外部约束机制,将人类社会的法律、道德等规范和价值嵌入人工智能系统;二是在人工智能研发中贯彻伦理原则,促使研发人员遵守基本的伦理准则;三是对算法进行必要的监管,提升算法自身的代码透明性和算法决策的透明性;四是针对算法决策和歧视以及造成的人身财产损害,提供法律救济。

中新网南昌5月9日电 (记者 苏路程)你愿意作为德兴人的代表把纯正的德兴话永久地保存下来吗?中新网记者9日从江西省德兴市档案局(馆)了解到,该局将在全市范围内征集德兴方言发音人,并通过遴选确定德兴方言最佳传承人,把正宗的德兴话永久保存在档案馆中。

中国网财经6月5日讯 据国家药品监督管理局官网消息,该局近日组织对长沙市精通医疗器械有限公司进行了飞行检查。检查中,发现该企业质量管理体系存在“企业铸造用氧气瓶、液化气瓶置于氧气室,无排风设施”等缺陷。

资料图:当地时间3月29日午间,英国启动“脱欧”程序的信函被递交至欧洲理事会主席图斯克手中。由此,英国与欧盟之间的“分手”谈判将正式展开。

“刷脸”应用更广泛,对隐私权的威胁值得重视

6月20日,甘肃庆阳一名年轻女子企图跳楼自杀,在生命挣扎的最后4个小时里,楼下围观者不断怂恿女孩自杀,有的大喊“怎么还不跳”,“把驴都熊栽倒了”。一些人还录制了小视频在网上传播,有的索性开启直播……最终女孩跳楼轻身,留下的是消防队员救人未成的悲愤,以及朋友圈里那些死亡视频下面的廉价点赞。

民生与公共服务

中新网3月2日电 综合报道,特朗普政府人事风波不断,在白宫通讯主任希克斯离职仅仅一天后,有消息称白宫幕僚长凯利和防长马蒂斯正密谋迫使国家安全顾问H.R.麦克马斯特离开政府。

人工智能的应用带来便利,也引发数据滥用、隐私侵犯的担忧

作为一种信息技术,算法在拨开信息和数据“迷雾”的同时,也面临着伦理上的挑战:利用人工智能来评估犯罪风险,算法可以影响刑罚;当自动驾驶汽车面临危险,算法可以决定牺牲哪一方;应用于武器系统的算法甚至可以决定攻击的目标……由此引发了一个不容忽视的问题:如何确保算法的公正?

(经济日报 记者:苏大鹏 见习编辑:覃皓珺)

决定书显示,2017年7月13日,天津银行西联支行、育婴路支行、第四中心支行、第五中心支行在营业场所制作并摆放自制的保险产品宣传材料,套用“存入”概念,对代理销售的保险产品进行虚假宣传,欺骗投保人、被保险人。

近日,一名爱尔兰高尔夫球手公布了一段视频。今年年初,他在加拿大打高尔夫球时,突然一只白头鹰飞到了果岭上,叼住了他的高尔夫球想要飞走。他不停叫嚷让白头鹰将小球扔进球洞。没想到,白头鹰果真这么做了!帮助他完成了“一杆进洞”!虽然根据规则,最终这个一杆进洞并没算,他只能重新击打这个球。

“算法决策多数情况下是一种预测,用过去的数据预测未来的趋势,算法模型和数据输入决定着预测的结果,因此这两个要素也就成为算法歧视的主要来源。”曹建峰解释说,除了主观因素以外,数据本身也会影响算法的决策和预测。“数据是社会现实的反映,数据可能是不正确、不完整或者过时的,训练数据本身也可能是歧视性的,用这样的数据训练出来的算法系统,自然也会带上歧视的烙印。”

农业农村部新闻办公室11月10日发布,安徽省青阳县排查出非洲猪瘟疫情,死亡47头。

1月17日,新疆喀什大面积降雪降温,新藏线麻扎达坂段道路结冰,大批车辆滞留。武警官兵在现场10级大风、零下三十度的环境里清理冰雪,当天道路恢复通行。

通过数据采集和机器学习来对用户的特征、偏好等“画像”,互联网服务商进而提供一些个性化的服务和推荐等,从正面看是有利于供需双方的一种互动。但对于消费者来说,这种交换是不对等的。就频频发生的个人数据侵权的事件来看,个人数据权利与机构数据权力的对比已经失衡,在对数据的收集和使用方面,消费者是被动的,企业和机构是主动的。段伟文表示,“数据实际上成为被企业垄断的资源,又是驱动经济的要素。”如果商家只从自身利益出发,就难免会对个人数据过度使用或者不恰当披露。

为了打击偷税漏税,到目前为止,意大利政府随身携带现金依然限制在1万欧元以内。对于银行单次提现和消费者单次使用现金消费,目前阶段其管控额已从1000欧元以下,提高到了3000欧元以下。

加强核查监管,加大对数据滥用等行为的惩戒力度

随着数据的积累、计算机算力的跃升和算法的优化,人工智能正在让生活变得高效。语音识别、图像识别使身份认证更可信赖,短短几秒就能证明“你就是你”;智能诊疗和自动驾驶,更让人们看到了战胜疾病、减少事故的新机会;人工智能还可以轻松战胜围棋高手,写出优美的诗句……其自主性和创造性正在模糊人和机器的分野。

“我们生活在一个人机共生的时代,人类与机器之间势必将发生各种冲突和矛盾,仅靠法律和制度很难完全解决。”李伦表示,人们还应努力提升自身的科学素养,主动维护自身的权利,社会也应尽快建立讨论人工智能伦理问题的公共平台,让各方充分表达意见,促进共识的形成。(本报记者谷业凯)

腾讯研究院法律研究中心高级研究员曹建峰认为,即使作为一种数学表达,算法本质上也是“以数学方式或者计算机代码表达的意见”。算法的设计、模型、目的、成功标准、数据使用等,都是编程人员的主观选择,偏见会有意或者无意地嵌入算法,使之代码化。“算法并不客观,在算法决策起作用的诸多领域,算法歧视也并不鲜见。”

成都商报记者从银行卡交易明细中看到,7月14日起,朱英女儿的花销变得更密集,从最初的偶尔充值变得更加疯狂,最多一天充值14次,一天最高充值达9000余元。这个阶段正处于暑假,7月14日至被发现前8月5日最后一次充值,23天内花费4.5万余元。

2016年3月,微软人工智能聊天机器人Tay上线,在与网民互动过程中,很短时间内就“误入歧途”,集性别歧视、种族歧视于一身,最终微软不得不让它“下岗”。曹建峰认为,算法倾向于将歧视固化或放大,使歧视长存于整个算法之中。因此,如果将算法应用在犯罪评估、信用贷款、雇佣评估等关系人们切身利益的场合,一旦产生歧视,就可能危害个人乃至社会的利益。

2017年7月,国务院印发《新一代人工智能发展规划》(以下简称《规划》)。《规划》强调,促进人工智能行业和企业自律,切实加强管理,加大对数据滥用、侵犯个人隐私、违背道德伦理等行为的惩戒力度。

但是,当隐私侵犯、数据泄露、算法偏见等事件层出不穷时,人们又不得不反思:人工智能的持续进步和广泛应用带来的好处是巨大的,为了让它真正有益于社会,同样不能忽视的还有对人工智能的价值引导、伦理调节以及风险规制。

“虽然‘刷脸’的应用越来越多,但人工智能目前仍处于起步阶段,需加大对数据和隐私的保护力度,关注和防范由算法滥用所导致的决策失误和社会不公。”在个人数据权利的保护方面,段伟文建议,应促使数据交易各方对自己的行为负责,让每个人知道自己的数据如何被处理,特别是用于其他用途的情形,减少数据滥用,让人们清楚知道自己的“脸”还是否安全。