您好,欢迎访问全国教育考试教材网
商品分类

算法的未来发展,2020年百度新算法

《澎湃新闻》记者邹熳云王亚赛刘畅

从被困在系统中的外卖员到无法摆脱的社交媒体,2020年算法讨论终于进入了主流话语。

这只是个开始。

随着数据在生活的各个角落生根发芽,算法的应用也越来越广泛。 越选择10秒的短视频越小,越审判刑事案件越大。

但是算法是如何形成的,它如何影响我们的行为,社会生活如何发生相应的变化……面对这样的黑匣子问题,很多人可能还没有意识到,甚至怀疑自己是否理解

大致说来,算法的形成主要包括两个部分。 是训练数据的采集和算法的设计训练应用。

《澎湃新闻》( book020 )总结了2020年有关这两大部分的大事,并采访了3名相关领域的专家和员工,了解算法对我们生活的影响。

算法离不开数据,但有数据就有遗漏

算法的形成离不开训练数据。

如上图所示,在实现算法和构建模型之前,需要收集大量数据。

这些数据来自我们生活的方方面面,包括给APP授权收集的身份数据、使用APP发生的行为数据,甚至在寄送快递、住酒店的过程中记录的数据。

“我们进入了隐私透明的人的时代,”上海交通大学数据法律研究中心执行主任何渊在接受《澎湃新闻》采访时表示。

“互联网比你更了解你自己……不管你愿不愿意,这些企业已经掌握了我们的数据。

这并不意味着用户将束手无策,例如可以避免使用未知来源的APP,不允许用户轻易获取隐私信息。

但是,在此之前,有两个必须弄清楚的问题。

第一,个人信息和隐私不是概念。

隐私是每个人都不能放弃的私人信息。

如果这些信息被允许交易,我们就不是完整的人了。

另一方面,个人信息重视身份,这些信息的结合有助于识别个人身份。

第二,权利和义务是对等的。

在用户免费使用智能手机APP的同时,让出一部分个人信息接收准确的广告发布,广告主为智能手机APP付费,这是现在的网络免费模式。

“法律并不是绝对保护你个人信息的权益,”何渊解释说。

但是,随着相关制度的逐步健全,市民将有更多的保护个人信息安全的方法,例如集体诉讼、公益诉讼、依据《通用数据保护条例》(gdpr )等法规发放的高额罚单等。 “对大企业来说,他们更害怕的不是赔偿,而是品牌损失。

技术是中立的吧?

算法在为我们提供巨大生活便利的同时,也引起了不小的争论。

因此,公众又开始讨论这个经典议题。 技术中立吗?

“我一直认为技术本身是中立的。 互联网资深软件工程师Justin在接受《澎湃新闻》采访时表示:“那只是为了解决技术问题而诞生的。” “要说将来会怎么样,这不是在技术发展的过程中考虑的事情。

但是,也有不同的观点。

复旦大学哲学学院徐英瑾教授举例说:“所谓‘中立’,实际上有一些预定的功能指向性,尤其是人造产品。” “比如用刺刀切菜是不合适的。 因为其功能导向不是用来切菜的。

无论是否中立,与算法相关的争议事件确实进入了越来越多的视野,特别是在新型冠状病毒大爆发的背景下。

例如,英国政府为了解决疫情导致无法高考的问题,决定采用算法来评定学生成绩,但经过算法评定的学生成绩引起了很多争议。

其中,英格兰地区约40%的考生成绩至少下降了一个等级。

2020年8月25日,英国考试监管机构主任莎莉科利尔宣布引咎辞职。

另外,2020年3月,一些网友指出,自己的健康代码变红了。

也有网友在知道的情况下写道:“所有旅行轨迹正常,没有接触过确诊或疑似病例,虽然没有去过疫区,但由于二维码发红,当天没有地方住,在街角过夜。”

这些算法与我们的日常生活息息相关,但很少有人能理解背后的执行逻辑。 “造成了强大的技术和知识障碍,不利于大众监督这一系列的系统……某种意义上说,构成权力是错误的等等。”徐英瑾解释说。

但是,算法不应该完全背对这些争论。

综上所述,算法的形成离不开大量的训练数据,这些数据是人们的历史行为。

根据2020年2月VOX的报道,“电脑接触大量数据后,会察觉数据中反复出现的模式,据此形成自己判断、评价、预测的逻辑。

”换句话说,算法的运用会加剧社会上的歧视和偏见。

例如,墨尔本大学2020年12月发表的一项研究显示,人工智能招聘软件中存在的性别歧视可能来自招聘者自身潜意识的歧视。

这些研究者既有在完全相同的简历上表示性别的人,也有将性别删掉后分发给40名招聘者的人。

结果,尽管男女应聘者的能力和经历完全一致,但招聘者对男性给予了很高的评价。

甚至在消除性别的简历中,招聘者也喜欢男性。

VOX的文章认为,明确说明各种算法背后的黑匣子是摆脱这些偏见争论的第一步。

一些学者认为,算法使用者至少应该公开训练数据、验证数据、测试数据的人口特性。

徐英瑾的建议是,在训练算法时,研究者不能只重复运算数据,而应该不断吸取新知识,手动修改相关的理解和预测。

“因为没有任何哲学理由认为未来的事情一定会和过去的事情相似。

而且“人”的作用很重要。

例如,Justin认为推荐算法的弱点之一是“机器的目标通常非常明确,我们想学的东西往往无法量化”。 因此,目前许多内容平台都参与了机器推荐之外的策略。

无论如何,修改这个算法的路会很长。 毕竟,公司的利润是发展算法的最大动力,人性的弱点也不是一朝一夕能改变的。

但是,算法问题终于进入了主流议题。 这是我们社会的一大步。

责任编辑:吕妍

校对:桀梦