飞鸽传书logo

人工智能与大数据会纠正我们的偏见,还是会更糟糕?

发表时间:2018-07-19


        飞鸽传书官网(www.feige360.com)7月19日讯,我们对大数据的使用是会纠正我们的偏见,还是会让情况更加糟糕?


        “我们不知道顾客是什么样的,”亚马逊公司负责全球通讯公关的副总裁克雷格·伯曼(Craig Berman)在接受彭博新闻社采访时说道。伯曼是在回应有人对亚马逊的当日送达服务歧视有色人种的指控。从字面上看,伯曼的辩护是诚实的:亚马逊在选择当日送达的区域时是根据成本和收益因素,例如家庭收入和送达的可及性。但是,这些因素是通过邮政编码汇总起来的,因此会受到其他塑造了——并将继续塑造——文化地理学的因素的影响。查看当日送达的服务地图,很难让人不注意到其与肤色的对应关系。


        这样的地图让人想起了罗伯特·摩斯(Robert Moses),这位城市规划大师在数十年时间里塑造了现代纽约城及周边郊区大部分的基础设施。然而,他备受争议的一点是不希望穷人,尤其是穷苦的有色人群,使用他在长岛上建造的新公园和海滩。尽管摩斯曾努力促成了禁止公共汽车在高速公路上行驶的法律,但他知道,这条法律迟早有一天会被废除。因此,他建造了更加持久的东西:几十个高度很低,公共汽车无法通行的天桥,将歧视真正地具体化。这一决定,以及其他几十个类似的决定都影响深远而持久。几十年后,关于公共汽车的法律已经废除,但沿着高速公路排列的城镇依然像从前一样隔离着。“法律总是可以修改的,”摩斯说,“但一座桥建好以后,就很难拆掉了。”


        今天,在受到原有结构影响的数据基础上,这样的隔离又重现了。尽管新基础设施的设计者可能没有类似的不良意图,但他们也不能自称对这些设施的影响毫不知情。大数据从业者都明白,亚马逊和其他公司用于提供定制服务的大型数据集不可避免地包含丰富详细的信息,包括具有受保护属性的肤色、性别、性取向和政治取向等。算法在这些数据的基础上做出的决定可以隐蔽地打开这些属性,既令人难以察觉,又是不道德的。


        凯特·克劳福德在微软研究院从事算法偏见的研究,并且是“AI Now”计划的合作创立者。这项研究关注的是如今在使用人工智能系统时所面临的危险。她提出了一个算法公平性的基本问题,即算法可以在多大程度上理解它们所使用数据的社会和历史背景。“你可以让一个人类操作者去尝试考虑数据本身代表人类历史的方式,”克劳福德说,“但如何训练机器来做到这一点呢?”不能以这种方式理解背景的机器最多只能传递制度化的歧视,即所谓的“偏见入,偏见出”(bias in, bias out)。


        纠正这些隐性歧视的努力不足,可能会让事情变得更糟。克劳福德的同事、康奈尔大学的索伦·巴洛卡斯观察到,终端用户会“不加批判地接受供应商的声明”,即算法中已经消除了偏见。在那些普遍存在偏见的应用场合,比如司法系统中,情况尤其如此。对于这些地方,号称更客观的机器具有非常大的吸引力。剥离算法中的偏见还要求认可某个关于公平的主观定义,同时不理会其他定义,但被选择的定义往往是最容易量化的,而不是最公平的。


  然而,虽然有着种种缺陷,但找出并对抗数据和算法中的偏见也会带来一些机会——能以新的方式使偏见的轮廓呈现在我们面前。


【以上精彩内容均来自飞鸽传书官方网站】


乐视网股东大会召开


        飞鸽传书官网(www.feige360.com)10月15日讯,根据乐视网10日发布的公告,公司于周一在北京乐视大厦召开2018年第三次临时股东大会,表决董事会换届。会议审议事项包括:《关于公司董事会换届选举暨提名第四届董事会非独立董事候选人的议案》、《关于调整 2018 年日常关联交易预计的议案》等。


        大会上,董事长、总经理刘淑青在临时股东大会上表示关于恒大和FF的矛盾我们不知情,是否影响贾跃亭先生影响债务偿还计划暂不得知。


        此前,恒大健康(HK.0708)10月7日发布的公告,贾跃亭已向香港仲裁中心提出仲裁,要求撕毁双方所有协议。曾把贾跃亭从破产边缘救回来的恒大,却被反咬了一口。


        另外,10月12日晚间,乐视网披露业绩预告,公司预计今年前三季度亏损14.79亿元至14.84亿元,归属于上市公司股东的净资产为负。乐视网表示,公司目前受乐视非上市体系经营不善的延续影响,形成的大量关联应收和预付款项,造成公司资金流极度紧张、公司下游销售大幅下滑回款困难等问题。并且,公司目前整体资金安排存在较大困难,存在较大的偿债风险及无法按时兑付债务的风险,特别是部分金融机构债务到期日临近,为公司短期内的资金筹划及安排带来一定不确定性。


【以上精彩内容均来自飞鸽传书官方网站】


more>>