美国下任总统由算法选出选民能同意吗?
2898
外闻 2020-03-18 16:12:34 字数:2514

AI能替代人类?美国下任总统由算法选出选民能同意吗?据Techcrunch报道,想象下2020年的场景:届时你的个人AI助理将以友好的方式将你唤醒,并帮助准备好你最喜欢的早餐。在你晨练时,它会按照你的音乐品味播放曲目。在你乘坐无人驾驶通勤车辆上班时,它已经按照通勤时间长短以及过去的习惯为你选好文章。



你可能读到这样的新闻,意识到即将进行总统大选。基于你此前表达的政治观点和所在州的其他选民数据,AI助理会为你提供预测模型,提醒你为民主党提名人投票。手机上弹出的信息会询问你,是否需要AI助理帮助你处理文书工作,并代表你进行投票。如果你选择同意,剩下的事情可完全交给AI助理,你可以继续自己的生活。


AI与数据同样重要


我们正进入一个AI无所不在的世界。尽管个人AI助理已经成为现实,但对于许多人来说,AI代表我们行使某些重要的公民权利依然是不可想象的,即使AI助理可能知道每时每刻什么对我们最好。如果获得足够数据,AI助理可以提供更加精确和个性化的建议,这些建议甚至远超我们最亲密朋友的忠告。


然而,机器的智能潜力经常导致人们产生恐惧。研究显示,34%的人害怕AI崛起,24%的人认为AI将会对社会产生伤害。GWI发现,63%的人担心科技公司如何利用他们的数据。而牛津大学网络学院最近研究也发现,人们对将自己的个人生活完全交给AI助理处理感到犹豫不决,特别是当AI助理在未提供透明理由时即帮助我们做出决定时,尽管它们可从不同替代方案中选择最佳方案。


没必要将数学与魔术进行混淆。AI并非被住在你手机中的神秘生物操作的,它们就像代理人,拥有自己的议程。但我们常常忘记的是,这种看似无形的数学模型是其他人利用我们此前已有的个人数据设计的,可以不断对我们的兴趣、位置、行为、财务以及健康等进行自动推测。


人类开发者的角色


许多当前有关算法的文化争论都是都围绕着人类在算法设计中所发挥的作用展开的。也就是说,无论开发者的潜意识信仰或偏见,都可能被编入可帮我们做出决定的算法中。新闻行业对此充满了担忧,因为开发者可能编码他们的算法,在某种程度上允许歧视某个特定种群的行为存在。更糟糕的是,技术平台正充当通过它们的信息的守门人。


正如约翰·曼尼斯(John Mannes)所说的那样:“有偏见的世界可能产生有偏见的数据集,相反也会产生有偏见的人工智能框架。”持这种观点的决策者和学者往往会产生误解,忽视了算法中存在误差率的明显事实。他们谴责开发算法的人,而非算法本身。当然,寻找其他人的错误是人类本能,特别是在你不了解当前技术的内在工作原理时。


但是算法偏见实际上很少来自其人类开发者。在大多数情况下,它产生自被用于训练算法的数据。


算法决定论


让我们首先回顾下机器学习技术的工作原理。通过运用统计学习技术,程序员开发出计算模型,它可以自动识别数据中的模式。为了实现这个目标,模型需要被使用大量数据训练,以便在数据中确定界限和关系。训练模型使用的数据越多,预测的准确率就越高。


在个性化数字应用的背景下,这些统计学习技术被用于开发算法,以便识别用户身份,这包括几个方面,比如模式、品味、喜好、人格特质以及他们的社会图结构等。可是,这种数字识别并非直接基于用户的人格或自我意识而开发的。相反,它们基于可测数据点的收集和机器解释方法。换句话说,在AI眼中,无论多么复杂,体现用户身份正被不完美的数字取代。


但是AI在其计算中只能使用历史追踪数据,然后利用其预测用户需求,以及预测其将来。这也是为何利用美国前总统图像,神经网络预测共和党总统提名人唐纳德·特朗普(Donald Trump)将会赢得大选的原因,毕竟这些训练都是基于男性总统进行的。因为数据库中还没有女性总统,如果模型中不存在性别相关性,AI就无法做出推断。实际上,如果这种特定AI能够选择下任总统,它会为特朗普投票。


这些推论导致越来越多的确定性的推荐系统,它倾向于加强现有信仰和类似社交媒体信息流中“回声室”的做法。预测发现应用公司Random的联合创始人雅尔诺·米卡埃尔·高波伦(Jarno Mikael Koponen)表示,个性化以讽刺性的方式模仿我们,在我们真正的兴趣与它们的数字反映之间形成鸿沟。与此同时,这位《Netflix Effect》的作者还解释称,个性化推荐系统往往引导用户关注这些内容。随着时间推移,这种情况变得越来越普遍和明显,这也是算法决定论被认为有害的重要理由。


身份变化无常


我们的身份是动态而复杂的,包含了许多矛盾。在社会现实中,我们可能需要有不同的行为表现,同时需要从AI助理处获得不同形式的帮助,比如在学校、办公室、酒吧或教堂等。


除了默认的自我展示,还有许多原因可以解释,为何我们在不同的人际网络中需要不同的身份。我们想让自己完全融入社交网络吗?抑或是我们会发现新的社交空间,远离我们的朋友或家人的窥探?如果我们尝试不同的角色和不同的身份,会发生什么?正如4chan创始人克里斯·珀尔(Chris Poole)所说:“这并非关于你与谁分享,而是你作为谁来分享。身份就像个棱形柱,人们通过许多镜头来看你!”


对于AI来说,区分这些不同层次的自我,并将它们映射到不同的社会环境中是个巨大挑战,因为它们往往被训练为识别单一的用户身份。有些时候,我们甚至都不知道自己是谁。但是我们的AI助理总能帮助找到答案:因为它们总是在识别昨天的我们。改变越来越困难,我们使用的模式和信仰系统正陷入自我强化循环的危险中,就像算法的“土拔鼠日”。


我们日常生活中越依赖个性化算法,它们越会依据我们看到的、读到的、谈论的以及如何生活等信息形成。通过坚持不懈地专注于现状,它们推荐我们阅读的新书、观看的电影以及会见的人,都是依据我们以前的兴趣确定的,只能帮我们重复昔日的满足感。


当你的未来受到过去限制时,通过自发的开放思维和试验开发个性化就会变得越来越难。在这种情况下,我们开发出算法,而算法反过来又会重塑我们!


2898站长资源平台友情链接交换:

http://www.2898.com/friendchange.htm


0人参与回答
  • 未添加任何数据~~

提示信息

联系电话:
1585150508*
QQ交谈:
小编
站长微信:
站长邮箱: service@qingjiuzhubei.com