主要阻碍挑战AI在未来发挥潜力有哪些?如今,AI在现实世界中的应用已经嵌入到生活的方方面面。但有2大主要挑战阻碍它们在未来发挥潜力。
第一,从技术进步角度来看,在应用之间进行数据交换依然缺少互用性标准,这可防止激进的个性化。为了变得真正有用,机器学习系统要求大量个人数据,这些数据目前是科技公司争相竞争的东西。谁拥有数据,谁就拥有主导权。苹果、Viv等公司已经通过整合第三方服务的方式开始民主化这种权利。最近,某些科技巨头宣布在AI研究方面进行协作,以便其能让更多人受益。展望未来,这将是AI技术获得公众信任的关键。
第二,从社会进步角度来看,人们对AI的快速发展依然存在担忧。人们害怕失去对AI助理的控制权。当然,AI依然处于起步阶段,AI助理可能以其人类开发者不期望的方式行事。有很多AI试验失败的先例,导致人们对狭隘AI解决方案和聊天机器人的信任在降低。当Facebook、微软以及谷歌都于2016年推出聊天机器人平台时,用户对其有限的功能、应用以及过早提出AI技术定制感到失望。
对AI技术挥之不去的担忧,还被许多科幻作品加剧,这些科幻作品描述有了情感的AI接管世界。但是将来,我们既不会走向“天网”世界,也不会走向“老大哥”社会,很可能是《Brave New World》中那样的享乐社会,届时技术依然能够保持现状。
新的监管框架
技术在不断前进,我们依然存有希望。Global Shapers Community在2016年年度调查中显示,年轻人将AI视为主要技术趋势。此外,21%的受访者称他们支持类人机器人的权利,这种支持在东南亚最高,当地年轻人似乎对日常生活中依赖AI持更积极态度。
而在欧洲,欧盟最新公布的《通用数据保护条例》可能严格限制算法的极端形式,给与用户更大权利,包括算法做出特定决策的解释。到2018年5月份,这部法案有望在所有欧盟成员国生效。它强调人类参与算法设计的重要性,现在还不清楚其是否会导致大科技公司的流行算法发生巨变。
每天,我们都会遇到数以千计的算法决定,从Netflix电影推荐到Facebook的保险风险评估、信用评分以及朋友建议等。还有许多事情需要考虑,公民自己负责追踪和检查算法做出的决策吗?这些东西需要被编码到他们正使用的数字平台设计中去吗?问责制是个重要问题,正因为如此,它才如此难以衡量和大规模实施。
现在该是制定明智策略的时候了,开发出透明和负责任的AI以改善人类的集体未来。在跨越式地进入未知世界,探索人类与AI的关系之前,我们需要问自己许多问题。反思这些问题将可以帮助我们设计非确定性、透明、负责任的算法,它可以识别出我们个性中的复杂、不断发展的多面性的特征。
2898站长资源平台友情链接交换:
http://www.2898.com/friendchange.htm下一篇:苹果下一个新产品技术很可能是AR