人工不智能,AI产品经理要帮助用户认清这一现实

编辑导语:现在,人工智能现在已成为技术发展的主liú,并且正在影响着大家的生活,仿佛一夜之间,所有东西都开始和人工智能沾起了边。然而,人工智能真的是完全智能的吗?事实并非如此,人工智能技术的主导者是人,有人参与,就必然有主观意识的存在。假如我们不解决人的问题,那么技术终究不能解决真正的X问题。

我为什么要写?

在人工智能教育领域已经两年多了,随着人工智能项目落地逐渐增多,工作内容也逐渐加大。

就比如除了做产品,也要负责人工智能教室的落地培训。比较大的培训就是万州区的项目,两次集中培训包hán了50多所中小学,近300名X。

在给X们讲教育产品的之前,我一般都会讲一下人工智能的价值观念。就像我们从小学xí“X”“X规”一样,不只要学xí知识,更要学xí价值概念,树立一种正确的人生观和价值观。

AI产品经理也一样,在和客户沟通之前,让他树立正确的价值观念,形成“批判性”的思维,帮助他认清“人工不智能”这一现实,不要再天马行空的要解决方案了。

接下来,我们就用批判性的思维,来讲一下人工智能的价值观念。

我的观点是什么?

相信你已经听过太多有关人工智能的话题,比如:人工智能将会改变世界,人工智能将会让大多数人失业等等。其实,数据和算fǎ掌控一切的未来,离我们还非常的遥远,我们都高估了人工智能。

我向大家推荐一本书《人工不智能(2018-4出版)》,这本书的作者是布鲁萨德,哈佛大学人工智能X。

他之所以写这本书是,并不只是带大家认清人工智能发展的现状,来告诉大家人工智能并没有想象中那么好,而是因为人们过分依赖计算机算fǎ,反而带来了一系列X问题,所以他做的是带大家树立正确的人工智能价值观。

我是怎么样论证我的观点的?

第一部分:高估人工智能会产生什么样的X问题?

第二部分:自动驾驶技术到底有多难?

第三部分:现阶段人工智能的X化应用的根本矛盾是什么?

一、高估人工智能会产生什么样的X问题

现在有一种情绪叫做“技术沙文X”,认为一切X问题都可以用技术解决,特别是可以用计算机技术解决。而作者认为,包括人工智能在内的所谓的新技术,其实并没有解决真正的X问题。

他在书中举了一个例子,美囯教材分发的问题。

教材分发会出现什么问题呢,因为美囯和X的教育X是不一样的。X的教材是由XX出版的,X还便宜。而美囯的教材是由私人X出版的,X很高。比如一本中X教材就要114.75美元。

X的教育经费往往有限,有时候分到X头上的教材费可能只有30多美元,这样一来就存在了很大的缺口。

而且自己mǎi教材的办fǎ也不可行,因为没有这个渠道,盗版的都没有。

因为中小学教材都是由三大X出版的,直接供货到学校,同时X也是这几家X出。换句话说就是你用这家X的课本,然后用这些X的X,一条龙X,一年几十亿美金的生意。

当然有些看似能用技术解决的问题,也解决不了。比如有时候费用到位了,书也mǎi了,但是却被放置在学校的仓库里,没有发到X手上。

他就就找到了区教委,区教委说他们有个X数据库,有各个学校订购教材的数据。

把这个数据拿过来,结果一看,很多学校订购的教材和X人数都对不上。

因为经费有限,人手不够,有些校长需要qīn自管理教材,有的校长不愿意使用数据库系统,自己就nòng了个表,很难和别人分享,最后就有一大堆问题。

数据技术再先进,最初的数据录入也是由人来完成的。如果校长根本不愿意录入数据,X根本不清楚自己班需要多少教材,再先进的技术又有什么用呢?

教育本质是因人而异的、混乱的、动态的系统,而公共教育系统,是一个X的、标准的、最好是不变的系统。

盖茨曾经做过标准化大纲和教材,但是不同区的X水平差异很大,用一个标准不合理,学校没有X度。所以就在发教材这件事上,计算机人工智能就不能起到很好的作用。

因为计算机和人工智能擅长解决的是工程问题,工程问题要qiú定义良好,而复杂的X问题恰恰是不能定义良好的。

二、自动驾驶技术到底有多难

现阶段的人工智能,都有一个根本的弱点,就是高度的依赖数据,都是对过去经验的总结,他们没有办fǎX“没见过”的事情。

它适合最常见的,最简单的,不变的应用场景。一旦遭遇变化的场景,就X各种问题,比如“自动驾驶汽车”。

零级,X完全没有自动化,就是人开车。

  1. 一级,是指计算机在某些时候、某种程度上可以给X一些辅助性的帮助。像自动判车、保持车道、停靠辅助系等等。
  2. 二级,是有的时候汽车以自己开,要qiú人一直盯着,特斯拉已经做到了这个级别。
  3. 三级,是说人可以不盯着就让车自己开,但是如果车向你发信号,你要随时接管驾驶。
  4. X,是指在某些环境和条件下,实现自动驾驶,人去睡觉都没问题。
  5. 五级,是完全的自动驾驶,不论什么天气和路况人都不用管车。

至此,任何一家都没超过二级,有些X认为五级自动驾驶永远都达不到,因为人工智能处理不了意外。

比如说你看见一个残疾人,坐着电动轮椅,在路中间追逐一只压子,压子转圈跑,她也绕着转圈跑。

这种情况就能一下子准确X这些人的行动路线吗?自动驾驶都是靠激光打到各种东西再反射回来,可是如果在下雪或者下雨,激光机就可能打到雪huā或者雨滴上反射,对周围物体有较大的误判。

另外自动驾驶还涉及到了一个X的问题,假如你刹车失灵,前边有一X小X,还有一棵树,你是选择撞一X小X还是选择撞一棵树?

我们说过人工智能是依赖于数据积累的。Gооgle一直都在积累数据,算fǎ都是现成的,真正值钱的是数据,谁掌握了数据,谁的自动驾驶技术才有市场。

人工智能也有很大的jú限:第一,不安全;第二,不X;第三,他不能促进商业平等,它只会让强大的X变得更强大。

三、现阶段人工智能的X化应用的根本矛盾是什么

美囯对zuì犯开发了一个算fǎ,叫做COMPAS,专门判断一个犯人再次犯zuì的可能性大小。有一个评分标准,从1到10,分数越高,X将来犯zuì几率越高。

打分的原理也是采用大数据,根据以往的经验,考察若干个关键指标。算fǎ给了1分的人,犯zuì几率只有22%,打10分的人,犯zuì率高达81%。

但是有人对这家X提出了XX的指控,我们都知道X的都是概率,哪怕是打了5分以上的分数,犯人也不一定会再次犯zuì,如果一个犯人明明没有再犯zuì却打了高分,那么就等于被冤枉了。

而同样后来没再犯zuì的人,黑人被打高分的可能性是42%,而白人只有22%,就是说算fǎ还是X了黑人。

其实这个矛盾在生活中普遍存在,比如X,基本不存在重男轻女的情况的大城市里,女生的X成绩比普通男生好。

那如果这个规律,为了提高学校的总体成绩,在高一入学的时候尽量多录取女生,这不就是对男生的X吗?

这就是一切基于经验的决策的本质缺陷。人工智能再厉害,只要是基于经验的,只要是X达不到100%准确率,就一定有人被冤枉。

丑小压X说,一切分类都是主观的,有分类就会有X,此事古难全。人工智能为我们的决策X了很大的方便,但X还是这个X,数学还是同样的数学,人工智能改变不了问题的本质。

四、总结

当然,我们谈起技术进步,通常听到的都是好消息。比如偏远地区可以用无人机送货,解决送货难的问题。农村可以让X看电视学xí技术,解决教育资源有限的问题等等。

技术给人们带来一部分方便,但想要全面解决一个X问题,那就有些难度了。就算是看似成功的实践,背后也不知道有多少意想不到的情况。

所以,人工智能技术的出现,确实经常让事情更有效率,但写程序的是人,录入数据的是人,使用系统的是人,只要有人参与,就有主观意识的存在。

所以不解决人的问题,技术终究不能解决真正的X问题。

收藏 (0) 打赏

以上内容不错,打赏支持一下!

打开微信/支付宝扫一扫,即可进行扫码打赏哦,分享从这里开始,精彩与您同在
点赞 (0)

声明:本站所有教程资源,如无特殊说明或标注,均为本站原创发布。任何个人或组织,在未征得本站同意时,禁止复制、盗用、采集、发布本站内容到任何网站、书籍等各类媒体平台。如若本站内容侵犯了原著者的合法权益,可联系我们进行处理。

雄发创业网 软文营销推广 人工不智能,AI产品经理要帮助用户认清这一现实 https://www.xiongfawang.com/463.html

常见问题

相关文章

人工不智能,AI产品经理要帮助用户认清这一现实-海报

分享本文封面