谁是人工智能的“搅局者”?

作者&投稿:养受 (若有异议请与网页底部的电邮联系)
人工智能背后的操控者是谁?~

“9·11 是犹太人干的,把他们都送进毒气室!种族战争现在开始!”
2016年3月23日,一个人设为19岁女性,昵称为 Tay 的聊天机器人在推特上线。这个微软开发的机器人能够通过抓取和用户互动的数据模仿人类的对话,像人一样用笑话、段子和表情包聊天。但是上线不到一天,Tay 就被“调教”成了一个满口叫嚣着种族清洗的极端分子,微软只好以系统升级为由将其下架。
微软聊天机器人的极端言论。
这样的口号并不是聊天机器人的发明,而在社交网络上大量存在着。美国大选期间,一些所谓的“政治新媒体”账号发出的掺杂阴谋论、种族主义的内容,在Facebook 上进行了病毒式传播。这有赖于人工智能协助下的“精准定位”:谁最容易相信阴谋论,谁对现实最不满?相应的政治广告和假新闻能精准地投放到这群人中,使人对自己的看法更加深信不疑。
因为设计缺陷而 “暴走”的聊天机器人,和精心策划的线上政治行为,看起来仿佛是两回事。但这种我们似乎从未见过的景象,却指向了同一个“凶器”——大数据驱动下的人工智能。
1、人工智能有作恶的能力吗?
人工智能会“作恶”吗?面对智能的崛起,许多人抱有忧虑和不安: 拥有感情和偏见的人会作恶,而仅凭理性计算进行判定的计算机似乎也会“作恶”, 且作起来易如反掌。这让许多人(特别是非技术领域的人)对人工智能的发展持悲观态度。
这种忧虑并不是最近才有的。人工智能这个词诞生于上世纪50年代,指可体现出思维行动的计算机硬件或者软件,而 对机器“拥有思维”之后的伦理探讨,早至阿西莫夫开始就在科幻作品里出现。
14 年前,威尔·史密斯主演的电影《机械公敌》里就有这样一个场景:2035 年的人类社会,超高级的人工智能承担大量工作,并与人类和谐相处。这些原本完全符合阿西莫夫“三定律”的人工智能,在一次关键升级之后对人类发起了进攻。这些机器人拥有了思维进化的能力,在它们的推算下,要达到“不伤害人类”的目的,就必须先消灭“彼此伤害”的人类。
十分高产的科幻作家阿西莫夫(1920-1992)。

看起来,人工智能并不像人类一样拥有所谓“人性”,并不与我们共享一个道德伦理体系。 然而 将智能的“作恶”简单理解为“人性缺乏”,未免把这个问题看得太过简单。
一方面,机器似乎还不够“智能”。 南京大学计算机科学与技术系副教授、人工智能专家俞扬认为,“人性”对于人工智能来说是一个非常“高层次”的东西。“描述一张图片上,有草原,有狮子,机器可以做到,”俞扬举了个例子,“而要归纳它是‘非洲’,就要更高级一些,对机器来说更困难。”他说,判断一件事情在道德上好不好,意义上怎么样,目前来讲并不是机器的能力范围。
而正视人工智能的“恶”,或许应该首先找出作恶之源——为什么人工智能忽然变得可怕起来?
另一方面,机器似乎已经太过“智能”,某些方面几乎要超越人类的理解。 近 10 年,人工智能领域迎来了爆发,这要得益于 “机器学习”的发展:拥有强大运算能力的计算机程序能够对大量数据进行自动挖掘和分析,并学习各种行为模式。输入和输出不再是人工赋予的几个变量掌控,而是让机器在大量数据中自己分析特征,决定变量权重。
目前最火的领域“深度学习”就是这样——行业者有时会将其戏谑地称为 “当代炼金术”:输入各类数据训练 AI,“炼”出一堆我们也不知道为啥会成这样的玩意儿。 处理数据的神经网络,通常由数十个或者上百个(或者更多)神经元组成,然后用数层逻辑结构组织起来,运算过程及其复杂。智能程序自己给自己设定算法和权重,而最后为什么输出了某个决策,人类并不能完全理解。
这看起来就仿佛一种本能一样——蒙特利尔大学的计算机科学家约书亚·本奇奥将其称为 “人工直觉” (artificial intuition)。

我们会信任一个我们“无法理解”的决策对象吗?当它出错的时候,我们能够察觉、能够纠正吗?
“我们必须清楚地知道人工智能会做出什么样的决策。对人工智能的应用范围,以及应用结果的预期,一定要有约束。”俞扬认为,“黑箱”的现实应用,一定要慎之又慎。环境是否可控,是否经过了可理解性的测试,决定了它是否可以用在关键的场所,否则就是产品的重大缺陷。
今天的人工智能之所以危险,不仅是因为它已经具备了一定的能力和“权力”,还因为 人类生活的大规模网络化、数字化,为机器的“学习”提供了足够多的数据“食粮”。
今天的人工智能与其说是拥有“思维”,不如说是对于人类世界中现存数据的反映和理解。与其说“没有人性”,会不会是“太有人性”? 机器是否也继承了我们既有的偏见、无常和贪婪?
2、人工智能的罪恶之源
人工智能在判断上失误的一个指责,是它经常会 “歧视”。使用最先进图像识别技术的谷歌曾经陷入“种族歧视”的指责,只因它的搜索引擎会将黑人打上“猩猩”的标签;而搜索“不职业的发型”,里面绝大多数是黑人的大辫子。哈佛大学数据隐私实验室教授拉谭雅·斯维尼发现,在谷歌上搜索有“黑人特征”的名字,很可能弹出与犯罪记录相关的广告——来自谷歌智能广告工具 Adsense 给出的结果。
而这种危险并不仅仅是 “另眼相看”本身——毕竟将一张黑人的照片打上“猩猩”的标签,只是有点冒犯罢了。而 人工智能的决策正走入更多与个人命运切实相关的领域,切实影响着就业、福利以及个人信用,我们很难对这些领域的“不公平”视而不见。
人工智能会加剧人类社会的不公平吗?

对每个毕业季都会收到数以万计简历的大公司人力部门而言, 用机器筛简历并不是什么新鲜的事情,百分之七十以上的简历甚至都到不了 HR 的眼皮底下。 筛简历的 AI(业界用语“雇佣前评估”)因此而获得了大约30亿美元左右的市场。有些关键词,例如性别、地域,或者出身阶层,至少在明面上,是不宜成为筛选标准的——这个时候,HR 就会以“并不适合”为由,推掉不喜欢的性别、籍贯乃至星座。那么,彻底排除 HR 或者项目经理个人偏见的人工智能会解决这个问题吗?答案可能会更糟。
最新的人工智能雇佣辅助技术,并不需要人为设置关键词,而全靠“过往的优秀员工数据”对机器的训练,决策权重也并不是加或者减去一个过滤的变量就能解决的,看起来似乎十分公平。 然而人工智能的检视,却让少数族裔、女性、或者有心理疾病史的人更难找到工作。
美国 IT 作家、数学家凯西·奥尼尔曾经调查到,人力资源解决方案公司 Kronos 提供的智能筛选服务会用“个性测试”把有心理疾病史的申请者挡在门外;而施乐在招聘的时候发现,人工智能大量过滤掉了有色人种的申请,因为这些申请者提供的地址位于市内某黑人聚居区。
金融领域也不例外。位于美国洛杉矶的科技金融公司 Zest 开发了一个人工智能信用评估平台 ZAML,使用用户网络行为,而不是实际的信用记录,来判定用户的信用值。
百度作为搜索引擎合作商,向他们提供了大量可以数据用于归纳出用户可能的财务状况。它声称有近十万个数据点,没有所谓“决定因素”,因为美国法律禁止金融机构以性别、种族或宗教等决定一个人的信用。然而在现实应用中,对于不同人群的“另眼相看”却体现得非常明显——比如,它会“研读用户的申请”,检查申请中是否有语法和拼写错误等,来判定一个人“守规矩”的倾向;然而这导致并不能熟练使用英语的移民群体在信用问题上被抹黑。
歧视的来源是哪里?是打标签者的别有用心,是数据拟合的偏差,还是程序设计哪里出了 bug? 机器所计算出的结果,能为歧视、不公、残酷提供理由吗? 这些都是值得商榷的问题。
我们训练机器的“过往数据”,实际上是人类自身偏见和行为的产物。 《MIT 商业评论》的分析者认为,类似于 ZAML 的智能采用的“贴标签”策略,很难排除相关性(而非因果性)带来的偏见。少数族裔常常会因某种特定行为被打上标签(比如访问某个网络社区等),即使他/她有良好的信誉和稳定的工作,只要出现这样的行为,就可能会被人工智能判定为低信用,需要为他/她的借贷支付更高的利息,或者干脆没有资格。
机器能解决处理效率的问题,却不能避免“过往数据”本身造成的缺陷。一个公司过去10年男员工工资比女员工高,有可能源自某个高层的性别歧视;智能筛选却能把对于此群体的偏见刻印在对于个体的判断上,这跟人类的刻板印象如出一辙。问题在于,机器的抉择往往被包装上“科学”“客观”的外衣, 此类解决方案往往能够因为其科技噱头而卖出高价,殊不知只是用“科学结果”对现有的偏见进行的“大数据洗白”。
3、资本驱动的数据世界
如果说“过往数据”的积累是机器作恶的基础的话,那么资本力量的驱动则是更深层次的原因。
如同开篇提到的那样,2016 年美国大选期间,一家叫剑桥分析(Cambridge Analytica)的公司使用人工智能技术,针对任意一个潜在选民的“心理特征”投放付费政治广告;而投什么样的广告,取决于一个人的政治倾向、情绪特征、以及易受影响的程度。很多虚假的消息在特定人群中能够迅速传播、增加曝光,并潜移默化地影响人们的价值判断。技术主使克里斯托弗·威利最近向媒体揭发了这个人工智能技术的“食粮”来源——以学术研究为名,有意攫取的 5000 多万用户数据。

剑桥分析CEO亚历山大·尼克斯(Alexander Nix)。
剑桥分析并不是一个孤例。澳洲一个 Facebook 的广告客户透露,Facebook 的人工智能会分析其用户特征和所发的内容,给出诸如“有不安全感的年轻人”“抑郁、压力大”等标签,然后有针对性地投放游戏、瘾品和甚至虚假交友网站的广告,从中获取巨大利益。
即使不存在数据泄露问题,对用户数据的所谓“智能挖掘”也很容易游走在“合规”但“有违公平”的边缘。例如,电商能够根据一个人的消费习惯和消费能力的计算,对某个人进行针对的、精密的价格歧视。购买同样的商品,用 iPhone X 手机的用户很可能会比用安卓“千元机”的用户付更多的价钱,因为他们“倾向于对价格不敏感”。而我们所经常谈论的“大数据杀熟”——比如携程老用户订旅馆的价格会更高——也建立在用户行为数据的基础上。
数据的收集本身也值得商榷。前百度人工智能首席科学家吴恩达(Andrew Ng)就曾公开表示, 大公司的产品常常不是为了收入而做,而是为了用户的数据而做;在某一个产品上收集的数据,会用于在另一个产品上获利。 在智能面前,没有所谓的个人隐私和行踪,也很难确定数据收集的边界在哪里,尤其是个人隐私与公共信息、主动提供与被动提供的边界。
总而言之, 在以商业利益为目标的人工智能眼里,并没有“人”或者“用户”的概念,一切都是可以利用的数据。 剑桥大学互联网与社会研究中心教授朔沙娜·祖博夫将这种人工智能和资本“合体”的现状,称之为 “监控资本主义” (Surveillance Capitalism)——在大数据和人工智能的协助下,通过对每个人的监控和信息的榨取,实现资本的最大化。
业界对此的态度很暧昧。AI 作为当下最热门、来钱最快的行当之一,这些动辄年薪50万美元的工程师很少得闲来思考“形而上”的问题。 一位不愿具名的研究人员在与我的微信私聊中表达了他的“个人看法”:“现在的技术离‘通用人工智能’还很远,对社会伦理方面的影响没有那么大,更多还是从繁琐的重复劳动中解脱出来。”
作者试图找到行业内人士对此评论,谷歌(中国)和百度自动驾驶部门的人工智能相关人员均表示,探讨 AI 的社会问题,牵涉到公司利益和形象,比较敏感,不便评论。
“人工智能作为一个工具,如何使用,目前来看决定权依然在人。”俞扬说道 ,“系统的设计者和商业(应用)的提供人员需要对此负责。”
如何负责?这或许需要我们正视人工智能对整个社会关系的挑战。
4、人工智能作恶之后
2018年3月 19 日,一辆自动驾驶的优步(Uber)在美国亚利桑那州惹上了麻烦。面对路中出现的一个推着自行车的女性,这辆车速 38 mph(约61km/h)的沃尔沃在昏暗的光线条件下并没有减速,径直撞了上去,受害者被送往医院之后不治身亡。这是自动驾驶第一例行人致死的事故。
电视台对自动驾驶优步车祸的报道。
事故发生之后,有不少人将矛头指向了自动驾驶的人工智能是否足够安全上,或者呼吁优步禁止自动驾驶。然而更关键的问题在于,亚利桑那有着全美国几乎最开放的自动驾驶政策,事故发生地坦佩市(Tempe)是实行自动驾驶最火的“试验田”之一;事故所在的街区早已做过路线测试,并被自动驾驶的智能采纳。但是在事故发生之后,对于责任的认定依然遇到了困难。
因为人的疏忽造成的车祸数不胜数,人们早已习惯了如何处理、怎样追责;然而机器出错了之后,人们忽然手足无措。 人工智能会出错吗?当然会。只是我们在这个问题上一直缺乏认知。 就如同上文提到的“隐性歧视”,深度学习的“黑箱”,现有的法律法规很难对这些错误进行追究,因为不要说普通人,就连技术人员也很难找出出错的源头。
当人工智能的决策在人类社会中越来越重要时,我们也不得不考虑,智能为什么会犯错,犯错了怎么办;若要让智能摆脱被商业或者政治目的支使的工具,真正成为人类的“伙伴”, 需要怎么监管、如何教育,才能让人工智能“不作恶”。
人工智能的监管问题亟待解决。
对此,现有的法律框架内很难有清晰的、可操作的实施方案。欧盟率先在数据和算法安全领域做出了立法的尝试,2018年5月即将生效的新法规规定,商业公司有责任公开“影响个人的重大决策”是否由机器自动做出,且做出的决策必须要“可以解释”(explainable)。但法条并没有规定怎么解释,以及细到什么程度的解释是可以接受的。
另外一个重要的问题是, 让机器求真求善,需要人类自己直面决策中的黑暗角落。 在 Atari 游戏智能的测试中,游戏中的人工智能 bot 可以用最快的速度找到漏洞开始作弊,而游戏玩家又何尝不是呢?不管是带有歧视的语义分析,针对少数族裔进行的“智能监视”和跟踪,或者把已婚未育女性的简历扔掉的智能简历筛选,都长期以各种形式存在于人类社会中。
人工智能不是一个可预测的、完美的理性机器,它会拥有人类可能拥有的道德缺陷,受制于人们使用的目标和评估体系。 至少目前,机器依然是人类实然世界的反应,而不是“应然世界”的指导和先驱。 对机器的训练同样少不了对人性和社会本身的审视——谁在使用,为了什么而使用,在我们的世界中扮演着怎样的角色?数据是谁给的,训练的目标是谁定的?我们期望中的机器,会继承我们自己的善恶吗?
谷歌中国人工智慧和机器学习首席科学家李飞飞认为, 要让机器“不作恶”,人工智能的开发需要有人本关怀 。“AI 需要反映我们人类智能中更深层的部分,”李飞飞在《纽约时报》的专栏中写道,“要让机器能全面地感知人类思维……知道人类需要什么。”她认为,这已经超越了单纯计算机科学的领域,而需要心理学、认知科学乃至社会学的参与。
未来,人工智能进入更多的领域、发挥更强的功能,是无可争辩的事实。然而,我们的生产关系能否适应人工智能带来的生产力,这句马克思政治经济学的基本原则值得我们认真思考一番。 我们并不想看到未来的“机器暴政”将我们的社会绑在既有的偏见、秩序和资本操纵中。
一个AI
人工智能之所以会作恶,可能就是因为太像人类了吧。

1、人工智能的利
目前人工智能已经为人类创造出了非常可观的经济效益,人工智能可以代替人类做大量人类不想做、不能做的工作,而且机器犯错误的概率比人低,并且能够持续工作,大大的提升工作效率。

节约了大量的成本,未来的人工智能可能还会代替人类工作,代替人类做家务,帮助人类学习,甚至可以照顾老人和小孩,实时监护人类的健康,生病了直接给人来治疗,延长人类的寿命,让人类的生活变得越来越美好。

2、人工智能的弊
霍金曾发出警告,人类面临一个不确定的未来,先进的人工智能设备能够独立思考,并适应环境变化,它们未来或将成为导致人类灭亡的终结者!如果真的有一天,人工智能机器人变成了能独立思考,独立的做出准确的判断,一旦有一天人工智能反客为主,到时人工智能对于人类将会是毁灭性的灾难。甚至被人工智能消灭。地球将被人工智能统治。
当人工智能处于一个低级阶段的时候,人类可以让人工智能来代替人类进行一些需要基本思考的工作,比如记账,审计,阅读,还有风险更低的体力劳动,毕竟现在由纯机器操作的工厂还是有一定事故发生率的,而人工智能是可以通过自己分析预判来减少风险的。

虽然可能会带来大量的失业,但是这本来就是社会前进必须经历的过程,当新技术被发明出来时一定会影响某些群体的既得利益,然而只要这个前进的方向是对的,也就无可厚非了,毕竟被取代的是所需能力不高的工种,只能怨自身没有什么不可替代的价值了。

“土著迷信”、“波将金”、“绿野仙踪”……Facebook(脸书)人工智能实验室主任杨立昆(YannLeCun)最近用了一系列耸人听闻的词来形容去年被沙特颁发了“公民身份”的机器人索菲娅(Sophia)。在杨立昆看来,索菲娅就是人工智能的“搅局者”。

“这就好像是变戏法之于真正的魔术那般混淆视听。”杨立昆已经不是第一次在社交网站上指名道姓地指责索菲娅。作为当今世界人工智能领域的领军人物和卷积神经网络的发明者,他的一番抨击引起轰动,人们开始透过索菲娅的外表,质疑她的智力水平。

与此同时,利用人工智能技术收集数据的脸书也因为去年集中爆发的“假新闻”事件遭到抨击,也把人工智能与“假新闻”的关联推上了舆论旋涡。

聊天机器人

索菲娅的名字自从去年10月被沙特授予公民身份后,就开始大红大紫。今年年初,索菲娅还来到中国,开微博、晒机票、秀中文,甚至还上了央视、拍了MV。在王力宏去年9月的神曲《A.I。爱》的MV中,索菲娅饰演了王力宏的机器人妻子。这一系列的商业活动让人们开始质疑,索菲娅已经不再是科技进步的象征,而更多成了商业炒作。

中国人工智能学会理事、上海大学教授王潮认为,工业界的一些行为虽然可以理解,但是不能太科幻。他对第一财经记者表示:“从自然语言和语义分析,以及情感和情绪感知两个角度来看,人工智能的实际水平还没有在索菲娅身上体现出来。”

上海交大电子工程系教授李德伟告诉第一财经记者:“人工智能近两年取得了很多令人激动的突破,但是人类的聪明才智无论是现在还是未来,都始终是人工智能发展的决定性力量。”他认为,索菲娅被授予公民身份,所展现的其实是沙特政府鼓励人工智能和机器人发展的姿态。

索菲娅于2015年由一家名叫汉森(HansonRobotics)的机器人公司设计。2016年3月,她第一次上电视访谈时就“一鸣惊人”——她声称“要毁灭人类”。此后,索菲娅在全球各地上节目,还在YouTube开频道称自己已经“觉醒”,并表示自己期望获得爱与家庭。她甚至登上了时尚杂志《ELLE》的封面,《纽约时报》、英国《卫报》、央视的《对话》栏目都采访过她。最近,索菲娅学会“走路”的消息再次成为社交网络的热门话题。

不过,索菲娅的招摇过市引起了以杨立昆为代表的人工智能学院派“严肃分子”的担忧。杨立昆认为,汉森机器人造出索菲娅这个类人形象过度地夸大了机器人的能力,误导了公众对于人工智能现状的理解。索菲娅并不能正确反映当今人工智能的真实水平。

从索菲娅大脑的设计者——汉森机器人公司首席科学家戈泽尔(BenGoertzel)的表述来看,索菲娅其实还只是一个聊天机器人,类似苹果的Siri,有一点上下文理解的能力,但都依靠后端调用各种不同的服务。

“索菲娅是机器人硬件和聊天机器人软件的精密结合,它并没有堪比人类的智能来做出这些机智的回应。”戈泽尔表示,“她更像是一个用户界面,可以被编程;针对不同的情况,运行不同的代码。”这些软件配置分为人工智能研究平台、文字复述以及聊天机器人。

在此前的外媒采访中,索菲娅曾“亲口”承认,自己在访谈中妙语连珠的段子是预先设置好的脚本,只要输入关键词就会触发相应的自动回复,她并不理解自己说出来的话。从那时起,学界就一致认为,这种无法独立“思考”的机器人,只能算是人工智能最早期的雏形,而汉森机器人只不过是为这个“愚笨的机器”套上了一个人类的“外壳”。因此对索菲娅最恰当的描述可能是,长了一张“人脸”的聊天机器人。

具体的操作是,当图像识别算法检测到人脸的特定活动(比如大笑)后,可以让另一个算法提取出预先写好的短语,让机器回答,或者利用转录算法把人的反应转化为文本进行分析,让机器的反应与预先写好的一串反应相匹配。戈泽尔承认:“我们确实进行了很多真正的人工智能研究,但是,也混杂了很多抓人眼球的东西。”

但这并不一定意味着索菲娅没有价值。麻省理工学院(MIT)博士生斯皮尔伯格(AndrewSpielberg)认为,索菲娅最大的贡献是把许多不同的部分组合在一起工作。“从理论上讲,腿、脸和回答问题的能力在一起,可能比任何方面单独拿出来都更加令人信服。”斯皮尔伯格说。

对抗“假新闻”

被杨立昆指责的戈泽尔也反唇相讥。“技术圈的那些人妒忌我们红,批评我们是因为没人注意到他们的研究。”戈泽尔在社交媒体上公开表达了他的观点。

社交媒体正在成为政府操纵舆论的推手,而依靠大数据和机器算法,脸书已经不需要人工编辑,热门话题的编辑、推荐和排名可以全部交给机器算法,单纯依靠人工智能就能“做新闻”。这也引发了人工智能制造“假新闻”的巨大争议。

脸书创始人扎克伯格已经发誓,2018年的目标是“修复脸书”。对脸书来说,当务之急是要完善机器算法对热门新闻话题的判断,确保机器算法能够识别假新闻,并把它们从海量的新闻中筛选出来。这种“拣错”的能力对于人工编辑来说是基本能力,但是机器的逻辑存在根本偏差,目前只能判断新闻的“热度”,而无法辨别新闻的“真实度”。这意味着,在算法尚未到达预期效果时,脸书需要一个人工团队来核查新闻的真实性。

桑达尔还指出,在用户的数据被广泛收集和挖掘的同时,收集这些信息并且提供服务的人又可以借助大数据和机器算法的优势,成功隐藏自己的身份。“当科技巨头获得越来越多用户信息时,却对使用它们的软件和技术、通过它们的渠道向用户提供服务的人的信息知之甚少。这就造成了信息的不对称。”桑达尔告诉第一财经记者,“所以个人数据的隐私是个性化和精准化服务的另一面。”

再给机器一些时间

目前的人工智能已经可以完成比较具体的任务了。在索菲娅的案例中,人工智能就能以惊人的精度和速度识别图像中的内容,将言语转化为单词,或者将文本片段从一种语言翻译成另一种语言。此外,人工智能还能分析股票走势,并尝试预测结果。

但是,关于人工智能的争论一直存在。科技公司也正在努力向公众解释人工智能的意义。这也是为何杨立昆面对索菲娅的“搅局”会火冒三丈,强烈谴责她混淆视听。去年脸书发布了一篇长文来解释人工智能的发展计划。扎克伯格暗示脸书可能会使用人工智能来识别某些危险,比如对恐怖袭击、强暴和潜在的自杀风险等做出预警。

杨立昆此前接受第一财经记者专访时说:“学习建立安全的人工智能系统,不是担心它们可能接管世界,而是希望它们可以认真工作,这同样需要一些时间。好比人们花了很久时间才想出如何让飞机不出事故。”



的“搅局者”包括但不限于以下几类:1. 互联网巨头:像谷歌、脸书、亚马逊、微软等在领域投入巨大,并持续推出新产品和服务。2. 创业企业:像开发聊天机器人、语音识别、图像识别等技术的创业公司。3. 学术界:研究机器学习、神经网络、自然处理等技术的学者们。4. 政府和军队:许多国家、政府和军队正在利用技术来实现各种目标,包括网络安全、情报分析和犯罪侦查。5. 其他产业:从制造业到医疗保健和金融服务,各个领域都在探索和应用技术来提高效率和创新。


谁是人工智能的“搅局者”
“土著迷信”、“波将金”、“绿野仙踪”Facebook(脸书)人工智能实验室主任杨立昆(YannLeCun)最近用了一系列耸人听闻的词来形容去年被沙特颁发了“公民身份”的机器人索菲娅(Sophia)。在杨立昆看来,索菲娅就是人工智能的“搅局者”。向左转|向右转 “这就好像是变戏法之于真正的魔术那般混淆视听。

人工智能搅局餐饮界,“黑科技”能成为大趋势吗
1、节约人工成品,产品更加精细化 智能餐厅的出现使得餐饮界又上升了一个新的趋势。智能餐厅的智能化变现为它的一些功能代替了人工,不仅节约了人工成本,在产品的标准化上面也更加精细。比如:炒菜机器人。厨师大多通过自己的“手感”来控制味道,而炒菜机器人却能轻易的做到标准化口味统一。2、提高效率 ...

ai是文学创作的搅局者吗?
说是搅局者,更应该说是严格了文学创作,限制文学创作的一个竞争者。像是一个筛子,重新洗牌文学创作。将AI应用于文字创作,在科技领域早已不算新鲜事。“40多年前的‘748’工程开始,我国便掀起了一场中文信息处理的革命。”山东大学文学院教授盛玉麒介绍,“748”工程即1974年8月国家确立的“汉字信息...

直播答题平台是如何应战辅助答题的人工智能“抢钱” 的?
直播答题平台还有什么方法可以避开AI软件?简仁贤认为,只能在出题上下功夫,多出推理类和理解类的题目,同时采用复杂语句进行提问,增加语义理解的难度。谈到直播答题遭遇AI“搅局”,陈明权说,“直播答题的商业模式其实很厉害,短时间内就吸引到很多流量,并且植入了广告。但哪能想到,人工智能会参与进来,并...

决胜新高考:搅局智慧校园2.0,这只「晓羊」凭什么
晓羊教育董事长兼CEO周林精准捕捉到了这个时机,尤其是在新高考改革的驱动下,走班排课成为其快速切入市场的关键点。周林,这位曾在美国创立并成功运营转学平台和中小学信息化方案商的前人工智能专家,回国后将思库网中国区的走班排课技术积累转化为晓羊教育的核心竞争力。晓羊教育从Blackboard接手成熟的走班...

安防“搅局者”阿里
在战略布局上,千方推出了“一体两翼”发展战略,“一体”是围绕智慧城市保持大数据与人工智能的优势,“两翼”是智慧交通和智能安防两大业务版块,也可以理解为千方与宇视。 此番布局,“恰巧”吻合了阿里的未来战略布局。从这来看,阿里入股,属意料之外,但也在情理之中。 阿里在安防行业“闻名”主要得益于城市大脑的快速...

什么是基于人工智能( AI)的精准教学?
基于人工智能(AI)的精准教学是一种利用技术和数据分析来个性化教学的方法。它可以根据学生的特点、学习风格和需求,提供个性化的教学内容和学习指导。这种教学方式对教师提出了新的要求,下面将讨论其中的一些要求。熟悉技术和数据分析:教师需要熟悉使用相关的技术工具和软件,如学习管理系统、数据分析工具等...

AI人工智能在汽车领域为什么行不通?
拥抱AI的方式 既然智能汽车不可逆,那么剩下的问题就是怎样拥抱了。以传统汽车封闭的程度,远比手机行业固化,但自从出现了Waymo和特斯拉两个搅局者后,全球智能汽车的步子迈得更大了。一般来说,这行业的玩家有几个模式在玩,以Waymo和特斯拉为代表的激进且封闭模式,从L2直接到L4,路上有庞大的车队或...

特斯拉一度蒸发3000亿,华为强力搅局,是否要变天了?
所以不管怎么说,华为进入到这个行业,就是把目前的人工智能跟传统的制造行业相结合。形成新一代的人车交互。只不过目前这个技术还不是非常的成熟,希望华为能够拿出过硬的技术才可以。第三,是否真的会变天。如果说华为的入驻就可以导致这个行业变天,在我看来还没有这么夸张。那么此前苹果的发布会更是...

ARM 如何应对 RISC-V 的搅局?
此举一出,Arm无疑增强了芯片合作伙伴的灵活性和差异化,以支持机器学习、人工智能、自驾车、5G 与物联网等全新边缘运算的机会,让其在与完全开放的精简指令集架构RISC-V的竞争中把握主动权,在自己未来5年重回上市的道路上注入了强心剂。在很多读者看来,这是Arm在Risc-V的攻势下做得又一个应对。RI...

鲤城区13527429523: 人工智能背后的操控者是谁? -
主帖补中: 人工智能只是人类的工具的延伸,背后的操控者还是人类.不过这个仅限于弱人工智能,如果超人工智能产生,他的智慧远超人类,他背后的操控者就不一定会是人类了...

鲤城区13527429523: 机器人时代来临 究竟谁是真正的主人 -
主帖补中: “如果一台机器能骗过人,使人相信它是人而不是机器,那么它就应当被称作有智能的.”——“计算机之父”艾伦·图灵.“人工智能”(Artificial Intelligence,AI),很多人从斯皮尔伯格的电影《人工智能》中,第一次认识了这个词;影片中...

鲤城区13527429523: 谁才是人工智能真正巨头 -
主帖补中: 就日前而言,谷歌的人工智能最厉害,前一段时间的AlphaGO,前几天的Master就是一个例证.

鲤城区13527429523: 人工智能的发展前景如何?
主帖补中: 当前人工智能技术正处于飞速发展时期,大量的人工智能公司雨后春笋般层出不穷,国际的大型IT企业在不断收购新建立的公司,网络行业内的顶尖人才试图抢占行业制高点.人工智能技术发展过程中催生了许多新兴行业的出现,比如智能机器...

鲤城区13527429523: 智能社会的主导者是? -
主帖补中: 科技的发展,总要带来变革,而变革总是伴随着机遇.人工智能有一天会深入到社会的方方面面、成为我们生活和工作至关重要的部分.抓住机遇、抢占先机,做智能的领军者,那么我们离成功的就不远了.中机掌舵者是非常有大智慧的,勇于从自身开始变革是需要魄力的,跟着这样的老大走,会走得更远. 对后来人的话 1.脚踏实地、端正姿态.作为企业的员工,应该以一种主人翁的态度来对待自己的工作,积极主动地发现问题、解决问题. 2.希望每一个今天努力奋斗的新人,有一天都能成为某个领域独当一面的领导者,做一个对社会有所贡献的人.

鲤城区13527429523: 计算机之父和人工智能之父分别是谁? -
主帖补中: 现代电子计算机之父--巴贝奇 1871年,年逾古稀的巴贝奇离开自己毕生为之努力奋斗却未竟的事业辞世,为后人留下了宝贵的遗产——几百张绘有几万个零件的图纸、30多种不同的计算机设计方案和一大堆工作笔记.作为计算机的发明人之—,...

鲤城区13527429523: 人工智能的最初发明人/创始人是嘛? -
主帖补中: 其实这个是很多人共同努力的结果.没有一个具体的人.早期比较有名的人物有: 图灵:计算机界的大哥大,少年天才,结果是个基佬,被人发现,然后给隔离治疗了,最后吃苹果中毒死了,苹果的起源就是来自这个人,所以这个是最有名气的...

鲤城区13527429523: 大数据是人工智能的开始吗 -
主帖补中: 1. 真正尖端的人工智能都是依托于大数据为前提,通过对大数据进行大量运算,使计算机运算结果更符合人的习惯.当下人工智能最顶尖的公司,莫过于google旗下的阿尔法(涉及超级计算、军工、机器人等),而google作为全球最大搜索引擎公司,拥有的庞大数据是任何对手都无法匹敌的.所以人工智能是以技术为壁垒,以数据为依托,两者相辅相成.2. 大数据和人工智能都是未来发展趋势,人工智能要在大数据的基础之上发展吧.现在学好大数据,利用好大数据去发展会更有利

鲤城区13527429523: Alphago属于人工智能应用领域中的() a计算机博弈 b专家系统 c模式识别 d机器翻译 -
主帖补中: Alphago属于人工智能应用领域中的计算机博弈. 阿尔法围棋(AlphaGo)是第一个击败人类职业围棋选手、第一个战胜围棋世界冠军的人工智能机器人,由谷歌(Google)旗下DeepMind公司戴密斯·哈萨比斯领衔的团队开发.其主要工作原...

本站内容来自于网友发表,不代表本站立场,仅表示其个人看法,不对其真实性、正确性、有效性作任何的担保
相关事宜请发邮件给我们
© 星空见康网