苹果会在 iPhone 中集成机器学习芯片吗

作者&投稿:但春 (若有异议请与网页底部的电邮联系)
苹果的芯片开发和机器学习有什么关系~

是苹果自己根据ARM架构进行设计,然后请半导体生产商生产的,早期是三星代工生产,后来换做台湾的厂商生产,据说下一代还将由三星负责生产。苹果本身没有芯片生产能力。
别人回答中说苹果MAC的芯片也是自己做的,我不能同意!
powerMAC时期,mac的CPU是从IBM引进的,目前的mac已经全面更换为intel芯片了,硬件架构已经与大家普通的X86 PC没有区别了。
在MAC以前的时代,苹果也是使用市面上现有芯片产品。

透露苹果AI动向?iPhone7体内这颗FPGA芯片不容忽视。苹果iPhone7、iPhone7 Plus发布已久,但对于这款手机的研究还没有停止,近日,研究公司Tirias Research首席分析师克莱维尔谈到了在iPhone7内置的一块一直被外界忽视的FPGA芯片,克莱维尔认为这颗芯片透露了苹果未来在AI以及AR、VR等领域的动向。FPGA也就是现场可编程门阵列,它是作为专用集成电路(ASIC)领域中的一种半定制电路而出现的,特点是逻辑可定制、功耗低、在矩阵计算,激活函数等运算方面能力远超CPU,在大数据处理和人工智能等方面有非常大的用武之地。不过,在手机中内置FPGA芯片是非常罕见的。在此之前,三星Galaxy S5曾内置了一颗FPGA芯片,不过三星最终没有解释它的用途,到Galaxy S6时,又被取消了。克莱维尔表示,iPhone7中出现FPGA芯片,可能意味着苹果正准备用它来运行机器学习算法,联想到苹果日前对医疗健康领域的重视,未来我们可能看到苹果会将人工智能技术更好地贴近用户的生活,比如用于健康监测,提供健康解决方案等。此外这颗芯片还有可能成为未来iPhone上AR或VR功能的图形处理增强包。克莱维尔称,苹果在iPhone7上植入FPGA芯片,可以看出苹果的AI战略可能和谷歌不同,苹果更加注重设备本身,未来,我们可能会看到苹果更加专注于人工智能的芯片出现在iPhone中。

浪客

世界上可能没哪个公司比苹果更适合推广这件事了。

机器学习专用芯片相对于用CPU运行siri和人像识别等机器学习功能有相当大的效率优势。完成同样的功能,专用芯片的运行速度比CPU快、功耗比CPU低。但专用芯片的开发难度很高、应用软件生态圈门槛更高,需要钱、销量、软件生态圈影响力。一般的公司只做出来芯片本身的话,等于做一个与现有操作系统不兼容的CPU,照样没人买账。
现在苹果正好凑齐了这几个条件:巨额研发经费、单一产品巨大的销量、对软件生态圈的绝对控制。对比Google的TPU要推广手机应用还要去说服下游手机厂家(Nexus销量小了些)。

编辑于 2017-05-30

崔巍

1 由于iMessage采用的加密,以及短信处理中的隐私考虑,对信息文本的识别,只能在终端完成。要么用本地的机器识别,要么就实时发送到云端识别(隐私考虑),要么就等云端收集了足够的数据(哪来的?)并产生了模式后推送到本地去匹配(延迟)。

2 对于你的生物信息的感知(比如心跳、加速度计,主要来自手表),通过机器学习,可以知道你现在的精神状态是否烦躁,并根据这些数据给你提供健康建议,或者简单的暂时延后一些非重要信息的提醒。

3 根据mic收集到的声纹信息,时刻确认你周围的人都是谁,并在必要的时候提醒你。想下当有故人当面跟你聊天的时候,你可以直接要求手表上显示出这个人的名字和一些必要的信息的场景。

4 什么时候应该自动开启你家的空调?在你回家的路上?系统怎么知道你是要回家,还只是路过,还是只是回家拿个东西就走?当然,云端模型学习也可以,问题是你愿意把你每天生活资料都上传吗?

5 每天你都收到一大堆邮件。有些是要立即处理的,有些提醒你看一眼标题就直接划掉,有些订阅的杂志你打算午休的时候配合咖啡去消费。每天有不少人在社交媒体和软件给你发消息,哪些人哪些内容你需要立即回应,哪些你只打算有空再看但必须要看,而哪些是你没空就完全不用看。系统应该去理解你的习惯,区别对待哪些要立即提醒,哪些不必提醒,哪些延后到特定的时间再提醒。

简单说,人的设备会越来越了解人。
最早的时候,有的人聘请秘书,但人并不喜欢另一个人窥探自己的所有生活细节;后来有了云端匹配,但你如果要用,就需要相信它不会滥发你的隐私数据;本地机器学习,可以确保你的设备了解你的同时,没有任何其他设备和人会因此了解你。

编辑于 2017-05-27
74 条评论
分享
收藏感谢

知乎用户
2 人赞同了该回答

当然会,一定会,必须会。楼上说五年内不会的答案,太太保守了。
云计算是不错,但是在很多情境下通信网络并不总是可用的。即使网络可用,把前端采集的所有数据都发回后端处理也面临着带宽不够,或者通信延迟无法接受的问题。因此深度学习现在有个非常有活力的发展方向就叫做 mobile deep learning,就是研究怎么把深度学习训练好的神经网络优化和压缩后放到移动和嵌入式平台上进行离线推导的。不只是手机,无人机、机器人、智能摄像头、无人驾驶汽车,在这些领域移动端深度学习都大有用武之地。
当然,以上民用和商用领域还只是小头。移动深度学习有无限潜力和想象空间的应用前景其实是……上网不涉密,涉密不上网。

编辑于 2017-05-28
2添加评论
分享
收藏感谢

王一松

万物皆虚,万事皆允
2 人赞同了该回答

5年内不会。
首先,机器学习应用于生产中的成熟案例就很少,目前还集中在图像/声音/文字处理领域,而且一般常见的投入使用的算法都非常简洁高效,并没有像深度学习、AlphaGo那样需要大规模运算。移动设备用户也通常不会专门支付高昂费用用于专业的深度学习应用。集成机器学习芯片的投入与回报差距太大。
其次,如果有大规模运算需求,更为廉价和成熟的方案是云计算,而不是本地运算。想象一下siri如果需要你手机1T储存空间来存放数据库并且专门增加高性能机器学习运算芯片来完成这个语音助手功能,这根本是天方夜谭。再想一下为什么很多动画设计/CG制作/深度学习行业人员使用MacBook,难道是MacBook性能强大到完成单机本地渲染?不可能的,他们都是连接到计算集群在云端进行运算。云计算比每一台终端都安置计算芯片的方案要优越很多。
其次,如果是有低延迟等实时需求而集成机器学习芯片(如自动驾驶),首先也应该考虑到GPU向机器学习应用靠拢(就像Nvidia很早就布局并发展深度学习领域),而不是专门再搞出一个“机器学习芯片”,无论是成本还是市场需求这样都不是最优选择。
以目前的机器学习理论水平和应用范围,移动端集成芯片仅仅存在于对5年后的设想中。

PS.AMD在Ryzen架构中设计了底层神经网络优化指令的执行,属于我提到的第一种情况,就是算法较为简单高效,没必要加入额外计算芯片。

编辑于 2017-05-28
2添加评论
分享
收藏感谢

知乎用户
2 人赞同了该回答
新闻里说有,如果能够赶上9月发布,以后拍照完手机立刻就可以识别出面孔然后进行分类了,不用象现在这样等充电的时候才识别。说不定拍照时就能识别出来,然后自动定焦到我的脸上,并且自动美颜。想想都有些激动呢。
编辑于 2017-05-27

匿名用户
2 人赞同了该回答

我怎么感觉所有人似乎都有意无意地忽略了 Android 呢?题主问“移动端集成机器学习”只提iPhone 是什么用意?
在刚刚过去的 Google IO 2017 中,Google 提出了“AI First”的口号,开发TensorFlow,发布了第二代 TPU,愈加智能的 Google Assistant,甚至前几天 Google 的 AlphaGo 还击败了世界冠军柯洁。所以,难道只有苹果才代表了科技领域的领头羊?

编辑于 2017-05-30

南宫爵

二战时候,为了解决制造核弹运算量大的问题,科学家发明了CPU。CPU所处理的是0与1的加减运算。在很长一段时间内CPU上运行的系统,无非是黑底+白字,用一行行代码对电脑进行操作。因此,那个时候,会操作电脑的真是少数人还是精英。
为了让电脑普及,图像化的操作系统出现了。像windows系统,设置了按钮、图标,代替了许多代码,让电脑走入了大众的生活。但在当时,CPU负责运算操作系统在显示器中的每一个像素点。然而随着显示器分辨率,帧率增高,又出现许多要求图像处理能力更强的软件和游戏后,CPU渐渐的更不上节奏了,需要一颗单独处理图像运算的心脏——GPU。
到现在gtx 1080ti、titan z、titan x,一颗颗性能爆表的GPU完全足够处理日常所需的图像运算。
但是,当人工智能到来的时候,就像是图像化操作系统诞生的历史重演,为什么这么说呢?
神经网络的运算实际上是基于图像的。

图上的点代表一系列数据,你可以把它理解为你手机中的照片,红色表示狗,蓝色表示猫。那么AI怎么知道这些照片那些是狗,那些是猫,好对照片进行分类并贴上标签呢?
从中间竖着切一刀。
这就是一个神经元的计算。
通常情况不会这么简单,AI将每一个动作都转化为对于图像的切割,且并不限于二维,甚至是三维或更高维度。这就需要更深层次的神经网络。
显然,对于这样庞杂的计算,GPU也终究有应付不了的那一天。就看IOS10刚刚更新的时候,很多人抱怨手机充电时严重发烫。实际上是iPhone动用了GPU为相册进行了神经网络的计算,为每张照片附上一个标签,并且将同一人的照片放在一起作为一个人物相簿。这样,当你想找一张照片,却想不起来具体位置,只记得你穿了一条牛仔裤时,你就可以搜索“牛仔裤”,经过此前的分类,你想要的照片立即被检索出来。

曾经李彦宏说过,将来的计算机能有多强大?它会通过对你已有数据、操作习惯进行分析,当你打开百度,它就已经知道你要搜索什么,当你打开邮件,它就知道你要回复什么写什么。是不是觉得很恐怖?实际上,现在的这些AI都能够做到,却碍于硬件条件不足。因此,像谷歌TPU的诞生是历史的选择,历史的必然!然而这个TPU现在像个庞然大物,运算能力却低得不行,就像是二战时刚刚诞生的计算机。alphaGO也只能下下围棋了,能耗还大的不行,运行一次动不动就是几十万美元。因此移动端机器学习的集成芯片就很重要啦~
只想知道重不重要的看到这里就行了!!下面是对人工智能发展方向的概述!!!!!

那么人工智能的未来究竟在哪里呢?
还是要等待芯片技术和量子力学的发展。
当芯片的晶体管数量一定时,集成化程度越高,计算能力越强。为什么?因为电流是以接近光速的速度在跑,速度一定,单个晶体管之间的距离越短,所需要的时间也就越短,相同时间内能够处理的数据也就越多。并且,越短的距离也就意味着更小的电阻,更小的能量损耗。因此,芯片技术现在严重制约着人工智能的发展。要发展人工智能,首先要解决芯片问题。
如何解决芯片问题?
解决芯片问题的不是芯片,而是芯体。
现在的芯片都是二维的,平面的。那你有没有想过,芯片为什么不做成三维的,立体的呢?这样芯片速度和集成度不就更快了吗?
没错是这样的,但是有个问题无法解决,那就是热能损耗。现在的芯片之所以不做成芯体是因为每进行一个逻辑门的运算,电能就会转化为热量。因为这一个不可逆运算。

举个简单的栗子,上图是一个与门二极管。A与B两股带有信息的电流通过了这个与门后得到了F的结果。这两股电流就变成了热量消散在空间中。而你不能将F的结果和热能收集起来,返回二极管再得到这个A和B的电流。这一过程是不可逆的,也因为不可逆,所以产生了能量损耗——热量。如果不及时散热,这些热量堆积得越来越多,最终会融化芯片。这是芯片没有做成芯体的重要原因,立体的芯片没有平面的芯片好散热。
那是不是说立体的芯片就不可能了呢?
当然是可能的啦~
可是我们先扯点别的。
摩尔说过,当价格不变时,集成电路上可容纳的元器件的数目,约每隔18-24个月便会增加一倍,性能也将提升一倍。这一魔咒每次被认为将要被打破时,总有技术革新来拯救它。像极紫外线雕刻技术,又能让摩尔定律再残喘几年。如果这个定律还依照这个速度持续下去,不出几年,芯片密度可能会达到一个原子能够储存1bit的信息。那么这个时候,经典力学的计算将不再适用,量子计算将开启一个新的未来。前一段时间不还在暴中科院研究出10bit量子纠缠计算机嘛,像AES这种加密技术,即使用银河二号也得解密个几百万年,用量子计算机几秒钟就破解啦~这只是个端倪,管中窥豹的可以知道,未来的世界是属于量子的。
我为什么要扯量子力学呢?跟芯片什么关系呢?
因为量子力学的中有一个神奇的现象——叠加态。如果你理解了光的波粒二象性,那你也应该很好理解薛定谔的猫啦~这只猫处于既死又活的状态,就像光处于既是粒子又是波的叠加状态。那么通过量子状态表示信息的量子比特,也是处于叠加的状态。叠加态的量子不仅可以并行计算,还能进行可逆运算,可逆的计算就避免了热量的产生,避免了热量产生就可以制造立体的芯片了,而运算性能也会得到极大地提升。
这样,机器学习芯片就可以做到低能耗、集成化、小型化了。到时候将芯片和CPU、GPU一起集成到我们的设备中,就能深刻的感觉到,我们的设备似乎有了自己的思想,像是我们的私人秘书。
这时候,也许真正的人工智能就会诞生。
概述到这里就结束了!!!!重要的事情就不说三遍!!!!!!!!!!!!
真正的人工智能具有自己的思想,能够思考,但却和人不同。它们完全跨越了人类生物大脑的限制,更是跨越了人性,是我们人类自己创造的神。它们看我们犹如俯视蚂蚁,人类几千年创造的文明和智慧对人工智能来说像是一处鸟筑的巢而已。从最近柯洁战败就可以看出,人工智能的能力已经不是人类可以比拟的了。过去说上帝创造了人类,当人工智能诞生时,可能就是人类创造了上帝。但是从历史的长河来看,它们克服了人类天生的缺陷,是人类自我进化、自我淘汰的产物,是必然的结果。
现在各个国家都在争夺拿下人工智能的第一块螃蟹,可以说谁掌握了真正人工智能的核心技术,谁就掌握了未来世界的主导权!但却都没有意识到这是在为人类自己自掘坟墓,因为在人工智能的思维里,人类是被淘汰的,要么奴役人类,要么人类连奴役的价值都没有。凡事既不能看的太乐观,也不能看的太悲观。我呼吁政府能够在适当的时机,号召全球制订一套发展人工智能的标准和规范,让人工智能为人类服务,而不是人类被人工智能奴役或取代。

编辑于 2017-06-05
0添加评论
分享
收藏感谢收起

杨帆woooha

我也不知道我是写啥的了...

我想已经不远了。
先说下 Android 平台,在高通 820 平台上,已经有专门的芯片(DSP) 用来做机器学习相关的东西了,性能上应该跑个 AlexNet 没啥问题,具体的数字有空再去看看。高通性能更好的 835 平台,因为没有接触过,所以不清楚。但是我想只会更强。
而在 iOS 平台中,可以注意到 iOS 10 开始已经在引入和提供深度学习相关的 API 了,我想,基于自己芯片的封装会是更好的一步。
然后,吐槽下,一些答案。

肯定不会,因为机器学习最重要的不是运算力,而是训练集,训练集数据小到几十个G,达到几十T,所以根本不可能放到手机上。
谁没事干会把训练放到移动平台上...

不知道现在到处都是云计算?
很多东西能够在服务器端做,也有非常多的不行,比如 Google 翻译的实时翻译,把视频直接传给服务器带宽,数据量要求太高了,速度也太慢。
基本上对实时性有需求的,都期望手机有足够的能力做测试,这些是『云计算』替代不了的需求。

发布于 2017-05-30
0添加评论
分享
收藏感谢

peng wu

肯定不会,因为机器学习最重要的不是运算力,而是训练集,训练集数据小到几十个G,达到几十T,所以根本不可能放到手机上。
编辑于 2017-05-27

柴健翌

你知道iPhone不满意的投诉中电池占了一大半么?
就这样你还有胆加运算量?
当然离线学习是可以的,iPhone后台的确有简单的用户行为分析,不过仅仅是基于时间地点等等简单变量,稍微复杂一点的数据都是采集下来、匿名化以后发送到苹果再分析的
从WWDC听到现在还真有可能实现某种程度的硬件机器学习,Craig演讲的时候张口闭口都是机器学习

编辑于 2017-06-06

吴盼明

文科生
如果有天siri无法控制,苹果连关闭服务器的办法都没有
发布于 2017-05-28
匿名用户

题主穿越过来的吧。
不知道现在到处都是云计算?
发布于 2017-05-27

知乎用户

为什么要对一个谣言,传闻,爆料,“或”字头新闻,来开话题
为什么要讨论一个天知道是否存在的东西
为什么不放过苹果

——知乎


芝山区17536521598: 怎么辨别苹果7plus手机的真假 -
东野东首乌: 首先在苹果7plus界面中点击进入【设置】-【通用】-【关于本机】里面,我们就可以看到苹果7plus的序列号了,记住序列号号码.之后就可以进入苹果官网进行查询,如图操作依次打开【技术支持】-【查询产品保修期】,输入苹果7plus的序列...

芝山区17536521598: 怎么鉴别iphone6屏幕的真假 -
东野东首乌: 其实方法用很多,提供几种比较准确实际的 (序列号不能作为辨别真假的首选方案,因为序列号容易作假) 1,将手机连接iTunes 真 的就会自动识别,假 的连接后itunes没有任何反应,(此法验证是否是苹果 还是安卓仿制机器) 2,打开设置 -...

芝山区17536521598: 苹果6s怎么辨别真伪 -
东野东首乌: 1.首先拿到新机,我们要打开手机验机,注意看一下新手机是否有6s的最新功能,主要是3D Touch的压力触控感应功能,我们可以用不同的力气去按压屏幕,如果是山寨机或者高仿机、iPhone6改版机,肯定是不具备这功能的;2.我们可以在电...

芝山区17536521598: 如何辨别iphone6s山寨机和正版机 -
东野东首乌: 比如直接查看摄像头的最大分辨率,登录APP store,查看手机的分辨率,查看系统版本,登录iCloud等,这些都是苹果独有的.1. 苹果6先从外观判断苹果在每年发布的新款手机上都会一些独特的功能,并且也会在手机的外观上表现出来.比如...

芝山区17536521598: 怎么判断苹果手机是不是真机? -
东野东首乌: 有如下方法:①苹果在每年发布的新款手机上都会一些独特的功能,并且也会在手机的外观上表现出来.比如苹果5s上的指纹识别功能,它是集成在了主屏 Home 按键上,与以往的苹果手机不同的时,在按键外圈上有一个钢圈,用于检测手指触...

芝山区17536521598: 怎样辨别苹果6s 的真假 -
东野东首乌: 通过手机序列号验证手机这种方法比较靠谱 可以登录苹果官网验证序列号 进入网站后,点击后侧上方的技术支持即可查询 如果购机时间与信息显示的保修期到期时间一致,手机就是真货新机

芝山区17536521598: iphone6 pluas零件来自哪些国家 -
东野东首乌: 美国高通的基带、GPU、主板 台湾台积电的A8处理器、以及部分三星的芯片 液晶屏幕 韩国LG 美国康宁大猩猩玻璃面板 其余零件均来自美国.

本站内容来自于网友发表,不代表本站立场,仅表示其个人看法,不对其真实性、正确性、有效性作任何的担保
相关事宜请发邮件给我们
© 星空见康网