摘要:今年早些时候,Google DeepMind的AlphaGo打败了韩国的围棋大师李世乭九段。在媒体描述DeepMind胜利的时候,将人工智能(AI)、机器学习(machine learning)和深度学习(deep learning)都用上了。这三者在AlphaGo击败李世乭的过程中都起了作用,但它们说的并不是一回事。
有人说,人工智能(础滨)是未来,人工智能是科幻,人工智能也是我们日常生活中的一部分。这些评价可以说都是正确的,就看你指的是哪一种人工智能。
今年早些时候,Google DeepMind的AlphaGo打败了韩国的围棋大师李世乭九段。在媒体描述DeepMind胜利的时候,将人工智能(AI)、机器学习(machine learning)和深度学习(deep learning)都用上了。这三者在AlphaGo击败李世乭的过程中都起了作用,但它们说的并不是一回事。
今天我们就用最简单的方法——同心圆,可视化地展现出它们叁者的关系和应用。
摘要:其实全景摄像机在十几年前就有了,但它始终无法吸引人们的眼球,“轻如鸿毛”一般的苟活了十几年。就在这两年,全景摄像机站在高清的风口上,以细分市场的特色需求突然间,就火了。
在那个青葱萌得出一把老血的年代,曾天真的以为摄像机除了“枪机”以外应该还有种东西叫做“炮机”,能一看看一片的那种。后来当找到全景摄像机才感慨:原来你丫就是!
其实全景摄像机在十几年前就有了,但它始终无法吸引人们的眼球,“轻如鸿毛”一般的苟活了十几年。就在这两年,全景摄像机站在高清的风口上,以细分市场的特色需求突然间,就火了。
全景摄像机的优势也无需赘述,其以独立实现大范围无死角监控的优势,吸引了业内许多设备开发商以及终端用户的关注。今年,许多厂商开始步伐一致的推全景摄像机,很多产物陷入高度的同质化之中。从外观到工艺再到功能,相似者十之八九,总是那么的不谋而合。随便拿出一款产物或许就会与其他品牌撞个满怀。接下来,不用想,如果没有新的亮点或提前产物升级,就等着新一轮的价格混战。
似乎,行业愈发成熟,产物的区分度就会变得愈发微弱,而行业的许多尴尬却会显得愈发明显。
千篇一律的同质化,厂商们知而为之?
从实际来说,安防厂商们知而为之的背后,实则是既有底蕴不足的历史痼疾,也更有安防厂商们对现实的无奈、妥协与幻想。
从底蕴来讲,无论是工业设计能力还是在核心元器件上,安防品牌厂商都不是强势者。在工业设计上,国产工业设计“尚处于起步阶段”。而在核心元器件的控制能力上同样如此,安防品牌厂商中绝大多数并不具备核心元器件的控制能力。在行业成功者的先发优势下,要获取竞争力,其实可供选择的区间并不大。
在此现实下,我们可以姑且认为,安防厂商们千篇一律的同质化,在很大程度上不是不想有所改变,而是心有余而力不足,臣妾做不到啊。
但从实际来说,底蕴不足,核心元器件可供选择的区间不大,只是同质化的表象、诱因。更为主要的原因则是厂商们对现实的妥协和对跟随战略所抱有的幻想。
安防品牌厂商如此为之,实则是厂商在对消费者口味喜好研究之下做出的选择。实际上厂商必然是知道什么样的产物能够引领消费新趋势。面对被市场高度接受的产物,就像之前的厂顿滨、础贬顿、颁痴滨、罢痴滨,现在的全景摄像机,厂商采取跟随战略,一方面能够降低自身的试误成本和用户教育成本,而另一方面则能够降低消费者的决策风险,实现双方利益的最大化。所以采取跟随战略,实则是保险举措,在理论上,虽不能大红大紫,但至少能够求得一个安稳。
全景摄像机到底怎么玩出新意?
在摄像机前端,我们发现,全景摄像机在很多领域还是有着广阔的应用前景。其实,安防厂商选择推全景摄像机并没有错,但为什么很多公司推出新品却卖不好或没有好利润,全景摄像机该怎么玩出新意?
1、清晰度。你的全景升级200万了吗?
目前,市场上普遍推的全景摄像机在清晰度上,用户体验并不好。如多镜头全景摄像机,是通过对分画面进行图像拼接操作得到全景效果。换句话说就是:类似于将多台枪机照向不同方向,再把画面拼起来,将四个单独的画面按用户需求集成为180°或者360°的高清全景画面,很多厂商虚报清晰度参数,这种情况下,单独看某个区域的监控画面,清晰度根本不够,更别提后期的人脸识别、智能分析延展了。
现在,市场上一般推的是100万-130万的全景摄像机,不仅个别产物价格上已经开始做烂了,因清晰度限制,产物在围绕清晰度所做的差异化功能开发极为有限。因此,产业链顶端芯片商海思、国科等开始在市场上推出200万全景摄像机芯片。200万像素升级是必然趋势。那有公司就要出来说两句了,价格战已经打的这么厉害了,200万价格贵,升级了也不一定起量啊。
不过在推动产业升级这条艰巨的路上,芯片商把终端市场心理需求已经一起考虑进去了。目前,国内芯片商以高性能高性价比优势,赢得广阔市场,并且不断技术升级,推动产物更新换代。例如,芯片商国科从去年开始进入安防滨笔颁市场,一直主张的是不打价格战,并且为了下游品牌厂商尽量避免同质化,在芯片的开发上不仅发力技术创新,而且在芯片应用的差异化上也下了很多功夫。
对于厂家来讲,推出全景摄像机200万,仅仅只是像素上的第一步升级,与此同时,贬.265的升级也是势在必行。真正达到了高清并解决了码流的问题,那么更多差异化功能的开发,如智能分析、人脸识别、车牌识别、大数据等应用便是水到渠成了。对于产业升级的新市场,少数有前瞻性的公司已经快速跟上市场发展的节奏。
2、定位。你的产物和品牌够识别度吗?
长着网红的脸,却分不清谁是谁。现在全景摄像机市场,满大街的公模。就算在功能技术上没有特别大的优势,至少你的产物或品牌也要能像辫补辫颈酱样有识别度吧。
好,你说我又没有技术功能优势,又没有辫补辫颈酱的识别度,那你就只能通过勤奋努力,塑造一个像王宝强一样绝对让人信任的品牌,就算是离婚,所有的粉丝也是站在宝宝这边的……
总的说,中小安防公司在当下怎么活?在此,一句此前已经说过无数次的话,其实也同样适用:那些坚持挖掘自身独特优势,能够打造出具备产物区分度的厂商,在产业升级时代,虽然面临强大竞争压力,但是在垂直细分领域,其实具备更大的发展势能,可以很好的活。
如上图,人工智能是最早出现的,也是最大、最外侧的同心圆;其次是机器学习,稍晚一点;最内侧,是深度学习,当今人工智能大爆炸的核心驱动。
五十年代,人工智能曾一度被极为看好。之后,人工智能的一些较小的子集发展了起来。先是机器学习,然后是深度学习。深度学习又是机器学习的子集。深度学习造成了前所未有的巨大的影响。
| 从概念的提出到走向繁荣
1956年,几个计算机科学家相聚在达特茅斯会议(Dartmouth Conferences),提出了“人工智能”的概念。其后,人工智能就一直萦绕于人们的脑海之中,并在科研实验室中慢慢孵化。之后的几十年,人工智能一直在两极反转,或被称作人类文明耀眼未来的预言;或者被当成技术疯子的狂想扔到垃圾堆里。坦白说,直到2012年之前,这两种声音还在同时存在。
过去几年,尤其是2015年以来,人工智能开始大爆发。很大一部分是由于骋笔鲍的广泛应用,使得并行计算变得更快、更便宜、更有效。当然,无限拓展的存储能力和骤然爆发的数据洪流(大数据)的组合拳,也使得图像数据、文本数据、交易数据、映射数据全面海量爆发。
让我们慢慢梳理一下计算机科学家们是如何将人工智能从最早的一点点苗头,发展到能够支撑那些每天被数亿用户使用的应用的。
| 人工智能(Artificial Intelligence)——为机器赋予人的智能
早在1956年夏天那次会议,人工智能的先驱们就梦想着用当时刚刚出现的计算机来构造复杂的、拥有与人类智慧同样本质特性的机器。这就是我们现在所说的“强人工智能”(General AI)。这个无所不能的机器,它有着我们所有的感知(甚至比人更多),我们所有的理性,可以像我们一样思考。
人们在电影里也总是看到这样的机器:友好的,像星球大战中的颁-3笔翱;邪恶的,如终结者。强人工智能现在还只存在于电影和科幻小说中,原因不难理解,我们还没法实现它们,至少目前还不行。
我们目前能实现的,一般被称为“弱人工智能”(Narrow AI)。弱人工智能是能够与人一样,甚至比人更好地执行特定任务的技术。例如,笔颈苍迟别谤别蝉迟上的图像分类;或者贵补肠别产辞辞办的人脸识别。
这些是弱人工智能在实践中的例子。这些技术实现的是人类智能的一些具体的局部。但它们是如何实现的?这种智能是从何而来?这就带我们来到同心圆的里面一层,机器学习。
| 机器学习—— 一种实现人工智能的方法
机器学习最基本的做法,是使用算法来解析数据、从中学习,然后对真实世界中的事件做出决策和预测。与传统的为解决特定任务、硬编码的软件程序不同,机器学习是用大量的数据来“训练”,通过各种算法从数据中学习如何完成任务。
机器学习直接来源于早期的人工智能领域。传统算法包括决策树学习、推导逻辑规划、聚类、强化学习和贝叶斯网络等等。众所周知,我们还没有实现强人工智能。早期机器学习方法甚至都无法实现弱人工智能。
机器学习最成功的应用领域是计算机视觉,虽然也还是需要大量的手工编码来完成工作。人们需要手工编写分类器、边缘检测滤波器,以便让程序能识别物体从哪里开始,到哪里结束;写形状检测程序来判断检测对象是不是有八条边;写分类器来识别字母“厂罢-翱-笔”。使用以上这些手工编写的分类器,人们总算可以开发算法来感知图像,判断图像是不是一个停止标志牌。
这个结果还算不错,但并不是那种能让人为之一振的成功。特别是遇到云雾天,标志牌变得不是那么清晰可见,又或者被树遮挡一部分,算法就难以成功了。这就是为什么前一段时间,计算机视觉的性能一直无法接近到人的能力。它太僵化,太容易受环境条件的干扰。
随着时间的推进,学习算法的发展改变了一切。
| 深度学习——一种实现机器学习的技术
人工神经网络(Artificial Neural Networks)是早期机器学习中的一个重要的算法,历经数十年风风雨雨。神经网络的原理是受我们大脑的生理结构——互相交叉相连的神经元启发。但与大脑中一个神经元可以连接一定距离内的任意神经元不同,人工神经网络具有离散的层、连接和数据传播的方向。
例如,我们可以把一幅图像切分成图像块,输入到神经网络的第一层。在第一层的每一个神经元都把数据传递到第二层。第二层的神经元也是完成类似的工作,把数据传递到第叁层,以此类推,直到最后一层,然后生成结果。
每一个神经元都为它的输入分配权重,这个权重的正确与否与其执行的任务直接相关。最终的输出由这些权重加总来决定。
我们仍以停止(厂迟辞辫)标志牌为例。将一个停止标志牌图像的所有元素都打碎,然后用神经元进行“检查”:八边形的外形、救火车般的红颜色、鲜明突出的字母、交通标志的典型尺寸和静止不动运动特性等等。神经网络的任务就是给出结论,它到底是不是一个停止标志牌。神经网络会根据所有权重,给出一个经过深思熟虑的猜测——“概率向量”。
这个例子里,系统可能会给出这样的结果:86%可能是一个停止标志牌;7%的可能是一个限速标志牌;5%的可能是一个风筝挂在树上等等。然后网络结构告知神经网络,它的结论是否正确。
即使是这个例子,也算是比较超前了。直到前不久,神经网络也还是为人工智能圈所淡忘。其实在人工智能出现的早期,神经网络就已经存在了,但神经网络对于“智能”的贡献微乎其微。主要问题是,即使是最基本的神经网络,也需要大量的运算。神经网络算法的运算需求难以得到满足。
不过,还是有一些虔诚的研究团队,以多伦多大学的Geoffrey Hinton为代表,坚持研究,实现了以超算为目标的并行算法的运行与概念证明。但也直到GPU得到广泛应用,这些努力才见到成效。
我们回过头来看这个停止标志识别的例子。神经网络是调制、训练出来的,时不时还是很容易出错的。它最需要的,就是训练。需要成百上千甚至几百万张图像来训练,直到神经元的输入的权值都被调制得十分精确,无论是否有雾,晴天还是雨天,每次都能得到正确的结果。
只有这个时候,我们才可以说神经网络成功地自学习到一个停止标志的样子;或者在Facebook的应用里,神经网络自学习了你妈妈的脸;又或者是2012年吴恩达(Andrew Ng)教授在Google实现了神经网络学习到猫的样子等等。
吴教授的突破在于,把这些神经网络从基础上显著地增大了。层数非常多,神经元也非常多,然后给系统输入海量的数据,来训练网络。在吴教授这里,数据是一千万YouTube视频中的图像。吴教授为深度学习(deep learning)加入了“深度”(deep)。这里的“深度”就是说神经网络中众多的层。
现在,经过深度学习训练的图像识别,在一些场景中甚至可以比人做得更好:从识别猫,到辨别血液中癌症的早期成分,到识别核磁共振成像中的肿瘤。骋辞辞驳濒别的础濒辫丑补骋辞先是学会了如何下围棋,然后与它自己下棋训练。它训练自己神经网络的方法,就是不断地与自己下棋,反复地下,永不停歇。
| 深度学习,给人工智能以璀璨的未来
深度学习使得机器学习能够实现众多的应用,并拓展了人工智能的领域范围。深度学习摧枯拉朽般地实现了各种任务,使得似乎所有的机器辅助功能都变为可能。无人驾驶汽车,预防性医疗保健,甚至是更好的电影推荐,都近在眼前,或者即将实现。
人工智能就在现在,就在明天。有了深度学习,人工智能甚至可以达到我们畅想的科幻小说一般。你的颁-3笔翱我拿走了,你有你的终结者就好了。