人工智能与设计零基础手册!发展历史和定义+底层设计阐述

2017/11/08

编者按:今年年初出于个人兴趣,我开始了对人工智能的研究。为了更好理解人工智能和设计的关系,我开始学习机器学习、深度学习、Alexa开发等知识,从当初觉得人工智能只会让大部分设计师失业,到现在觉得人工智能只是一个设计的辅助工具,也算是成长了不少。这次希望能将积累的知识写成一本电子书,没别的,因为字太多,更重要的是这样很酷。由于写作时间可能太长,互联网每天都在变化,一些比较前沿的思考可能转眼成为现实,所以先把前四章陆续发出来。前四章主要讲了现在人工智能的基础知识、底层设计、互联网产品设计以及人工智能与设计的关系,后面会通过3~4章详细分析人工智能对不同行业设计的影响。

目前考虑的领域是室内设计、公共设计和服务设计。后续会在Github上对现有内容进行更新迭代(Github链接以后再公布),等全部内容写完会把这些内容制作成完整的电子书,敬请期待。

这部分是1-2章。

人工智能的发展历史

说起人工智能这词,不得不提及人工智能的历史。人工智能的概念主要由Alan Turing提出:机器会思考吗?如果一台机器能够与人类对话而不被辨别出其机器的身份,那么这台机器具有智能的特征。同年,Alan Turing还预言了存有一定的可能性可以创造出具有真正智能的机器。

说明:Alan Turing(1912.6.23-1954.6.7)曾协助英国军队破解了德国的著名密码系统Enigma,帮助盟军取得了二战的胜利。因提出一种用于判定机器是否具有智能的试验方法,即图灵试验,被后人称为计算机之父和人工智能之父。

AI诞生

1956年,在达特茅斯学院举行的一次会议上,不同领域「数学、心理学、工程学、经济学和政治学」的科学家正式确立了人工智能为研究学科。

△ 2006年达特茅斯会议当事人重聚,左起:Trenchard More、John McCarthy、Marvin Minsky、Oliver Selfridge、Ray Solomonoff

第一次发展高潮(1955年—1974年)

达特茅斯会议之后是大发现的时代。对很多人来讲,这一阶段开发出来的程序堪称神奇:计算机可以解决代数应用题、证明几何定理、学习和使用英语。在众多研究当中,搜索式推理、自然语言、微世界在当时最具影响力。

  • 大量成功的AI程序和新的研究方向不断涌现,研究学者认为具有完全智能的机器将在二十年内出现并给出了如下预言:
  • 1958年,H. A. Simon,Allen Newell:十年之内,数字计算机将成为国际象棋世界冠军。十年之内,数字计算机将发现并证明一个重要的数学定理。
  • 1965年,H. A. Simon:二十年内,机器将能完成人能做到的一切工作。
  • 1967年,Marvin Minsky:一代之内……创造「人工智能」的问题将获得实质上的解决。
  • 1970年,Marvin Minsky:在三到八年的时间里我们将得到一台具有人类平均智能的机器。

美国政府向这一新兴领域投入了大笔资金,每年将数百万美元投入到麻省理工学院、卡耐基梅隆大学、爱丁堡大学和斯坦福大学四个研究机构,并允许研究学者去做任何感兴趣的方向。

当时主要成就:

  • 人工神经网络在30-50年代被提出,1951年Marvin Minsky制造出第一台神经网络机。
  • 贝尔曼公式(增强学习雏形)被提出。
  • 感知器(深度学习雏形)被提出。
  • 搜索式推理被提出。
  • 自然语言被提出。
  • 首次提出人工智能拥有模仿智能的特征,懂得使用语言,懂得形成抽象概念并解决人类现存问。
  • Arthur Samuel在五十年代中期和六十年代初开发的国际象棋程序,棋力已经可以挑战具有相当水平的业余爱好者。
  • 机器人SHAKEY项目受到了大力宣传,它能够对自己的行为进行「推理」;人们将其视作世界上第一台通用机器人。
  • 微世界的提出。

第一次寒冬(1974年—1980年)

70年代初,AI遭遇到瓶颈。研究学者逐渐发现,虽然机器拥有了简单的逻辑推理能力,但遭遇到当时无法克服的基础性障碍,AI停留在「玩具」阶段止步不前,远远达不到曾经预言的完全智能。由于此前的过于乐观使人们期待过高,当AI研究人员的承诺无法兑现时,公众开始激烈批评AI研究人员,许多机构不断减少对人工智能研究的资助,直至停止拨款。

当时主要问题:

  • 计算机运算能力遭遇瓶颈,无法解决指数型爆炸的复杂计算问题。
  • 和推理需要大量对世界的认识信息,计算机达不到「看懂和听懂」的地步。
  • 无法解决莫拉维克悖论。
  • 无法解决部分涉及自动规划的逻辑问题。
  • 神经网络研究学者遭遇冷落。

莫拉维克悖论——如果机器像数学天才一样下象棋,那么它能模仿婴儿学习又有多难呢?然而,事实证明这是相当难的。

第二次发展高潮(1980年—1987年)

80年代初,一类名为「专家系统」的AI程序开始为全世界的公司所采纳,人工智能研究迎来了新一轮高潮。在这期间,卡耐基梅隆大学为DEC公司设计的XCON专家系统能够每年为DEC公司节省数千万美金。日本经济产业省拨款八亿五千万美元支持第五代计算机项目。其目标是造出能够与人对话、翻译语言、解释图像、能够像人一样推理的机器。其他国家也纷纷作出了响应,并对AI和信息技术的大规模项目提供了巨额资助。

专家系统是一种程序,能够依据一组从专门知识中推演出的逻辑规则在某一特定领域回答或解决问题。由于专家系统仅限于一个很小的领域,从而避免了常识问题。「知识处理」随之也成为了主流 AI 研究的焦点。

当时主要成就:

  • 专家系统的诞生。
  • AI研究人员发现智能可能需要建立在对分门别类的大量知识的多种处理方法之上。
  • BP算法实现了神经网络训练的突破,神经网络研究学者重新受到关注。
  • AI研究人员首次提出:机器为了获得真正的智能,机器必须具有躯体,它需要有感知、移动、生存,与这个世界交互的能力。感知运动技能对于常识推理等高层次技能是至关重要的,基于对事物的推理能力比抽象能力更为重要,这也促进了未来自然语言、机器视觉的发展。

第二次寒冬(1987年—1993年)

1987年,AI硬件的市场需求突然下跌。科学家发现,专家系统虽然很有用,但它的应用领域过于狭窄,而且更新迭代和维护成本非常高。同期美国Apple和IBM生产的台式机性能不断提升,个人电脑的理念不断蔓延;日本人设定的「第五代工程」最终也没能实现。人工智能研究再次遭遇了财政困难,一夜之间这个价值五亿美元的产业土崩瓦解。

当时主要问题:

  • 受到台式机和「个人电脑」理念的冲击影响。
  • 商业机构对AI的追捧和冷落,使AI化为泡沫并破裂。
  • 计算机性能瓶颈仍无法突破。
  • 仍然缺乏海量数据训练机器。

第三次发展高潮(1993年至今)

在摩尔定律下,计算机性能不断突破。云计算、大数据、机器学习、自然语言和机器视觉等领域发展迅速,人工智能迎来第三次高潮。

摩尔定律起始于Gordon Moore在1965年的一个预言,当时他看到因特尔公司做的几款芯片,觉得18到24个月可以把晶体管体积缩小一半,个数可以翻一番,运算处理能力能翻一倍。没想到这么一个简单的预言成真了,下面几十年一直按这个节奏往前走,成为了摩尔定律。

主要事件

1997年:IBM的国际象棋机器人深蓝战胜国际象棋世界冠军卡斯帕罗夫。

2005年:Stanford开发的一台机器人在一条沙漠小径上成功地自动行驶了131英里,赢得了DARPA挑战大赛头奖。

2006年:

  • Geoffrey Hinton提出多层神经网络的深度学习算法。
  • Eric Schmidt在搜索引擎大会提出「云计算」概念。

2010年:Sebastian Thrun领导的谷歌无人驾驶汽车曝光,创下了超过16万千米无事故的纪录。

2011年:

  • IBM Waston参加智力游戏《危险边缘》,击败最高奖金得主Brad Rutter和连胜纪录保持者Ken Jennings。
  • 苹果发布语音个人助手Siri,3.Nest Lab发布第一代智能恒温器Nest。它可以了解用户的习惯,并相应自动地调节温度。

2012年:Google发布个人助理Google Now。

2013年:深度学习算法在语音和视觉识别率获得突破性进展。

2014年:

  • 微软亚洲研究院发布人工智能小冰聊天机器人和语音助手Cortana。
  • 百度发布Deep Speech语音识别系统。

2015年:Facebook发布了一款基于文本的人工智能助理「M」。

2016年:

  • Google AlphaGo以比分4:1战胜围棋九段棋手李世石。
  • Chatbots这个概念开始流行。
  • Google发布为机器学习定制的第一代专用芯片TPU。
  • Google发布语音助手Assistant。

2017年:

  • AlphaGO在围棋网络对战平台以60连胜击败世界各地高手。
  • Google 开源深度学习系统Tensorflow 1.0正式发布。
  • Google AlphaGo以比分3:0完胜世界第一围棋九段棋手柯洁。
  • 默默深耕机器学习和机器视觉的苹果在WWDC上发布Core ML,ARKit等组件。
  • Google发布了ARCore SDK。
  • 百度AI开发者大会正式发布Dueros语音系统,无人驾驶平台Apollo1.0自动驾驶平台。
  • 华为发布全球第一款AI移动芯片麒麟970。
  • iPhone X配备前置 3D 感应摄像头(TrueDepth),脸部识别点达到3W个,具备人脸识别、解锁和支付等功能;配备的A11 Bionic神经引擎使用双核设计,每秒可达到运算6000亿次。
  • AlphaGo Zero完全从零开始,不需要任何历史棋谱的指引,更不需要参考人类任何的先验知识,仅需要4个TPU,并花三天时间自己左右互搏490万棋局,最终无师自通完爆阿法狗100-0。

很多专家学者对此次人工智能浪潮给予了肯定,认为这次人工智能浪潮能引起第四次工业革命。人工智能逐渐开始在保险、金融等领域开始渗透;在未来健康医疗、交通出行、销售消费、金融服务、媒介娱乐、生产制造;到能源、石油、农业、政府……所有垂直产业都将因人工智能技术的发展而受益,那么我们现在讲的人工智能究竟是什么?

人工智能是什么?

在60年代,AI研究人员认为人工智能是一台通用机器人。它拥有模仿智能的特征,懂得使用语言、懂得形成抽象概念、能够对自己的行为进行推理,它可以解决人类现存问题。由于理念、技术和数据的限制,人工智能在模式识别、信息表示、问题解决和自然语言处理等不同领域发展缓慢。

80年代,AI研究人员转移方向,认为人工智能对事物的推理能力比抽象能力更重要。机器为了获得真正的智能,机器必须具有躯体,它需要感知、移动、生存,与这个世界交互。为了积累更多推理能力,AI研究人员开发出专家系统,它能够依据一组从专门知识中推演出的逻辑规则在某一特定领域回答或解决问题。

1997年,IBM的超级计算机深蓝在国际象棋领域完胜整个人类代表卡斯帕罗夫;相隔20年,Google的AlphaGo在围棋领域完胜整个人类代表柯洁。划时代的事件使大部分AI研究人员确信人工智能的时代已经降临。

可能大家觉得国际象棋和围棋好像没什么区别,其实两者的难度不在同一个级别。国际象棋走法的可能性虽多,但棋盘的大小和每颗棋子的规则大大限制了赢的可能性。深蓝可以通过蛮力看到所有的可能性,而且只需要一台计算机基本上就可以搞定。相比国际象棋,围棋很不一样。围棋布局走法的可能性可能要比宇宙中的原子数量还多,几十台计算机的计算能力都搞不定,所以机器下围棋想赢非常困难,包括围棋专家和人工智能领域的专家们也纷纷断言:计算机要在围棋领域战胜人类棋手,还要再等100年。结果机器真的做到了,并据说AlphaGo拥有围棋十几段的实力(目前围棋棋手最高是9段)。

那么深蓝和AlphaGo在本质上有什么区别?简单点说,深蓝的代码是研究人员编程的,知识和经验也是研究人员传授的,所以可以认为与卡斯帕罗夫对战的深蓝的背后还是人类,只不过它的运算能力比人类更强,更少失误。而AlphaGo的代码是自我更新的,知识和经验是自我训练出来的。与深蓝不一样的是,AlphaGo拥有两颗大脑,一颗负责预测落子的最佳概率,一颗做整体的局面判断,通过两颗大脑的协同工作,它能够判断出未来几十步的胜率大小。所以与柯洁对战的AlphaGo的背后是通过十几万盘的海量训练后,拥有自主学习能力的人工智能系统。

这时候社会上出现了不同的声音:人工智能会思考并解决所有问题、人工智能会抢走人类的大部分工作!人工智能会取代人类吗?那么已来临的人工智能究竟是什么?

人工智能目前有两个定义:分别为强人工智能和弱人工智能

普通群众所遐想的人工智能属于强人工智能,它属于通用型机器人,也就是60年代AI研究人员提出的理念。它能够和人类一样对世界进行感知和交互,通过自我学习的方式对所有领域进行记忆、推理和解决问题。

这样的强人工智能需要具备以下能力:

  • 存在不确定因素时进行推理、使用策略、解决问题、制定决策的能力。
  • 知识表示的能力,包括常识性知识的表示能力。
  • 规划能力。
  • 学习能力。
  • 使用自然语言进行交流沟通的能力。
  • 将上述能力整合起来实现既定目标的能力。

以上结论借鉴李开复所著的《人工智能》一书。

这些能力在常人看来都很简单,因为自己都具备着。但由于技术的限制,计算机很难具备以上能力,这也是为什么现阶段人工智能很难达到常人思考的水平。

由于技术未成熟,现阶段的人工智能属于弱人工智能,还达不到大众所遐想的强人工智能。弱人工智能也称限制领域人工智能或应用型人工智能,指的是专注于且只能解决特定领域问题的人工智能,例如AlphaGo,它自身的数学模型只能解决围棋领域的问题,可以说它是一个非常狭小领域问题的专家系统,以及它很难扩展到稍微宽广一些的知识领域,例如如何通过一盘棋表达出自己的性格和灵魂。

弱人工智能和强人工智能在能力上存在着巨大鸿沟,弱人工智能想要进一步发展,必须具备以下能力:

  • 跨领域推理。
  • 拥有抽象能力。
  • 知其然,也知其所以然。
  • 拥有常识。
  • 拥有审美能力。
  • 拥有自我意识和情感。

以上结论借鉴李开复所著的《人工智能》一书。

在计算机理念来说,人工智能是用来处理不确定性以及管理决策中的不确定性。意思是通过一些不确定的数据输入来进行一些具有不确定性的决策。从目前的技术实现来说,人工智能就是深度学习,它是06年由Geoffrey Hinton所提出的机器学习算法,该算法可以使程序拥有自我学习和演变的能力。

机器学习和深度学习是什么?

机器学习简单点说就是通过一个数学模型将大量数据中有用的数据和关系挖掘出来。机器学习建模采用了以下四种方法:

  • 监督学习与数学中的函数有关。它需要研究学者不断地标注数据从而提高模型的准确性,挖掘出数据间的关系并给出结果。
  • 非监督学习与现实中的描述(例如哪些动物有四条腿)有关。它可以在没有额外信息的情况下,从原始数据中提取模式和结构的任务,它与需要标签的监督学习相互对立。
  • 半监督学习,它可以理解为监督学习和半监督学习的结合。
  • 增强学习,它的大概意思是通过联想并对比未来几步所带来的好处而决定下一步是什么。

目前机器学习以监督学习为主。深度学习属于机器学习下面的一条分支。它能够通过多层神经网络以及使用以上四种方法,不断对自身模型进行自我优化,从而发现出更多优质的数据以及联系。

目前的AlphaGo正是采用了深度学习算法击败了人类世界冠军,更重要的是,深度学习促进了人工智能其他领域如自然语言和机器视觉的发展。目前的人工智能的发展依赖深度学习,这句话没有任何问题。

人工智能基础能力

在了解人工智能基础能力前,我们先聊聊更底层的东西——数据。计算机数据分为两种,结构化数据和非结构化数据。结构化数据是指具有预定义的数据模型的数据,它的本质是将所有数据标签化、结构化,后续只要确定标签,数据就能读取出来,这种方式容易被计算机理解。非结构化数据是指数据结构不规则或者不完整,没有预定义的数据模型的数据。非结构化数据格式多样化,包括了图片、音频、视频、文本、网页等等,它比结构化信息更难标准化和理解。

音频、图片、文本、视频这四种载体可以承载着来自世界万物的信息,人类在理解这些内容时毫不费劲;对于只懂结构化数据的计算机来说,理解这些非结构化内容比登天还难,这也就是为什么人与计算机交流时非常费劲。

全世界有80%的数据都是非结构化数据,人工智能想要达到看懂、听懂的状态,必须要把非结构化数据这块硬骨头啃下来。学者在深度学习的帮助下在这领域取得了突破性成就,这成就为人工智能其他各种能力奠定了基础。

如果将人工智能比作一个人,那么人工智能应该具有记忆思考能力,输入能力如视觉、听觉、嗅觉、味觉以及触觉,以及输出能力如语言交流、躯体活动。以上能力对相应的术语为:深度学习、知识图谱、迁移学习、自然语言处理、机器视觉、语音识别、语音合成(触觉、嗅觉、味觉在技术研究上暂无商业成果,躯体活动更多属于机器人领域,不在文章中过多介绍)

简单点说,知识图谱就是一张地图。它从不同来源收集信息并加以整理,每个信息都是一个节点,当信息之间有关系时,相关节点会建立起联系,众多信息节点逐渐形成了图。知识图谱有助于信息存储,更重要的是提高了搜索信息的速度和质量。

迁移学习把已学训练好的模型参数迁移到新的模型来帮助新模型训练数据集。由于大部分领域都没有足够的数据量进行模型训练,迁移学习可以将大数据的模型迁移到小数据上,实现个性化迁移,如同人类思考时使用的类比推理。迁移学习有助于人工智能掌握更多知识。

自然语言处理是一门融语言学、计算机科学、数学于一体的学科,它是人工智能的耳朵-语音识别和嘴巴-语音合成的基础。计算机能否理解人类的思想,首先要理解自然语言,其次拥有广泛的知识,以及运用这些知识的能力。自然语言处理的主要范畴非常广,包括了语音合成、语音识别、语句分词、词性标注、语法分析、语句分析、机器翻译、自动摘要等等、问答系统等等。

机器视觉通过摄影机和计算机代替人的眼睛对目标进行识别、跟踪和测量,并进一步对图像进行处理。这是一门研究如何使机器「看懂」的技术,是人工智能最重要的输入方式之一。如何通过摄像头就能做到实时、准确识别外界状况,这是人工智能的瓶颈之一,深度学习在这方面帮了大忙。现在热门的人脸识别、无人驾驶等技术都依赖于机器视觉技术。

语音识别的目的是将人类的语音内容转换为相应的文字。机器能否与人类自然交流的前提是机器能听懂人类讲什么,语音识别也是人工智能的最重要输入方式之一。由于不同地区有着不同方言和口音,这对于语音识别来说都是巨大的挑战。目前百度、科大讯飞等公司的语音识别技术在普通话上的准确率已达到97%,但方言准确率还有待提高。

目前大部分的语音合成技术是利用在数据库内的许多已录好的语音连接起来,但由于缺乏对上下文的理解以及情感的表达,朗读效果很差。现在百度和科大讯飞等公司在语音合成上有新的成果:16年3月百度语音合成了张国荣声音与粉丝互动;17年3月本邦科技利用科大讯飞的语音合成技术,成功帮助小米手机实现了一款内含「黑科技」的营销活动H5。它们的主要技术是通过对张国荣、马东的语音资料进行语音识别,提取该人的声纹和说话特征,再通过自然语言处理对讲述的内容进行情绪识别,合成出来的语音就像本人在和你对话。新的语音合成技术不再被数据库内的录音所限制语言和情感的表达。

经过多年的人工智能研究,人工智能的主要发展方向分为:计算智能、感知智能、认知智能,这一观点也得到业界的广泛认可。

计算智能是以生物进化的观点认识和模拟智能。有学者认为,智能是在生物的遗传、变异、生长以及外部环境的自然选择中产生的。在用进废退、优胜劣汰的过程中,适应度高的头脑结构被保存下来,智能水平也随之提高。机器借助大自然规律的启示设计出具有结构演化能力和自适应学习能力的智能。

计算智能算法主要包括神经计算、模糊计算和进化计算三大部分。神经网络和遗传算法的出现,使得机器的运算能力大幅度提升,能够更高效、快速处理海量的数据。计算智能是人工智能的基础,AlphaGo是计算智能的代表。 感知智能是以视觉、听觉、触觉等感知能力辅助机器,让机器能听懂我们的语言、看懂世界万物。相比起人类的感知能力,机器可以通过传感器获取更多信息,例如温度传感器、湿度传感器、红外雷达、激光雷达等等。感知智能也是人工智能的基础,机器人、自动驾驶汽车是感知智能的代表。

认知智能是指机器具有主动思考和理解的能力,不用人类事先编程就可以实现自我学习,有目的推理并与人类自然交互。人类有语言,才有概念、推理,所以概念、意识、观念等都是人类认知智能的表现,机器实现以上能力还有漫长的路需要探索。

在认知智能的帮助下,人工智能通过发现世界和历史上海量的有用信息,并洞察信息间的关系,不断优化自己的决策能力,从而拥有专家级别的实力,辅助人类做出决策。认知智能将加强人和人工智能之间的互动,这种互动是以每个人的偏好为基础的。认知智能通过搜集到的数据,例如地理位置、浏览历史、可穿戴设备数据和医疗记录等等,为不同个体创造不同的场景。认知系统也会根据当前场景以及人和机器的关系,采取不同的语气和情感进行交流。

假如能像设想的一样实现认知智能,那么底层平台必须足够宽广和灵活,以便在各领域甚至跨领域得到应用。因此研发人员需要从全局性出发,打造这个健壮的底层平台,它应该包括机器学习、自然语言处理、语音和图像识别、人机交互等技术,便于上层应用开发者的开发和使用。

前面介绍了人工智能的历史和基础,身为设计师最关心的是人工智能如何落地以及如何与用户打交道。由于网上相关资料较少,我尝试带着探索的心态去挖掘两者的联系。人工智能能怎么服务人类,关键还是要看它的底层设计和能力。所以在思考过程中,我首先考虑到了人工智能的底层问题-人工智能如何收集用户数据?用户数据如何才是完整的?以下内容是对这两个问题的分析与理解。

“去中心化”的互联网

互联网的前身叫做阿帕网,属于美国国防部60年代部署的一个中央控制型网络。阿帕网有一个明显的弱点:如果中央控制系统受到攻击,整个阿帕网就会瘫痪。为了解决这个问题,美国的Paul Baran开发了一套新型通信系统。该系统的主要特色是:如果部分系统被摧毁,整个通信系统仍能够保持运行。它的工作原理是这样的:中央控制系统不再简单地把数据直接传送到目的地,而是在网络的不同节点之间传送;如果其中某个节点损坏,则别的节点能够马上代替进来。阿帕网的相关实践和研究,催生出现代意义上的互联网。

互联网的起源就是为了去中心化,可以使信息更安全、更高效地传播。可惜在第一次互联网泡沫之后,人们开始意识到在互联网上创造价值的捷径是搭建中心化服务,收集信息并将之货币化。互联网上逐渐出现了不同领域的巨头,它们以中心化的形式影响着亿万用户,例如社交网络Facebook,搜索引擎Google等等。用户使用他们的产品进行社交或者搜索,而作为服务提供商的巨头们通过掌握和分析用户数据进而优化自己的产品并获得利益。为了给用户提供更好的服务,存储和分析用户数据本来无可厚非,但这也引起了一部分对自己的隐私安全敏感的用户的不满。但更重要的一点是,如果某个巨头突然垮了停止了相关服务,会给人类的生活带来极大的困扰。

貌似互联网又回到了60年代。很多老一辈互联网参与者重新开始讨论去中心化的互联网,他们认为互联网去中心化的核心概念是:服务的运行不再盲目依赖于单一的垄断企业,而是将服务运营的责任分散承担。

Tim Berners-Lee(万维网的发明者)提出了自己的见解:将网络设计成去中心化的,每个人都可以参与进来,拥有自己的域名和网络服务器,只是目前还没有实现。目前的个人数据被垄断了。我们的想法是恢复去中心化网络的创意。

我们再看看去中心化网络的三个核心优势:隐私性、数据可迁移性和安全性。

隐私性:去中心化对数据隐私性要求很高。数据分布在网络中,端到端加密技术可以保证授权用户的读写权限。数据获取权限用算法控制,而中心化网络则一般由网络所有者控制,包括消费者描述和广告定位。

数据可迁移性:在去中心化环境下,用户拥有个人数据,可以选择共享对象。而且不受服务供应商的限制(如果还存在服务供应商的概念)。这点很重要。如果你想换车,为什么不可以迁移自己的个人驾驶记录呢?聊天平台记录和医疗记录同此理。

安全性:最后我们的世界面临着越来越大的安全威胁。在中心化环境下,越孤立的优良环境越是吸引破坏者。去中心化环境的本质决定了其安全性,可以抵御黑客攻击、渗透、信息盗窃、系统奔溃等漏洞,因为从一开始它的设计就保证了公众的监督。

近几年很火的HBO《硅谷》以「互联网去中心化」这个理念开始了最新一季。怪人风投家 Russ Hanneman 询问陷入困境的 Pied Piper 创始人 Richard Hendricks,如果给予他无限的时间和资源,他想要构建什么? Hendricks 回答「一个全新的互联网」,他随后解释说,现在每台手机的运算能力都比人类登月时的手机要强大得多,如果你能用所有的几十亿台手机构建一个巨大的网络,使用压缩算法将一切变得更小更高效, 更方便的转移数据,那么我们将能构建一个完全去中心化的互联网,没有防火墙,没有过路费,没有政府监管,没有监视,信息将会完全的自由。

详细可以看以下视频:

△ video

在后面剧情中,Pied Piper在Hooli大会上将Dan Melcher的几千TB数据转移到25万手机上。虽然期间发生了一系列问题,但最后Dan Melcher的数据「神奇」地备份到3万台智能冰箱的巨型网络上。

互联网档案馆的创始人Brewster Kahle曾表示,互联网去中心化在实际中很难被执行,仍有很漫长的路要走。虽然《硅谷》只是一部电视剧,里面有部分技术纯属虚构,但是它也侧面证实了一个事实,每一台手机的运算能力和性能除了打打电话,聊聊天,玩玩游戏外,还能做到很多事情,例如成为新一代微型服务器和计算中心。

最合适的私人服务器

手机成为新一代微型服务器,这也符合Tim Berners-Lee「每个人都拥有自己的网络服务器」的观点。目前手机的性能和容量已经可以媲美一台台式计算机,更重要的是,为了减少对CPU的压力,手机拥有不同的协处理器。各协处理器各司其职,专门为手机提供不同的特色功能,例如iPhone从5s开始集成了运动协处理器,它能低功耗监测并记录用户的运动数据;MotoX搭载的协处理器可以识别你的语音/处理运动信息,从而在未唤醒状态下使用Google now功能。

手机上各种传感器可以从不同维度监测用户数据,如果手机成为下一代微型服务器,那么它需要承担着存储用户数据的责任。同时人工智能助手需要每个用户海量的数据作为基础才能更好地理解用户并实时提供帮助,成为「千人千面」的个人助理,所以手机存储和分析用户数据是人工智能助手的基础。

分析用户的非结构化数据需要大量的计算,为了降低对CPU和电池的压力,手机需要一块低功耗专门分析用户数据的协处理器。它能够低功耗地进行深度学习、迁移学习等机器学习方法,对用户的海量非结构化数据进行分析、建模和处理。

家庭也需要一个更大容量的服务器来减少手机容量的压力,例如24小时长期工作的冰箱、路由器或者智能音箱是一个很好地承载数据的容器。用户手机可以定期将时间较长远的数据备份到家里服务器,这样的方式有以下好处:

  • 降低了手机里用户数据的使用空间。
  • 家庭服务器可以24小时稳定工作,可以承担更多更复杂的计算,并将结果反馈给移动端。
  • 用户手机等设备更换时,可以无缝使用现有功能。

Google在2015年已经开始使用自家研发的TPU,它在深度学习的运算速度上比当前的CPU和GPU快15~30倍,性能功耗比高出约30~80倍。当手机、智能音箱等设备拥有与TPU类似的协处理器时,个人人工智能助理会到达新的顶峰。在17年9月份,华为发布了全球第一款AI移动芯片麒麟970,其AI性能密度大幅优于CPU和GPU。在处理同样的AI应用任务时,相较于四个Cortex-A73核心,麒麟970的新异构计算架构拥有大约50倍能效和25倍性能优势,这意味未来在手机上处理AI任务不再是难事。更厉害的是,iPhone X的A11仿生芯片拥有神经引擎,每秒运算次数最高可达 6000 亿次。它是专为机器学习而开发的硬件,它不仅能执行神经网络所需的高速运算,而且具有杰出的能效。

数据的进一步利用

人工智能的发展依赖于大数据、高性能的运算能力和实现框架,数据是人工智能的基础。在过去30年里,人类数据经历了两个阶段,孤岛阶段和集体阶段。

孤岛阶段

在没有互联网以及互联网前期,人类使用计算机基本处于单机状态,数据也只能存储在计算机本地。由于计算机性能较差,产品较为简单以及技术的不成熟,人类在计算机上产生的数据价值不大。

集体阶段

在互联网中后期和移动互联网时代,计算机行业开始往互联网发展并衍生出更多领域,例如网上社交、搜索等等,视频音乐等娱乐行业也开始互联网化;到了移动互联网时代,巨头们结合传统行业产生出更多的玩法。人类每天的活动逐渐创造出庞大的数据。

由于数据的庞大以及技术有限,个人没有能力对自己的数据进行存储和分析,个人数据对个人来讲仍然价值不大,但对于巨头来说就不一样了。巨头们有的是资金和技术,即使个人数据拥有太多特征,但放在一起成为群体数据时,巨头们可以通过数据清洗,建模等方法分析出相关群体的普遍特征,得出相关的用户画像,更了解自己的用户是谁,从而设计出更有针对性的功能和服务,探索出新的用户需求和衍生出新的产品。

随着近几年技术的成熟,巨头们可以做到一些相对简单的个人推荐。如亚马逊,它可以根据你的购买记录推荐相关商品给你,其背后的原理是通过分析大量的用户购买数据后得到的商品推荐。

由于服务器的普遍昂贵以及普通用户缺乏对数据处理的能力,而巨头们有能力使用户数据发挥更大价值,所以用户数据一直「默许」被Google、Facebook、苹果、腾讯、阿里、百度等巨头收集着,这是可以理解的。每个用户一天产生的数据涵括了社交、健康、购物、地理信息等等,但是巨头们的垄断和相互竞争,导致用户数据被各巨头分割和收集使用,再加上巨头们宁愿生产更多的产品进行竞争也不愿意使用户数据互通,导致用户数据发挥不出更大的价值。这也是人工智能发展道路上的一道很现实赤裸裸的门槛。

互通阶段

若要使人工智能得到更快发展,需要分析和了解更多完整数据;加上互联网去中心化的理念,应用厂商把数据「还给」用户将会是下一个趋势。把数据「还给」用户的意思不是指应用厂商不应该拥有该数据,而是指将数据共享出去,从而获得更多有用的数据。

为了人工智能的发展让各个应用厂商之间共享数据是不符合竞争和现实的,但用户有权把自己的数据给「拿」回来,因为这些本来就是用户自己的。这时候用户需要一个数据仓库,它能存储和整理不同应用厂商的数据,而人工智能可以利用数据进行自我优化和分析出该名用户的特征。

例如我们手机里的淘宝和京东,用户使用它们时的动机和场景不一样,所以它们所得的用户画像仅是该名用户的一部分,不能完全代表该名用户。如果淘宝和京东将各自的数据保存到个人数据仓库,人工智能将数据整理完后为淘宝和京东输出已授权的完整用户画像,那么淘宝和京东可以为该名用户提供更多的个性化服务,创造更多收益。这就是应用厂商为人工智能提供数据,人工智能反哺各应用厂商。

下一代人工智能助理

为了更了解你,人工智能需要了解更多数据。在日常生活中,一名用户的主要信息归纳为:身份信息、健康数据、兴趣爱好、工作信息、财产数据、信用度、消费信息、社交圈子、活动范围9个大类。

  • 身份信息:名字、性别、年龄、家乡、身份证(身份证包含前4项)、账号、现居住地址和家庭信息。
  • 健康数据:基础身体情况、医疗记录和运动数据。
  • 兴趣爱好:饮食、娱乐、运动等方面。
  • 工作信息:公司、职位、薪酬和同事通讯录。
  • 财产数据:薪酬、存款、股票、汽车、不动产和贵重物品。
  • 信用度:由信用机构提供的征信记录。
  • 消费信息:消费记录(含商品类型、购买时间、购买价格和收货地址)、消费水平和浏览记录。
  • 社交圈子:通讯录(含好友、同事、同学和亲戚)和社交动态(含线下和线上)。
  • 活动范围:出行记录、主要活动范围和旅游。

以上方面都有相关产品提供服务和数据记录,例如社交应用微信和陌陌、购物应用京东和淘宝、运动健康Keep等等。如果各方面数据打通并提供给人工智能,人工智能拥有用户更多的数据和特征,更多应用和智能硬件可以通过连接人工智能了解用户信息,从而进行自我学习和优化。总体来说,人工智能能代表你,它也是最懂你的个人助理。

人工智能数据仓库设计

2015年堪称智能家居元年,但最后大众还是被忽悠了。通俗理解的话,智能家居的重点是智能,而人工智能没有发展起来,智能家居如何智能?

现在大部分智能电器就像一个孤岛,只能通过手机里的不同App操控,相互之间没有任何联动,根本体现不出智能家居的概念,直至小米打破了现有状况。

小米通过MIUI、路由器和小米生态链布局智能家居生态,前期通过路由器掌控联网大权,小米电视占据家庭娱乐中心、Wifi插座使基础家电智能化、各种传感器使建筑智能化;中期通过与科技企业如美的的合作,以及小米生态链的各种产品如扫地机器人、空气净化器、电饭煲等,由小米控制的智能家居不断渗透到用户家里;近期推出299元的小米AI音箱使小米智能家居达到一个新的高潮,控制智能家居变得更为简单,用户可以通过AI音箱对各产品下达指令和操控。至今为止,在国内智能家居布局最出色的是小米。

目前小米的智能家居布局仍处于初期阶段,只是把不同电器互联化并连接一个终端。家居的智能不只是简简单单地通过命令操作就行,更多在于智能家居之间的联动以及更懂主人,这靠的是对用户数据的积累、理解和分享;但也带来隐私问题,用户会担心更多产品和人工智能接触到更多数据时,自己的生活被24小时监控着。人工智能将会是科学与伦理博弈中最激烈的一环,所以如何实现底层的数据仓库是关键。

未来的人工智能和数据仓库应该是一个平台,就像现在的操作系统Windows,iOS和Android,但数据仓库不应该被巨头们和政府掌控,因为它比现在的操作系统存储更多用户的隐私数据,所以数据仓库需要定制更多的隐私规则防止用户数据泄露,以及定制开放协议实现多元创新,避免被巨头垄断。

该仓库具有以下特性和功能:

  • 数据仓库拥有该名用户的完整特征和数据,它可以代表该用户。
  • 数据仓库最少包含身份信息、健康数据、兴趣爱好、工作信息、财产数据、信用度、消费信息、社交圈子、活动范围9个模块。每个模块相互独立,不耦合。
  • 数据仓库包括用户特征、产品私有数据和共享数据。用户特征只有输出行为;私有数据只有输入行为;共享数据具有输入和输出行为。
  • 模块间可以交换数据,模块具有规定的输入和输出接口格式。
  • 每个模块内的机器学习算法可自行升级或替换成其他厂商提供的算法。
  • 每个模块具有封闭性,算法不能向外发送用户数据。
  • 每个模块拥有必选和非必须的固定数据字段。
  • 产品可以向不同模块输入私有和共享数据。
  • 产品提供的数据必须符合该模块的必选数据字段,可以额外提供非必选数据字段。
  • 由模块内部的算法对该模块的共享、私有数据进行标注和建模,产出相关用户特征。
  • 算法可以申请授权获取其他模块共享数据和用户特征。
  • 在授权范围内,产品可以获取相关模块的用户特征和共享数据部分,无法访问私有数据。
  • 数据仓库定期将数据加密备份至个人服务器。
  • 数据仓库定期清理过期数据。
  • 数据仓库容量不足时自动提醒用户备份数据并清理空间。
  • 数据仓库自动加密用户数据,防止泄露。

不同厂商的数据仓库产品应该遵循以下协议:

  • 不同数据仓库相同模块的必选数据字段需要一致。
  • 数据仓库内部算法和数据仓应相互独立。
  • 数据仓库可以沿用以往数据和用户特征。
  • 数据仓库之间传输数据需要加密。
  • 不允许设置后门。

数据仓库制定协议的好处:

  • 企业可以根据规范制定数据仓库,降低被巨头控制的风险。
  • 数据仓库内不同模块的机器学习算法可以由不同企业制定和替换。
  • 有利于进行不同企业数据仓库之间的数据迁移和升级。
  • 该用户名下的数据仓库进行数据同步时是加密的,降低隐私的曝光和风险。

人工智能需要考虑运算性能、电量、发热量、数据采集和人机交互等问题。在移动端,手机依然是人工智能助理的最好载体,可穿戴式设备更多成为辅助;在家或办公室里,最好的人工智能助手载体应该一分为二:

  • 一是可与用户对话交互的电器,例如现在流行的智能音箱,还有具有大屏展示的电视,甚至是24小时供电的路由器。
  • 二是具有天生优势的冰箱:它也是24小时供电,它的自动降温能力能更好地解决复杂运算时所产生的热量问题,它的庞大体积可以容纳更多存储数据的硬盘和计算机部件。

可推测,冰箱将成为个人人工智能的运算中心,就像一台服务器,手机和智能音箱等将成为与用户打交道的人工智能助理。当运算中心处理完数据后,将结果同步至相关人工智能助理,数据仓库将成为连接它们的桥梁。只有完善底层的数据共享,人工智能才能发挥出最大价值。

其他资料阅读

欢迎关注作者的个人公众号:薛志荣

「人工智能大趋势!你准备好了吗」

================明星栏目推荐================

优优教程网 UiiiUiii.com 是优设旗下优质中文教程网站,分享了大量PS、AE、AI、C4D等中文教程,为零基础设计爱好者也准备了贴心的知识树专栏。开启免费自学新篇章,按照我们的专栏一步步学习,一定可以迅速上手并制作出酷炫的视觉效果。

设计导航:国内人气最高的设计网址导航,设计师必备:http://hao.uisdc.com

非特殊说明,本文版权归原作者所有,转载请注明出处
本文地址:http://www.uisdc.com/artificial-intelligence-design

界面设计 交互设计师 HTML5 素材 用户体验设计 好文 UI 转场动效 设计师专访 设计师 设计规范 排版布局 扁平化设计 素材下载 视觉设计 职场 产品设计 设计趋势 配色 web前端开发 海报设计 AI教程 字体下载 设计理论 动效设计 神器下载 图标设计 psd下载 logo设计 神器推荐 ICON 职场规划 App设计 酷站推荐 字体设计 交互设计 用户体验 ui设计 设计师职场 优秀网页设计 酷站 ps技巧 PS教程 网页设计 经验分享
wechat

优设官方微信

50万设计师关注

微信号:youshege

把好文章收藏到微信

打开微信,扫码分享
学设计 优设网 在这里