随着数据和网络节点的爆发式增长,人工智能已经成为科技发展和产业革新的驱动力,其将原有的数据处理速度以及科技进化速度提升到了新的高度。但人工智能由于需要大量的数据和网络算力来支撑,因此当人们将大量数据输入给人工智能时,往往无法避开隐私数据的泄露,而当人工智能进行协作时,也将面临数据无法互通的情况,导致”协作孤岛“的情况产生。因此,”可信“将成为未来人工智能无法避开的关键词之一。
人工智能(ArtificialIntelligence)。是计算机科学的一个分支,人工智能是对人的意识、思维的信息过程的模拟。人工智能不是人的智能,但能像人那样思考、也可能超过人的智能。数学常被认为是多种学科的基础科学,数学也进入语言、思维领域,人工智能学科也必须借用数学工具。
人工智能也依赖于外部的算法与数据的输入,但不同的是,如果算法正确且不停修正,人工智能可以利用大量的数据来不断修正输出的结果,例如我们在日常生活中寻找两地之间的最近距离,有时候要考虑十多个分岔选项,还需要考虑限速和拥堵等情况,但人工智能在经过训练后,会在瞬间给出最佳的答案,其速度是传统算法不可比拟的。
而在语音识别、手写输入、视觉处理等一些领域,人工智能也有着其独特的作用,比如利用人工智能,我们可以自动把视频中的路人去除,而不用兴师动众地打开专用软件进行处理。因此,简单来说,人工智能是研究使计算机来模拟人的某些思维过程和智能行为的学科,包括计算机实现智能的原理、制造出类似于人脑智能的计算机,使计算机能实现更高复杂的应用。
虽然人工智能在数据处理和协作中扮演着越来越重要的角色,其产品已深入到生活中的点点滴滴。但是由于缺乏相关的限制,其可信度难以保证,成为了目前人工智能技术中最令人担忧的部分。
可以这么说,虽然人工智能能带来极快速的发展和便利,但是其是有代价的。我们每个人的手机号、电子邮箱、家庭地址、手机识别码、消费记录、APP使用记录、上网浏览记录等这些隐私信息都是我们不愿意轻易给出的隐私数据,但在人工智能当道的当下,这很可能已经成为某个公司用来训练AI算法的数据集中的一条。
这一条条“失控”的个人隐私数据,构成了足够多的训练数据,让人工智能根据算法从中学习到认知能力,让人工智能更加了解我们,知道我们的喜好和想法,同时帮助我们完成原来不敢想象的功能,例如智能抠图、图像调色、最优路线计算等功能,虽然这一切或多或少都建立在一些“代价”上。
那使用人工智能是不是就等于放弃隐私?答案是否定的,目前的问题往往都是因为人工智能算法和整个系统的“可信度”的确实,因此,建立其一套可信的人工智能基础设施,将会最大限度地保证用户的个人隐私安全。
在人工智能整个系统中,“可信”指的是人工智能算法即使在环境不断动态变化中,也能保证其不断进行修正,使得其行为及产生结果总是符合用户或开发者的目标。也就是说,要让目标和实现的内容相符合,如果结果都无法预测或者可控,那便毫无意义。因此,可信人工智能系统依赖于内部数据和代码的可信,保证即使在环境改变和外部攻击的情况下,仍然能够持续提供符合目标的服务。
由于可信计算全程可测可控,不被干扰,实现了计算结果总是与预期一致,很好地保证了数据交换过程中的隐私安全,能够有效解决人工智能协作时的隐私泄露问题。而在可信硬件解决方案中,SGX则是其中翘楚,SGX将白名单中软件的安全操作封装在“容器”中,保护其不受恶意软件的攻击,除非拥有**,否则任何人都无法访问“容器”。其使得软件层面的攻击甚至操作系统层级的攻击都无法威胁到SGX创造的可信环境。
因此,通过容器保护个人隐私数据和相关的代码,可以有效避免环境改变和外部攻击带来的安全威胁,并可以保证协作时,协作的各方可以互信,只输出结果而无法知道内部的相关的信息,也使得整个人工智能训练流程大幅度简化。
通过可信计算技术,将能为人工智能创造可信系统,使得协作时无需担心外部环境变量和攻击,减少了相关的信任成本,也能将失控的隐私保护拉回正轨。相信其能将人工智能的应用范围和技术发展提升到一个新的高度,让人工智能变为可信人工智能,让隐私真正回归到用户自己的手中。
对冲量网络来说,其将可信计算技术与人工智能深度结合,构筑主动防御和安全可信的保障体系,解决隐私性的缺失同时将目前网络有限的可扩展性大幅度提高,并使得整个网络的运转过程都处于透明可信的状态,创造真正的可信人工智能系统。