2022年人工智能AI芯片火爆,元宇宙、生命科学的深度融合

2022-06-20 19:07:26   编辑:葛剑
导读随着全球数字化进程的加快,人工智能已经成为引领世界未来发展的关键技术。

随着全球数字化进程的加快,人工智能已经成为引领世界未来发展的关键技术。近年来,政府、科研教育机构、科技企业、专家学者纷纷加入到推动人工智能产业发展的进程中,人工智能技术与产业的融合程度不断加深。

本期《智能内参》推荐Champ Consulting的报告《2022年全球人工智能行业研究报告》,揭秘人工智能发展前沿。

一、人工智能产业概述

近年来,人工智能技术发展迅速,将对经济社会发展和生产生活方式变革产生重大影响。纵观全球,美国、欧盟、英国、日本、中国等国家和地区大力支持人工智能产业发展,相关新兴应用不断落地。根据德勤报告预测,全球人工智能产业将从2017年的6900亿美元增长至2025年的6.4万亿美元,2017年至2025年复合增长率为32.10%,呈现快速增长趋势。

在融资方面,全球人工智能投资市场近年来发展迅速,整体融资规模从2015年的63亿美元增长到2021年的668亿美元。2021年,全球医疗AI融资规模达122亿美元,金融科技AI融资规模39亿美元,零售AI融资规模37亿美元。

据CB Insights统计,全球人工智能企业超过11000家,累计融资总额超过2500亿美元。其中,美国AI相关企业4171家,累计融资金额1601.9亿美元,公司数量和融资规模均居世界第一;中国有1275家AI公司,融资总额470.7亿美元,居世界第二。英国、印度、加拿大等国也拥有100多家AI公司。前10大AI公司占全球总量的78.3%,累计融资额达到全球总量的95%。人工智能公司和融资活动集中在美国、中国、英国和其他国家。

▲全球主要国家AI公司数量及累计融资规模

尚普研究院梳理全球人工智能产业链典型上市公司,榜单以综合实力较强的科技巨头为主,如谷歌、亚马逊、微软等。在国外还有百度、阿里巴巴、腾讯等。在中国。此外,技术属性强的AI公司,如中国的商汤、科大讯飞等受到高度关注。

▲全球人工智能产业链主要上市公司名单

第二,AI芯片广泛应用于云、边缘、端场景。

AI芯片(AI Chip):专门用于处理与人工智能相关的计算任务。其架构专门针对人工智能算法和应用进行了优化。它具有高效处理大量结构化和非结构化数据的特点,能够高效支持视觉、语音、自然语言处理等智能处理任务。目前AI芯片的类型主要有GPU、FPGA、TPU、IPU、DPU、NPU等。从应用场景来看,AI芯片广泛应用于云、边缘、终端等场景。其中云AI芯片性能高,终端AI芯片功耗低,能效高,边缘AI芯片介于云和终端之间。

目前AI芯片的性能指标主要有TOPS、TOPS/W、时延、成本、功耗、可扩展性、准确性、适用性、吞吐量、热管理等。其中,TOPS/W是用来衡量芯片在1W功耗条件下能进行多少万亿次运算的关键指标。近年来,麻省理工、英伟达等R&D人员开发的专用芯片软件评测工具,对AI芯片的性能进行了系统、全面的评测,如Accelergy(评测芯片架构级能耗)、Timeloop(评测芯片计算执行)。MLPerf是一个由来自学术界、研究实验室和相关行业的AI领导者组成的联盟,旨在“建立一个公平有用的基准”,可用于衡量深度学习软件框架、AI芯片和云平台的性能。

作为通用处理器,CPU包括三个主要模块:控制单元(指令读取和指令解码)、存储单元(CPU片上缓存和寄存器)和运算单元(ALU占用CPU空间的20%左右)。但由于成本/功耗、技术难度/计算能力瓶颈等问题,目前仍没有满足AI高计算能力要求的主流CPU产品。GPU是由大量内核组成的大规模并行计算架构,拥有更多算术单元(alu)和更少的缓存。它是一种专为同时处理多项任务而设计的芯片。具有良好的矩阵计算能力和并行计算优势,能够满足深度学习等AI算法的处理要求,已成为主流云AI芯片。

Nvidia A100芯片是由多个SM单元(流多处理器)组成的并发多核处理器。不同的SM单元共享用于数据访问和存储的L2缓存存储资源。A100在ampere架构下有128个SM核,SM架构是芯片架构升级的核心。张量核是NVIDIA GPU架构中专门为深度学习矩阵运算设置的张量计算单元,是NVIDIA GPU系列深度学习运算加速的核心。张量核处理大规模矩阵运算,它执行特殊的矩阵数学运算,适用于深度学习和某些类型的高性能计算。张量核函数是进行融合乘加的运算,将两个4*4的FP16矩阵相乘,然后将结果加到4*4的FP32或FP64矩阵上,最后输出一个新的4*4的FP32或FP64矩阵。

AIoT通过AI和IoT技术的融合实现万物互联,主要涉及安防、移动互联网等多元化场景。在智能安防方面,由于终端摄像头每天会产生大量的视频数据,如果全部传回云数据中心,会占用大量的网络带宽和数据中心资源。通过在终端安装AI芯片,可以实现数据的本地化实时处理,即只有经过结构化处理和关键信息提取后的带有关键信息的数据才能发回云端,大大减轻了网络传输带宽的压力。目前主流的解决方案是前端摄像设备集成AI芯片,边缘端采用智能服务器级产品,后端边缘服务器集成智能推理芯片。目前国内外企业都在加大对edge AI视觉处理芯片的R&D和投入,如NVIDIA Jetson AGX Xavier、Horizon Rising Sun 3、华为Hi3559V100等。

随着智能驾驶水平的提高,汽车AI芯片的性能也随着技术的不断迭代而逐渐增强。SAE(国际自动机工程师协会)将自动驾驶分为六个级别:L0(非自动化)、L1(驾驶员辅助)、L2(部分自动化,如交通拥堵辅助和高级紧急制动+转向)、L3(有条件自动化,如高速公路自动驾驶)、L4(高自动化,如城市自动驾驶)、L5(全自动化,如全场景自动驾驶)。从L3开始,每一级都需要强大的计算能力进行实时分析,处理大量数据,进行复杂的逻辑运算,对计算能力要求极高。一般来说,自动驾驶汽车每一级所需的芯片计算能力,L3在250TOPS左右,L4在500TOPS以上,L5在1,000TOPS以上。随着芯片设计和制造技术的提高,汽车AI芯片正在向高计算能力和低功耗方向发展。

▲全球主要汽车AI芯片概述

预计到2025年,全球汽车AI芯片市场规模将超过17亿美元。随着汽车控制模式逐渐由机械向电子转变,每辆汽车对汽车AI芯片的需求越来越大,带动了汽车AI芯片的长远发展。根据Yole的预测,2025年全球汽车AI芯片产量将达到67.19亿片,市场规模将达到17.76亿美元,年复合增长率分别为99.28%和59.27%。此外,汽车AI芯片也逐渐向高能效方向发展。例如,英特尔在2022年推出的EyeQ Ultra自动驾驶汽车芯片就是基于经过验证的Mobileye EyeQ架构。它包含8个PMA、16个vmp、24个MPC和2个CNN加速器视觉处理单元(vpu)。通过优化计算能力和效率达到176TOPS,可以满足L4自动驾驶场景。这款产品将于2023年上市。

▲2021-2025年全球汽车AI芯片市场规模

AI芯片在图像识别、语音识别、快速建立用户画像等方面发挥着重要作用。根据Yole的预测,2026年全球消费电子AI芯片市场规模将达到55.8亿美元,其中笔记本电脑、平板电脑和智能手机的渗透率将分别达到100%、100%和91%。未来,全球消费电子AI芯片市场规模和渗透率将逐步提升。

▲2021-2026年全球消费电子AI芯片市场规模和渗透率

三、人工智能趋势展望

1、前沿技术

Transformer模型:由谷歌的Ashish Vaswani和多伦多大学的Aidan . Gomez于2017年首次提出,是一种基于自我注意机制的深度学习模型(在Transformer模型中起基础性作用,可以减少对外部信息的依赖,更善于捕捉数据或特征的内在关系,优化模型的训练结果)。该模型主要由编码器和解码器组成,并行度高,在精度和性能上优于传统的递归神经网络(RNN)和卷积神经网络(CNN)。Transformer model在简单的语言问答和语言建模任务中有很好的表现。Transformer模型还存在一些不足,如获取局部信息的能力弱于RNN和CNN,不能很好地表示单词的位置信息,顶部梯度消失等。

▲变压器型号

BERT模型:由Google在2018年提出,是基于Transformer编码器的模型。模型的基本思想:给定上下文,预测下一个单词。BERT模型架构是由多个接口组成的变压器编码器层,即全连接神经网络增加自关注机制。对于序列中的每个输入标签,每个接口计算一个键、一个值和一个查询向量,相关向量用于创建加权表示。同一层中的所有接口输出被合并并贯穿整个连接层。每一层都通过跳转连接进行包装,然后对层进行归一化处理。传统的BERT模型工作流程主要包括预训练和模型微调两部分,其中预训练涉及MLM和NSP两个半监督任务。模型的微调部分包含一个或多个完全连接的层,通常添加到最终编码器层的顶部。BERT模型已经集成到Google搜索中,查询准确率提高了10%。

▲BERT模型(来自变压器的双向编码器表示)

ViT模型(Vision Transformer):由Google公司的Alexey Dosovitskiy等人于2021年提出,其原理是将原本用于NLP领域的基于自我注意机制的Transformer模型应用于计算机视觉领域。与传统的CNN算法相比,ViT模型在大数据集上具有更高的识别率和更低的代价。ViT模型的基本原理:1)将图片切割成大小相同的块,每个块可以看作一个“字”;2)对每个块进行线性投影层(全连接层)运算,得到位置码(图像分类问题转化为NLP问题);3)将线性投影的图像块输入到由L层变换模型组成的编码器中;4)对输出结果进行MLP处理,得到最终的分类结果。目前,ViT已经开发了多种改进模型,在计算机视觉目标检测中具有很大的应用潜力。

▲ViT模型(视觉变压器)

自监督学习:针对未标记数据,通过设计辅助任务挖掘数据自身特征作为监督信息,将无监督问题转化为监督问题,旨在提高模型的特征提取能力。辅助任务是自监督学习最重要的内容,目前主要有NLP和CV。其中,自然语言处理包括单词预测、句子序列预测和单词序列预测;计算机视觉包括图像任务、视频任务等。著名AI科学家Yann Lecun曾提出,如果把人工智能比作一块蛋糕,那么这块蛋糕的大部分是自监督学习,锦上添花的是监督学习,蛋糕上的樱桃是强化学习,自监督学习在人工智能领域占有重要地位。

▲自我监督学习(Self-supervised Learning)

类脑计算(Brain-Inspired Computing):又称神经形态计算,是对借鉴生物神经系统的信息处理模式和结构的计算理论、体系结构、芯片设计、应用模型和算法的总称。类脑计算可以模拟人脑的信息处理模式,以极低的功耗异步、并行、高速、分布式地处理信息,具有自我感知、识别、学习等多种能力。是通用人工智能的实现方式之一。2020年10月,清华大学张等人在《自然》杂志上发表论文,首次提出“类脑计算完备性”,填补了类脑研究完备性理论和相应系统层次的空白。类脑计算技术的发展将推动图像识别、语音识别、自然语言处理等前沿技术的突破,有望推动新一轮技术革命。

▲类脑计算(Brain-Inspired Computing)

AI (Foundation Models):是指经过大规模数据训练,经过微调后能够适应大范围下游任务的模型。随着参数规模的不断扩大,AI大模型在语言、视觉、推理、人机交互等领域不断涌现新的能力。由于各类AI大模型可以有效应用于各种任务,各类AI大模型的同质化特征越来越明显。随着2017年Transformer模型的推出,深度学习模型的参数数量突破1亿。此后模型参数数量迅速增加,其中2021年7月发布了八卦掌模型,参数规模达到174万亿。模型参数尺度的增大有助于进一步提高模型的计算精度。AI模型的应用为多个应用场景提供了预训练方案,其自监督学习方法也可以减少标注数据的使用,降低训练研发成本。具体来说,AI大模型在医疗生物医学、法律、教育等领域具有广阔的应用前景。

▲AI大模型(基础模型)

2.产业整合

元宇宙:本质上是一个现实世界虚拟化、数字化的过程。主要包括基础设施、人机交互、空间计算等七层架构。其中,计算机视觉、AI芯片、嵌入式AI和基础设施等人工智能技术共同帮助元宇宙加速落地。宇宙涵盖了芯片、云计算、技术平台、通信、智能设备、内容服务等庞大的生态系统。目前,全球科技企业都投入了元宇宙的建设。比如英伟达、Meta、微软等科技巨头和国内企业都推出了元宇宙解决方案,应用于办公、娱乐、设计等领域。

▲元宇宙的七层(超宇宙)

人工智能与生命科学:AlphaFold是谷歌DeepMind团队基于深度学习算法的蛋白质结构预测的人工智能系统,被视为人工智能在生物学领域的突破。目前,AlphaFold已经预测了人类98.5%的蛋白质结构,还预测了大肠杆菌、果蝇、斑马鱼、小鼠等研究中常用的生物的蛋白质结构。DeepMind和欧洲生物信息研究所(EMBL-EBI)联合发布了AlphaFold蛋白质结构数据库,这是一个由Alphafold预测的蛋白质结构数据库,已经包含了大约35万个蛋白质结构。

人工智能和新冠肺炎疫情:Eva是一个用于检测入境旅客新冠肺炎的强化学习系统。它是由南加州大学、宾夕法尼亚大学、AgentRisk和希腊专家共同开发的。2020年,Eva系统被部署到所有希腊入境口岸(机场、港口、车站等)。)识别并限制来自新冠肺炎的无症状旅客入境。在Eva系统的帮助下,每天大约有41000个家庭中的17%的人到达或经过希腊进行检测。通过比较,Eva发现被感染的旅行者人数比原来严格按照国籍的方法多了1.25-1.45倍。与随机检测相比,Eva在旅游旺季发现的感染旅行者是随机检测的4倍,在非旅游旺季是随机检测的1.85倍,取得了较好的检测效果。

人工智能和半导体:功耗、性能和面积(PPA)是芯片设计中三个重要的优化指标。为了实现更好的PPA优化结果,并应对芯片安全性需求的增加、设计规模的增大和工艺节点的缩小,EDA厂商开始使用AI技术来解决半导体芯片设计问题。在EDA中,AI技术涉及数据快速提取模型、布局布线、电路仿真模型和PPA优化决策。AI主要以两种形式应用于EDA:1)应用于EDA工具优化单芯片设计,如Google、西门子EDA;2)应用于整体芯片设计流程的优化,如Cadence和Synopsys。此外,华大九天和TSMC等公司也将人工智能纳入芯片生产的各个方面。将AI与芯片设计相结合,不仅有助于释放人力成本,提高工作效率,还会进一步削弱人在其中的作用,甚至可能改变EDA行业格局。

▲EDA企业AI技术应用案例

人工智能与碳中和:自2015年第21届联合国气候变化大会以来,碳中和已成为全球共识。目前,全球已有40多个国家和地区承诺碳中和,其中大部分国家和地区宣布将在2050年左右实现碳中和目标。整体而言,人工智能将从预测、监测、优化三个方面助力碳中和,如预测未来碳排放、实时监测碳足迹、优化工作流程等。BCG数据显示,到2030年,人工智能的应用有望减少26-53亿吨二氧化碳排放,占全球减排总量的5-10%。从行业来看,人工智能在不同的领域和环节都发挥着重要作用。主要在城市、制造业、汽车、电力四大领域帮助“碳中和”。

人工智能与冬奥会:2022年2月,第24届冬奥会在北京成功举办。人工智能技术已经应用于冬奥会开幕式、比赛项目、运动员训练等多个场景。,帮助实现冬奥会的科技目标。英特尔打造的3DAT技术,一方面可以帮助教练提出科学的训练计划,有效提高运动员的训练效率,同时可以实现开幕式中与演员的互动效果。尚科技为冬奥会冰壶比赛打造的“冰壶轨迹捕捉”技术,实现了对冰壶的检测、跟踪和轨迹捕捉。未来,人工智能与体育赛事和体育的融合会逐渐深入。

3.热点问题

人工智能产业发展路径探索:结合人工智能产业特点,梳理出“创新投入-科研成果-商业化”的发展路径。其中,创新投资主要涉及人才投资、资本投资和要素投资;科研成果包括论文、开源软硬件和专利;商业化包括AI产品、AI解决方案和AI平台。目前,人工智能产业从输入端到科研端发展迅速,人工智能在学术研究领域不断取得突破。另一方面,人工智能仍然面临着从技术成果到商业化的诸多挑战,如算法训练通用性弱、商业化成本高、相关行业和企业对人工智能技术的接受度低等。,需要从政策机制、技术发展、管理理念等方面不断完善,最终推动人工智能在商业化方面的快速发展。

热点问题:伦理与安全:随着人工智能技术的快速发展和普及,由此产生的伦理与安全问题日益受到关注。人工智能不仅延续了信息技术的伦理问题,而且由于深度学习算法的不透明、难以解释、自适应和广泛应用的特点,在基本人权、社会秩序、国家安全等方面产生了新的问题。人工智能的典型伦理问题包括:对公民生命的威胁、算法歧视、对隐私的威胁、对公民知情权和监督权的影响、虚假信息的泛滥、对市场竞争环境的破坏、权力结构的变化、对劳动者权益的影响、AI武器对世界和平等的威胁。目前,全球人工智能治理仍处于初步探索阶段,各国正在加强人工智能领域的治理,并引入人工智能伦理相关制度,以防范人工智能应用产生的风险。未来,全球AI治理将从指南逐步深化为运营指南和行业标准,加快构建国际化AI治理体系。

就业:人工智能将通过改变劳动分工和人力资本的价值结构,深刻影响就业市场。AI与劳动用工的关系包括三个方面:1)当AI成本低于劳动工资水平,产品附加值不足以弥补劳动成本时,AI应用会直接替代相应的劳动岗位;2)应用2)AI填补工人不胜任的岗位,不仅可以降低出错率,提高产品质量,还可以保护人身安全和健康;3)AI的应用催生新的工作岗位。AI带来生产生活方式的改变和社会效率的提升,整个社会的生产力跃升,进一步产生新的就业岗位。世界经济论坛发布的《2020年未来就业报告》预测,到2025年,机器可能取代8500万个工作岗位,AI驱动的经济增长将产生9700万个新工作岗位。随着AI技术的发展,工作岗位、员工技能和任务类型将被重塑,就业替代将呈现行业特征,工作岗位总量仍将上升。

国家间技术限制:目前开源深度学习框架、开源工具集、开源应用软件发展迅速,国际AI技术交流日益深入。然而,一些国家和政府间组织为了保持自己的AI技术优势,限制AI技术交流。比如美国2021年6月发布《创新与竞争法》,限制与中国在AI、无人机、芯片等领域的合作;2019年10月和2020年5月,美国商务部将商汤科技、科大讯飞等一批中国AI公司加入其实体名单,并实施投资限制;2022年,白宫修改了《关键和新兴技术清单(CET)》,专门对AI技术进行分类,并实施技术封锁。欧盟于2021年9月通过了最新的出口管制法规,涵盖了人脸识别等AI技术。上述政策与人工智能未来发展趋势背道而驰,不利于各国技术合作。

知止认为,人工智能在60多年的发展过程中经历了几次大起大落。近年来,移动互联网快速发展带来的海量数据和深度学习算法的不断发展,共同推动了人工智能技术在多个领域的突破。相比以往技术革命中的蒸汽机、电力等新技术,人工智能对经济社会的影响将更具颠覆性,将成为新一轮科技革命和产业变革的重要驱动力。

免责声明:本文由用户上传,如有侵权请联系删除!

猜你喜欢

最新文章