信息时报讯 随着装配式建筑成为我国建筑业发展的主要方向之一,与之相关的绿色新材、固废资源化等迎来新的机遇。8月18日,由佛山市、景德镇双城联袂,协会、研究院等共六家单位发起,金意陶旗下金绿能科技承办的“装配式建筑与绿色新材发展趋势研讨会”在佛山举行,以“装配式建筑与绿色新材发展趋势”为主题,围绕循环经济、固废资源化、绿色生态文明建设等话题,聚焦绿色建造新技术发展动向。 作为中国传统“四大名镇”,佛山和景德镇在陶瓷行业盛名远扬,此次活动无疑将推动两地生态城市的建设,将推动新型绿色建材与装配式建筑成为建陶行业的新风口。金意陶集团董事长何乾表示,如今,中国经济由高速增长转向高质量发展,每个产业、企业都应秉承国家绿色健康发展战略,为环保贡献一份力量。固体废弃物的综合利用技术和生态材料技术都是绿色技术创新,是实现我国生态文明的重要路径,工业及建筑固废利用产业将成为建设建材领域万亿级的新蓝海。据悉,目前金绿能生产原材料固废资源利用率已达到85%以上,循环利用率100%,二次固废产生为零。
2020年8月20日,由湖州市住房和城乡建设局、湖州市房地产业协会主办,乐居长三角、、透明售房网湖州站承办的“长三角新势力”主题活动在上海盛大开启。湖州市房地产业协会秘书长、透明售房网湖州站副总经理陆昕 在下午举行的湖州价值闭门会议上,湖州市房地产业协会秘书长、透明售房网湖州站副总经理陆昕对湖州人居住市场做出解读。 她表示,随着长三角一体化的发展,三省一市各扬所长,湖州将迎来城市发展机遇。 在区位上湖州位于三省交汇之地,是长三角的几何中心及重要交通枢纽。随着交通条件的完善,湖州将是长三角城市群中一个与五大城市形成1小时交通圈的城市。 因此近些年来,湖州在经济和人才方面的表现都非常出色。湖州虽然经济总量小,但增长速度位居全省第二,并且吴兴区成为湖州经济发展的主战场,表现突出,呈稳步上涨趋势;湖州的常驻人口增量全省排名第五,人口吸附能力较强。 从湖州的规划分析,湖州位于长三角中心区域,苏浙皖交汇之地,实施承沪融杭、接苏启皖、环湖协同的区域协同策略,正加快融入长三角世界级城市群协同发展格局;致力打造现代生态型湖滨大城市。 现在湖州境内的南太湖新区将被建设为“浙江省大湾区五大新区之一”,定位长三角区域发展重要增长极、浙北高端产业聚集群、南太湖地区美丽宜居新城区,并且坐拥国家级湖州经济开发区、国家级湖州太湖旅游度假区,将引领未来湖州发展。 现在湖州的房价远低于周边长三角城市。 自2017年来,湖州政府也不断推出人才购(租)房补贴、湖州“人才新政4.0”、湖州住房公积金调整等政策,市场政策整体宽松,不限购、不限售,人才引进政策力度大,促进了本地的良性发展。 湖州的商品房市场和住宅市场自2016年开始量价齐升,发展态势向好。其中,住宅市场供求关系近2年趋于均衡。 目前,湖州住宅存量处在18个月左右,整体可控。住宅成交呈现以下特点:100-140方为绝对成交主力,200万以下为主力成交总价,改善市场较为广阔,且不断有上海、杭州、苏州等长三角投资客入场。 吴兴区成为湖州商品房市场和住宅市场中表现较为亮点的区域之一,市场容量和成交量可观;南太湖新区成交总价处于领先,均价最高;南浔价格相对低位,投资潜力巨大。 最后,陆昕用三句话表达了自己对湖州的展望:湖州将借助长三角一体化发展机遇,依托价格洼地优势,激发市场潜力;湖州市场逐渐回归理性,量升价稳,向好发展;湖州将依托优质环境资源,打造品质人居环境。
在8月20号召开的海南自贸港航运发展高峰研讨会上,交通运输部水运局副局长易继勇表示,下一步,交通运输部仍将多措并举支持海南自由贸易港建设,并积极推进琼州海峡港航一体化发展。 从具体举措来看,首先将大力支持海南引入大型港口、航运企业等战略投资者,推进实施港口一体化运营管理。其次,将创新邮轮、游艇管理政策,推动海南邮轮游艇产业发展。支持海南发展中资邮轮公司,鼓励中资邮轮公司在国内新建邮轮并悬挂五星红旗或香港旗,探索允许中资香港旗新建邮轮开展以三亚等邮轮港口始发的沿海邮轮运输。再次,将推动航运相关财税政策尽快落地。同时,将推进海南国际航运枢纽建设,支持指导海南建设航运交易所,支持指导海南创新发展现代航运服务业,支持做优做强洋浦港,紧密对接西部陆海新通道,与北部湾联动发展,构筑以海南为起点、通达新加坡及东盟、辐射两大洋的外贸航线网络。 此外,交通运输部还表示将促进内地与海南自贸港间运输、通关便利化;创新港口、航运管理体制机制;继续深化“放管服”改革。
2020年是不寻常的一年,全球的健康、贸易、经济、文化、政治和科技领域,无不发生着深刻的变化。笔者所在的科技领域,也恰逢现代人工智能(简称AI)发展10周年。前10年,人工智能技术得到了长足的发展,但也留下许多问题有待解决。那么,未来AI技术将会如何发展呢?本文将结合学术界、工业界的研究成果,以及笔者个人研究见解,从算力、数据、算法、工程化4个维度,与读者一起探索和展望AI发展的未来。 一 数据 我们首先分析数据的发展趋势。数据对人工智能,犹如食材对美味菜肴,过去10年,数据的获取无论是数量,还是质量,又或者是数据的种类,均增长显著,支撑着AI技术的发展。未来,数据层面的发展会有哪些趋势呢,我们来看一组分析数据。 首先,世界互联网用户的基数已达到十亿量级,随着物联网、5G技术的进一步发展,会带来更多数据源和传输层面的能力提升,因此可以预见的是,数据的总量将继续快速发展,且增速加快。参考IDC的数据报告(图1),数据总量预计将从2018年的33ZB(1ZB=106GB),增长到2025年的175ZB。 其次,数据的存储位置,业界预测仍将以集中存储为主,且数据利用公有云存储的比例将逐年提高,如图2、图3所示。 以上对于未来数据的趋势,可以总结为:数量持续增长;云端集中存储为主;公有云渗透率持续增长。站在AI技术的角度,可以预期数据量的持续供给是有保证的。 另一个方面,AI技术需要的不仅仅是原始数据,很多还需要标注数据。标注数据可分为自动标注、半自动标注、人工标注3个类别。 那么,标注数据未来的趋势会是怎样的? 我们可从标注数据工具市场的趋势窥探一二,如图4所示。可以看到,人工标注数据在未来的5-10年内,大概率依然是标注数据的主要来源,占比超过75%。 通过以上数据维度的分析与预测,我们可以得到的判断是,数据量本身不会限制AI技术,但是人工标注的成本与规模很可能成为限制AI技术发展的因素,这将倒逼AI技术从算法和技术本身有所突破,有效解决对数据特别是人工标注数据的依赖。 二 算力 我们再来看看算力。算力对于AI技术,如同厨房灶台对于美味佳肴一样,本质是一种基础设施的支撑。 算力指的是实现AI系统所需要的硬件计算能力。半导体计算类芯片的发展是AI算力的根本源动力,好消息是,虽然半导体行业发展有起有落,并一直伴随着是否可持续性的怀疑,但是半导体行业著名的“摩尔定律”已经经受住了120年考验(图5),相信未来5-10年依然能够平稳发展。 不过,值得注意的是,摩尔定律在计算芯片领域依然维持,很大原因是因为图形处理器(GPU)的迅速发展,弥补了通用处理器(CPU)发展的趋缓,如图6所示,从图中可以看出GPU的晶体管数量增长已超过CPU,CPU晶体管开始落后于摩尔定律。 当然,半导体晶体管数量反映整体趋势可以,但还不够准确地反映算力发展情况。对于AI系统来说,浮点运算和内存是更直接的算力指标,下面具体对比一下GPU和CPU这2方面的性能,如图7所示。可以看出,GPU无论是在计算能力还是在内存访问速度上,近10年发展远超CPU,很好的填补了CPU的性能发展瓶颈问题。 另一方面,依照前瞻产业研究院梳理的数据,就2019年的AI芯片收入规模来看,GPU芯片拥有27%左右的份额,CPU芯片仅占17%的份额。可以看到,GPU已成为由深度学习技术为代表的人工智能领域的硬件计算标准配置,形成的原因也十分简单,现有的AI算法,尤其在模型训练阶段,对算力的需求持续增加,而GPU算力恰好比CPU要强很多,同时是一种与AI算法模型本身耦合度很低的一种通用计算设备。 除了GPU与CPU,其他计算设备如ASIC、FGPA等新兴AI芯片也在发展,值得行业关注。鉴于未来数据大概率仍在云端存储的情况下,这些芯片能否在提高性能效率的同时,保证通用性,且可以被云厂商规模性部署,获得软件生态的支持,有待进一步观察。 三 算法 现在我们来分析算法。AI算法对于人工智能,就是厨师与美味佳肴的关系。过去10年AI的发展,数据和算力都起到了很好的辅助作用,但是不可否认的是,基于深度学习的算法结合其应用取得的性能突破,是AI技术在2020年取得里程碑式发展阶段的重要原因。 那么,AI算法在未来的发展趋势是什么呢?这个问题是学术界、工业界集中讨论的核心问题之一,一个普遍的共识是,延续过去10年AI技术的发展,得益于深度学习,但是此路径发展带来的算力问题,较难持续。下面我们看一张图,以及一组数据: 1. 根据OpenAI最新的测算,训练一个大型AI模型的算力,从2012年开始计算已经翻了30万倍,即年平均增长11.5倍,而算力的硬件增长速率,即摩尔定律,只达到年平均增速1.4倍;另一方面,算法效率的进步,年平均节省约1.7倍的算力。这意味着,随着我们继续追求算法性能的不断提升,每年平均有约8.5倍的算力赤字,令人担忧。一个实际的例子为今年最新发布的自然语义预训练模型GPT-3,仅训练成本已达到约1300万美元,这种方式是否可持续,值得我们思考。 2. MIT最新研究表明,对于一个过参数化(即参数数量比训练数据样本多)的AI模型,满足一个理论上限公式: 上述公式表明,其算力需求在理想情况下,大于等于性能需求的4次方,从2012年至今的模型表现在ImageNet数据集上分析,现实情况是在9次方的水平上下浮动,意味着现有的算法研究和实现方法,在效率上有很大的优化空间。 3. 按以上数据测算,人工智能算法在图像分类任务(ImageNet)达到1%的错误率预计要花费1亿万亿(10的20次方)美元,成本不可承受。 结合前文所述的数据和算力2个维度的分析,相信读者可以发现,未来标注数据成本、算力成本的代价之高,意味着数据红利与算力红利正在逐渐消退,人工智能技术发展的核心驱动力未来将主要依靠算法层面的突破与创新。就目前最新的学术与工业界研究成果来看,笔者认为AI算法在未来的发展,可能具有以下特点: ?? (1)先验知识表示与深度学习的结合 纵观70多年的人工智能发展史,符号主义、连接主义、行为主义是人工智能发展初期形成的3个学术流派。如今,以深度学习为典型代表的连接主义事实成为过去10年的发展主流,行为主义则在强化学习领域获得重大突破,围棋大脑AlphaGo的成就已家喻户晓。 值得注意的是,原本独立发展的3个学派,正在开始以深度学习为主线的技术融合,比如在2013年,强化学习领域发明了DQN网络,其中采用了神经网络,开启了一个新的研究领域称作深度强化学习(Deep Reinforcement Learning)。 那么,符号主义类算法是否也会和深度学习进行融合呢?一个热门候选是图网络(Graph Network)技术,这项技术正在与深度学习技术相融合,形成深度图网络研究领域。图网络的数据结构易于表达人类的先验知识,且是一种更加通用、推理能力更强(又称归纳偏置)的信息表达方法,这或许是可同时解决深度学习模型数据饥渴、推理能力不足以及输出结果可解释性不足的一把钥匙。 (2)模型结构借鉴生物科学 深度学习模型的模型结构由前反馈和反向传播构成,与生物神经网络相比,模型的结构过于简单。深度学习模型结构是否可以从生物科学、生物神经科学的进步和发现中吸取灵感,从而发现更加优秀的模型是一个值得关注的领域。另一个方面,如何给深度学习模型加入不确定性的参数建模,使其更好的处理随机不确定性,也是一个可能产生突破的领域。 (3)数据生成 AI模型训练依赖数据,这一点目前来看不是问题,但是AI模型训练依赖人工标注数据,是一个头痛的问题。利用算法有效解决或者大幅降低模型训练对于人工标注数据的依赖,是一个热点研究领域。实际上,在人工智能技术发展过程中一直若隐若现的美国国防部高级研究计划局(DARPA),已经将此领域定为其AI3.0发展计划目标之一,可见其重要程度。 (4)模型自评估 现有的AI算法,无论是机器学习算法,还是深度学习算法,其研发模式本质上是通过训练闭环(closed loop)、推理开环(open loop)的方式进行的。是否可以通过设计模型自评估,在推理环节将开环系统进化成闭环系统也是一个值得研究的领域。在通信领域,控制领域等其他行业领域的大量算法实践表明,采用闭环算法的系统在性能和输出可预测性上,通常均比开环系统优秀,且闭环系统可大幅降低性能断崖式衰减的可能性。闭环系统的这些特性,提供了对AI系统提高鲁棒性和可对抗性的一种思路和方法。 四 工程化 上文已经对人工智能数据、算力、算法层面进行了梳理和分析,最后我们看看工程化。工程化对于人工智能,如同厨具对于美味佳肴一样,是将数据、算力、算法结合到一起的媒介。 工程化的本质作用是提升效率,即最大化利用资源,最小化减少信息之间的转换损失。打一个简单的比喻,要做出美味佳肴,食材、厨房灶台、厨师都有,但是唯独没有合适的厨具,那么厨师既无法发挥厨艺(算法),又无法处理食材(数据),也无法使用厨房灶台的水电气(算力)。因此,可以预见,工程化未来的发展,是将上文提到的算力与算法性能关系,从现在的9次方,逼近到理论上限4次方的重要手段之一。 过去10年,AI工程化发展,已形成一个明晰的工具链体系,近期也伴随着一些值得关注的变化,笔者将一些较为明显的趋势,汇总如下: 总结来说,AI工程化正在形成从用户端到云端的,以Python为编程语言的一整套工具链,其3个重要的特点为:远程编程与调试,深度学习与机器学习的GPU加速支持,以及模型训练与推理工具链的解耦。与此同时,产业链上游厂商对开源社区的大量投入,将为中下游企业和个人带来工具链的技术红利,降低其研发门槛和成本,笔者认为微软、脸书、英伟达3家上游厂商主推的开源工具链尤其值得关注。 五 结语 对于人工智能技术过去10年发展取得的成就,有人归因于数据,也有人归因于算力。未来人工智能技术发展,笔者大胆预测,算法将是核心驱动力。同时,算法研发的实际效率,除了算法结构本身,还取决于设计者对先进工具链的掌握程度。 未来10年,科技界是否能用更少的数据,更经济的算力,获得真正意义上的通用智能呢?我们拭目以待。
市委书记蔡奇主持会议 昨天下午,市委常委会召开会议,研究京津冀协同发展等事项。市委书记蔡奇主持会议。 会议听取了关于京津冀协同发展有关工作情况汇报,指出,要始终抓住疏解非首都功能这个“牛鼻子”,发挥“一核”辐射带动作用,推动协同发展取得新的更大进展。提高政治站位,增强行动自觉,抓好京津冀协同发展领导小组会议确定的重点事项清单的落实。坚定不移疏解非首都功能,落实疏解整治促提升专项行动计划方案。全面推动城市副中心高质量发展,推进与廊坊北三县协同发展,积极推动项目落地。优化京津冀城际铁路公司治理架构,推进城际铁路建设,完善京津冀区域铁路网络。推动北京航空“双枢纽”发展。加强与天津港对接。优化产业链供应链布局,推动落地一批技术合作项目。推动大兴国际机场临空经济区实体联合办公。加快构建京津冀协同创新共同体。制定支持养老产业在环京周边延伸的政策措施。加强生态环境协作保护和治理。高标准编制我市推进京津冀协同发展“十四五”专项规划。 会议研究了《关于建立更加有效的区域协调发展新机制的实施方案》,指出,要推动市域外协同共赢发展、市域内协调均衡发展,形成优势互补、高质量发展的区域协调发展格局。优化京津冀协同发展“一核两翼”推进机制,推动交界地区融合发展。深化在生态环境、交通、公共服务等领域的合作机制,加强通武廊区域合作。健全京津冀区域市场一体化发展机制,深化产业链对接协作。完善市域外区域互助和利益补偿机制,深入实施扶贫协作和对口支援,创新开展对口协作和对口合作,完善多元化生态补偿机制和农产品供应保障机制。优化市域内区域协调发展机制,促进南北均衡发展、城乡融合发展、生态涵养区绿色发展,完善创新结对协作机制。 会议研究了《北京市推进自然灾害防治重点工程任务分工方案》,指出,要瞄准“三年时间明显见效”目标,实施好自然灾害防治重点工程,不断提高全社会自然灾害防治能力,保护人民群众生命财产安全和城市安全。认真开展灾害风险调查和重点隐患排查。抓好重点生态功能区生态修复,推进永定河、北运河、萧太后河等重要河流综合治理和生态修复,恢复废弃矿山生态环境。加紧推进地震易发区房屋设施加固。增强城市抵御自然灾害能力,坚决消除内涝隐患。提高预报预警能力。 会议还研究了其他事项。
2020年是不寻常的一年,全球的健康、贸易、经济、文化、政治和科技领域,无不发生着深刻的变化。笔者所在的科技领域,也恰逢现代人工智能(简称AI)发展10周年。前10年,人工智能技术得到了长足的发展,但也留下许多问题有待解决。那么,未来AI技术将会如何发展呢?本文将结合学术界、工业界的研究成果,以及笔者个人研究见解,从算力、数据、算法、工程化4个维度,与读者一起探索和展望AI发展的未来。一数据我们首先分析数据的发展趋势。数据对人工智能,犹如食材对美味菜肴,过去10年,数据的获取无论是数量,还是质量,又或者是数据的种类,均增长显著,支撑着AI技术的发展。未来,数据层面的发展会有哪些趋势呢,我们来看一组分析数据。首先,世界互联网用户的基数已达到十亿量级,随着物联网、5G技术的进一步发展,会带来更多数据源和传输层面的能力提升,因此可以预见的是,数据的总量将继续快速发展,且增速加快。参考IDC的数据报告(图1),数据总量预计将从2018年的33ZB(1ZB=106GB),增长到2025年的175ZB。其次,数据的存储位置,业界预测仍将以集中存储为主,且数据利用公有云存储的比例将逐年提高,如图2、图3所示。以上对于未来数据的趋势,可以总结为:数量持续增长;云端集中存储为主;公有云渗透率持续增长。站在AI技术的角度,可以预期数据量的持续供给是有保证的。另一个方面,AI技术需要的不仅仅是原始数据,很多还需要标注数据。标注数据可分为自动标注、半自动标注、人工标注3个类别。那么,标注数据未来的趋势会是怎样的?我们可从标注数据工具市场的趋势窥探一二,如图4所示。可以看到,人工标注数据在未来的5-10年内,大概率依然是标注数据的主要来源,占比超过75%。通过以上数据维度的分析与预测,我们可以得到的判断是,数据量本身不会限制AI技术,但是人工标注的成本与规模很可能成为限制AI技术发展的因素,这将倒逼AI技术从算法和技术本身有所突破,有效解决对数据特别是人工标注数据的依赖。二算力我们再来看看算力。算力对于AI技术,如同厨房灶台对于美味佳肴一样,本质是一种基础设施的支撑。算力指的是实现AI系统所需要的硬件计算能力。半导体计算类芯片的发展是AI算力的根本源动力,好消息是,虽然半导体行业发展有起有落,并一直伴随着是否可持续性的怀疑,但是半导体行业著名的“摩尔定律”已经经受住了120年考验(图5),相信未来5-10年依然能够平稳发展。不过,值得注意的是,摩尔定律在计算芯片领域依然维持,很大原因是因为图形处理器(GPU)的迅速发展,弥补了通用处理器(CPU)发展的趋缓,如图6所示,从图中可以看出GPU的晶体管数量增长已超过CPU,CPU晶体管开始落后于摩尔定律。当然,半导体晶体管数量反映整体趋势可以,但还不够准确地反映算力发展情况。对于AI系统来说,浮点运算和内存是更直接的算力指标,下面具体对比一下GPU和CPU这2方面的性能,如图7所示。可以看出,GPU无论是在计算能力还是在内存访问速度上,近10年发展远超CPU,很好的填补了CPU的性能发展瓶颈问题。另一方面,依照前瞻产业研究院梳理的数据,就2019年的AI芯片收入规模来看,GPU芯片拥有27%左右的份额,CPU芯片仅占17%的份额。可以看到,GPU已成为由深度学习技术为代表的人工智能领域的硬件计算标准配置,形成的原因也十分简单,现有的AI算法,尤其在模型训练阶段,对算力的需求持续增加,而GPU算力恰好比CPU要强很多,同时是一种与AI算法模型本身耦合度很低的一种通用计算设备。除了GPU与CPU,其他计算设备如ASIC、FGPA等新兴AI芯片也在发展,值得行业关注。鉴于未来数据大概率仍在云端存储的情况下,这些芯片能否在提高性能效率的同时,保证通用性,且可以被云厂商规模性部署,获得软件生态的支持,有待进一步观察。三算法现在我们来分析算法。AI算法对于人工智能,就是厨师与美味佳肴的关系。过去10年AI的发展,数据和算力都起到了很好的辅助作用,但是不可否认的是,基于深度学习的算法结合其应用取得的性能突破,是AI技术在2020年取得里程碑式发展阶段的重要原因。那么,AI算法在未来的发展趋势是什么呢?这个问题是学术界、工业界集中讨论的核心问题之一,一个普遍的共识是,延续过去10年AI技术的发展,得益于深度学习,但是此路径发展带来的算力问题,较难持续。下面我们看一张图,以及一组数据:1. 根据OpenAI最新的测算,训练一个大型AI模型的算力,从2012年开始计算已经翻了30万倍,即年平均增长11.5倍,而算力的硬件增长速率,即摩尔定律,只达到年平均增速1.4倍;另一方面,算法效率的进步,年平均节省约1.7倍的算力。这意味着,随着我们继续追求算法性能的不断提升,每年平均有约8.5倍的算力赤字,令人担忧。一个实际的例子为今年最新发布的自然语义预训练模型GPT-3,仅训练成本已达到约1300万美元,这种方式是否可持续,值得我们思考。2. MIT最新研究表明,对于一个过参数化(即参数数量比训练数据样本多)的AI模型,满足一个理论上限公式:上述公式表明,其算力需求在理想情况下,大于等于性能需求的4次方,从2012年至今的模型表现在ImageNet数据集上分析,现实情况是在9次方的水平上下浮动,意味着现有的算法研究和实现方法,在效率上有很大的优化空间。3. 按以上数据测算,人工智能算法在图像分类任务(ImageNet)达到1%的错误率预计要花费1亿万亿(10的20次方)美元,成本不可承受。结合前文所述的数据和算力2个维度的分析,相信读者可以发现,未来标注数据成本、算力成本的代价之高,意味着数据红利与算力红利正在逐渐消退,人工智能技术发展的核心驱动力未来将主要依靠算法层面的突破与创新。就目前最新的学术与工业界研究成果来看,笔者认为AI算法在未来的发展,可能具有以下特点:(1)先验知识表示与深度学习的结合纵观70多年的人工智能发展史,符号主义、连接主义、行为主义是人工智能发展初期形成的3个学术流派。如今,以深度学习为典型代表的连接主义事实成为过去10年的发展主流,行为主义则在强化学习领域获得重大突破,围棋大脑AlphaGo的成就已家喻户晓。值得注意的是,原本独立发展的3个学派,正在开始以深度学习为主线的技术融合,比如在2013年,强化学习领域发明了DQN网络,其中采用了神经网络,开启了一个新的研究领域称作深度强化学习(Deep Reinforcement Learning)。那么,符号主义类算法是否也会和深度学习进行融合呢?一个热门候选是图网络(Graph Network)技术,这项技术正在与深度学习技术相融合,形成深度图网络研究领域。图网络的数据结构易于表达人类的先验知识,且是一种更加通用、推理能力更强(又称归纳偏置)的信息表达方法,这或许是可同时解决深度学习模型数据饥渴、推理能力不足以及输出结果可解释性不足的一把钥匙。(2)模型结构借鉴生物科学深度学习模型的模型结构由前反馈和反向传播构成,与生物神经网络相比,模型的结构过于简单。深度学习模型结构是否可以从生物科学、生物神经科学的进步和发现中吸取灵感,从而发现更加优秀的模型是一个值得关注的领域。另一个方面,如何给深度学习模型加入不确定性的参数建模,使其更好的处理随机不确定性,也是一个可能产生突破的领域。(3)数据生成AI模型训练依赖数据,这一点目前来看不是问题,但是AI模型训练依赖人工标注数据,是一个头痛的问题。利用算法有效解决或者大幅降低模型训练对于人工标注数据的依赖,是一个热点研究领域。实际上,在人工智能技术发展过程中一直若隐若现的美国国防部高级研究计划局(DARPA),已经将此领域定为其AI3.0发展计划目标之一,可见其重要程度。(4)模型自评估现有的AI算法,无论是机器学习算法,还是深度学习算法,其研发模式本质上是通过训练闭环(closed loop)、推理开环(open loop)的方式进行的。是否可以通过设计模型自评估,在推理环节将开环系统进化成闭环系统也是一个值得研究的领域。在通信领域,控制领域等其他行业领域的大量算法实践表明,采用闭环算法的系统在性能和输出可预测性上,通常均比开环系统优秀,且闭环系统可大幅降低性能断崖式衰减的可能性。闭环系统的这些特性,提供了对AI系统提高鲁棒性和可对抗性的一种思路和方法。四工程化上文已经对人工智能数据、算力、算法层面进行了梳理和分析,最后我们看看工程化。工程化对于人工智能,如同厨具对于美味佳肴一样,是将数据、算力、算法结合到一起的媒介。工程化的本质作用是提升效率,即最大化利用资源,最小化减少信息之间的转换损失。打一个简单的比喻,要做出美味佳肴,食材、厨房灶台、厨师都有,但是唯独没有合适的厨具,那么厨师既无法发挥厨艺(算法),又无法处理食材(数据),也无法使用厨房灶台的水电气(算力)。因此,可以预见,工程化未来的发展,是将上文提到的算力与算法性能关系,从现在的9次方,逼近到理论上限4次方的重要手段之一。过去10年,AI工程化发展,已形成一个明晰的工具链体系,近期也伴随着一些值得关注的变化,笔者将一些较为明显的趋势,汇总如下:总结来说,AI工程化正在形成从用户端到云端的,以Python为编程语言的一整套工具链,其3个重要的特点为:远程编程与调试,深度学习与机器学习的GPU加速支持,以及模型训练与推理工具链的解耦。与此同时,产业链上游厂商对开源社区的大量投入,将为中下游企业和个人带来工具链的技术红利,降低其研发门槛和成本,笔者认为微软、脸书、英伟达3家上游厂商主推的开源工具链尤其值得关注。五结语对于人工智能技术过去10年发展取得的成就,有人归因于数据,也有人归因于算力。未来人工智能技术发展,笔者大胆预测,算法将是核心驱动力。同时,算法研发的实际效率,除了算法结构本身,还取决于设计者对先进工具链的掌握程度。未来10年,科技界是否能用更少的数据,更经济的算力,获得真正意义上的通用智能呢?我们拭目以待。
领跑“新基建”,河南5G建设正全力加速,5G正融入中原大地千行百业。不久前,河南推进全省5G网络建设和产业发展电视电话会议召开。而在5月底,河南省政府与中国电信集团、中国移动通信集团、中国联合网络通信集团、中国铁塔股份有限公司举行签约仪式,共同推进5G网络建设和产业发展。 去年以来,河南已累计建成5G基站1.6万余个,地铁线、高铁站、旅游景区、城市主干道相继完成5G网络覆盖。今年春节期间实现各省辖市城区5G网络全覆盖和正式商用,成为在全国率先实现所有省辖市全面商用的省份,目前已累计发展5G用户300多万户。为提升网络供给能力,河南吸引中国移动、中国联通5G SA核心网大区中心部署郑州,实现对河南等多省区5G业务承载。 今年以来,河南加速“新基建”布局数字经济,而5G处于关键位置。河南推出一揽子5G建设计划,全年计划完成5G投资100多亿元,新建5G基站近3万个,实现全省县城及以上城区5G网络全覆盖。 5G发展,网络是基础,应用是关键。河南去年即启动了“5G+”示范工程,依托中国移动5G联合创新中心开放实验室、中国联通通信技术实验室、中国铁塔5G建设技术创新中心等5G技术研发机构,开展了5G智慧医疗、5G智慧交通、5G+4K超高清视频直播等试点示范,并打造出一系列行业领先的5G应用项目:由河南移动、郑大一附院、华为联合打造的国内首个5G智慧医疗示范网已在郑州投入使用;5G高清监控、无人巡逻船和无人移动售货车等5G设备亮相郑州龙子湖智慧岛街头,成为流动的科技风景;河南综合工业互联网平台上线运行,中原内配、新乡化纤等制造业企业启动5G智慧工厂建设…… 为加速培养相关产业链,河南先后成立了5G产业联盟和5G应用产教融合联盟,中德智能产业研究院、华为云运营服务创新中心等产业研究机构、技术创新中心挂牌成立,一批知名企业在河南落户并开展关键功能研发与测试验证。 河南把推进5G建设作为增强自主创新能力、促进产业升级换代、提升治理效能的战略之举,制定出台3年行动计划,加快5G网络建设,培育壮大5G产业,拓展5G应用场景,力争把河南建设成在全国具有重要影响的5G产业发展先行区、创新应用示范区和集聚发展热点地区。河南省省长尹弘表示,要抓住战略机遇,加快5G网络建设和产业发展,以5G发展新成效形成区域发展新优势。