2022年春节之后,全国疫情呈现多点、多区、多链条暴发态势,疫情的流调溯源和快速处置工作面临巨大挑战:
快速精准地判定密接人员,迅速掌握流调核心信息,科学统筹划定“封闭区、封控区、管控区” ,管控队迅速到场处置,每个环节都在与病毒争分夺秒,可以说,流行病学调查是疫情防控中最费时费力的工作之一。
这期间,深圳上线了基于人工智能的调查处置系统,将语音识别、自然语言处理等人工智能技术应用在流调访谈中,访谈内容自动生成文本,还能智能识别提取核心信息,自动填写流调表单。
同时,合肥也快速上线了AI疫情排查机器人,24小时快速响应,有效触达率100%。目前该机器人已累计外呼2万余通,接通率80%。AI助力,将有效帮助基层人员减负增效,让他们有更多的时间、精力可以投入到更加紧迫的核酸检测与隔离管控工作中。
当然,流调和排查工作能够有条不紊,快速并精准地锁定可疑阳性人员,离不开强大的算力支持,高性能且多元化的算力才能为流调工作提供顺畅的信息化“工作流”。
深圳采取多端协同工作模式,所有现场信息均通过移动端App进行上报,PC端可实时获取现场信息。通过多端工作实时协同和高性能计算的支撑,才能有效减少“线下”信息传递不及时、碎片化信息整合效率低、信息传递有错漏的业务痛点,助力流调工作扩面、加深、提速、闭环。
如何释放所有资源,快速交付和持续迭代,扫清建模数据量、海量数据标签、训练等所需要资源方面的阻碍,实现高精度所需要算法和算力的同时,又能保证全球数据隐私法律化进程中的业务合规,这是自动驾驶机会变现的关键机会。其中一个途径,是众多自动驾驶已开始通过利用人工智能服务,提升算力,以扫清道路障碍。 如今,面对数字化转型这辆快车,数据是石油,人工智能是核心操作系统,算力则是发动机。
即使燃料再充足,操作系统再先进,发动机不给力,未来这条数字道路也走不长,更走不远。当下人工智能向多场景、规模化、融合普惠等高应用阶段方向发展,数据体量呈现出爆发式增长态势,算法模型的参数量呈指数级增加,推动算力竞争愈加白热化。
不仅仅是医疗业,其他许多行业对人工智能的需求都呈现快速攀升的态势。以汽车行业为例,传统车企通过收购、并购或跨界创新,依托人工智能快速提升汽车驾驶的安全性和舒适性。自动驾驶快速成为数字化经济的新赛道,从车联网、自动导航、自动泊车,到自动车队管理以及全自动驾驶等各个环节,都吸引了大量创新型企业涌入。
业务持续创新和智能升级:
算力拖后腿
现如今,人工智能落地加速,数据海量增长,模型也愈加复杂和庞大,传统计算机的算力瓶颈已经成为了制约人工智能发展的一个重要因素。没有算力支撑,基于AI的业务连续性和创新性难以为继,还何谈智能升级和生态创新。
利用海量数据训练大规模机器学习模型有助于我们充分学习数据中蕴含的知识,实现更好的训练效果。然而,随着训练规模的扩大,由于单台机器的能力已远远无法满足日益增长的AI训练需求,科技巨头们纷纷部署了自己的超级计算机集群,希望通过将训练过程扩展到上千台机器,使用分布式计算提高模型的训练效率。
数字化时代,HPC与AI融合加深,HPC通过模拟、建模和分析,满足各行业部署AI过程中对算力的需求。但随着AI等技术带来数据量大规模增长、数据结构多元化、数据分析任务复杂化,HPC逐渐走向HPDA(高性能数据分析)的新方向,AI时代的超算体系正在从计算密集型转向到数据密集型。
例如:新冠疫苗研发需要对病毒与蛋白质进行解析,这个过程中会快速产生海量数据,并且其结构复杂、数据形态多元。解析过程不仅考验计算能力,更考验全流程化的数据存放、调用、解析与再利用能力。
机器学习和人工智能要求高并行处理
算力制约AI发展
但即便是超级计算机,也面临着硬件堆砌到达一定数量后算力无法进一步提升的瓶颈,浪费了大量计算资源的同时,也制约了AI的发展。
人工智能一直在探究如何像人类一样具备逻辑、意识和推理的认知能力,目前来看,通过大规模数据训练超大参数量的巨量模型,被认为是非常有希望的实现方式。未来,AI模型的巨量化和规模化将成为重要趋势,但由此而来的模型参数多、训练数据量大,导致对算力的需求始终呈指数增长。
例如,巨量模型的代表GPT-3在2020年的算力达到了3640PD,到2023年则增长至百万PD。同时,巨量模型需要巨量内存,在超大规模集群中同时满足几万块AI芯片的高性能读取,对存储系统是极大的挑战。
以能源行业为例,碳中和时代下,以万物互联、融合创新为特征,AIoT成为加速实现智慧能源管理与运维的关键。具体而言,AIoT以其强大算力支撑AI巨量模型分析,并借助万物互联构建协同网络,给可再生能源发展过程中遇到的问题提供解决方案。 一方面,风电、光伏已经是比煤炭更高效的可再生能源,通过
AI模型巨量化和规模化
要求巨大算力
AIoT技术,发电效率更能大大提升;另一方面,AIoT能够整合碎片化的能源系统,创造协同价值,解决电力系统动态平衡,推动电力生产侧到消费侧的协同成本中降低,产生巨大的商业价值。
现下,各行各业充斥着各种应用,不同场景下的业务应用对计算系统的要求也不尽相同。而且,传统应用架构都是相互独立的,在计算资源管理上不仅成本高而且难度大,面对复杂的计算场景和分散的计算架构,势必需要多元算力来支撑。
尤其是基于人工智能的应用,从推理到训练,对计算的精确度要求大不相同,同时,数据量也从GB级到TB级、PB级不断提升,类型从结构化到半结构化、非结构化更加复杂多样,通用CPU芯片已经无法满足这种多元化计算场景要求。
这其中涉及到历史数据筛查、实时交易监控、客户关系网挖掘、AI模型训练、数据安全合规等方面,每一方面所需要的计算精确度都不同,自然对算力的要求也不同。通用CPU显然无法支撑如此多元的工作负载,而以GPU及FPGA、ASIC等专用加速芯片为代表的异构加速计算需求崛起,可满足多元化算力需求。
各类智能应用
需要多元算力
以金融行业为例,数字化时代金融反欺诈更注重用户体验,通过部署欺诈检测机器学习系统,实时地针对既定欺诈模式和无监督学习来识别新兴的欺诈模式,降低误判率,为用户提供更值得信赖的交易体验。
戴尔科技以人工智能
打造智慧算力
算力作为数据中心提供的最核心的能力,也是数字化时代下的核心生产力,哪里需要数据处理,哪里就有算力。随着以人工智能、物联网、AR/VR
等技术为核心的智能化应用场景逐渐普及,越来越多行业对高性能算力的需求也在不断上升,HPC作为算力王者在数据中心领域的应用也越来越多。
戴尔科技致力于将算力转化为业务创新力,让AI发挥其强大优势,让数据DNA根植于每一家企业。戴尔正以广泛而全面的产品和解决方案组合,帮助数据科学家、开发人员、运维人员简化AI部署的复杂性、消除算力瓶颈,加速AI场景化和普及化。
戴尔最新一代PowerEdge服务器基于PCIe Gen 4,将处理核心数量增加了100%,内存速度加快20%。比如PowerEdge
戴尔PowerEdge XE8545支持PCIe 4.0,增加100%的处理核心数量,内存加速快20%,可充分保障并行I/O吞吐性能,提升处理的速度。 除了硬件设施外,戴尔科技还通过开源Omnia软件,加速和简化人工智能和计算密集型工作负载的部署和管理。
在疫苗研发过程中,高性能计算和GPU加速可为科研人员建立各种复杂病毒的可视化模型,了解病毒的性质并找到攻克病毒的解决方案,助力用户快速实现从HPC到HPDA的转变,将算力实时转化为业务洞察力。
戴尔新一代高性能计算支持高并行,助力HPC到HPDA:
R750在解决大规模并行线性方程方面可实现高达43%的性能提升,支持计算量最繁重的工作负载,为客户提供关键负载和应用所需的澎湃算力。
拥有强大GPU加速器优化性能的戴尔PowerEdge XE8545服务器专为高性能AI计算而生,这款双插槽4U机架式服务器最高支持4块NVIDIA
A100 GPU加速卡,使用业界领先的NVLink GPU直连设计,突破数据流和计算能力的界限,轻松满足AI深度学习和高级计算等工作负载。
戴尔多管齐下助力AI巨量模型分析,赋能企业布局AIoT:
戴尔Precision数据科学工作站产品组合,可帮助数据科学家面对大规模、巨量模型分析,专注于试验、探索和发现洞察力,而不是维护AI系统并等待模型训练迭代完成。通过在预先配置、预先验证的数据科学工作站上运行模型,用户可以最大限度地提高生产力、加快流程、产生更好的质量见解并降低项目成本。
戴尔IoT Edge网关基于Intel
技术,内置的安全和管理功能,有助于保护网络终端。此外,结合云可扩展的数据存储和密集型处理器的深度学习算法,为企业的数据存储和分析提供了更强大的保障。
戴尔基于PowerScale+ECS的数据湖架构平台,以统一资源的优势,实现了用户数据分层和多租户的管理,可以更好地满足企业在海量数据、访问速度、多样性方面的需求,赋能工业智能。
企业在布局AIoT的时候,需要同时具备强大的模型训练能力和云边协同的万物互联能力。未来AIoT更将快速向边缘端转移,一方面可有效避免延迟问题,提高系统的灵活性,另一方面,数据安全可获得双重保障。戴尔科技助力企业快速实现边缘集成AIoT,不仅可以直接且有针对性地获得更高效的业务决策力,并更快地优化流程。
戴尔PowerScale作为横向扩展NAS存储,可在单个文件系统中从TB级扩展到PB级容量。它搭载新一代横向扩展文件系统OneFS和PowerEdge服务器,与Hadoop集成,可帮助应用开发人员加快分析海量数据,并在几分钟内获得结果。 PowerScale允许无缝进行新旧节点服务器过渡升级,不需要数据迁移,60秒内即可简单扩容一个节点。基于PowerScale,用户可以高效地存储、管理、保护和分析非结构化数据。
戴尔与NVIDIA合作通过戴尔PowerScale、PowerSwitch交换机和NVIDIA DGX-2™系统与NVIDIA V100 Tensor
此外,戴尔多款服务器支持FPGA,可帮助加速核心工作负载,在几分之一秒内重新编程,为机器学习等数据密集型应用提供超强算力。
戴尔PowerScale满足智能应用对多元算力需求,推动机器学习场景化:
Core GPU来加速和扩展深度学习训练工作负载。遵循此参考架构,企业可以更快地部署,实现更高的模型准确性,并通过大规模人工智能加速业务价值,简化和加速企业级AI计划的部署。
现今,机器学习正深入到各行各业,在全社会范围内制造颠覆性变革。超强算力和高可扩展存储架构加速机器学习实现自动化,满足了企业数据建模过程中数据科学家、建模工程师、数据分析师以及业务人员的痛点需求。戴尔科技将以全面的解决方案组合赋能企业实现全流程端到端自动建模,进一步提高机器学习的普及化落地能力。
发表评论