GPU

人工智能应用通常需要大规模的高性能计算资源,包括GPU和TPU等加速器。因此,数据中心需要具备足够的计算能力来支持这些应用的训练和推理。这意味着数据中心需要更多的服务器和更强大的网络基础设施,以确保高性能计算任务能够顺畅执行。
GPU计算的开源生态越来越繁荣后,也为其带来了巨大的市场空间,Nvidia DGX企业级的深度学习训练平台概念应运而生,为英伟达的显卡和平台销售创造了千亿级市场。
微软的芯片类似于英伟达图形处理器(GPU),是为训练和运行大语言模型的数据中心服务器设计的,大语言模型是OpenAI的ChatGPT等对话式人工智能功能背后的软件。微软的数据中心服务器目前使用英伟达的GPU,为包括OpenAI和Intuit在内的云客户以及微软生产力应用中的人工智能功能提供支持。
生成式AI越来越流行,尤其是在商业领域。不久前,沃尔玛宣布推出生成式AI应用程序,供5万名非店铺员工使用。App将沃尔玛数据与第三方大语言模型(LLM)结合,可以帮助员工执行多种任务,比如成为创意伙伴,在大文档中提取摘要。

本站热榜

日排行
周排行
月排行
热点资讯