GPU

人工智能应用通常需要大规模的高性能计算资源,包括GPU和TPU等加速器。因此,数据中心需要具备足够的计算能力来支持这些应用的训练和推理。这意味着数据中心需要更多的服务器和更强大的网络基础设施,以确保高性能计算任务能够顺畅执行。
GPU计算的开源生态越来越繁荣后,也为其带来了巨大的市场空间,Nvidia DGX企业级的深度学习训练平台概念应运而生,为英伟达的显卡和平台销售创造了千亿级市场。
微软的芯片类似于英伟达图形处理器(GPU),是为训练和运行大语言模型的数据中心服务器设计的,大语言模型是OpenAI的ChatGPT等对话式人工智能功能背后的软件。微软的数据中心服务器目前使用英伟达的GPU,为包括OpenAI和Intuit在内的云客户以及微软生产力应用中的人工智能功能提供支持。
活动推荐

2024数智融合应用论坛

北京

本站热榜

日排行
周排行
月排行
热点资讯