尽管部署大量GPU是扩展算力的最直接途径,但与此同时传统的互联方案还是创造了巨大的I/O瓶颈,严重影响了GPU的性能利用率,导致更多的时间花在了等待数据而不是处理数据上。
人工智能应用通常需要大规模的高性能计算资源,包括GPU和TPU等加速器。因此,数据中心需要具备足够的计算能力来支持这些应用的训练和推理。这意味着数据中心需要更多的服务器和更强大的网络基础设施,以确保高性能计算任务能够顺畅执行。
分析机构CCS Insight今日做出预测,认为生成式AI领域明年可能会面临一次现实检验,其认为,随着“围绕AI技术本身的炒作逐渐减弱”、“运行AI的成本不断上升”以及“对AI进行监管”的呼声增加,未来AI行业可能遇冷,技术发展逐渐出现放缓迹象。
深度学习在机器学习的复杂性方面取得了飞跃。如果结果有错误或不理想,机器学习可能需要在输出层进行人工干预;而深度学习则不同,其可以在没有人工干预的情况下不断学习并提高准确性。多层深度学习模型可以达到惊人的准确性和性能水平。
GPU计算的开源生态越来越繁荣后,也为其带来了巨大的市场空间,Nvidia DGX企业级的深度学习训练平台概念应运而生,为英伟达的显卡和平台销售创造了千亿级市场。
微软的芯片类似于英伟达图形处理器(GPU),是为训练和运行大语言模型的数据中心服务器设计的,大语言模型是OpenAI的ChatGPT等对话式人工智能功能背后的软件。微软的数据中心服务器目前使用英伟达的GPU,为包括OpenAI和Intuit在内的云客户以及微软生产力应用中的人工智能功能提供支持。