设备端AI革命:廉价快速安全的人工智能新时代

cnet
传统AI依赖云端处理存在延迟和隐私问题。越来越多开发者将AI处理从数据中心转移到手机、笔记本等个人设备上。设备端AI具有三大优势:速度更快,无需等待云端响应;隐私更安全,数据不离开设备;成本更低,无需支付云服务费用。

本文来自至顶网(ai.zhiding.cn),来源:cnet。

传统AI依赖云端处理存在延迟和隐私问题。越来越多开发者将AI处理从数据中心转移到手机、笔记本等个人设备上。设备端AI具有三大优势:速度更快,无需等待云端响应;隐私更安全,数据不离开设备;成本更低,无需支付云服务费用。目前iPhone已运行30亿参数的设备端AI模型,谷歌Pixel手机也搭载Gemini Nano模型。未来五年内,随着硬件升级和算法优化,设备端AI将实现物体识别、导航翻译等更复杂功能。

当我在手机上点击Anthropic的Claude AI应用并输入提示"给我讲一个淘气猫咪的故事"时,在结果出现在屏幕上之前,实际上经历了一个复杂的过程。我的请求被发送到云端某处数据中心的计算机,通过Claude的Sonnet 4.5大语言模型进行处理。该模型利用高级预测文本技术,基于其训练的海量数据组装出合理的回复。然后,这个回复被传回到我的iPhone上,逐字逐句地显示在屏幕上。整个过程中,信息传输了数百甚至数千英里,经过多台计算机,而这一切都在几秒钟内完成。

这种系统在处理低风险且对速度要求不高的任务时运行良好。我可以等待几秒钟来获得关于Whiskers在厨房橱柜里冒险的小故事。但并非所有人工智能任务都是如此。有些任务需要极快的速度。如果AI设备要提醒某人前方有阻挡物体,它不能等待一两秒钟。

其他请求则需要更高的隐私保护。我不在乎猫咪故事经过数十台我不了解且可能不信任的个人或公司拥有的计算机。但如果是我的健康信息或财务数据呢?我可能希望对此保持更严格的控制。

速度和隐私是科技开发者越来越多地将AI处理从大型企业数据中心转移到手机、笔记本电脑或智能手表等个人设备上的两个主要原因。这样做还能节省成本:无需向大型数据中心运营商付费。此外,设备端模型可以在没有互联网连接的情况下工作。

但实现这一转变需要更好的硬件和更高效、往往更专业化的AI模型。这两个因素的融合将最终决定你在手机等设备上的使用体验有多快多流畅。

卡内基梅隆大学计算机科学教授Mahadev Satyanarayanan(被称为Satya)长期研究边缘计算——即尽可能接近实际用户处理数据处理和存储的概念。他说真正边缘计算的理想模型是人脑,它不会将视觉、识别、语音或智能等任务外包给任何形式的"云端"。所有处理都在本地进行,完全"设备端"完成。

"问题是:自然界花了十亿年才进化出我们,"他告诉我,"我们没有十亿年等待。我们试图在五年或十年内完成这个过程。我们如何加速这种进化?"

答案是通过在更好、更快、更小的硬件上运行更好、更快、更小的AI来加速进化。正如我们已经在最新的应用和设备中看到的那样——包括在CES 2026上展示的那些——这一进程已经在顺利进行。

AI可能现在就在你的手机上运行

设备端AI远非新鲜事物。还记得2017年你第一次能够通过将iPhone举在面前来解锁它吗?那种面部识别技术使用了设备端神经引擎——虽然它不是像Claude或ChatGPT那样的生成式AI,但它确实是基础的人工智能。

今天的iPhone使用更强大、更多功能的设备端AI模型。它拥有约30亿个参数——语言模型中给予概率的个别权重计算。与大多数AI聊天机器人运行的大型通用模型相比,这相对较小。例如,Deepseek-R1拥有6710亿个参数。但它不是为了做所有事情而设计的。相反,它是为特定的设备端任务而构建的,比如总结消息。就像解锁手机的面部识别技术一样,这是不能依赖互联网连接来运行云端模型的功能。

苹果已经提升了其设备端AI能力——称为Apple Intelligence——包括视觉识别功能,比如让你查找截图中的内容。

设备端AI模型无处不在。Google的Pixel手机在其定制的Tensor G5芯片上运行公司的Gemini Nano模型。该模型支持Magic Cue等功能,可以在你需要时从邮件、消息等中提取信息,而无需手动搜索。

手机、笔记本电脑、平板电脑及其内部硬件的开发者正在构建考虑到AI的设备。但这超越了这些设备。想想智能手表和眼镜,它们提供的空间甚至比最薄的手机还要有限?

"系统挑战是非常不同的,"高通公司生成式AI和机器学习负责人Vinesh Sukumar说。"我能在所有设备上完成所有任务吗?"

目前,答案通常是否定的。解决方案相当直接。当请求超出模型能力时,它会将任务外包给基于云的模型。但根据这种交接的管理方式,它可能会破坏设备端AI的关键优势之一:将数据完全掌握在自己手中。

更私密和安全的AI

专家反复指出隐私和安全是设备端AI的关键优势。在云环境中,数据到处传输,面临更多漏洞时刻。如果它保留在加密的手机或笔记本电脑驱动器上,保护起来就容易得多。

设备AI模型使用的数据可能包括你的偏好、浏览历史或位置信息等。虽然所有这些对于AI根据你的偏好个性化体验至关重要,但这也是你可能不希望落入不法分子手中的信息类型。

"我们正在推动的是确保用户能够访问并且是该数据的唯一所有者,"Sukumar说。

有几种不同的方式来处理信息外包以保护你的隐私。一个关键因素是你必须给予许可才能进行外包。Sukumar说,高通的目标是确保人们在模型达到需要外包到云端的程度时,能够获得信息并有能力说不。

另一种方法——可以与要求用户许可并行使用——是确保发送到云端的任何数据都得到安全、简短和临时的处理。例如,苹果使用称为私有云计算的技术。外包的数据只在苹果自己的服务器上处理,只发送任务所需的最少数据,并且不会存储或让苹果访问。

没有AI成本的AI

在设备上运行的AI模型对应用开发者和用户都有一个优势,即运行它们的持续成本基本为零。无需向云服务公司支付能源和计算能力费用。一切都在你的手机里。你的口袋就是数据中心。

这正是噪音机应用Dark Noise的开发者Charlie Chapman选择使用苹果基础模型框架来制作声音混合工具的原因。设备端AI模型不是生成新音频,而是选择不同的现有声音和音量级别来制作一个混合音效。

因为AI在设备端运行,所以在你制作混合音效时没有持续成本。对于像Chapman这样的小开发者来说,这意味着与应用用户群规模相关的风险更小。"如果某个网红随便发布了关于它的内容,我突然获得了大量免费用户,这并不意味着我会突然破产,"Chapman说。

设备端AI缺乏持续成本使得像数据录入这样的小型重复任务可以在没有巨额成本或计算合同的情况下实现自动化,Chapman说。缺点是设备端模型因设备而异,因此开发者必须做更多工作来确保他们的应用在不同硬件上工作。

AI任务越多在消费设备上处理,AI公司在大规模数据中心建设上的支出就越少,而这种建设让每家主要科技公司都在争夺现金和计算机芯片。"基础设施成本如此巨大,"Sukumar说。"如果你真的想推动规模化,你不会想推动这种成本负担。"

未来全在于速度

特别是当涉及到眼镜、手表和手机等设备上的功能时,AI和机器学习的真正实用性很大程度上不像我在文章开头用来制作猫咪故事的聊天机器人。而是像物体识别、导航和翻译这样的功能。这些需要更专业的模型和硬件——但它们也需要更快的速度。

卡内基梅隆大学教授Satya一直在研究AI模型的不同用途,以及它们是否能够使用设备端模型准确快速地工作。当涉及到物体图像分类时,今天的技术表现相当不错——能够在100毫秒内提供准确结果。"五年前,我们根本无法获得那种准确度和速度,"他说。

但对于其他四项任务——物体检测、即时分割(识别物体及其形状的能力)、活动识别和物体跟踪——设备仍然需要外包给其他地方更强大的计算机。

"我认为在接下来的几年,大约五年左右,这将非常令人兴奋,因为硬件供应商不断努力使移动设备更好地适应AI,"Satya说。"同时,AI算法本身也变得更强大、更准确、计算更密集。"

机遇是巨大的。Satya说,未来的设备可能能够使用计算机视觉在你在不平坦路面上绊倒之前提醒你,或者提醒你正在与谁交谈,并提供你过去与他们沟通的背景信息。这些事情将需要更专业的AI和更专业的硬件。

"这些将会出现,"Satya说。"我们能在地平线上看到它们,但它们还没有到来。"

Q&A

Q1:设备端AI与云端AI相比有什么优势?

A:设备端AI主要有三个优势:速度更快,因为无需等待数据传输到云端;隐私更安全,数据保留在本地设备上;成本更低,无需支付云服务费用,且可在无网络情况下工作。

Q2:目前设备端AI模型的限制是什么?

A:设备端AI模型通常参数较少,功能相对有限。例如iPhone的设备端AI模型约有30亿参数,而云端大语言模型如Deepseek-R1有6710亿参数。对于复杂任务如物体检测、即时分割等,设备仍需外包到更强大的云端计算机。

Q3:未来设备端AI会如何发展?

A:未来五年内,设备端AI将在硬件和算法两方面快速发展。硬件供应商正在开发更适合AI的移动设备,AI算法也在变得更强大准确。未来设备可能实现计算机视觉预警、实时身份识别等功能,但仍需要更专业的AI和硬件支持。

THEEND

最新评论(评论仅代表用户观点)

更多
暂无评论