本文来自微信公众号“中国电子报”,【作者】特约撰稿 孟繁科,资深媒体人。
“人工智能+”行动的核心使命,是推动人工智能技术与实体经济的深度融合。然而,从理论到实践、从技术到应用的转化之路绝非坦途,落地过程中面临着一系列严峻的挑战。这些挑战被业界形象地称为“最后一公里”障碍,既涉及宏观战略层面的认知偏差,也包含行业应用中共性的技术瓶颈,更延伸至智能制造、医疗、金融等特定领域场景中的具体问题。这些问题相互交织、彼此牵制,共同构成了制约“人工智能+”行动深入推进的障碍,亟待系统性破解。
核心症结是“最后一公里”障碍
当前,企业在引入人工智能时普遍存在着深刻的战略认知偏差,这已成为阻碍AI有效落地的首要障碍。最典型的表现是“为AI而AI“的跟风心态——管理层将AI视为一种时髦的潮流或孤立的技术项目,却对其如何与提质、降本、增效等核心目标相结合缺乏清晰认知。
与此同时,对AI还存在着两极化的认知误区:一端是将AI视为能够快刀斩乱麻的“万能灵药”,期望其能够一劳永逸地解决所有问题;另一端则是浅尝辄止的心态,短期内看不到回报便全盘否定AI的价值。IBM的一项研究揭示:亚太地区高达85%的企业宣称自己已做好AI准备,但经过客观评估,真正达到较高成熟度水平的组织仅占11%。这一悬殊的对比,凸显了认知偏差对企业AI战略的严重误导。
更深层次的问题在于企业内部对AI价值认同感的缺失以及跨部门协作的匮乏。运营技术(OT)团队与信息技术(IT)团队之间的沟通壁垒(甚至缺乏沟通意愿)导致无法形成统一目标。前者聚焦于生产的连续性和稳定性,后者则专注于技术的先进性和系统布局,两者根本形不成合力。此外,绝大多数员工因担心岗位被替代,不愿提供有价值的数据或尽可能拖延AI系统部署,这进一步加剧了AI落地的难度。落地尚且困难重重,更遑论与业务深度融合,更谈不上将AI作为推动变革的核心驱动力。
在战略认知偏差的背景下,AI应用的部署就不可避免地呈现出碎片化特征。许多企业的AI转型缺乏顶层设计和端到端的整体规划,仅仅停留在部门级的、单个试点项目上,这种现象也就不足为奇了。
IBM的研究显示,约67%的亚洲企业追求临时性的、部门级的部署,73%的企业缺乏跨团队的知识共享机制,协同创新和价值最大化就这样被瓦解了。例如,质量检测部门部署的缺陷智能识别系统所产生的数据,不与生产调度、设备维护等环节打通,虽然能够发现问题,却无法有效解决问题,改变生产形态就成了无源之水、无本之木。
与碎片化应用相伴相生的,是“重硬轻软”的投资倾向。大多数企业更愿意投资看得见、摸得着的硬件设备,如机器人、传感器等,而对算法、数据等“软实力”的投入则相对漠视。然而,AI的真正价值恰恰体现在数据驱动下的智能决策。硬件基础虽然先进,却没有“大脑”来指挥和优化整个生产系统。现实中的典型案例是,企业上马了AGV(自动导引运输车),但由于缺乏AI调度算法进行路径优化和任务分配,整体物流效率却大打折扣。
数据困境、算力瓶颈与模型局限
数据是人工智能的“燃料”,但高质量、易获取、安全的数据在工业等复杂场景中却是一种稀缺资源。
首先是数据质量问题。制造业的生产环境复杂多变,传感器采集到的数据往往包含大量噪声、缺失值和不一致性,将这些“脏数据”直接投喂给AI模型,无疑会降低训练效果和预测精度。
其次是数据孤岛现象。企业内部不同部门、不同系统(如ERP、MES、SCM)之间的数据标准不一,各自为政,就像一根根高高耸立的“数据烟囱”。AI模型难以实现全局优化的根本原因,就在于无法获取完整的上下文信息。
最后是企业对于数据安全与隐私保护的顾虑。工业数据不仅包含企业的核心工艺参数、生产流程等商业机密,还涉及供应链上下游的敏感信息。因此,企业在数据共享和使用上不得不谨小慎微,甚至要求“数据不出厂”。外部供应商如果使用这些数据进行模型开发,就必须到现场操作。这虽然保护了企业的核心利益,但也极大地限制了AI技术的推广应用。
随着AI模型,特别是大模型的参数量和复杂度呈指数级增长,其算力需求也呈现出前所未有的增长态势。由此,算力供给不足已成为制约AI技术发展和应用的关键瓶颈之一。对于许多企业,尤其是中小企业,难以承受高昂的算力成本,导致其在AI竞赛中处于不利地位。为了应对挑战,一些企业选择使用公有云服务,但又产生了数据安全和网络延迟等新问题。此外,算力资源还存在分布不均和“算力孤岛“的问题。一方面,大量的算力资源集中在少数科技巨头和研究机构手中,广大的中小企业和初创公司缺少算力支持。另一方面,企业内部不同部门、不同项目之间的算力资源也存在隔离,无法实现灵活调度和共享,导致资源浪费和效率低下。
AI模型,尤其是深度学习模型,在实际应用中面临着可靠性、可解释性和泛化能力等多方面的局限。
首先,可靠性关乎制造业等高风险领域的核心利益。企业面临两难选择:是选择准确率99%但可能突发1%致命错误的AI系统,还是选择准确率95%但绝对稳定可靠的系统?AI模型的错误决策(例如,错误地将合格品判为次品,或未能预测到设备故障),人类工程师很难解释其决策逻辑。因此,在关键生产控制环节上应用AI就成了难题,因为一旦出错引发重大生产事故,经济损失将无法承受。
其次,模型的泛化能力也是巨大挑战。在实验室环境中训练好的模型,部署到真实、多变的工业场景之后,其性能往往会大幅下降。这是因为现实数据与训练数据存在差异,即所谓的“域适应“问题。在A工厂训练好的模型,直接应用到B工厂,其效果可能不理想,因为两家工厂的设备、光照、产品批次等都存在差异。这种对特定物理场景的依赖性,导致AI解决方案的定制化成本高昂,难以规模化复制推广。
如何构建“人工智能+”的宏观保障体系
要成功推进“人工智能+”行动,仅仅解决技术应用层面的问题仍远远不够,还必须构建完善的宏观保障体系。这个体系中的政策法规、伦理规范、安全治理和人才培养等要素,共同营造起健康、有序、可持续的发展环境。
政策法规是引导“人工智能+“行动健康发展的“指挥棒”,相关的标准体系则是“压舱石”。清晰、稳定、前瞻性的政策框架能够指明产业发展方向,激发市场主体的创新活力;而统一、规范的标准体系,则是确保技术互操作性、保障产品质量、促进市场公平竞争的基础。
政府在推动AI与实体经济深度融合中扮演着至关重要的角色。首先,需要制定和实施”行动的总体目标、重点领域和实施步骤。其次,政府应通过财政、金融、税收等多种政策工具,为AI技术的研发和应用提供实际支持。
同时,“人工智能+”行动还面临着法律法规的滞后性与适应性挑战。由于人工智能技术的迭代速度远超传统立法周期,导致法律规则往往落后于技术发展,普遍存在“监管真空”或“监管错位”现象。例如,关于AI生成内容的版权归属、责任认定、数据使用的合法性边界等问题,目前的《著作权法》《民法典》等仍没有清晰明确的界定,这已经影响到技术创新和产业应用的积极性。
为了应对这一挑战,中国正在积极探索敏捷、灵活的立法路径。一方面,通过出台“小、快、灵”的部门规章和规范性文件,快速应对新兴技术发展的需要。国家网信办等部门联合发布的《生成式人工智能服务管理暂行办法》,就是在技术涌现不到六个月的时间内出台定稿的。另一方面,国家也在加紧研究制定更高位阶的专门法律。在全国人大常委会将人工智能健康发展等方面的立法项目列为预备审议项目的同时,积极推进自动驾驶、智能医疗、智慧金融等典型应用场景的专门立法。
人工智能应用一直面临着严重的标准化缺失问题。不同厂商的设备、软件和系统往往采用各自的技术标准和数据格式,导致系统之间难以互联互通,本来要打破“技术孤岛”,却制造了新的“技术孤岛”。不过,这一局面有望尽快改善。根据国务院《关于深入实施“人工智能+”行动的意见》的部署,相关部门将围绕六大重点行动,分层、分行业加快标准制订,促进行业内、领域间语料数据、模型和智能体协议等标准化发展。
随着人工智能技术的深入应用,其间的伦理和安全问题日益凸显。算法偏见、数据滥用、系统失控等风险,不仅会损害个人权益,甚至对社会稳定和国家安全构成威胁。因此,建立健全伦理规范和安全治理框架,确保AI“以人为本、科技向善”,正是“人工智能+”行动要坚守的底线。
算法公平性是人工智能伦理治理面临的重大挑战。AI依靠海量数据进行决策,但如果训练数据本身就包含偏见或歧视,那么算法就会复制甚至放大偏见,最终导致不公平的结果。美国某智库在招聘中所使用的AI筛选系统曾筛掉了大多数女性求职者,这还是在刻意隐藏应聘者性别的情况下发生的。在金融信贷领域,如果数据反映特定区域人群违约率较高,算法就会对这些群体做出更严格的审核,无形中加剧了社会不公。算法歧视损害的不仅是个人权益,更挑战着社会公平正义。
为了应对算法偏见挑战,我国正在从技术和制度两个层面构建治理框架。在技术层面,鼓励研究机构和企业开发算法公平性检测和纠偏技术,例如在模型训练过程中引入公平性约束,或者通过后处理技术对模型输出进行调整。在制度层面,相关法律法规和伦理规范明确要求AI系统的设计和应用必须遵循公平、公正的原则。
数据的采集、使用和流转,一直面临着严重的隐私和安全挑战。在工业领域,生产数据可能包含企业的核心商业机密;在消费领域,用户数据则涉及大量的隐私信息。如何在保障数据安全和个人隐私的前提下,促进数据的合规利用,是一个亟待解决的难题。企业需要采取有效的技术和管理措施,如数据脱敏、加密、访问控制等,确保生产数据不被非法获取或篡改。同时,政府需要加快完善相关法律法规,明确数据所有权、使用权和收益权的边界,为数据的合规流通提供法律指引。隐私计算、联邦学习等数据安全技术的发展要发挥其应有作用,实现“数据可用不可动“。
AI模型的“黑箱”特性使其决策过程难以预测和验证,这给系统的安全性带来了巨大挑战。一个微小的、精心设计的输入扰动就可能导致模型做出完全错误的判断(即“对抗性攻击”),尤其在安全攸关的场景中是致命的。同样,AI系统的可靠性也面临考验。模型在面对训练数据中未出现过的“长尾”场景时,其性能可能会急剧下降。为此,需要从多个层面构建AI的安全治理框架。技术上,需要发展可解释AI(XAI)、对抗性训练、形式化验证等方法,提升模型的透明度、鲁棒性(英文的音译,中文即稳健性)和可靠性。制度上,需要对AI系统进行安全评估、测试和认证,特别是在关键应用领域,应强制要求AI系统通过严格的安全审查才能投入使用。
人才是推动“人工智能+”行动的核心驱动力,而组织则是承载和激发人才创造力的载体。当前,既懂AI技术又懂行业知识的复合型人才极度匮乏,据一项调研显示,高达74%的企业认为专业人才和技能缺乏是推进AI应用的最大挑战。此外,传统的组织架构也难以适应AI时代对敏捷、协同和创新的要求。因此,构建多层次的人才培养体系和推动深刻的组织变革,是确保“人工智能+”战略成功的根本保障。
如何深耕场景困难重重
医疗健康是人工智能应用最具前景也最具挑战的领域之一。AI技术在辅助诊断、药物研发、健康管理等方面已经展现出巨大潜力,但如何平衡精准性、安全性与伦理性之间的关系,仍是巨大挑战。
准确性是AI临床诊治的前提。即使在某些特定任务上,如肺结节、糖尿病视网膜病变等影像识别,AI已能达到甚至超越人类专家的水平,但在更复杂的临床场景中,其准确性仍无法与医疗专家匹敌。医疗数据质量和标准化问题是首要障碍:数据来源多样,质量参差不齐,加之跨机构数据共享困境,严重影响了AI的判断力。临床验证的复杂性也构成了巨大挑战:从实验室走向临床应用,必须经过严格、大规模、多中心的临床试验,不仅耗时长、成本高,而且验证标准难以统一,规模化应用困难重重。在短时间内,AI在处理罕见病、复杂病例时,还达不到人类专家的水平。
医疗的特殊性还在于,医生与AI系统之间的信任至关重要。然而,由于AI模型的诊断存在"黑箱"现象,无法解释清楚诊断的具体依据,难以被人类医生信任。如何提升AI模型的可解释性,并建立人机协同的信任关系,是AI医疗应用能否成功的关键。同时,医疗健康数据是高度敏感的个人隐私信息,其隐私、安全与合规性是AI在医疗领域应用不可逾越的红线。如何在保障数据安全和个人隐私的前提下,合法合规地训练AI模型,又是一个难题。
金融行业是数据密集型行业,也是AI技术应用的重要领域。从智能投顾、量化交易到风险控制、反欺诈,AI正在重塑金融服务模式。然而,金融业务的效率,通常被置于风险控制和合规性之后。
与医疗领域一样,AI风控模型也存在"黑箱"问题,合规风险和信任危机并存。监管机构要求金融机构在做出影响客户利益的决策时,必须能够提供清晰、合理的解释。如果无法解释,不仅面临客户的投诉甚至法律诉讼,而且也难以满足监管要求。
但要实现AI金融模型的可解释性(XAI),则面临着诸多技术挑战。一方面,模型的准确性和可解释性往往存在权衡关系,即越复杂的模型通常准确性越高,但可解释性越差。另一方面,金融数据本身具有高维、非线性等特点,难以解释清楚模型的决策逻辑。为了解决这一难题,业界正在积极探索多种XAI技术,如LIME、SHAP等事后解释方法,以及构建本身具有可解释性的模型。同时,监管机构也在推动相关标准的建立。例如,香港金融管理局(HKMA)已将AI治理作为战略监管重点,强调AI部署的伦理性和客户数据保护。未来,金融机构需要在模型选择、开发流程和治理机制上,做好系统性安排,以平衡模型性能与可解释性、合规性的要求。
通过AI技术可以自动化地进行反洗钱(AML)监测、客户身份识别(KYC)和合规报告生成。然而,合规技术的应用本身也带来了新的挑战。首先,AI模型的准确性和可靠性直接关系到合规的有效性,一个错误的判断可能导致监管违规。其次,监管机构自身也需要跟上技术发展的步伐,理解AI模型的运作原理,以便进行有效的监管。最后,如何在鼓励金融创新的同时,确保技术应用的安全和合规,是监管机构面临的长期课题。
AI+教育有望打破地域和资源瓶颈,将优质教育资源均等地送往偏远地区,从而促进教育公平。然而,这要以弥平数字鸿沟与消除算法偏见为前提。如果不能解决这两个难题,反而会加剧教育的不平等。
数字鸿沟源于偏远地区和经济欠发达地区缺乏必要的硬件设备(如电脑、平板)和网络条件,使得学生们无法享受到技术红利,反而拉大与经济发达地区的差距。算法偏见源于训练数据主要来自城市重点校,模型所推荐的学习内容,包括在评估学习能力时,更有利于城市学生,对农村学生产生不公,有违教育公平原则。
AI教育模型倡导个性化学习,这需要收集和分析学生的学习行为、答题记录、心理状态等。这有利于优化学习路径,但同时也有损于隐私和伦理,甚至被用于商业目的,侵犯学生的身心自由。此外,过度依赖AI教学,势必削弱师生之间的情感交流和人文关怀。必须建立严格的教学数据保护法规和伦理准则,明晰AI在教育中的应用边界,确保新技术始终服务于人的全面发展。另外,如何评价个性化学习成效,并非简单的问题。应试教育因为无法全面反映学生的创造力、批判性思维、协作能力等,备受诟病,亟需利用AI进行多维度评价,建立新的教育评估体系。同时,完全由算法来决定学习内容和学习方法,同样会限制学生的探索精神和兴趣发展。目前,不宜夸大AI的作用,应将其作为辅助工具,帮助教师更好地了解学生、因材施教,不能取代教师的主导作用。
怎么走好破局之路
面对“人工智能+”行动在技术落地、宏观保障和场景深耕中遇到的重重挑战,必须采取系统性、多层次的应对策略。在持续进行技术创新的同时,还要在战略规划、生态构建、人才培养和治理体系等方面进行配套变革。越往前走,就像远望森林转向深入森林,原来的俯视或平视一览无余,眼前的近视则密不透光,线性推进陡变为技术、产业、社会、伦理等相互交织的藩篱之网。
要从根本上破解技术应用落地的“最后一公里”难题,就必须从战略、数据和生态三个层面入手,构建能够持续创造价值、快速应对变化的实施体系。
企业必须将AI战略与核心业务战略深度融合,避免只唱歌不打夯,“为AI而AI”。也就是从发起AI项目之日起,必须明确所要解决的业务痛点和所要实现的价值目标,而非技术PPT展示。企业应建立跨职能的AI战略委员会,由业务部门和IT部门紧密协作,确保技术规划符合业务需求。同时,应采取场景驱动的实施路径,即从最具价值、最易落地的场景入手,通过小步快跑、快速迭代,用一个个成功案例,扩大应用范围,最终化为全局性胜利。
数据是AI的“燃料”,夯实数据基础是破解技术瓶颈的根本。企业必须将数据治理提升到战略高度,建立统一的数据标准和管理规范,打破内部“数据孤岛”。由此就需要投入资源进行数据清洗、标注和整合,获取高质量、可信赖的数据资产。同时,企业需要构建强大的数据能力,包括数据采集、存储、处理、分析和应用的全链路能力。这不仅涉及技术平台的建设,更需要培养一支专业的数据团队。此外,不能忽视数据安全和隐私保护。
“人工智能+“”不是某个企业的独角戏,而是多方协同、开放、共赢的生态系统。技术供应商、行业用户、科研机构、政府部门等应形成合力,共同推动技术创新和应用落地。龙头企业应开放自身的应用场景和技术能力,带动产业链上下游企业协同行动。政府和行业协会应搭建公共服务平台,提供算力、数据、算法等基础资源,降低创新门槛。同时,应鼓励建立产业联盟,围绕共性技术难题进行联合攻关,共享创新成果,很好发挥“人工智能+”的巨大潜力。
政府应加快完善人工智能相关的政策法规体系,为产业发展提供清晰、稳定的预期。同时,加强政策协同,形成财政、金融、人才、产业等的合力,为AI发展营造良好的政策环境。
人才是“人工智能+”行动的第一资源,破解人才瓶颈是当务之急。首先,应深化教育改革,推动高校设立“人工智能+X”的交叉学科,培养既懂技术又懂行业的复合型人才。其次,应大力促进产教融合,鼓励企业与高校共建实验室、开设订单班,将产业需求融入人才培养的全过程。再次,应完善人才评价和激励机制,建立符合AI人才职业特点的多元化评价体系,并通过股权、期权等方式吸引和留住核心人才。最后,应加强全社会的AI通识教育,提升全民的数字素养和智能素养,为适应智能化时代,做好人力资源准备。
安全是“人工智能+”行动的底线,必须构建一个贯穿全生命周期的安全治理框架。这包括技术安全、应用安全和伦理安全等多个层面。在技术层面,加强对AI模型鲁棒性、可解释性、公平性的研究,发展对抗性攻击防御、数据投毒检测等安全技术。在应用层面,建立严格的安全评估和认证制度,特别是对应用于关键领域的AI系统,强制其通过安全审查。在伦理层面,建立科技伦理审查机制,对AI应用可能带来的社会风险进行评估和防范。
在“人工智能+”行动的推进过程中,必须针对不同行业的特点,采取差异化的策略。
在医疗领域,安全性和有效性是首要原则。应建立科学、高效的AI医疗产品临床验证和审批流程,鼓励开展多中心、前瞻性的临床试验,以真实世界数据验证AI模型的性能。同时,应加快制定医疗AI的技术标准和应用指南,规范数据采集、模型训练和临床应用的全过程。在伦理方面,应建立严格的伦理审查委员会,对AI医疗项目进行全面的伦理评估,确保其符合患者利益和社会伦理规范。
在金融领域,效率与风险的平衡是核心议题。监管机构应加强对金融AI的监管能力建设,利用AI技术提升监管效率和精准度。金融机构应建立完善的风险管理体系,对AI风控模型进行持续的监控和评估,确保其决策的公平性、透明性和稳定性。同时,应积极探索可解释AI技术在金融领域的应用,以满足监管合规和客户沟通的需求。
在教育领域,促进公平与实现个性化是双重目标。政府应加大对农村和偏远地区教育信息化基础设施的投入,弥合数字鸿沟,确保所有学生都能公平地享受到AI教育的红利。教育科技企业应开发更加普惠、易用的AI教育产品,降低使用门槛。同时,应鼓励探索基于AI的个性化学习模式,但要避免“算法决定论“,确保教师在教学过程中的主导地位。在数据隐私方面,应建立最严格的学生数据保护制度,确保学生的个人信息安全。最终,AI应服务于培养德智体美劳全面发展的社会主义建设者这一目标。
