就新兴技术风险提出棘手问题的 4 种方法

虽然防护措施可能不适用于全球人工智能军事军备竞赛,但在特定的使用案例和行业中,它们可以在更细化的层面上发挥作用。以负责任的采购实践、指导方针、有针对性的建议和监管举措为形式的防护措施非常普遍,而且已经有了很多。

本文来自微信公众号“计算机世界”。

作为CIO和技术领导者,我们几乎总是扮演着技术布道者的角色,将主流技术和新兴技术引入企业,为企业带来效益。

在与同行的合作中,我们拥有扎实的商业意识,能够仔细权衡创新和风险,以获得有价值的投资回报率,同时保护组织免受与每个项目相关的各种形式的风险。

多年来,我们一直秉承这一理念,但由于技术的采用率、规模和影响越来越大,我们需要加强风险管理思维,包括研发和创新相关项目。这并不是要我们成为“卢德分子”或“技术拒绝者”,而是要我们警醒自己,加强风险管理思维,尤其是与变革性技术相关的风险管理思维,并在开绿灯之前提出更难回答的问题。

今天有什么新的不同?

技术总是被用于产生积极或消极的影响。今天的不同之处在于,我们看到了越来越大胆的雄心壮志,同时也看到了技术的快速应用和广泛影响。现在,技术应用曲线在几个月甚至几天内就能达到数亿人——ChatGPT在两个月内就获得了超过1亿的月活跃用户,而Threads在短短五天内就达到了1亿用户。现在,在人们完全了解技术之前,它就能在创纪录的时间内覆盖全球受众。

人工智能才刚刚起步,现在我们需要提出一些尖锐的问题。Thinkers360 2023年人工智能信任指数(Thinkers360 AI Trust Index 2023)衡量了人工智能终端用户和人工智能供应商的年度情绪,发现超过75%的受访者对当今人工智能的信任程度表示“有点担心”或“非常担心”。归根结底,这是一个我们信任哪些组织来推动技术发展、我们信任他们代表我们做什么以及我们如何规范其使用以尽可能快速、安全地进行创新的问题。

当然,这些考虑因素中有许多具有国家和全球影响,但当创新开始影响你的组织时,你也要对利益相关者和最终用户负责。以下四个步骤可以帮助你进行规划,以及如何开始或继续提出有关技术的棘手问题。

01|

从核心价值观入手

组织的核心价值观阐明了组织对自身和所有员工的行为要求。这些价值观也可以指导我们不要做什么。谷歌的“不作恶”变成了Alphabet的“做正确的事”,当其他一些组织不那么严谨时,谷歌的“不作恶”就是为了指导组织。

这是一个起点,但我们还需要审视未来提出的每项行动和倡议,无论是内部的还是现成的,以探索每一个良好的愿望可能导致的结果。常见的建议是,先从小规模、低复杂性、低风险的项目做起,积累经验后再开展规模更大、影响更广的行动。你还可以借鉴亚马逊的技巧,询问决策或行动是否可逆。如果是可逆的,那么风险显然更小。

02|

探究变革性技术

这意味着要超越与项目相关的典型业务和技术问题,必要时还要询问法律和道德问题。虽然创新常常会因为内部政治因素(例如,NIH综合症(Not Invented Here Syndrome指社会、公司和组织中的一种文化现象。人们不愿意使用、购买或接受某种产品、研究结果或者只是,不是出于技术或者法律因素,而只是因为它来自某个地方。简言之“非我所创,便毫无价值”)而遭到非建设性的质疑。建设性的质疑则是提出一些探究性的问题,如错误会产生什么影响?人工智能决策会不会只是简单的错误,或者会不会变成灾难性的错误?什么程度的仔细试点或实际测试可以帮助解决未知问题并降低风险水平?在网络安全、社会和机遇方面,可接受的风险水平是多少?

生命未来研究所(Future of Life Institute)等非营利组织的工作着眼于人工智能和生物技术等变革性技术,目标是引导其造福生命,远离极端的大规模风险。这些组织和其他组织可以成为提高对当前风险认识的宝贵资源。

03|

在组织层面建立警戒线

虽然防护措施可能不适用于全球人工智能军事军备竞赛,但在特定的使用案例和行业中,它们可以在更细化的层面上发挥作用。以负责任的采购实践、指导方针、有针对性的建议和监管举措为形式的防护措施非常普遍,而且已经有了很多。立法机构也在加紧行动,最近的欧盟人工智能法案针对不同的风险等级提出了不同的规则,目的是在今年年底前达成协议。

在组织层面,一个简单的防护措施就是制定自己的企业使用政策,并酌情签署各种行业协议。对于人工智能和其他领域,企业使用政策可以帮助用户了解潜在的风险领域,从而管理风险,同时还能鼓励创新。

04|

不断改进风险治理

随着技术的飞速发展,持续监控创新和风险两方面的发展并做出相应调整非常重要。这意味着要根据需要进行调整,甚至在出现重大风险或问题时终止项目。例如,谷歌在消费者市场推出谷歌眼镜产品仅八个月后,就因各种日益加剧的隐私问题而撤出。不过,十多年后,该产品在更有针对性的企业应用场景中获得了青睐。

当我们在组织内部拥抱人工智能等变革性技术时,必须在创新风险等式的安全和风险治理方面花费更多的时间和精力,以平衡技术不断增长的力量。

用Future of Life Institute的话来说,“只有当我们能够在技术不断增长的力量与我们设计和管理技术的智慧之间的竞赛中获胜时,文明才能繁荣昌盛。对于人工智能,赢得这场竞赛的最佳方式不是阻碍前者,而是通过支持人工智能安全研究和风险治理来加速后者。”

有时候,你必须放慢脚步,才能走得更快。

THEEND

最新评论(评论仅代表用户观点)

更多
暂无评论