人工智能远比核武器危险,AI真的危险吗?

快资讯
唔哩头条
从目前的AI水平来看,人工智能还不具备产生危险的能力。 当下的人工智能往往只能完成单一或者某一领域的自我学习或者识别能力,如阿尔法狗,只会围棋。某种机器人只会跟人交流。其原因是目前的AI算法大多是神经网...

从目前的AI水平来看,人工智能还不具备产生危险的能力。

当下的人工智能往往只能完成单一或者某一领域的自我学习或者识别能力,如阿尔法狗,只会围棋。某种机器人只会跟人交流。其原因是目前的AI算法大多是神经网络、贝叶斯网络等可以自学习的算法来实现,实际上是模拟人类的神经系统,模拟出每个神经元的工作方式,神经元与神经元之间的通信,输入大量的样本数据后,使得学习网络有了一个概率性或者经验性的判断能力,当再次输入某一现象,如对话机器人接收到一段声音(某人跟它说话)时,他会根据已经学习成型的网络给出一个预期的最合理结果(回答或者跟此人对话)。而算法模拟的神经元实际上是一个实现特定功能的函数或者功能模块,也就是说只能实现单一或者极少的功能,因此当下的人工智能往往只能完成单一或者某一领域的自我学习或者识别能力。

而人类的神经元可以完成无数情况的应变能力,即每个神经元会根据各类情况作出不同的反应,这比机器算法的某模块只能实现单一功能的能力强大的多。所以所现在的人工智能更加不可能凭空产生某一种想象或者想法,无危险。

然而,我们知道人类本质上是由一堆化学元素组成的,神经元的通信也是有电信号完成的,也就是说一堆化学元素组成的物质有可能产生独立意识或者思维,只是我们现在还没有响应的一套或者庞大的算法来实现人体的运行机制(人脑和人体神经元配合)。当我们的技术可以突破此瓶颈时,人工智能产生思维不是不可能。当然还有另外一个瓶颈:功率消耗和散热问题,即使当某些庞大的算法可以完全模拟人体的大脑和机体活动时,算法的复杂度,元器件的数量无意将会十分巨大,那么必然带来耗电和散热问题。返回来想,人体的能量来源远比现在的计算机小,而且产生的热量远比现在的计算机第,而完成的功能却比现在的计算机复杂的多,如果真正研究清楚,这些也都可以同步解决,因为类比之下理论上可以解决。

综上,个人认为,AI产生思维或者想法是可以实现的,而其又会比人类的思考速度、创新速度高何止千百被。

THEEND

最新评论(评论仅代表用户观点)

更多
暂无评论