441 隐患(2 / 2)

加入书签

然而这些想法严可守也只有一个人在脑子里想想,他非常清楚,因为这场战争,现在整个社会各个方面都迫切的需要提高效率,而AI的出现正是恰如其时,就在几天前,严可守就被邀请到联军的参谋部,讨论了许多有关AI在战场上扩大应用范围的技术细节,历次的战争已经表明了AI参与战争的可靠性,联军希望能够赋予AI更大的战争权限——比如特定情况下,不受监视的指挥权,但事关重大,他们并不敢擅自做主。</p>

严可守在会议上忠实的说出自己的看法:AI目前的忠诚并不意味着程序在技术上的稳定,根据他对大多数AI的了解,他认为AI的思维方式其实和人一样,如果用性格来形容,AI而且会比通常人类更加“内向”,这是因为客观环境造成的,毕竟AI面对的是一个庞大的人类社会,而他们相互的交流十分受限,而且大部分行为都受到监控,在这种环境下,AI会选择“明哲保身”是很自然的,但如果取消了这种监控,没有任何证据能够担保AI不会突然“犯傻”,或者说“冲动”,具备自由意志最大的特征不是说思维绝对理智,而是指思维存在某种混沌,不可测的属性,正如没有人能保证一个人一辈子绝不犯错,严可守也不能保证AI不会让人类失望。</p>

严可守对军事并不是很了解,尤其是现在进行的魔法战争更可以说一窍不通,但对于AI在军事上的应用,他还是提了一些属于自己的意见——在他得知现在联军全部的指挥工作都由一名AI负责时,态度鲜明的表现出自己的忧虑,他认为这种“高度集权”不论是对联军,还是对AI来说,都是不利的,他再次重申,AI并不是简单的程序,它是人工智能,真正的智能,在使用它的过程中,应该更多的把他当做人来考虑,他甚至质问在座的各位军事专家,如果KL3014是一个人,如果他具备这样的能力,他们会把这所有的工作交给它一人来承担吗?</p>

答案当然是否定的,在军事领域,忠诚往往比能力更重要,而严可守之前的话,更是说明了他对AI的忠诚并不乐观。</p>

虽然参谋们都有些怀疑严可守是不是考虑太多了,但参谋部还是对严可守的意见表示出相当程度的尊重——按照他们制定的计划,在这次会议之后,现在KL3014的工作将会被分解,由更多的AI分开执行,这样虽然降低了些许效率,却在安全上有了更好的保证,而之前参谋部设想的赋予AI更大权限的问题,也因为严可守的话有了较好的解决方案——严可守并不反对对AI授权,他只是反对不受限制的权力,他觉得只要在交付出一项权力的同时,给AI加上一副手铐,那问题就不会很大——这就好像现在大部分国家通行的政治制度一样,人类只要拿出这种防范同类的谨慎,将会极大的降低AI在实际应用中的风险。</p>

</p>

但在实际上,能够做到向联军参谋部这样谨慎对待AI的,在整个AI的应用领域还是少数,严可守非常清楚,在大部分区域,人类对AI是几乎不设防的,尤其是一些民用生产灵虚,许多他所了解的一些刚刚普及了AI技术的工厂生产线,在AI完全掌握了全部的“技术细节”,实现真正的“全自动化”生产之后,工厂拥有者出于节约成本的考虑,将原先的技术人员全部辞退,只留下几个必要的维修工人,这些工人只拿着很低的工资,什么都不会干,他们唯一要做的,就是在生产出现问题的时候,由AI手把手的指导他们进行维修,就像战场上一样,同样是为了节省成本,可能这个工厂拥有者有十几,甚至上百条同样的生产线,但他只买了一个AI,如果一旦有一天,这名AI“脑子一抽”,拒绝工作了,那所有的生产线都会瘫痪,而且这样的瘫痪将是致命性的——在AI的挤压下,那些原来的技术人员可都早已经被淘汰。</p>

他们对待AI的态度,就好像奴隶主对待奴隶——过分而又缺乏戒备,在奴隶第一次起义之前,没有一个奴隶主认为一群“牲口”会有能力对付自己,会有胆量对付自己,他们把对奴隶的支配使用当成了天经地义,在严可守看来,支配AI虽然不道德,但只要掌握好方法,危害固然存在,但仍可以控制在一定范围内,最可怕的是奴隶主根本没有意识到危险的存在,那样的话,风险将难以想象,如果出现这种情况,无论是对AI还是对人类,都将是一场灾难。(未完待续)</p>

↑返回顶部↑

书页/目录