对于这个问题,我们需要了解法律设立的本源。在人类文明的发展过程中,法律的出现和升级,其目的都是为了统治者统治人民所服务的,其规范的更多的是人的行为。
但对于AI而言,从物理学的本质上,其不过是一群人造物体组成的结果,并不列入法律中所规定的实施对象的范畴中。
因此,当发生AI杀人事件时候,我们考虑的更多是生产AI的人,对此事应当承担的责任。
而矛盾点就在此刻爆发了,生产商对于AI负有生产和保证质量的责任,但是AI的失控和使用者有着极大的联系。
我们无法排除使用者在使用过程中,蓄意引导,通过AI达到自己的犯罪的目的,这是生产商在生产过程中所无法避免。
但如果使用者正确使用的前提下,爆发了AI伤人事件,此时生产商需要对此承担责任。
根据数据调查显示,目前全球AI的犯错率均维持在一个较低的水平,但我们不排除特的有些人不幸的成为少数人中的一名。
为了进一步的规劝AI生产商的行为,尽可能的减少类似事件的发生。2018年在瑞典斯德哥尔摩举办的国际人工智能联合会议上,马斯克等国际知名的AI开创者发起联合倡议,宣誓不参与军事中致命武器的研发,保证AI不会用于战争中。
但令人担忧的是,AI所带来的强大助力,让各国的军方眼红,不少国家正私下进行各类AI武器的研究和试验。
AI究竟是潘多拉魔盒还是人类的福星,或许答案只有在未来的某一刻我们才会知道。
但需要明确的是,伴随着AI研究的不断深入,相关立法也会进一步的完善,我们终将迎来AI造福我们人类的那一天。
加油
棒棒哒
fidc
反人类