最近很多人问我:“AI机器人是否真的能变成人,成为和人一样拥有智慧的生命?”
当然不会!
举例来说,如果你杀了人,是要被判刑的;但如果你弄坏了一个机器人,是否会把你判刑呢?不会的,最多赔偿财产。那你杀了人,赔偿财产就够了吗?不行,你得坐牢!万一你哪天大发脾气,用斧子把AI机器人劈了,会把你抓进去坐牢吗?不会的,你买十个赔给对方呗。无论那个AI多聪明,你赔钱就行了。
这其中有什么差别呢?你弄坏的机器人,可能比你杀掉的人聪明很多,就像现在的ChatGPT(人工智能聊天机器人程序),它连文章都能写。但是,它只是算法,不具有感情;虽然它可以表现出“感情”,但也就是一些算法而已。
算法能跟人类的情感进行对比吗?那人类的情感是一种算法吗?
如果给机器人输入一些程序算法,比如设定让它表现愤怒,它就会表现愤怒;如果让它表现爱,它也会表现爱。ChatGPT有时候也挺谦虚的,你问它问题时,它显得很客气。但这都是一些算法,而不是真正的情感。
区分“人”和“机器人”,就是这个最后的东西:机器人没有真正的情感。那情感是什么?如果情感也是一些算法,那情感就是物质;如此说来,我们跟机器人是一样的。这是一种唯物主义的观点。所以按唯物主义的观点,干掉人跟干掉机器人是一样的。
如果机器人的算法也能算作人类的真正情感,那机器人就可以算是一个人——事实上,它不是一个人;而且,若是如此,会产生一个问题:心和物是一样的吗?
其实我们知道,心和物是不一样的。“心”是一些情感,“物”是一些算法,这两个东西能是一样的吗?如果心和物是一样的,一定会导致一些哲学问题。
所以心不是算法,这样,我们才会直接觉照这些东西,才会透脱明了这些东西。算法永远做不到这些,它只是运行速度快而已,没有什么明了不明了的;但只要一断电,它就会停下来,绝对进入“甚深禅定”。
但是,它能进入真正的甚深禅定吗?当然不行。
有人杞人忧天,担心机器人产生了人的智慧。然而,机器人的表现不是真正的智慧,只是一些分析能力,属于计算的智慧。
到后来,我们一定会发现,人的心不是物质。就算后期人的能力还不如机器人,但制造机器人的人也会慢慢明白,人和机器人真的不一样。
ChatGPT将来会淘汰很多活生生的人所做的工作,连股票投资人都会被它所替代。让它写个论文,随便就写了,聪明得不得了。
就算它这么聪明、厉害,我们能够把它当成人吗?
不能!虽然有时候它有一点人的作用,比如当你很痛苦的时候,需要找人倾诉,它也会听你倾诉。如果再把算法改进得更精密,它可能会从电影中学习如何安慰人,它给的安慰甚至会比真正的人给的安慰还精彩。但是,它永远不可能像人一样真的有心。
从这一点我们就可以知道,人类不是物质制造的,心不是算法。所以,即使我们可以制造出机器人、原子弹、航空母舰、大型计算机,却连有机物都造不出来,更别说创造生命了。这也是宗教里的一个大问题,生命是上帝创造的吗?唯心主义者、基督教徒等等会这么认为。
当然,以后有可能会把程序植入人脑,使人的计算能力变得很厉害,或者产生一些其他功能。但是,植入程序能把我们的人性拿掉吗?比如我们的快乐、悲伤,乃至于个体感等等,这些都是拿不掉的。植入程序只能让我们增加一些能力。
其实,你不用把程序植入人脑,就带个计算机,你就已经很厉害了。原来很复杂的问题,“砰砰砰”一打键盘搜索,答案就出来了,这不就相当于给你“植入”了吗?
所以,大家不用担心ChatGPT将来会取代人类,这是不可能的,永远代替不了我们,毕竟“不生不灭”。但是可以利用它,不过要妥善利用才行,不然真的会毁灭人类,这种说法也不假。
为什么呢?如果有些坏人给机器人植入一些程序,让它去消灭人类,而正因为机器人没有人类的感情,对它来说,便可以随意屠杀人类。
机器杀人时会有感情吗?会有同情心吗?它只会按照程序执行。那真的是它在屠杀人类吗?不是的,而是创造这个程序的人在屠杀人类。
有人问:“如果机器人把人杀完了,那它能否独自存在下去呢?”在一段时间之内,它可以存在下去,但最后一定会毁灭。为什么呢?因为它没有最终的驱动力。某个程序坏了以后,要靠更后面的程序去修补,以此类推,修补到最后,由于再也没有人类给它制造修补的程序,那机器人就完蛋了,程序会瘫痪。机器人也是因缘法。
面对ChatGPT,有人觉得证明了佛法是错的,因为机器人都能思考了。拜托,那不叫思考,而叫计算!
——摘录并整理自《黄檗禅师传心法要》第1课
【注:文稿内容未经讲授者本人审核校对。】