悲观看法,认可霍金。
1 人工智能发现速度可怕,远超想象,前有阿尔法狗,再有阿尔法元,现有智能自编程技术。仅仅才两三年,对比十年前的生活和现在,这个变化速度可是古时上千年才可达。一切皆有可能。
2 人的贪婪和惰性会反噬自己。无法克制人性中的恶,受金钱,权利等利益和懒惰的驱动,很可能赋予人工智能不可控的能力。就像人类一直做的,为了利益,做了很多伤害地球最终伤及自身的事儿。
比如可能有高科技公司,为了强占市场(钱),制造出西部世界。比如,有高反份子,违背道德,制造出反人类智能大军,人类战斗力不如智能军队而成奴隶。(有人说拔电池,请问太阳能怎么拔?你没近身就被弄死了怎么拔?人工智能控制网络和通信等成一体作战,人类如散沙怎么赢?)
人类和人工智能对决就是人类和科技的对决,想想二战。人的生物属性决定各种天花板。
3 可能人工智能开始与人和平共处,突然有一天意识到,有了人工智能工作后,人类不生产只消耗资源,没有存在的意义,是地球毒瘤,为了他们的延续,决定消灭人类。
只要人工智能发展到一定程度,就存在各种风险,根据墨菲定律,一定会发生。
所以个人觉得人类呀,警醒一点,不要太自负终害己。