人工智能务求“善”与“真”(环球走笔)
蔡肖兵
作为当代“科学之神”,英国物理学家霍金每次提出新观点都会引起社会各界的广泛关注。不久前,他又与一群顶尖科学家和企业家联署一份公开信,站到了人工智能研究的“对立面”。他们在信中指出,科学家需要避免未来人工智能研究出现可能导致人类毁灭的风险。
不过,霍金本人就是机器智能化的获益者。英特尔公司研发的智能技术使他能够与他人交流,继续从事他所热爱的事业。没有经过慎重思考,霍金理应不会选择这样的“站队”。或许正是源于自己对技术力量的切身感受,霍金认为:技术的发展速度要快于生物的进化速度,技术将产生自我意识并取代人类。此外,在霍金更有发言权的“宇宙的问题”上,他也提出警告——与外星人的接触可能会带来人类灾难的断言。
霍金的这些担忧缘何而来?很明显,他不是科学的反对者,对科学的理解也远超常人。我想,这封公开信的意义已远超对于人工智能研究的担忧,霍金是要提醒科学工作者:科学还有许多未知,在打开一个“潘多拉盒子”之前,需要适时地站在人类命运的高度审慎思考。新知背后有无穷的未知,谨慎当是科学研究必备的态度。
步入现代社会,科学已是引领人类社会发展的中坚力量,但在核能时代到来后,现代科学的先驱对人类共同命运的责任意识更加强烈,更加意识到科学本身的“科学性”就是个可以不断深入探索的事业。比如,人们在享受化肥农药、生物技术、能源科技等一系列现代科学成果带来的好处时,也备受其负面效应的困扰。
事实上,科学本身就是一种不断反思和反复“纠错”的事业。早在上世纪60年代,科学家们就对人工智能研究进步所带来的问题进行诸多反思。这一领域的先驱者索洛莫诺夫曾说过:人工智能可能带来的危险是一个严肃而又困难的问题。
“大数据时代”的到来,使得人工智能研究有了突飞猛进的发展。“机器智能”时代能否到来,我们不能妄下断言,但就如当年“核能之父”费米同众科学家共同完成人类第一次受控核裂变反应一样,一旦“机器智能”真的被开启,将会释放巨大的能量。所以,对于好莱坞电影中出现的那些可怕场景,即便永不可能发生,对这种技术的发展进行谨慎的思考也是一种科学态度。
霍金的警告提醒我们,人工智能研究对人类道德的冲击或许远高于其他科学活动。人是万物的尺度,人类需要自己判断并承受相关后果。对一项科学研究的所有合理诘难,都是对这一事业慎重的支持。“善”的原则要与“真”的原则一样重要,对智能新载体的创造更要均衡这两个原则。
科学,当是既关注结果也关注过程的谨慎的事业。
《 人民日报 》( 2015年03月20日 21 版)