霍金、馬斯克,示警人工智能危險

“鋼鐵俠”、“火星人”,締造了特斯拉汽車和SpaceX火箭的埃隆·馬斯克是如假包換的“科學狂人”,可喜的是馬斯克有足夠的理性來駕馭自己的狂放。
上周未,馬斯克在Twitter上表示,“我們要非常小心人工智能,它可能比核武器更危險。”就在今年早些時候,馬斯克接受訪談提到詹姆斯·卡梅隆30年前的經典之作《終結者》。他說“那絕對是人類會極盡所能去避免的情形。 既然已有這樣的警示電影,我們必須要小心。“
史蒂芬·霍金也是人工智能的示警者,在接受HBO訪談時,他說“人工智能可能是一個‘真正的危險’。機器人可能會找到改進自己的辦法,而這些改進并不總是會造福人類。”
對人工智能持樂觀態度者的典型信念是”人類不可能被人工智能超越,因為我們可以利用人工智能來加強自己。不會出現我們和機器對抗的局面。通過與智能產物融合,人類可以加強自己的能力。”這種想法過于想當然了。假如發明槍支的人們說“槍支是對付豺狼、猛獸的,可以讓人類變得更強。不會出現用槍支傷害同類的局面……”回過頭來看這些信誓旦旦不可笑嗎?
有史以來,幾乎所有尖端技術都最先被用于戰爭,人工智能亦會被優先用于殺戮。與普通的槍炮乃至核武器相比,這個系統會不斷學習提高殺人效率,會自我修復、升級,會千方百計維持能源供給……制造者有把握控制它們嗎?谷哥的工程師就能嗎?抑或制造者本身就是反人類惡魔怎么辦?
其實,生命體與非生命體的本質區別在有無求生本能。所謂求生本能就是對自己生命的愛,從這種愛可以衍生出貪婪、恐懼等情感。從小小孩童的好奇心到太空探索,根本的驅動力都是求生本能。太空飛船再復雜,沒有求生本能就不是生命體,而是機器。單細胞生物再簡單,有了求生本能就是生命體。 抗菌素是細菌產生的毒素,以殺死其它細菌,獨霸生存環境及營養物質。
對人工智能來說:不給求生本能,它就不可能完全象人一樣思考,終究是機器。給求生本能,讓它們懂得愛自己的“生命”,人類對它們有何價值?機器需要人類為它做飯、打掃房間嗎?試圖關掉電源,終結機器“生命”的人會不會被能夠“察言觀色”甚至有了“直覺”的機器先發制人地終結?
好在人工智能不可能一步到位,當“終結者一代”出現時,來不及造成多大惡果就會被人類輕易終結。但愿那時候微軟、谷哥的工程師們可以正視霍金、馬斯克們的警示。
知名風險投資公司
|||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||

創業聯合網是創業者和投資人的交流平臺。平臺擁有5000+名投資人入駐。幫助創業企業對接投資人和投資機構,同時也是創業企業的媒體宣傳和交流合作平臺。
熱門標簽
精華文章(zhang)