霍金再發(fā)警告:人類應(yīng)建立有效機(jī)制防范AI威脅
據(jù)外媒報(bào)道,英國(guó)劍橋大學(xué)物理學(xué)家霍金日前在接受媒體采訪時(shí),再次強(qiáng)調(diào)人類建立有效機(jī)制,防止人工智能(AI)對(duì)人類的威脅進(jìn)一步上升。
據(jù)報(bào)道,霍金在接受采訪時(shí)表示,包括AI在內(nèi)的新科技若持續(xù)發(fā)展,可能會(huì)通過(guò)核戰(zhàn)爭(zhēng)或生物戰(zhàn)爭(zhēng)摧毀人類;人類則需要利用邏輯和理性去控制未來(lái)可能出現(xiàn)的威脅。
霍金還就應(yīng)對(duì)AI的威脅建議稱,人類可以組成某種形式的聯(lián)合政府來(lái)防范AI可能帶來(lái)的威脅。
數(shù)年前霍金已經(jīng)表示,發(fā)展全面的人工智能可能導(dǎo)致人類的毀滅。
霍金說(shuō),人工智能的發(fā)展可能幫助人類消除疾病,消除貧困,阻止氣候變化,但是也可能產(chǎn)生人們不愿意看到的種種后果,包括產(chǎn)生自主武器,造成經(jīng)濟(jì)災(zāi)難,以及發(fā)展出同人類發(fā)生沖突時(shí)擁有自己意愿的機(jī)器。
“簡(jiǎn)言之,強(qiáng)大人工智能的崛起可能是人類遇到的最好的事情,也可能是最壞的事情,但我們還不知道答案?!?/p>
更多資訊請(qǐng)關(guān)注工業(yè)機(jī)器人頻道
中傳動(dòng)網(wǎng)版權(quán)與免責(zé)聲明:
凡本網(wǎng)注明[來(lái)源:中國(guó)傳動(dòng)網(wǎng)]的所有文字、圖片、音視和視頻文件,版權(quán)均為中國(guó)傳動(dòng)網(wǎng)(www.wangxinlc.cn)獨(dú)家所有。如需轉(zhuǎn)載請(qǐng)與0755-82949061聯(lián)系。任何媒體、網(wǎng)站或個(gè)人轉(zhuǎn)載使用時(shí)須注明來(lái)源“中國(guó)傳動(dòng)網(wǎng)”,違反者本網(wǎng)將追究其法律責(zé)任。
本網(wǎng)轉(zhuǎn)載并注明其他來(lái)源的稿件,均來(lái)自互聯(lián)網(wǎng)或業(yè)內(nèi)投稿人士,版權(quán)屬于原版權(quán)人。轉(zhuǎn)載請(qǐng)保留稿件來(lái)源及作者,禁止擅自篡改,違者自負(fù)版權(quán)法律責(zé)任。
如涉及作品內(nèi)容、版權(quán)等問(wèn)題,請(qǐng)?jiān)谧髌钒l(fā)表之日起一周內(nèi)與本網(wǎng)聯(lián)系,否則視為放棄相關(guān)權(quán)利。
下一篇:
?
從制造到“智造”,絕非機(jī)器換人那么簡(jiǎn)單?
政府工作報(bào)告提出,把智能制造作為主攻方向,大力改造提升傳統(tǒng)產(chǎn)業(yè)。