一(yī)份由26名專家聯合撰寫的報(bào)告,對人工(gōng)智能(néng)技(jì)術(shù)的潛在威脅發出警告。他們認為(wèi),這項技(jì)術(shù)可能(néng)在未來5到(dào)10年(nián)催生(shēng)新型網絡犯罪、實體攻擊和政治颠覆。
這份100頁的報(bào)告标題為(wèi)《人工(gōng)智能(néng)的惡意用途:預測、預防和緩解》(The Malicious Use of Artificial Intelligence: Forecasting, Prevention, and Mitigation),參與撰寫的專家來自(zì)14家不同的機(jī)構和組織,包括牛津大學、劍橋大學和埃隆·馬斯克(Elon Musk)的OpenAI等。
作者在其中詳細闡述了人工(gōng)智能(néng)可能(néng)在未來幾年(nián)做出哪些令人們普遍反感的事(shì)情。由于人工(gōng)智能(néng)在很多(duō)方面的能(néng)力都遠(yuǎn)超人類,所以該報(bào)告認為(wèi),這種技(jì)術(shù)現在會(huì)幫助敵對國(guó)家、犯罪分子和恐怖分子展開(kāi)精準而高(gāo)效的攻擊,不僅能(néng)夠擴大範圍,還(hái)可以提高(gāo)效率。
該報(bào)告寫道:“随著(zhe)人工(gōng)智能(néng)越來越強大,越來越普及,我們預計人工(gōng)智能(néng)系統的廣泛應用将導緻現有威脅的擴大,還(hái)會(huì)引發新的威脅,甚至改變典型的威脅特征。”他們還(hái)警告稱,由于人工(gōng)智能(néng)可以擴大規模,并減輕人類的負擔,所以攻擊成本也會(huì)大幅降低(dī)。類似地,由于可以借助這種系統來完成人類通(tōng)常難以完成的任務,所以也有可能(néng)出現新的攻擊。
具體來說,該報(bào)告認為(wèi),與自(zì)動攻擊、釣魚、語音(yīn)合成、數據中毒有關的網絡攻擊将會(huì)增多(duō)。無人機(jī)以及全自(zì)動和半自(zì)動駕駛系統的出現也會(huì)構成新的風險,包括多(duō)輛無人駕駛汽車故意撞擊,使用數千架無人機(jī)協同攻擊,把商用無人機(jī)變成人臉識别刺客,控制關鍵基礎設施以索要贖金。在政治方面,人工(gōng)智能(néng)還(hái)可以用于左右民(mín)衆觀點,形成高(gāo)度精準的宣傳,傳播虛假但卻可信的文章和視頻。人工(gōng)智能(néng)還(hái)能(néng)在私有和公共空間催生(shēng)更好的監控技(jì)術(shù)。
為(wèi)了緩解這些威脅,該報(bào)告給出了5點建議:
人工(gōng)智能(néng)和機(jī)器(qì)學習研究人員(yuán)應該承認其研究成果是雙刃劍。
政策制定者應該與技(jì)術(shù)人員(yuán)密切合作,調查、預防和緩解人工(gōng)智能(néng)可能(néng)的惡意使用方式。
應該向電(diàn)腦(nǎo)安全等其他高(gāo)風險技(jì)術(shù)領域學習一(yī)些方法,将其應用于人工(gōng)智能(néng)領域。
應該在這些領域優先形成規範和道德框架。
讨論這些挑戰時所涵蓋的利益相(xiàng)關者和專家範圍應該擴大。
除此之外,報(bào)告作者還(hái)認為(wèi),應該“重新思考”網絡安全,并對制度化和技(jì)術(shù)性解決方案展開(kāi)投資。他們還(hái)表示,開(kāi)發者應該形成“責任文化”,考慮數據共享和開(kāi)放(fàng)性所帶來的力量。
不過,也有人認為(wèi)報(bào)告作者誇大了我們面臨的威脅。網絡安全公司High-Tech Bridge CEO伊拉·克羅琴科(Ilia Kolochenko)認為(wèi)應該明确區分強人工(gōng)智能(néng)和日常所說的人工(gōng)智能(néng),前者的确可以取代人類大腦(nǎo)。他表示,犯罪分子已經使用簡單的機(jī)器(qì)學習算(suàn)法來提升攻擊效率,但這些措施之所以能(néng)夠成功,是因為(wèi)基礎安全性不足以及組織内部的疏忽所緻。機(jī)器(qì)學習隻是扮演了“輔助加速器(qì)”的角色。
他還(hái)補充道,人工(gōng)智能(néng)還(hái)可以用于更加高(gāo)效地對抗網絡攻擊。另外,人工(gōng)智能(néng)技(jì)術(shù)的發展往往需要展開(kāi)長(cháng)期的高(gāo)額投入,這是“黑(hēi)帽黑(hēi)客”通(tōng)常無法承擔的。因此,他不認為(wèi)數字領域會(huì)因此面臨實質性的風險和革命——至少5年(nián)内不會(huì)。