您的位置:首頁 > 產(chǎn)經(jīng) >

每日速遞:專家:ChatGPT也存在網(wǎng)絡(luò)安全問題

2023-02-15 17:27:04 來源:工人日報客戶端


(資料圖)

原標(biāo)題:

專家:ChatGPT也存在網(wǎng)絡(luò)安全問題

工人日報-中工網(wǎng)記者 車輝

近期,ChatGPT的自然語言交互能力引起了廣泛關(guān)注。ChatGPT究竟對于網(wǎng)絡(luò)安全行業(yè)會產(chǎn)生怎樣的影響?綠盟科技首席創(chuàng)新官劉文懋認(rèn)為,ChatGPT對網(wǎng)絡(luò)安全的影響可以從四個方面進(jìn)行討論:

攻擊方面:ChatGPT具備生成可用于網(wǎng)絡(luò)攻擊的腳本、釣魚郵件的能力,也能被用來解密一些較易解密的加密數(shù)據(jù)。然而,ChatGPT的能力仍不能達(dá)到或超越具有專業(yè)知識和經(jīng)驗的真人黑客,其起到的作用主要是提高黑客的攻擊效率。隨著內(nèi)容安全策略的進(jìn)一步強(qiáng)化,ChatGPT作為攻擊武器輔助網(wǎng)絡(luò)攻擊的門檻也會進(jìn)一步提高。因此相關(guān)影響在總體上來說仍處于一個可控范圍。在未來,伴隨AI生成內(nèi)容檢測技術(shù)的發(fā)展與ChatGPT自身內(nèi)容安全策略的演進(jìn),ChatGPT武器化造成的不良影響將被進(jìn)一步壓縮。

安全隱私方面:AI應(yīng)用一般面臨的投毒攻擊、閃避攻擊、推理攻擊、模型提取等攻擊目前仍未見到在ChatGPT上成功的案例。然而,ChatGPT的高度“智能化”也導(dǎo)致其存在自己獨特的安全問題:提示注入。通過提示注入,用戶可以繞過OpenAI設(shè)置的內(nèi)容安全策略,從而對ChatGPT進(jìn)行濫用。在輔助編程這一應(yīng)用場景上,ChatGPT的應(yīng)用可能也存在一定的安全隱患,ChatGPT生成的代碼可能含有可被利用的已知安全漏洞。對于企業(yè)來說,雖然員工使用ChatGPT能夠在一些工作上一定程度地提高效率,但由于ChatGPT并沒有通過技術(shù)手段保障用戶數(shù)據(jù)安全,且會對用戶輸入進(jìn)行分析,故對于敏感信息一定要嚴(yán)格保護(hù)。

社會影響方面:ChatGPT輸出的文本取決于訓(xùn)練語料與其概率分布。故ChatGPT并沒有真正的道德觀與價值觀,在一些涉及價值觀、情感的問題上,ChatGPT輸出的內(nèi)容可能會造成非正向的社會影響。對于教育、內(nèi)容創(chuàng)作等領(lǐng)域,濫用ChatGPT最終還可能會導(dǎo)致劣幣驅(qū)逐良幣。需要通過技術(shù)手段對ChatGPT在一些具體場景的使用進(jìn)行管控與限制。

賦能產(chǎn)品方面:ChatGPT對于網(wǎng)絡(luò)安全產(chǎn)品的人機(jī)交互能夠起到明顯的推進(jìn)作用,并且能夠用來輔助執(zhí)行一些網(wǎng)絡(luò)安全任務(wù)。雖然在實際落地ChatGPT到網(wǎng)絡(luò)安全產(chǎn)品的過程中仍存在許多挑戰(zhàn)。

最近更新