您的位置:首頁(yè) > 滾動(dòng) >

首秀“翻車”后,谷歌高管警告:AI 聊天機(jī)器人有時(shí)會(huì)一本正經(jīng)地胡說(shuō)八道

2023-02-12 12:49:44 來(lái)源:指股網(wǎng)


(資料圖片)

美東時(shí)間周六,谷歌公司搜索引擎高管在接受媒體采訪時(shí)表示,目前的生成性人工智能形式(如ChatGPT),可能是不可靠的,要警惕聊天機(jī)器人中人工智能的陷阱。谷歌高級(jí)副總裁兼谷歌Search負(fù)責(zé)人普拉巴卡爾?拉加萬(wàn)(PrabhakarRaghavan)在接受采訪時(shí)表示:“我們現(xiàn)在談?wù)摰倪@種人工智能,有時(shí)會(huì)導(dǎo)致出現(xiàn)某種我們所謂的錯(cuò)覺(jué)(hallucination),具體表現(xiàn)為機(jī)器會(huì)給出一個(gè)看起來(lái)令人信服但卻完全是捏造的答案?!崩尤f(wàn)補(bǔ)充說(shuō),目前人工智能行業(yè)的基本任務(wù)之一,就是將這種情況控制在最低限度。指股網(wǎng)了解到,事實(shí)上,許多ChatGPT用戶,包括蘋果公司聯(lián)合創(chuàng)始人史蒂夫-沃茲尼亞克,都抱怨其經(jīng)常給出錯(cuò)誤答案。自從OpenAI的ChatGPT推出以來(lái),谷歌的開(kāi)發(fā)人員一直面臨著巨大的壓力,該技術(shù)已經(jīng)風(fēng)靡全球,并威脅到谷歌的核心業(yè)務(wù)?!拔覀冿@然感受到了緊迫性,但我們也感受到了巨大的責(zé)任,”拉加萬(wàn)說(shuō),“我們當(dāng)然不希望誤導(dǎo)公眾”。

最近更新