首頁(yè) > AI資訊 > 最新資訊 > 為什么大型科技公司在人工智能助理上的賭注如此冒險(xiǎn)?

為什么大型科技公司在人工智能助理上的賭注如此冒險(xiǎn)?

新火種    2023-10-06

自生成式人工智能熱潮掀起以來,科技公司一直在努力地為這項(xiàng)技術(shù)開發(fā)殺手級(jí)應(yīng)用程序。最開始是在線搜索,目前的情況是喜憂參半。現(xiàn)在輪到了人工智能助手。

上周,OpenAI、Meta 和谷歌為他們的人工智能聊天機(jī)器人推出了新功能,允許它們聯(lián)網(wǎng)并扮演某種私人助理。

據(jù)我的同事威爾·道格拉斯·海文(Will Douglas Heaven)報(bào)道,OpenAI 為 ChatGPT 加入了新功能,其中包括與聊天機(jī)器人進(jìn)行對(duì)話的能力,就像在打電話一樣,它可以用逼真的合成聲音即時(shí)回答你口頭提題。OpenAI 還透露,ChatGPT 將能夠搜索網(wǎng)絡(luò)內(nèi)容。

作為競(jìng)爭(zhēng)對(duì)手,谷歌 Bard 聊天機(jī)器人已接入該公司的大部分生態(tài)系統(tǒng),包括 Gmail、Docs、YouTube 和地圖。其目標(biāo)是,人們將能夠使用聊天機(jī)器人詢查詢自己的信息,例如,讓它搜索電子郵件或整理日常安排。

Bard 還將能夠立即從谷歌搜索中檢索信息。類似地,Meta 也宣布,它也將部署人工智能聊天機(jī)器人。用戶將能夠在 WhatsApp、Messenger 和 Instagram 上向人工智能聊天機(jī)器人和名人的人工智能虛擬化身提問,人工智能模型可以從必應(yīng)搜索中在線檢索信息。

(來源:MIT TR)

考慮到技術(shù)的局限性,這是一個(gè)冒險(xiǎn)的行為。科技公司還沒有解決人工智能語言模型的一些存在已久的問題,比如他們有編造東西或“產(chǎn)生幻覺”的傾向。

但我最擔(dān)心的是,正如我今年早些時(shí)候所寫的那樣,它們可能帶來安全和隱私災(zāi)難。科技公司正在將這項(xiàng)存在嚴(yán)重缺陷的技術(shù)交到數(shù)百萬人的手里,并允許人工智能模型訪問他們的電子郵件、日歷和私人信息等敏感信息。在這個(gè)過程中,他們使我們都更容易遭遇大規(guī)模的詐騙、網(wǎng)絡(luò)釣魚和黑客攻擊。

我之前已經(jīng)介紹過人工智能語言模型的重大安全問題。現(xiàn)在,人工智能助手可以訪問個(gè)人信息并同時(shí)搜索網(wǎng)絡(luò),他們特別容易受到一種稱為間接提示注入的攻擊。它非常容易實(shí)現(xiàn),而且沒有已知的修復(fù)方法。

正如我在四月份所寫的,在一次間接提示注入攻擊中,第三方可以通過添加旨在改變?nèi)斯ぶ悄苄袨榈碾[藏文本來改變網(wǎng)站,攻擊者可以使用社交媒體或電子郵件將用戶引導(dǎo)到帶有這些隱藏提示的網(wǎng)站。一旦發(fā)生這種情況,人工智能系統(tǒng)可能會(huì)被惡意操縱,允許攻擊者嘗試提取人們的信用卡信息。隨著新一代人工智能模型接入社交媒體和電子郵件,黑客有了更多漏洞可鉆。

我向 OpenAI、谷歌和 Meta 提問,問他們做了什么來抵御提示注入攻擊和幻覺問題。在發(fā)稿時(shí),Meta 和 OpenAI 沒有回復(fù)。

關(guān)于人工智能的幻覺傾向,谷歌的一位發(fā)言人表示,該公司發(fā)布 Bard 是一項(xiàng)“實(shí)驗(yàn)”,它允許用戶使用谷歌搜索來核實(shí)給出的答案。

這位發(fā)言人說:“如果用戶發(fā)現(xiàn)了編造或不準(zhǔn)確的東西,我們鼓勵(lì)他們點(diǎn)擊‘不喜歡’圖標(biāo)并提供反饋。這是 Bard 學(xué)習(xí)和改進(jìn)的一種方式。”顯然,這種方法讓用戶承擔(dān)了發(fā)現(xiàn)錯(cuò)誤的責(zé)任,然而人們往往過于信任計(jì)算機(jī)產(chǎn)生的回應(yīng)。關(guān)于我提出的抵御提示注入的問題,谷歌表示目前還沒有答案。

對(duì)于提示注入,谷歌表示這個(gè)問題還沒有一個(gè)好的解決方案,仍然是一個(gè)活躍的研究領(lǐng)域。該發(fā)言人表示,該公司正在使用垃圾郵件過濾器等其他系統(tǒng)來識(shí)別和過濾可能的攻擊,并正在進(jìn)行對(duì)抗性測(cè)試和紅隊(duì)演練,以確定惡意行為者可能如何攻擊基于語言模型的產(chǎn)品。

這位發(fā)言人說:“我們正在使用經(jīng)過專門訓(xùn)練的模型,來幫助識(shí)別違反我們政策的已知惡意輸入和不安全輸出。”

我理解每次新產(chǎn)品發(fā)布都會(huì)有經(jīng)過一段時(shí)間的磨合。但即使是人工智能語言模型產(chǎn)品的早期支持者,對(duì)這些產(chǎn)品也沒有什么好印象,這很說明問題。《紐約時(shí)報(bào)》專欄作家凱文·羅斯(Kevin Roose)發(fā)現(xiàn),谷歌的助理善于總結(jié)電子郵件,但也會(huì)告訴他收件箱里不存在的電子郵件。

簡(jiǎn)而言之,科技公司不應(yīng)該對(duì)所謂的人工智能工具的“必然性”如此自滿。普通人不會(huì)喜歡那些經(jīng)常犯錯(cuò)和失敗的產(chǎn)品,尤其是其背后的技術(shù)總是以令人討厭和不可預(yù)測(cè)的方式失效。距離我們看到黑客惡意使用這些新的人工智能助手只是時(shí)間問題。現(xiàn)在,我們都只能坐以待斃。

我不知道你是怎么想的,但我打算再等上一段時(shí)間,先不讓這一代人工智能系統(tǒng)窺探我的電子郵件。

作者簡(jiǎn)介:梅麗莎·海基萊(Melissa Heikkil?)是《麻省理工科技評(píng)論》的資深記者,她著重報(bào)道人工智能及其如何改變我們的社會(huì)。此前,她曾在 POLITICO 撰寫有關(guān)人工智能政策和政治的文章。她還曾在《經(jīng)濟(jì)學(xué)人》工作,并曾擔(dān)任新聞主播。

支持:Ren

相關(guān)推薦
免責(zé)聲明
本文所包含的觀點(diǎn)僅代表作者個(gè)人看法,不代表新火種的觀點(diǎn)。在新火種上獲取的所有信息均不應(yīng)被視為投資建議。新火種對(duì)本文可能提及或鏈接的任何項(xiàng)目不表示認(rèn)可。 交易和投資涉及高風(fēng)險(xiǎn),讀者在采取與本文內(nèi)容相關(guān)的任何行動(dòng)之前,請(qǐng)務(wù)必進(jìn)行充分的盡職調(diào)查。最終的決策應(yīng)該基于您自己的獨(dú)立判斷。新火種不對(duì)因依賴本文觀點(diǎn)而產(chǎn)生的任何金錢損失負(fù)任何責(zé)任。

熱門文章