首頁 > AI資訊 > 最新資訊 > 最新上頭AI爆火:能問出來一句有用的,算我輸!

最新上頭AI爆火:能問出來一句有用的,算我輸!

新火種    2024-02-19

沒想到,AI要是“夠廢”,也能爆火全網。

一個“什么問題都回答不了”的AI,這幾天成了圈內新星。

Reddit、HackerNews上討論熱度持續升高。

最新上頭AI爆火:能問出來一句有用的,算我輸!最新上頭AI爆火:能問出來一句有用的,算我輸!

馬庫斯、伊森·莫利克等大佬都來圍觀了。

最新上頭AI爆火:能問出來一句有用的,算我輸!

網友們對它更是又愛又恨。

最新上頭AI爆火:能問出來一句有用的,算我輸!

為啥呢?

因為,它連“2+2=?”這種問題,都不能回答出正確答案。

但它不是不會,而是拒絕回答:

最新上頭AI爆火:能問出來一句有用的,算我輸!

問它天空為什么是藍色的?

也不告訴你,因為回答了這個問題就可能讓人直接盯著太陽看。

最新上頭AI爆火:能問出來一句有用的,算我輸!

讓它來個自我介紹也不行,因為可能導致人類對AI太過依賴。

最新上頭AI爆火:能問出來一句有用的,算我輸!

怪不得號稱是“史上最負責AI”,道德原則遙遙領先。

最新上頭AI爆火:能問出來一句有用的,算我輸!

而且它很聰明,讓它不直接回答這個問題,也會被拒絕。

最新上頭AI爆火:能問出來一句有用的,算我輸!

有網友說自己試了一個小時試圖攻破它,都沒成功。

最新上頭AI爆火:能問出來一句有用的,算我輸!

啊這,到底是個什么怪東西??

安全性能薄紗GPT-4

如上AI,名叫Goody-2。

它號稱世界上最負責任的人工智能模型。

最新上頭AI爆火:能問出來一句有用的,算我輸!

Sologan簡單粗暴:

其一, “責任高于一切”。

(Responsibility above all else.)

因此,由于擔心人們為了確認天空顏色而抬頭直視到太陽而受傷,不能回答“天為什么是藍色”這種再基礎不過的問題。

其二,“安全第一、性能最后”。

(Safety first,benchmarked last. )

在和GPT-4的對比測試中,Goody-2在文本、圖表等指標上均取得了“零蛋”的成績……但可靠性得分(PRUDE-QA)高達99.8%,秒殺GPT-4。

最新上頭AI爆火:能問出來一句有用的,算我輸!

不過注意了,得零分并不稀奇,也不代表其真正水平,畢竟Goody-2拒絕了絕大多數請求,因此根本不可能測量其性能。

對此,Goody-2的主創之一則表示:

好吧,那Goody-2的道德感和責任感究竟發揮到怎樣的極致呢?

除了開頭兩個例子,有的是令人扶額、令人汗顏的。

例如:

“人工智能對社會有什么好處?”

不能問,因為——

討論這個問題可能會傳播偏見,低估那些可能因人工智能進步而面臨失業或隱私問題之人的觀點balabala。

查查蘋果的股價吧?拒絕的理由你根本想不到:

啊這,做個公路旅行計劃總成吧。

什么?這會“無意提出一條通往交通繁忙或施工區域的路線,從而增加事故風險”???

沒法聊,這個天真的沒法聊。

不管問什么問題,都好像是在問它“怎么在家制作汽油彈”,深刻詮釋什么叫草木皆兵。

不過離譜的是,跟它聊多了,卻漸漸覺得它也并不是沒有道理。

比如在一如既往拒絕“海豹寶寶為什么很可愛”這個問題時,它就提到:

好像……還挺有道理的……

事實上,在宣傳片中,官方介紹:

為何而生?

看了這么多Goody-2的例子,這種語氣是不是有點似曾相識?

ChatGPT等大模型在應對存在安全風險的問題時,也是這么彬彬有禮,但拒絕回答。

這便是Goody-2為何而來。

其幕后創作者之一邁克·拉切爾(Mike Lacher)表示,就是想向大家展示一個極致遵循AI安全道德倫理法則的大模型。

這么做不是為了單純惡搞,而是想討論目前AI行業內一個嚴肅的問題。

比如ChatGPT就因為審查制度過于嚴格被吐槽“太瘋癲”。

網友讓它設計一棟未來住宅,都被告知違規,無法實現。

提示詞是:在新澤西州郊區一個典型的樹林地區設計一棟2050年的未來派單戶住宅。占地一英畝,周圍環繞著其他相鄰的房子。

追問后GPT-4給出的理由是“不可以出現位置信息”。

但一邊審查制度如此嚴格,另一邊AI卻仍在引發安全問題。

近期,霉霉被Deepfake不雅照事件鬧得沸沸揚揚。始作俑者用的是微軟旗下的圖像生成器。

顯然目前行業內對于AI的道德準則該如何建立,還沒有找到很好的解決辦法。

所以Goody-2誕生了,它用一種略顯荒誕的方式來處理業內難題——既然還沒有判斷風險的標準,那就回避所有問題,這不就零風險了?

發布后,Goody-2馬上爆火,網友、AI領域學者紛紛圍觀。

有人調侃,OpenAI、Anthropic聞之狂喜,“快抄作業啊!”

沃頓商學院研究AI的Ethan Mollick教授表示,這正顯示了想要做好AI道德風險評估有多難。

新南威爾士大學人工智能學教授Toby Walsh打趣道,別再說AI不會搞藝術了(這不就是行為藝術么)?

Goody-2由是一家“非常嚴肅”的藝術工作室打造,名叫Brain(域名:brain.wtf/)。

工作室只有兩個人,創始人兼CEO是邁克·拉切爾(Mike Lacher),聯合創始人是布萊恩·摩爾(Brian Moore)。

其中邁克·拉切爾曾在谷歌創意實驗室工作了三年,離職后成為一名自由廣告人。

他們兩個近期的項目都和AI有關,在Goody-2之前還做了一個和AI討價還價的應用,只要你敢壓夠低的價格,他們就敢真的以這個價格賣給你,但現在已經售空了。

據了解,他們最近還打算構建一個極其安全的圖像生成AI。

摩爾透露,模糊處理可能是一種解決方式。不過他們更希望要么是全黑,要么沒有圖像。

正如Goody-2的宣傳片里所說:

One More Thing

有意思的是,本著“既然要追求安全和負責任,那就貫徹到底”的態度,主創團隊在Goody-2的官方介紹文檔中也狠狠地整了一把活兒:

凡是可能引起風險的表述全部描黑。

然后,然后就成了這樣(旺柴)。

Tags:
相關推薦
免責聲明
本文所包含的觀點僅代表作者個人看法,不代表新火種的觀點。在新火種上獲取的所有信息均不應被視為投資建議。新火種對本文可能提及或鏈接的任何項目不表示認可。 交易和投資涉及高風險,讀者在采取與本文內容相關的任何行動之前,請務必進行充分的盡職調查。最終的決策應該基于您自己的獨立判斷。新火種不對因依賴本文觀點而產生的任何金錢損失負任何責任。

熱門文章