首頁 > AI資訊 > 行業應用 > 美國女子撰文講述AI危害,遭到科技巨頭公開攻擊

美國女子撰文講述AI危害,遭到科技巨頭公開攻擊

新火種    2023-11-05

本周,每個人都在談論人工智能。美國總統剛剛公布了一項新的行政令,旨在推廣安全、可靠的人工智能系統。這是美國迄今為止影響最深遠的人工智能監管舉措。

七國集團(G7)剛剛同意了一項人工智能公司應遵守的(自愿)行為準則,其動機是各國政府試圖將人工智能系統造成的危害和風險降至最低。

就在這兩天,英國也邀請全球多個重要國家參與了一場人工智能安全峰會,旨在制定人工智能安全的全球規則。

總之,這些事件表明,美國硅谷推動的人工智能可能帶來的“(人類)生存風險”,似乎在輿論中越來越占主導地位。

這是令人擔憂的,因為過于專注于修復未來可能出現的假設性危害,導致人們對于人工智能正在造成的真正危害的關注有所減少。

著名人工智能研究人員和活動家喬伊·布蘭維尼(Joy Buolamwini)在她的新回憶錄《揭開人工智能的面紗:我在機器世界中保護人類的使命》中寫道:“造成明顯危害的、現有的人工智能系統,比假設的‘有意識的’人工智能系統更危險,因為它們的危害是真實存在的?!?/p>

我很高興與她談論她的人生故事,以及她今天在人工智能領域的關注重點。她在這個領域很有影響力。她對面部識別系統偏見的研究使 IBM、谷歌和微軟等公司改變了他們的系統,并且不再向執法部門出售相關技術。

現在,布蘭維尼看到了一個新的目標。她呼吁徹底反思人工智能系統的構建方式,從更合乎道德、更一致的數據收集實踐開始。她告訴我:“我擔心的是,我們給了這么多公司暢通無阻的通行證(他們可以想做什么就做什么),我們還在贊揚創新的同時別過頭去,不愿看到那些危害。”

雖然她的故事在很多方面都是鼓舞人心的,但它們也是一個警告。她在過去十年的大部分時間里一直在呼吁人工智能的危害,她做了一些令人印象深刻的事情,并將這個話題帶入了公眾的意識之中。但真正讓我震驚的是直言不諱對她帶來的傷害。

在書中,她描述了自己在試圖同時做太多事情后,由于身體和精神極度疲憊,不得不住進急診室;她四處宣傳,成立了非營利組織算法正義聯盟(Algorithmic Justice League);參加了國會聽證會;還試圖完成她的麻省理工學院博士論文。

她并不孤單,她的經歷與我之前寫的一篇文章相吻合,那篇文章講述了負責任的人工智能是如何造成倦怠問題的。

得益于像布蘭維尼這樣的研究人員的努力,科技公司的人工智能系統正面臨著更多的公眾審查。這些公司意識到,他們需要負責任的人工智能團隊,來確保他們以減輕潛在危害的方式來開發自家產品。

這些團隊會評估我們的生活、社會和政治系統是如何受到這些系統的設計、開發和部署方式的影響的。

(來源:STEPHANIE ARNETT/ MITTR | ENVATO)

但指出人工智能系統問題的人經常在網上面臨激烈的批評,以及雇主的抵制。布蘭維尼描述了她不得不對抗一家美國科技巨頭對她研究成果的公開攻擊。

當她剛開始這項工作時,她必須讓人們相信人工智能值得擔心?,F在,人們更加意識到人工智能系統可能存在偏見和危害。這是個好消息。

但壞消息是,要想公開反對那些強大的科技公司仍然存在風險。這真是太不幸了。試圖改變討論和監管哪些風險的聲音比以往任何時候都更大,并引起了英國首相里希·蘇納克(Rishi Sunak)等立法者的注意。

如果圍繞人工智能的文化主動壓制其他聲音的出現,那對我們所有人來說都是有代價的。

作者簡介:梅麗莎·?;R(Melissa Heikkil?)是《麻省理工科技評論》的資深記者,她著重報道人工智能及其如何改變我們的社會。此前,她曾在 POLITICO 撰寫有關人工智能政策和政治的文章。她還曾在《經濟學人》工作,并曾擔任新聞主播。

支持:Ren

相關推薦
免責聲明
本文所包含的觀點僅代表作者個人看法,不代表新火種的觀點。在新火種上獲取的所有信息均不應被視為投資建議。新火種對本文可能提及或鏈接的任何項目不表示認可。 交易和投資涉及高風險,讀者在采取與本文內容相關的任何行動之前,請務必進行充分的盡職調查。最終的決策應該基于您自己的獨立判斷。新火種不對因依賴本文觀點而產生的任何金錢損失負任何責任。

熱門文章