OpenAI神秘項目“Q星”浮出水面,它會威脅人類嗎?
百年之后,人類再看這段OpenAI的“宮斗大戲”,或許會從商戰之外,看到2023年的人類面對未知世界憂心忡忡。
是否要繼續投入資源,催動AI進化?身處2023年的人類,并未形成共識。即便是全球頂尖的科技公司OpenAI,管理層的觀點也有分歧。據媒體援引知情人士消息,在CEO奧爾特曼被罷免之前,幾名公司研究人員向董事會發出了一封信,警告稱一項強大的人工智能(AI)發現可能威脅人類。而這可能是造成奧爾特曼被罷免的催化劑之一。
△OpenAI表示:沒有了員工,OpenAI什么都不是。CEO與董事會溝通中,隱瞞了什么?
11月,科技界最勁爆的新聞莫過于美國人工智能公司OpenAI首席執行官、ChatGPT之父薩姆·奧爾特曼的風波。
11月17日,OpenAI發表了一篇博文,宣布CEO山姆·奧爾特曼將離開公司,任命立即生效。這篇博文措辭嚴厲,“奧爾特曼先生在與董事會的溝通中沒有保持坦誠,阻礙了董事會履行其職責的能力。董事會不再對他繼續領導OpenAI持有信心。”
CEO究竟對董事會隱瞞何事?事件各方均未言明,而業界普遍猜測,是在“AI安全和發展”的策略上,雙方存在分歧。
△OpenAI宣布奧爾特曼回歸CEO崗位接下來幾天,事件發展逐漸對奧爾特曼有利,公司大量員工要求董事會成員辭職,奧爾特曼重返OpenAI擔任CEO。
看似人事變動風波已然平息,一則消息在23日釋放出來——人事風波發生前,幾名公司研究人員向董事會發出了一封信,警告稱一項強大的人工智能(AI)發現可能威脅人類。
有消息人士透露稱,奧爾特曼被突然解雇,可能與該公司秘密研究的項目——Q*(發音為Q-star,即Q星)有關,而一些員工認為Q星可能是該公司探索AGI(通用人工智能)獲得的突破性成果。據稱,Q星可以解決小學數學問題,這點燃了董事會的緊張情緒——奧爾特曼是否在研發方面過于激進。而該公司首席技術官穆拉蒂隨后也在一份發送給員工的備忘錄中承認了Q星項目的存在。
“Q星”是希望之星,還是……
“Q星”能解區區“小學數學問題”,為何讓科技大咖們如此緊張?目前,以ChatGPT為代表的生成式人工智能,仍是從它所積累的“傳統智慧的統計數據”中抽出一些“連貫的文本線索”。簡單地說,就是它通過預測下一個單詞來進行寫作和語言翻譯,給出符合人類預期的答案。因此,它的安全威脅相對可控。
Q星項目,是另一套邏輯。有業內人士從Q星項目的命名看出端倪,這可能是Q-learning和A*搜索的結合。據介紹,Q-learning是AI強化學習方式中的一種,讓AI通過反復試驗來學習做出決策的方法。與OpenAI現行訓練AI的方法不同,Q-learning不需要依賴人類反饋進行學習,而是自行完成所有的操作和訓練。
毫無疑問,“Q星”具有強大的進化潛力,將其視為人工智能領域的“希望之星”也不為過。然而,當OpenAI的巨量算力向其注入,它的進化速度可能是一個“突變”而非“漸變”的過程。當AI超越人類智慧,而人類無法可靠控制AI系統,安全風險不容忽視。
人類需要更先進的AI,還是更安全的?
早在今年10月,OpenAI的官網悄然更改了其“核心價值觀”列表。此前,“大膽、深思熟慮、樸實無華、影響力驅動、協作、以增長為導向”是公司沿用已久的價值觀。而在新的列表中,“聚焦AGI”赫然列在首位,“深思熟慮”被踢出列表。
奧爾特曼曾在公司博客文章中就寫道,AGI(通用人工智能)可以廣義地定義為“通常比人類更聰明的系統”。后來,他在接受媒體采訪時,又稍稍降低了AGI的功能評級,將其定義可以“相當于一個中等水平人類,可以雇用作為同事”。這一表述上的細微差別,也透露出當AI超越人類,并不一定是一件好事。
如今,科技界對AGI的安全性仍然存在分歧。為了找出如何阻止AI失控的方法,今年7月,OpenAI首席科學家及董事伊爾亞·蘇茨克維組建了一個叫“超級對齊”(Superalignment)的團隊,意在令超級智能與人類價值觀和認知保持一致。該項目預計投入20%的算力資源、花費4年的時間,解決AI安全問題。然而,從項目進展的角度,可能是AGI進化的速度更快一步。
向著AI快速進化的方向邁進,人類真的會走向美好嗎?答案仍是未知。
△馬斯克評論:極度令人擔憂科技大咖馬斯克就有關于OpenAI在AGI領域新突破的報道置評稱,“極度令人擔憂!”
現代快報+記者 是鐘寅 綜合環球時報、紅星新聞、界面新聞
百年之后,人類再看這段OpenAI的“宮斗大戲”,或許會從商戰之外,看到2023年的人類面對未知世界憂心忡忡。
是否要繼續投入資源,催動AI進化?身處2023年的人類,并未形成共識。即便是全球頂尖的科技公司OpenAI,管理層的觀點也有分歧。據媒體援引知情人士消息,在CEO奧爾特曼被罷免之前,幾名公司研究人員向董事會發出了一封信,警告稱一項強大的人工智能(AI)發現可能威脅人類。而這可能是造成奧爾特曼被罷免的催化劑之一。
△OpenAI表示:沒有了員工,OpenAI什么都不是。CEO與董事會溝通中,隱瞞了什么?
11月,科技界最勁爆的新聞莫過于美國人工智能公司OpenAI首席執行官、ChatGPT之父薩姆·奧爾特曼的風波。
11月17日,OpenAI發表了一篇博文,宣布CEO山姆·奧爾特曼將離開公司,任命立即生效。這篇博文措辭嚴厲,“奧爾特曼先生在與董事會的溝通中沒有保持坦誠,阻礙了董事會履行其職責的能力。董事會不再對他繼續領導OpenAI持有信心。”
CEO究竟對董事會隱瞞何事?事件各方均未言明,而業界普遍猜測,是在“AI安全和發展”的策略上,雙方存在分歧。
△OpenAI宣布奧爾特曼回歸CEO崗位接下來幾天,事件發展逐漸對奧爾特曼有利,公司大量員工要求董事會成員辭職,奧爾特曼重返OpenAI擔任CEO。
看似人事變動風波已然平息,一則消息在23日釋放出來——人事風波發生前,幾名公司研究人員向董事會發出了一封信,警告稱一項強大的人工智能(AI)發現可能威脅人類。
有消息人士透露稱,奧爾特曼被突然解雇,可能與該公司秘密研究的項目——Q*(發音為Q-star,即Q星)有關,而一些員工認為Q星可能是該公司探索AGI(通用人工智能)獲得的突破性成果。據稱,Q星可以解決小學數學問題,這點燃了董事會的緊張情緒——奧爾特曼是否在研發方面過于激進。而該公司首席技術官穆拉蒂隨后也在一份發送給員工的備忘錄中承認了Q星項目的存在。
“Q星”是希望之星,還是……
“Q星”能解區區“小學數學問題”,為何讓科技大咖們如此緊張?目前,以ChatGPT為代表的生成式人工智能,仍是從它所積累的“傳統智慧的統計數據”中抽出一些“連貫的文本線索”。簡單地說,就是它通過預測下一個單詞來進行寫作和語言翻譯,給出符合人類預期的答案。因此,它的安全威脅相對可控。
Q星項目,是另一套邏輯。有業內人士從Q星項目的命名看出端倪,這可能是Q-learning和A*搜索的結合。據介紹,Q-learning是AI強化學習方式中的一種,讓AI通過反復試驗來學習做出決策的方法。與OpenAI現行訓練AI的方法不同,Q-learning不需要依賴人類反饋進行學習,而是自行完成所有的操作和訓練。
毫無疑問,“Q星”具有強大的進化潛力,將其視為人工智能領域的“希望之星”也不為過。然而,當OpenAI的巨量算力向其注入,它的進化速度可能是一個“突變”而非“漸變”的過程。當AI超越人類智慧,而人類無法可靠控制AI系統,安全風險不容忽視。
人類需要更先進的AI,還是更安全的?
早在今年10月,OpenAI的官網悄然更改了其“核心價值觀”列表。此前,“大膽、深思熟慮、樸實無華、影響力驅動、協作、以增長為導向”是公司沿用已久的價值觀。而在新的列表中,“聚焦AGI”赫然列在首位,“深思熟慮”被踢出列表。
奧爾特曼曾在公司博客文章中就寫道,AGI(通用人工智能)可以廣義地定義為“通常比人類更聰明的系統”。后來,他在接受媒體采訪時,又稍稍降低了AGI的功能評級,將其定義可以“相當于一個中等水平人類,可以雇用作為同事”。這一表述上的細微差別,也透露出當AI超越人類,并不一定是一件好事。
如今,科技界對AGI的安全性仍然存在分歧。為了找出如何阻止AI失控的方法,今年7月,OpenAI首席科學家及董事伊爾亞·蘇茨克維組建了一個叫“超級對齊”(Superalignment)的團隊,意在令超級智能與人類價值觀和認知保持一致。該項目預計投入20%的算力資源、花費4年的時間,解決AI安全問題。然而,從項目進展的角度,可能是AGI進化的速度更快一步。
向著AI快速進化的方向邁進,人類真的會走向美好嗎?答案仍是未知。
△馬斯克評論:極度令人擔憂科技大咖馬斯克就有關于OpenAI在AGI領域新突破的報道置評稱,“極度令人擔憂!”
現代快報+記者 是鐘寅 綜合環球時報、紅星新聞、界面新聞
- 免責聲明
- 本文所包含的觀點僅代表作者個人看法,不代表新火種的觀點。在新火種上獲取的所有信息均不應被視為投資建議。新火種對本文可能提及或鏈接的任何項目不表示認可。 交易和投資涉及高風險,讀者在采取與本文內容相關的任何行動之前,請務必進行充分的盡職調查。最終的決策應該基于您自己的獨立判斷。新火種不對因依賴本文觀點而產生的任何金錢損失負任何責任。