劃重點:
1ChatGPT以及大語言模型已經火爆全球,但OpenAI公司管理層卻認為,這項技術發展速度過快,需要成立類似管理核能那樣的國際監管機構。
2OpenAI幾位高管發文,呼吁成立監管人工智能研究和部署的國際組織,追蹤用于人工智能研究的計算能力和能源的使用情況。但較小公司可以豁免,以免扼殺創新。
3雖然人工智能技術存在風險,但OpenAI給出了兩個推動其持續研究的理由:1)幫助解決全球性問題,促進經濟增長和生活水平提高;2)阻止超級智能崛起不現實,所以要確保其安全。
科技新聞訊 5月23日消息,人工智能技術的發展速度非?,可能帶來巨大的潛在危險。為此,人工智能研究公司OpenAI的領導層認為,世界需要一個類似于管理核能的國際機構,以監管人工智能領域的發展。
OpenAI創始人薩姆奧特曼(Sam Altman)、總裁格雷格布羅克曼(Greg Brockman)以及首席科學家伊利亞蘇斯克沃(Ilya Sutskeve)在公司博客上發文解釋說,人工智能領域的創新步伐太快,我們不能指望現有的監管機構能充分控制這項技術。
絕大多數人都清楚,以OpenAI爆火的聊天機器人ChatGPT為代表,所謂的生成式人工智能代表著一種無價的資產,但其同時也帶來了獨特的威脅。在這篇博文中,OpenAI沒有談及具體細節,也沒有給出太多承諾,但其承認人工智能無法自我監管。
文章中寫道:“我們需要在領先的研發中進行某種程度的協調,以確保超級智能的發展以一種既能維護安全又能幫助這些系統與社會順利整合的方式進行。我們可能最終需要像國際原子能機構(IAEA)這樣的實體來監管超級智能的研究,任何超過特定能力(或資源,如計算)閾值的工作都需要服從于國際權威機構的規則,該機構可以檢查系統,要求審核,測試是否符合安全標準,對部署和安全級別進行限制等等。”
國際原子能機構是聯合國在核能問題上進行國際合作的官方機構。當然,與其他此類組織一樣,該機構也可能缺乏影響力。建立在這種模式上的人工智能管理機構可能無法介入并對不良行為者進行控制,但它可以建立和跟蹤國際標準和協議,這至少是一個起點。
OpenAI的文章指出,跟蹤用于人工智能研究的計算能力和能源使用情況,是能夠而且可能應該報告和跟蹤的相對較少的客觀指標之一。雖然很難確定人工智能應該或不應該用于哪些方面,但可以說,與其他行業一樣,專門用于人工智能的資源應該受到監控和審計。該公司還建議,規模較小的公司可以豁免,以免扼殺創新的萌芽。
知名人工智能研究員、評論家蒂姆尼特格布魯(Timnit Gebru)接受采訪時也說過類似的話:“除非有外部壓力要求公司做些不同的事情,否則公司不會進行自我監管。我們需要加強監管,需要比賺錢獲取利潤更好的動機。”
OpenAI顯然已經接受了這種觀點,作為生成式人工智能領域的領導者,該公司也在呼吁在治理方面采取真正的行動。
雖然OpenAI的提議相當于“也許我們應該做點什么”,但它至少成為該行業內的一個話題,表明了這家世界上最大人工智能品牌和提供商對做這件事的支持。公眾監督是迫切需要的,但“我們還不知道如何設計這樣的機制。”
盡管OpenAI的領導層表示,他們支持“踩剎車”,但目前還沒有這樣做的計劃,一方面是因為他們不想放棄“改善我們社會”(更不用說賺錢)的巨大潛力,另一方面是因為存在不良行為者直接“踩油門”的風險。
以下為OpenAI博客文章全文:
現在是開始思考超級智能治理的好時機,因為未來的人工智能系統甚至比通用人工智能(AGI)都要強大得多。
鑒于我們現在所看到的情況,可以想象,在未來十年內,人工智能系統將在大多數領域超過專家的技能水平,并執行與當今最大公司那樣多的生產活動。
就潛在的優勢和劣勢而言,超級智能將比人類過去不得不與之抗衡的其他技術更強大。我們可能擁有更加繁榮的未來,但我們必須控制風險才能實現這一目標?紤]到存在風險的可能性,我們不能只是被動反應。核能就是具有這種特性的技術,合成生物學則是另一個例子。
我們也必須減輕當今人工智能技術的風險,但超級智能將需要特殊的對待和協調。
起點
對于我們來說,有許多理念能夠幫助我們更好地把握這一發展方向。在這里,我們列出了我們對其中三個問題的初步想法:
首先,我們需要在領先的開發努力之間進行某種程度的協調,以確保超級智能的發展以一種既能維護安全又能幫助這些系統與社會順利整合的方式進行。有很多方法可以實現這一點:世界各地的主要政府可以建立一個項目,讓許多當前的努力成為其中的一部分,或者我們可以取得共識,前沿人工智能能力被限制在每年以特定的速度增長。當然,個別公司應該被要求以極高的、負責任的標準行事。
其次,我們可能最終需要像國際原子能機構(IAEA)這樣的實體來監管超級智能的研究,任何超過特定能力(或資源,如計算)閾值的工作都需要服從于國際權威機構的規則,該機構可以檢查系統,要求審核,測試是否符合安全標準,對部署和安全級別進行限制等等。
不過,追蹤計算和能源使用情況可能會有很大幫助,這給我們帶來一些希望,這個想法實際上是可以實現的。第一步,公司可以自愿同意開始實施監管機構將來可能提出的要求;第二步,個別國家可以遵守。重要的是,這樣一個機構應該把重點放在降低生存風險上,而不是應該留給各個國家的問題上,比如限制人工智能應該被允許說什么。
最后,我們需要使超級智能保持安全的技術能力。這是一個開放的研究問題,我們和其他人都投入了大量的精力。
例外
我們認為,允許公司和開源項目開發低于重要能力閾值的模型至關重要,這里不需要我們描述的那種監管,包括像許可證或審計這樣的繁重機制。
今天的系統將在世界上創造巨大的價值,雖然它們確實存在風險,但這些風險的水平與其他互聯網技術和社會可能采取的方法相稱。
相比之下,我們所關注的系統將擁有比目前所創造任何技術都強大的能力,我們應該保持謹慎,不要把類似的標準應用到遠遠低于這個標準的技術上,從而淡化對它們的關注。
公眾意見及潛力
但是,對最強大系統的治理,以及有關其部署的決策,必須有強有力的公眾監督。我們認為,世界各地的人們應該民主地決定人工智能系統的界限和默認值。我們還不知道如何設計這樣一個機制,但我們計劃對其開發進行試驗。我們仍然認為,在這些寬泛的范圍內,個人用戶應該對他們使用的人工智能的行為有很大的控制權。
考慮到這些風險和困難,我們有必要考慮一下為什么要開發這項技術。
在OpenAI,我們有兩個基本理由。首先,我們相信它會帶來一個比我們今天所能想象的更好世界,我們已經在教育、創造性工作和個人生產力等領域看到了早期例證。世界面臨著許多問題,我們需要更多的幫助來解決它們。這項技術可以改善我們的社會,每個人使用這些新工具的創造能力肯定會讓我們感到震驚。經濟增長和生活質量的提高將是驚人的。
其次,我們認為,阻止超級智能的創造,從直覺上看是危險的,也是困難的。因為好處是如此巨大,建造它的成本每年都在下降,建造它的參與者的數量正在迅速增加,這是我們所走技術道路的固有組成部分,阻止它需要像全球監督制度這樣的東西,即使這樣也不能保證有效。所以我們必須把它做好。(金鹿)