他還指出,“我們的團隊一直在與美國人工智能安全研究所(US AI Safety Institute)合作并達成協(xié)議,希望該研究所能盡早訪問我們的下一個基礎(chǔ)模型,以便我們能夠共同努力,推動人工智能安全評估的科學(xué)發(fā)展?!?/p>

image

這家研究所是一個旨在評估和解決人工智能平臺風險的聯(lián)邦政府機構(gòu),隸屬于美國商務(wù)部國家標準與技術(shù)研究院(National Institute of Standards and Technology)。該機構(gòu)為包括Anthropic、谷歌、Microsoft、Meta、蘋果、亞馬遜和英偉達等大型科技公司在內(nèi)的公司財團提供咨詢。

奧爾特曼的這一聲明并沒有透露太多細節(jié),但這一舉措,連同OpenAI在6月與英國人工智能安全機構(gòu)達成的類似協(xié)議,意在反駁這樣一種說法,即OpenAI在追求更有能力、更強大的生成式人工智能技術(shù)時,已經(jīng)把人工智能安全工作放在了次要地位。

今年5月,OpenAI被爆出解散了一個專注于研究人工智能安全的部門,該部門致力于開發(fā)人工智能控制措施,以防止“超智能(Superintelligence)”人工智能系統(tǒng)失控。同月,該部門的兩位聯(lián)合負責人Jan Leike和Ilya Sutskever也宣布辭職。

目前,Jan Leike在人工智能初創(chuàng)公司Anthropic的安全研究部門就職,而Ilya Sutskever創(chuàng)辦了自己的專注于安全的人工智能公司Safe Superintelligence。

這一事態(tài)發(fā)展讓OpenAI和奧爾特曼遭受到了很多批評聲。OpenAI后來回應(yīng)道,成立安全委員會,將20%的計算資源用于安全研究,并且將取消限制員工揭發(fā)的條款。

然而,這些舉措并沒有安撫一些市場觀察人士的質(zhì)疑聲。OpenAI 首席戰(zhàn)略官杰森·權(quán)(Jason Kwon)最新回應(yīng)稱,OpenAI“致力于在我們流程的每個階段實施嚴格的安全協(xié)議”。

來源:財聯(lián)社

分享到

nina

相關(guān)推薦