他還指出,“我們的團(tuán)隊(duì)一直在與美國(guó)人工智能安全研究所(US AI Safety Institute)合作并達(dá)成協(xié)議,希望該研究所能盡早訪問(wèn)我們的下一個(gè)基礎(chǔ)模型,以便我們能夠共同努力,推動(dòng)人工智能安全評(píng)估的科學(xué)發(fā)展?!?/p>
這家研究所是一個(gè)旨在評(píng)估和解決人工智能平臺(tái)風(fēng)險(xiǎn)的聯(lián)邦政府機(jī)構(gòu),隸屬于美國(guó)商務(wù)部國(guó)家標(biāo)準(zhǔn)與技術(shù)研究院(National Institute of Standards and Technology)。該機(jī)構(gòu)為包括Anthropic、谷歌、Microsoft、Meta、蘋(píng)果、亞馬遜和英偉達(dá)等大型科技公司在內(nèi)的公司財(cái)團(tuán)提供咨詢(xún)。
奧爾特曼的這一聲明并沒(méi)有透露太多細(xì)節(jié),但這一舉措,連同OpenAI在6月與英國(guó)人工智能安全機(jī)構(gòu)達(dá)成的類(lèi)似協(xié)議,意在反駁這樣一種說(shuō)法,即OpenAI在追求更有能力、更強(qiáng)大的生成式人工智能技術(shù)時(shí),已經(jīng)把人工智能安全工作放在了次要地位。
今年5月,OpenAI被爆出解散了一個(gè)專(zhuān)注于研究人工智能安全的部門(mén),該部門(mén)致力于開(kāi)發(fā)人工智能控制措施,以防止“超智能(Superintelligence)”人工智能系統(tǒng)失控。同月,該部門(mén)的兩位聯(lián)合負(fù)責(zé)人Jan Leike和Ilya Sutskever也宣布辭職。
目前,Jan Leike在人工智能初創(chuàng)公司Anthropic的安全研究部門(mén)就職,而Ilya Sutskever創(chuàng)辦了自己的專(zhuān)注于安全的人工智能公司Safe Superintelligence。
這一事態(tài)發(fā)展讓OpenAI和奧爾特曼遭受到了很多批評(píng)聲。OpenAI后來(lái)回應(yīng)道,成立安全委員會(huì),將20%的計(jì)算資源用于安全研究,并且將取消限制員工揭發(fā)的條款。
然而,這些舉措并沒(méi)有安撫一些市場(chǎng)觀察人士的質(zhì)疑聲。OpenAI 首席戰(zhàn)略官杰森·權(quán)(Jason Kwon)最新回應(yīng)稱(chēng),OpenAI“致力于在我們流程的每個(gè)階段實(shí)施嚴(yán)格的安全協(xié)議”。
來(lái)源:財(cái)聯(lián)社