前OpenAI聯(lián)合創(chuàng)始人單飛創(chuàng)業(yè)
一場好戲即將上演。
一、蘇茨克維想走自己的路
伊爾亞·蘇茨克維(Ilya Sutskever),作為OpenAI的聯(lián)合創(chuàng)始人和前首席科學(xué)家,一直是人工智能領(lǐng)域的領(lǐng)軍人物,他在深度學(xué)習(xí)領(lǐng)域的貢獻(xiàn),尤其是在生成式對抗網(wǎng)絡(luò)(GANs)和神經(jīng)網(wǎng)絡(luò)架構(gòu)上的創(chuàng)新,為OpenAI的早期成功奠定了基礎(chǔ)。
不過,這位AI領(lǐng)域的巨星第一次被公眾所熟知,卻是因?yàn)镺penAI內(nèi)部的一場震動業(yè)界的“宮斗”。
去年11月,蘇茨克維與其他董事會成員一起,以對公司未來發(fā)展方向和安全問題的分歧為由,推動了對OpenAI首席執(zhí)行官薩姆·奧爾特曼(Sam Altman)的罷免。
這一事件在當(dāng)時(shí)引起了不小的轟動,不僅是因?yàn)锳ltman在OpenAI的地位,更是因?yàn)檫@背后反映出的AI領(lǐng)域內(nèi)關(guān)于安全發(fā)展與商業(yè)化的深層矛盾。
蘇茨克維曾公開表達(dá)過對AI安全性的深刻擔(dān)憂和對技術(shù)發(fā)展的謹(jǐn)慎態(tài)度,而Altman在公司內(nèi)部所表現(xiàn)出的對商業(yè)利益擴(kuò)大化的追求,恰好與蘇茨克維的安全優(yōu)先理念發(fā)生了沖突,最終導(dǎo)致了這場宮斗的爆發(fā)。
然而,這場試圖改變OpenAI航向的行動并未以蘇茨克維的勝利告終。
經(jīng)過幾天的反復(fù)和員工、投資者的強(qiáng)烈反對,Altman戲劇性地重返CEO職位,而蘇茨克維的影響力似乎也因此遭到了削弱,在公司內(nèi)部的地位反而變得有些微妙。
風(fēng)波過后,蘇茨克維更是罕見地在個(gè)人社交媒體上發(fā)帖認(rèn)錯(cuò)道歉:“我很后悔參與了這次董事會的行動,我從未故意想過傷害OpenAI。我熱愛我們一起創(chuàng)造的工作成果,會盡全力讓公司重新團(tuán)結(jié)在一起?!?/span>
Altman也轉(zhuǎn)發(fā)了蘇茨克維的這條帖文,并送上了三顆紅心的表情。、

圖源:X(前Twitter)
盡管他與Altman在公開場合表示和解,但在不少業(yè)內(nèi)人士看來,蘇茨克維的退出似乎已成定局。
果不其然,2024年5月15日,蘇茨克維在社交平臺上宣布離開工作近十年的OpenAI。

圖源:X(前Twitter)
并且,他還表示會在“適當(dāng)?shù)臅r(shí)候”告訴大家自己下一步的計(jì)劃,會是一個(gè)對他個(gè)人很有意義的項(xiàng)目。
這一決定標(biāo)志著蘇茨克維對當(dāng)前AI商業(yè)化路徑的深刻反思和個(gè)人理念的堅(jiān)持,他的下一步行動更是引起了業(yè)界的廣泛關(guān)注。
不少人猜測他會回到老東家微軟公司繼續(xù)實(shí)現(xiàn)他的夢想,也有專業(yè)人士分析蘇茨克維所言的這個(gè)項(xiàng)目會由他自己一手操辦。
這不,就在時(shí)隔一個(gè)月以后,2024年6月20日,蘇茨克維宣布成立了名為“安全超級智能”(Safe Superintelligence,簡稱SSI)的新公司,自己公布了答案。
并明確表示SSI的目標(biāo)是追求安全超級智能的純粹科研目標(biāo),成立初衷是想“一步到位”地創(chuàng)造一個(gè)足夠安全的超級智能,這不僅是技術(shù)上的挑戰(zhàn),更是對AI安全性的一次深思熟慮的探索。

圖源:X(前Twitter)
蘇茨克維在SSI的公告中強(qiáng)調(diào),公司將完全屏蔽外界的壓力,不必應(yīng)對復(fù)雜的大型產(chǎn)品,也不會卷入激烈的競爭之中。
另外,他還表示,公司將只有一個(gè)重點(diǎn)、一個(gè)目標(biāo)和一個(gè)產(chǎn)品,團(tuán)隊(duì)的終極目標(biāo)就是通過“小而精”的破解團(tuán)隊(duì),去追求安全超級人工智能。
這種專注于科研和安全性的態(tài)度,與他在OpenAI時(shí)期所推動的理念一脈相承。
隨著SSI的成立,蘇茨克維不僅為自己的理念找到了一個(gè)新的舞臺,也為AI領(lǐng)域的未來探索提供了新的可能性。
二、志同道合的人走到了一起
提起“小而精”的團(tuán)隊(duì),就不得不說到這次與蘇茨克維并肩作戰(zhàn)的兩位重量級的合作伙伴:丹尼爾·格羅斯(Daniel Gross)與丹尼爾·萊維( Daniel Levy)。
一位是前蘋果公司機(jī)器學(xué)習(xí)主管、知名科技風(fēng)險(xiǎn)投資人,另一位則是與蘇茨克維一同在OpenAI訓(xùn)練大模型的工程師。
前者不僅在蘋果公司就職期間,推動了機(jī)器學(xué)習(xí)技術(shù)的集成與應(yīng)用,還在AI初創(chuàng)公司領(lǐng)域具有前瞻性的投資眼光,例如他對GitHub和Instacart的早期投資,以及他目前持有著Perplexity.ai和Character.ai等公司的股份。
格羅斯的加入,為SSI帶來了豐富的行業(yè)經(jīng)驗(yàn)和資源,在這次公司成立過程中,格羅斯更是直接放話:“公司的確會面臨許多問題,但找錢不會是其中之一?!?/span>
雖然目前并不清楚SSI這家公司未來到底能發(fā)展到哪個(gè)高度,但格羅斯的態(tài)度至少證明了這家公司有著不俗的經(jīng)濟(jì)實(shí)力。
工程師丹尼爾·萊維在OpenAI的助力自然也十分重要,他與蘇茨克維共同訓(xùn)練過大模型,對深度學(xué)習(xí)和神經(jīng)網(wǎng)絡(luò)有深刻的理解。
作為行業(yè)內(nèi)頂尖的研究員,萊維的專業(yè)背景和技術(shù)經(jīng)驗(yàn),為SSI的技術(shù)研發(fā)提供了堅(jiān)實(shí)的支撐。
三位創(chuàng)始人因共同的愿景——創(chuàng)造一個(gè)安全、有益于人類的超級智能——而走到一起。
蘇茨克維的前瞻性思維、格羅斯的行業(yè)洞察力和萊維的技術(shù)專長,三者的結(jié)合形成了一種強(qiáng)大的互補(bǔ)優(yōu)勢。
這種優(yōu)勢不僅為SSI提供了一個(gè)多元化的視角,也為實(shí)現(xiàn)其宏偉目標(biāo)奠定了堅(jiān)實(shí)的基礎(chǔ)。
并且,SSI在創(chuàng)立之初就表達(dá)了其不追求短期商業(yè)利益,而是專注于科研的經(jīng)營模式,這在當(dāng)前以市場為導(dǎo)向的AI創(chuàng)業(yè)公司中實(shí)屬少見。
這種模式的優(yōu)勢在于能夠?qū)W⒂诩夹g(shù)的長期發(fā)展和安全性研究,避免了急于商業(yè)化可能帶來的風(fēng)險(xiǎn)。
然而,這種模式同樣存在隱憂。
缺乏即時(shí)的商業(yè)回報(bào)可能會對資金流和投資者信心造成壓力。盡管有著格羅斯的承諾,但大家都明白SSI若是真實(shí)現(xiàn)了終極目標(biāo),所花費(fèi)的人力財(cái)力很可能是一筆天文數(shù)字。
所以,如何在保證研究深度的同時(shí),讓社會和投資者看到實(shí)際的價(jià)值和進(jìn)展,就是SSI需要考慮的問題。
與傳統(tǒng)AI公司相比,SSI需要在科研與市場之間找到平衡點(diǎn),以確保其愿景既宏偉又接地氣。畢竟蘇茨克維曾表達(dá)過,他要讓超級AI造福所有人類。
三、AI安全性值得核安全級別的重視
正如新公司名字(Safe Superintelligence)所描述的那樣,伊爾亞·蘇茨克維將AI安全視為重中之重。
他將AI的安全性一定程度上視為核安全級別,而不是公眾平常所簡單理解的“信任安全”。
核安全強(qiáng)調(diào)的是對潛在災(zāi)難性后果的預(yù)防和控制,AI安全性在他看來也同樣如此。這也意味著研究者在技術(shù)開發(fā)的每個(gè)階段都需要對自己的AI重新進(jìn)行嚴(yán)格的風(fēng)險(xiǎn)評估和預(yù)防措施。
這種級別的重視代表著從AI系統(tǒng)的設(shè)計(jì)、開發(fā)到部署,每一個(gè)環(huán)節(jié)開發(fā)者們都必須考慮到其對人類和環(huán)境的潛在影響。
如此高規(guī)格的重視,并非空穴來風(fēng)。
AI技術(shù)的發(fā)展帶來了前所未有的便利,但也同時(shí)帶來了新的安全性風(fēng)險(xiǎn)。
中國工程院院士鄔江興、吳世忠等專家就在今年公開表示過人工智能帶來的安全問題是前所未有的復(fù)雜問題。
首先,隱私侵犯問題就隨著數(shù)據(jù)收集和分析技術(shù)的發(fā)展而日益突出。專家們表示,當(dāng)下的網(wǎng)絡(luò)安全威脅正在從信息擴(kuò)大到數(shù)據(jù)加物理域、認(rèn)知域。
其次,決策偏見也是AI領(lǐng)域的一個(gè)重要難題。由于訓(xùn)練數(shù)據(jù)的不均衡或算法設(shè)計(jì)的問題,AI系統(tǒng)可能會在投資、招聘等領(lǐng)域產(chǎn)生不均衡的決策結(jié)果。
而隨著AI應(yīng)用普及面越來越廣,人們對AI技術(shù)的態(tài)度也比較復(fù)雜。
一方面,人們期待AI技術(shù)能夠提高金融服務(wù)的效率和質(zhì)量,例如通過大型語言模型(LLM)提供更加個(gè)性化的客戶服務(wù)。
另一方面,人們也比較擔(dān)心AI可能帶來的風(fēng)險(xiǎn),如數(shù)據(jù)泄露、算法偏見和網(wǎng)絡(luò)安全威脅等。
以前,大家都比較擔(dān)心自己的瀏覽記錄被泄露,而在如今大數(shù)據(jù)算法的精準(zhǔn)推送下,就連我們愛看什么視頻、愛看誰直播都能清晰地在互聯(lián)網(wǎng)上留下痕跡,自然會引起我們更深層次的擔(dān)憂。
所以,對于蘇茨克維的出走以及SSI公司的創(chuàng)立,業(yè)內(nèi)外都有著不少支持者。
曾經(jīng)蘇茨克維還在OpenAI內(nèi)部掀起變革時(shí),紐約大學(xué)AI教授Gary Marcus就公開表示過支持,“他們一定看到了山姆所做的事情的危險(xiǎn)性?!?/span>
2、電商號平臺僅提供信息存儲服務(wù),如發(fā)現(xiàn)文章、圖片等侵權(quán)行為,侵權(quán)責(zé)任由作者本人承擔(dān)。
3、如對本稿件有異議或投訴,請聯(lián)系:info@dsb.cn
