Why AI Needs to be Open
讓我們來探討一下“為什么人工智能需要開放”。我的背景是Machine Learning,在我的職業(yè)生涯中大約有十年的時間一直在從事各種機器學習的工作。但在涉足Crypto、自然語言理解和創(chuàng)立NEAR之前,我曾在谷歌工作。我們現(xiàn)在開發(fā)了驅動大部分現(xiàn)代人工智能的框架,名為Transformer。離開谷歌之后,我開始了一家Machine Learning公司,以便我們能夠教會機器編程,從而改變我們如何與計算機互動。但我們沒有在2017或者18年這樣做,那時候太早了,當時也沒有計算能力和數(shù)據(jù)來做到這一點。
我們當時所做的是吸引世界各地的人們?yōu)槲覀冏鰳俗?shù)據(jù)的工作,大多數(shù)是學生。他們在中國、亞洲和東歐。其中許多人在這些國家沒有銀行賬戶。美國不太愿意輕易匯款,所以我們開始想要使用區(qū)塊鏈作為我們問題的解決方案。我們希望以一種程序化的方式向全球的人們支付,無論他們身在何處,都能讓這變得更加容易。順便說一句,Crypto的目前挑戰(zhàn)是,現(xiàn)在雖然NEAR解決了很多問題,但通常情況下,你需要先購買一些Crypto,才能在區(qū)塊鏈上進行交易來賺取,這個過程反其道而行了。
就像企業(yè)一樣,他們會說,嘿,首先,你需要購買一些公司的股權才能使用它。這是我們NEAR正在解決的很多問題之一?,F(xiàn)在讓我們稍微深入討論一下人工智能方面。語言模型并不是什么新鮮事物,50年代就存在了。它是一種在自然語言工具中被廣泛使用的統(tǒng)計工具。很長一段時間以來,從2013年開始,隨著深度學習重新被重新啟動,一種新的創(chuàng)新就開始了。這種創(chuàng)新是你可以匹配單詞,新增到多維度的向量中并轉換為數(shù)學形式。這與深度學習模型配合得很好,它們只是大量的矩陣乘法和激活函數(shù)。
這使我們能夠開始進行先進的深度學習,并訓練模型來做很多有趣的事情?,F(xiàn)在回顧起來,我們當時正在做的是神經元神經網(wǎng)絡,它們在很大程度上是模仿人類的模型,我們一次可以讀取一個單詞。因此,這樣做速度非常慢,對吧。如果你試圖在Google.com上為用戶展示一些內容,沒有人會等待去閱讀維基百科,比如說五分鐘后才給出答案,但你希望馬上得到答案。因此,Transformers 模型,也就是驅動ChatGPT、Midjourney以及所有最近的進展的模型,都是同樣來自這樣的想法,都希望有一個能夠并行處理數(shù)據(jù)、能夠推理、能夠立即給出答案。
因此這個想法在這里的一個主要創(chuàng)新是,即每個單詞、每個token、每個圖像塊都是并行處理的,利用了我們具有高度并行計算能力的GPU和其他加速器。通過這樣做,我們能夠以規(guī)模化的方式對其進行推理。這種規(guī)?;軌驍U大訓練規(guī)模,從而處理自動訓練數(shù)據(jù)。因此,在此之后,我們看到了 Dopamine,它在短時間內做出了驚人的工作,實現(xiàn)了爆炸式的訓練。它擁有大量的文本,開始在推理和理解世界語言方面取得了驚人的成果。
現(xiàn)在的方向是加速創(chuàng)新人工智能,之前它是一種數(shù)據(jù)科學家、機器學習工程師會使用的一種工具,然后以某種方式,解釋在他們的產品中或者能夠去與決策者討論數(shù)據(jù)的內容。現(xiàn)在我們有了這種 AI 直接與人交流的模式。你甚至可能都不知道你在與模型交流,因為它實際上隱藏在產品背后。因此,我們經歷了這種轉變,從之前那些理解AI 如何工作的,轉變成了理解并能夠將其使用。
因此,我在這里給你們一些背景,當我們說我們在使用GPU來訓練模型時,這不是我們桌面上玩視頻游戲時用的那種游戲GPU。
每臺機器通常配備八個GPU,它們都通過一個主板相互連接,然后堆疊成機架,每個機架大約有16臺機器?,F(xiàn)在,所有這些機架也都通過專用的網(wǎng)絡電纜相互連接,以確保信息可以在GPU之間直接極速傳輸。因此,信息不適合CPU。實際上,你根本不會在CPU上處理它。所有的計算都發(fā)生在GPU上。所以這是一個超級計算機設置。再次強調,這不是傳統(tǒng)的“嘿,這是一個GPU的事情”。所以規(guī)模如GPU4的模型在大約三個月的時間里使用了10,000個H100進行訓練,費用達到6400萬美元。大家了解當前成本的規(guī)模是什么樣的以及對于訓練一些現(xiàn)代模型的支出是多少。
重要的是,當我說系統(tǒng)是相互連接的時候,目前H100的連接速度,即上一代產品,是每秒900GB,計算機內部 CPU 與 RAM 之間的連接速度是每秒 200GB,都是電腦本地的。因此,在同一個數(shù)據(jù)中心內從一個GPU發(fā)送數(shù)據(jù)到另一個GPU的速度比你的計算機還快。你的計算機基本上可以在箱子里自己進行通信。而新一代產品的連接速度基本上是每秒1.8TB。從開發(fā)者的角度來看,這不是一個個體的計算單元。這些是超級計算機,擁有一個巨大的內存和計算能力,為你提供了極大規(guī)模的計算。
現(xiàn)在,這導致了我們面臨的問題,即這些大公司擁有資源和能力來構建這些模型,這些模型現(xiàn)在幾乎已經為我們提供了這種服務,我不知道其中究竟有多少工作,對吧?所以這就是一個例子,對吧?你去找一個完全集中式的公司提供者,然后輸入一個查詢。結果是,有幾個團隊并不是軟件工程團隊,而是決定結果如何顯示的團隊,對吧?你有一個團隊決定哪些數(shù)據(jù)進入數(shù)據(jù)集。
舉個例子,如果你只是從互聯(lián)網(wǎng)上爬取數(shù)據(jù),關于巴拉克·奧巴馬出生在肯尼亞和巴拉克·奧巴馬出生在夏威夷的次數(shù)是完全相同的,因為人們喜歡猜測爭議。所以你要決定要在什么上進行訓練。你要決定過濾掉一些信息,因為你不相信這是真的。因此,若像這樣的個人已經決定哪些數(shù)據(jù)會被采用且存在這些數(shù)據(jù),這些決定在很大程度上是由做出它們的人所影響的。你有一個法律團隊決定我們不能查看哪些內容是受版權保護,哪些是非法的。我們有一個“道德團隊”決定什么是不道德的,我們不應該展示什么內容。
所以在某種程度上,有很多這樣的過濾和操縱行為。這些模型是統(tǒng)計模型。它們會從數(shù)據(jù)中挑選出來。如果數(shù)據(jù)中沒有某些內容,它們就不會知道答案。如果數(shù)據(jù)中有某些內容,它們很可能會將其視為事實?,F(xiàn)在,當你從AI得到一個回答時,這可能會令人擔憂。對吧?,F(xiàn)在,你理應是從模型那里得到回答,但是沒有任何的保證。你不知道結果是如何生成的。一個公司可能會把你的特定會話賣給出價最高的人來實際改變結果。想象一下,你去詢問應該買哪種車,豐田公司決定覺得應該偏向豐田這個結果,豐田將支付這家公司10美分來做到這一點。
因此,即使你將這些模型用作應該中立并代表數(shù)據(jù)的知識庫,實際上在你得到結果之前,會發(fā)生很多事情,這些事情會以一種非常特定的方式對結果進行偏見。這已經引發(fā)了很多問題,對吧?這基本上就是大公司和媒體之間不同法律訴訟的一個星期。SEC,現(xiàn)在幾乎每個人都在試圖起訴對方,因為這些模型帶來了如此多的不確定性和權力。而且,如果往前看,問題在于大型科技公司將永遠有繼續(xù)增加收入的動機,對吧?比如,如果你是一家上市公司,你需要報告收入,你需要繼續(xù)保持增長。
為了實現(xiàn)這一目標,如果你已經占據(jù)了目標市場,比如說你已經有20億用戶了。在互聯(lián)網(wǎng)上已經沒有那么多新用戶了。你沒有太多的選擇,除了最大化平均收入,這意味著你需要從用戶那里提取更多的價值,而他們可能根本沒有什么價值,或者你需要改變他們的行為。生成式人工智能非常擅長于操縱和改變用戶的行為,特別是如果人們認為它是以一切知識智能的形式出現(xiàn)的。因此,我們面臨著這種非常危險的情況,在這種情況下,監(jiān)管壓力很大,監(jiān)管機構并不完全了解這項技術的工作原理。我們幾乎沒有保護用戶免受操縱的情況。
操縱性內容、誤導性內容,即使沒有廣告,你也可以只是截取一些東西的屏幕截圖,改變標題,發(fā)布到Twitter上,人們就會發(fā)瘋。你有經濟激勵機制,導致你不斷地最大化收入。而且,這實際上不像在谷歌內部你是在做惡事,對吧?當你決定啟動哪個模型時,你會進行A或B測試,看看哪個能帶來更多收入。因此,你會通過從用戶那里提取更多價值來不斷地最大化收入。而且,用戶和社區(qū)并沒有對模型的內容、使用的數(shù)據(jù)以及實際嘗試實現(xiàn)的目標有任何輸入。這就是應用程序用戶的情況。這是一種調節(jié)。
這就是為什么我們要不斷推動WEB 3和AI融合的原因,web 3 可以是一種重要的工具,它允許我們有新的激勵方式,并且還是以去中心化的形式去激勵我們生產更好的軟件和產品。這是整個web 3 AI 開發(fā)的大方向, 現(xiàn)在為了幫助理解細節(jié),我會簡單講一下具體的部分,首先第一部分是Content Reputation。
再次強調,這不是一個純粹的人工智能問題,盡管語言模型為人們操縱和利用信息帶來了巨大的影響力并擴大了規(guī)模。你想要的是一種可以追蹤的、可追溯的加密聲譽,當你查看不同的內容時,它會顯現(xiàn)出來。所以想象一下,你有一些社區(qū)節(jié)點,它們實際上是加密的,并且在每個網(wǎng)站的每個頁面上都可以找到?,F(xiàn)在,如果你超越這一點,所有這些分發(fā)平臺都將會受到干擾,因為這些模型現(xiàn)在幾乎將閱讀所有這些內容并為你提供個性化摘要和個性化輸出。
因此,我們實際上有機會創(chuàng)造新的創(chuàng)造性內容,而不是試圖重新發(fā)明,讓我們在現(xiàn)有內容上加上區(qū)塊鏈和NFTs。圍繞模型訓練和推理時間的新創(chuàng)作者經濟,人們創(chuàng)造的數(shù)據(jù),無論是新的出版物、照片、YouTube、還是你創(chuàng)作的音樂,都將進入一個基于其對模型訓練的貢獻程度的網(wǎng)絡。因此,根據(jù)這一點,根據(jù)內容可以在全球范圍內獲得一些報酬。因此,我們從現(xiàn)在由廣告網(wǎng)絡推動的吸引眼球的經濟模式過渡到了真正帶來創(chuàng)新和有趣信息的經濟模式。
我想提一件重要的事情,那就是大量的不確定性來自浮點運算。所有這些模型都涉及大量的浮點運算和乘法。這些都是不確定性的操作。
現(xiàn)在,如果你將它們在不同架構的GPU上進行乘法運算。所以你拿一個A100和一個H100,結果會有所不同。因此,很多依賴確定性的方法,比如加密經濟和樂觀主義,實際上會遇到很多困難,并且需要很多創(chuàng)新才能實現(xiàn)這一點。最后,有一個有趣的想法,我們一直在構建可編程貨幣和可編程資產,但是如果你能想象一下,你給它們添加這種智能,你就可以有智能資產,它們現(xiàn)在不是由代碼定義的,而是由自然語言與世界互動的能力來定義,對吧?這就是我們可以有很多有趣的收益優(yōu)化、DeFi,我們可以在世界內部進行交易策略。
現(xiàn)在的挑戰(zhàn)在于所有當前事件都不具備強大的Robust行為。它們并沒有被訓練成具有對抗性的強大性,因為訓練的目的是預測下一個token。因此,說服一個模型給你所有的錢會更容易。在繼續(xù)之前,實際上解決這個問題非常重要。所以我就給你留下這個想法,我們處在一個十字路口上,對吧?有一個封閉的人工智能生態(tài)系統(tǒng),它有極端的激勵和飛輪,因為當他們推出一個產品時,他們會產生大量的收入,然后把這些收入投入到建設產品中。但是,該產品天生就是為了最大化公司的收入,從而最大化從用戶那里提取的價值?;蛘呶覀冇羞@種開放、用戶擁有的方法,用戶掌控著局面。
這些模型實際上對你有利的,試圖最大化你的利益。它們?yōu)槟闾峁┝艘环N方式,真正保護你免受在互聯(lián)網(wǎng)上的許多危險。所以這就是為什么我們需要AI x Crypto更多的開發(fā)和應用。謝謝大家。