數(shù)字金融
網(wǎng)絡營銷推廣
電商服務
來源:管理智慧
哈佛大學最新研究表明:在接下來的幾年中,生成型人工智能有望深刻改變多種職業(yè)
如今,人工智能已經(jīng)不僅僅屬于技術專家,幾乎任何人都能通過使用日常語言的指令而不是編程來運用AI。我們的研究顯示,大部分商業(yè)功能以及超過40%的美國工作活動能夠通過通用人工智能被增強、自動化或徹底改造。預計這些變革將對法律、銀行、保險及資本市場等行業(yè)影響最大,隨后是零售、旅游、健康和能源行業(yè)。
對組織及其員工來說,即將到來的這一轉(zhuǎn)變將帶來重大的影響。在未來,我們很多人會發(fā)現(xiàn),我們的職業(yè)成功將取決于我們能否從像ChatGPT等這樣的大型語言模型中獲取最優(yōu)質(zhì)的輸出,并能與這些模型一同學習與進步。為了在這個AI與人類合作的新時代中脫穎而出,大多數(shù)人需要掌握我們所稱的“融合技能”之一或多個——智能詢問、融合個人判斷力和相互學習。
智能詢問指的是以能顯著改善思考和結(jié)果的方式指導大型語言模型(或者說,給它們下達指令)。簡而言之,這是一種與AI共同思考的技能。例如,一名金融服務公司的客服人員可能在處理復雜的客戶問題時運用此技能;制藥科學家可能用它來探索藥物化合物和分子作用;市場營銷人員可能利用它分析數(shù)據(jù)集,以確定最佳零售價格。
融合個人判斷力則是在通用AI模型對下一步行動不確定或在其推理中缺乏必要的商業(yè)或倫理背景時,加入人類的判斷力。這一做法旨在使人機交互的結(jié)果更加值得信賴。判斷整合需要洞察何時、何地以及如何介入,其有效性可以通過AI輸出的可靠性、精確性和可解釋性來評估。
相互學習是你可以通過將豐富的數(shù)據(jù)和組織知識整合到你對AI的指令中,幫助它理解你的業(yè)務需求,從而將其培養(yǎng)成為你的創(chuàng)造伙伴。這種技能可以將通用AI定制化到適應公司的具體業(yè)務環(huán)境,使其能夠?qū)崿F(xiàn)你期望的成果。在此過程中,你也將學會如何訓練AI處理更高級的挑戰(zhàn)。相互學徒制曾是數(shù)據(jù)科學家和分析專家構(gòu)建模型時的專利,如今它在非技術崗位上也顯得日益重要。
為何需要系統(tǒng)地培養(yǎng)這些關于思考、建立信任和個性化定制的新技能呢?實證研究一致表明,目前大多數(shù)員工對大型語言模型的臨時指令通常會導致不穩(wěn)定或不理想的結(jié)果,特別是在處理復雜的推理任務時。這一點在從客服到市場營銷、物流、研發(fā)等各個功能領域均是如此。因此,我們所有人在工作中使用通用AI時都需要增加更多的嚴謹性。本文將闡釋如何實現(xiàn)這一目標。
01
智能詢問
如何提升大型語言模型(LLM)這類基于海量數(shù)據(jù)和概率驅(qū)動(而非人類邏輯)的復雜系統(tǒng)的輸出?這里有幾種方法可供使用。
1、逐步推理。
在指導通用AI時,你需要將過程拆分為若干個步驟,并致力于優(yōu)化每個環(huán)節(jié),這類似于工業(yè)制造初期科學管理的方法。但AI處理的不是裝配線,而是一連串的思考過程,目的是尋找解決方案。研究顯示,當通用AI被引導以這種方式拆解推理任務時,其性能會顯著提高,這在處理復雜問題時尤其有效,OpenAI的研究員Jason Wei在首次探索“思維鏈條推理”時就已證明了這一點。
事實上,向LLM的指令中加入“讓我們逐步思考”這樣的簡單短語,可以在從數(shù)學到策略推理的多種任務中將其輸出的準確度提高三倍以上。比如,你的AI提示可能是:“我的部門有50萬美元預算,已經(jīng)用20%購買設備,30%用于招聘新員工。我們剛獲得了5萬美元的預算增加。我們的剩余預算是多少?讓我們逐步思考。”模型將輸出:“起初,你部門有50萬美元。你花了20%,即10萬美元購買設備,剩余40萬美元。你又分配了30%,即15萬美元用于新招聘,預算降至25萬美元。最后,你收到了5萬美元的預算增加,剩余預算為30萬美元?!北M管大多數(shù)人可以在頭腦中做出這種計算,但LLM(其運算速度更快)能被訓練去詳細解釋在更復雜的量化問題上的計算過程,如計算銷售代表在多個城市間行駛的最短路線。這種方法產(chǎn)生了一個可追蹤的推理鏈,不是在一個黑箱過程結(jié)束時突然給出答案,而是讓你能夠驗證結(jié)果的準確性。
2、分階段訓練大型語言模型應對復雜任務。
在需要特定職業(yè)和領域知識的領域,如法律、醫(yī)療、科研或庫存管理中,可以逐步引入AI以達到更優(yōu)效果。
舉例來說,麻省理工學院的研究者Tyler D. Ross和Ashwin Gopinath特近期探討了開發(fā)一種“AI科學家”的可能性,該科學家能整合多種實驗數(shù)據(jù)并提出可檢驗的假設。他們發(fā)現(xiàn),當這一復雜任務被細分為若干子任務時,ChatGPT 3.5-Turbo能通過微調(diào)學習DNA的結(jié)構(gòu)生物物理。在庫存管理這類非科學領域,子任務可能包括需求預測、庫存數(shù)據(jù)收集、訂貨預測、訂貨量評估和性能評估。對于每個子任務,管理者會利用自身的專業(yè)知識和信息來訓練、測試和驗證模型。
3、與大型語言模型進行創(chuàng)新型探索。
從戰(zhàn)略制定到新產(chǎn)品開發(fā)的許多工作流程都是開放式和迭代的。為了充分利用這些活動中的人工智能互動,你需要引導機器設想多種潛在解決方案的路徑,并以更加靈活和多元的方式作出響應。
這種智能詢問可以提高大型語言模型在預測復雜財經(jīng)和政治事件方面的精準度,正如Philip Schoenegger, Philip Tetlock及其團隊最近的研究所示。他們將人類預測者與被訓練為“超級預測者”的GPT-4助手配對,這些助手能夠為不同結(jié)果分配概率和不確定性區(qū)間,并就每個結(jié)果提供正反兩面的論證。研究發(fā)現(xiàn),這些助手的預測結(jié)果(涵蓋從某一特定日期的道瓊斯運輸平均指數(shù)收盤價到2023年12月通過地中海進入歐洲的移民數(shù)量)比未經(jīng)特定訓練的大型語言模型的預測結(jié)果準確度提高了43%。
02
融合個人判斷力
在AI生成過程中引入專家級別及道德層面的人類判斷對于確保輸出的可信度、準確性和可解釋性,以及對社會產(chǎn)生正面影響極為關鍵。這里有一些你可以采用的方法:
1、整合檢索增強生成(RAG)。
大型語言模型(LLMs)不只有可能產(chǎn)生虛構(gòu)信息,它們訓練所用的數(shù)據(jù)和信息往往也是多年前的。在運用LLMs時,用戶經(jīng)常需要就輸出中的可靠、相關及最新信息的必要性做出判斷。如果這類信息是關鍵的,你可以利用檢索增強生成(RAG)技術,從權威的知識庫中添加信息到商用LLM的訓練資源中。這樣可以有效防止誤信息、過時的回應和不精確的數(shù)據(jù)。例如,制藥研究者可能會利用RAG技術接入人類基因組數(shù)據(jù)庫、最新的科學期刊、覆蓋臨床前研究的數(shù)據(jù)庫以及FDA的指導方針。要部署RAG,通常需要IT團隊的協(xié)助,他們能告訴你是否已經(jīng)或能夠?qū)⑵淙诤线M他們的工作流中,從而為他們的工作增添一層額外的質(zhì)量保證。
2、保護公司及個人隱私。
如果你在AI提示中使用機密數(shù)據(jù)或?qū)S行畔?,只應使用?jīng)公司批準且部署在公司防火墻內(nèi)的模型,切勿使用開源或公共的大型語言模型。在公司政策允許的前提下,如果大型語言模型的應用程序接口的服務條款明確信息不會被用于模型訓練,那么你可以使用私人信息。
同時,注意到在制定提示時可能引入的偏見。例如,如果一位財務分析師請求LLM解釋昨天的季報如何顯示公司已為未來五年的增長做好準備,這種詢問就表現(xiàn)出了近期偏見——在預測未來事件時過于依賴最近的信息。LLM供應商正在尋找解決這類問題的方法。例如,微軟和谷歌正在增加功能,幫助用戶檢測可能有害的提示和響應。Salesforce已經(jīng)開發(fā)了一種AI架構(gòu),能夠在構(gòu)建提示時隱藏任何敏感的客戶數(shù)據(jù),防止這些數(shù)據(jù)被傳輸至第三方LLM,同時對輸出進行風險評估,如毒性、偏見和隱私問題,并收集反饋以改進提示模板。盡管如此,最終,最關鍵的還是你——系統(tǒng)中的人類用戶——的判斷。
3、仔細檢查可疑輸出。
根據(jù)現(xiàn)有研究,即使在進行大量數(shù)據(jù)處理和其他干預措施后,錯誤和幻覺仍然難以完全避免。加州大學伯克利分校的研究員Jinwoo Ahn 和 Kyuseung Shin指出,當大型語言模型的用戶遇到看似錯誤的輸出時,他們往往會本能地多次嘗試重啟模型,這反而可能逐漸降低回答的質(zhì)量。研究者建議,應該確定AI出錯的具體步驟,然后使用另一個LLM單獨執(zhí)行這一步驟,先將問題分解成更小的部分,再使用結(jié)果來調(diào)整第一個LLM。例如,一位科學家可能使用OpenAI的ChatGPT來幫助開發(fā)一種新的聚合物,并進行一系列的步驟計算。如果她在過程中的某個環(huán)節(jié)發(fā)現(xiàn)了錯誤,她可以讓Anthropic的Claude將問題分解成更小的子問題并進行解釋。之后,她可以將這些信息反饋給ChatGPT,請求它精煉其回答。這種方法本質(zhì)上是將鏈式思維的原則應用于修正你認為錯誤的輸出。
03
相互學習:把AI培養(yǎng)成你的助手
隨著大型語言模型(LLM)的規(guī)模和復雜度增加,它們能夠展示出“突現(xiàn)屬性”——這些是未經(jīng)特別訓練卻在提供了相關背景數(shù)據(jù)或知識后顯現(xiàn)的強大新能力,例如高級推理。為了推動它們的發(fā)展,你可以執(zhí)行以下幾個步驟。
1、提供“思維示范”。
在向LLM提出問題讓其解決之前,你可以先引導它按照特定的方式進行思考。比如,你可以教授它“從簡到難”的推理方法,向AI展示如何把一個復雜的挑戰(zhàn)分解為幾個更小、更簡單的挑戰(zhàn),先解決最簡單的問題,然后用這個解答作為解決下一個更復雜問題的基礎,依此類推。谷歌DeepMind的Denny Zhou和他的團隊證明了,這種“從簡到難”的方法能將AI輸出的準確率從16%提升到99%。
比如說:想象一位負責健身服品牌的營銷經(jīng)理,他需要策劃一個新產(chǎn)品系列。他可以按照以下步驟指導LLM來分析問題:
受眾定位:識別潛在的客戶群體——健身愛好者。這對一個在公司客戶數(shù)據(jù)上進行過訓練的模型來說相對簡單。
信息設計:創(chuàng)建強調(diào)產(chǎn)品性能、舒適性和風格的營銷信息。這是一個更具挑戰(zhàn)性和需要創(chuàng)造性的任務,需要在已識別的受眾基礎上進行。
選擇渠道:選取社交媒體、健身相關博客和與影響者的合作,這些渠道將有助于將營銷信息有效傳達給目標受眾。
資源分配:根據(jù)所選擇的渠道進行預算分配,這通常是組織中最容易引發(fā)爭議的問題之一。
通過這種方式,營銷經(jīng)理可以系統(tǒng)地利用大型語言模型來優(yōu)化營銷策略的各個方面,確保新產(chǎn)品線的成功推廣。
2、通過上下文學習訓練你的LLMs。
你可以通過向AI展示一系列上下文示例來教它如何完成任務,這種方法允許你調(diào)整預訓練的大型語言模型如GPT-4、Claude和Llama,而無需復雜的參數(shù)調(diào)整。例如,研究者們通過向LLMs展示放射學報告、患者提問、治療進展記錄和醫(yī)患對話的示例,教會了它們?nèi)绾慰偨Y(jié)醫(yī)療信息。研究發(fā)現(xiàn),81%的LLM生成的總結(jié)質(zhì)量達到或超過了人工總結(jié)。
你還可以通過提供相關背景信息并持續(xù)提問直至解決問題的方式來訓練LLM。例如,兩家軟件公司均希望提高銷售量。第一家公司的銷售團隊長期難以準確預測軟件許可需求,因此領導先是提供歷史銷售數(shù)據(jù),詢問下一季度的預期需求,再提供關于客戶軟件功能升級和年度預算的信息,探討季節(jié)性影響,最后,他輸入了CRM系統(tǒng)和市場報告的詳細數(shù)據(jù),探討市場活動對銷售的影響。
第二家公司的銷售團隊則關注于改善客戶選擇,領導可能會提供具體的財務數(shù)據(jù),指導LLM按照收入貢獻對客戶進行排序,然后逐步深入到地理范圍、客戶群、技術能力等問題。在這一過程中,兩位高管都在通過具體的公司銷售策略上下文訓練LLM,并提高其完成任務的能力。他們將公司和行業(yè)的知識整合到交互中。隨著LLM在具體銷售流程上積累更多經(jīng)驗,其生成的答案也越來越精準。
相互學習是一個過程,用戶從提出簡單的問題或指令開始,逐步增加任務描述的復雜性和細節(jié)。在這一過程中,他們可以增添背景信息,調(diào)整用詞,并觀察模型如何反應,不斷試驗直至實現(xiàn)預期效果。
04
最重要的是:學習和掌握AI技能
要廣泛掌握通用AI技能,不僅需要企業(yè)進行大量投資,也需要個人的主動學習和努力。雖然已有少數(shù)公司提供相關培訓,但大多數(shù)公司尚未建立完善的培訓體系。事實上,在我們2024年對7000名專業(yè)人士的調(diào)查中,雖然94%的人表示愿意學習新的技能以應對通用AI的挑戰(zhàn),但僅有5%的人表示他們的雇主在大規(guī)模地積極培訓員工。因此,很多人將需要自主行動,跟上LLMs的快速進展以及各類工作和行業(yè)中逐步應用的高端研究。你可以注冊各類平臺提供的在線課程;嘗試我們討論過的提示技巧以及新興的提示方式;并推動你的雇主提供更多使用LLMs的機會,同時輔以最佳實踐的培訓。
接下來要掌握的是鏈式思維提示技能,應用于代理工作流和多模態(tài)大型語言模型(MLLMs)。這些模型能夠整合不同類型的數(shù)據(jù),如文本、音頻、視頻和圖像,并能在這些格式中提供輸出。一項研究表明,鏈式思維提示可以將MLLMs的性能提高至100%。早期采用者已經(jīng)在測試這些方法,但它們尚未成熟,還不足以廣泛推廣。
人工智能革命并非即將到來,而是已經(jīng)來臨。領先的企業(yè)已經(jīng)在利用這項技術重新定義各行業(yè)、各職能和各種工作的流程。通用人工智能大幅提高了標準,要求我們與AI共同思考,確保信任其結(jié)果,并不斷調(diào)整它和我們自身,以實現(xiàn)更優(yōu)表現(xiàn)。盡管通用AI是推動人機共生關系的一部分,但它在技術發(fā)展史上也獨具一格。歷史上沒有其他重大創(chuàng)新以如此迅速的速度起飛。知識型工作的變革將比我們大多數(shù)人預想的更快、更強大。準備好吧。
未來的商業(yè)將不僅由通用AI驅(qū)動,更重要的是由那些能夠最有效運用它的人引領。
原文鏈接:https://hbr.org/2024/09/embracing-gen-ai-at-work