(網(wǎng)經(jīng)社訊)編者按:2022年11月美國(guó)人工智能研究實(shí)驗(yàn)室OpenAI發(fā)布ChatGPT大型語(yǔ)言模型(Large Language Models,LLMs)引發(fā)了全球社會(huì)各界的關(guān)注,尤其是2023年3月14日發(fā)布的GPT-4的回答準(zhǔn)確性不僅大幅提高,還具備更高水平的識(shí)圖能力,且能夠生成歌詞、創(chuàng)意文本,實(shí)現(xiàn)風(fēng)格變化。此外,GPT-4的文字輸入限制也提升至2.5萬(wàn)字,且對(duì)于英語(yǔ)以外的語(yǔ)種支持更加優(yōu)化。
近期,隨著各類大型語(yǔ)言模型(LLMs)的公布更是引發(fā)了關(guān)于人工智能(Artificial Intelligence,AI)、生成式人工智能(AIGC)和通用人工智能(AGI)對(duì)未來(lái)人類生活影響的激烈討論和研究熱情。本文由Shahab Saquib Sohail, Faiza Farhat, Yassine Himeur等人通過(guò)Scopus數(shù)據(jù)庫(kù)搜索109篇ChatGPT相關(guān)文章,包含了53個(gè)國(guó)家、349位作者關(guān)于ChatGPT討論所形成的文獻(xiàn)綜述,可以代表當(dāng)前國(guó)際社會(huì)對(duì)ChatGPT最新和最全面的研究成果。小編通過(guò)編譯將原文標(biāo)題《解碼ChatGPT:現(xiàn)有研究、當(dāng)前挑戰(zhàn)和未來(lái)可能方向的分類》的主要內(nèi)容進(jìn)行翻譯和編輯,以饗讀者。希望本文有助于中國(guó)人工智能相關(guān)領(lǐng)域的創(chuàng)業(yè)者、研究者和愛(ài)好者正確理解、辨析和認(rèn)知ChatGPT等大型語(yǔ)言模型(LLMs),進(jìn)而為生成式人工智能(AIGC)和通用人工智能(AGI)的研究指明方向。
原文鏈接:https://doi.org/10.1016/j.jksuci.2023.101675
解碼ChatGPT:
現(xiàn)有研究、當(dāng)前挑戰(zhàn)和未來(lái)可能方向的分類
Decoding ChatGPT: A taxonomy of existing research, current challenges, and possible future directions
近年來(lái),自然語(yǔ)言處理(NLP)和人工智能(AI)技術(shù)取得了重大進(jìn)展,開(kāi)發(fā)了能夠生成類人文本的復(fù)雜語(yǔ)言模型。在這些模式中,生成預(yù)訓(xùn)練模型(GPT)因其生成連貫和上下文相關(guān)響應(yīng)的能力而獲得了極大的關(guān)注和認(rèn)可。GPT模型已成功應(yīng)用于各種NLP任務(wù),包括語(yǔ)言翻譯、文本摘要和問(wèn)答(Guo et al.,2023)。GPT模型的一個(gè)突出變體是聊天生成預(yù)訓(xùn)練模型(ChatGPT),這是一種專門(mén)設(shè)計(jì)用于與用戶進(jìn)行對(duì)話交互的聊天機(jī)器人(AI,2023;Sohail等人,2023)。ChatGPT利用GPT的功能提供交互式和動(dòng)態(tài)響應(yīng),模仿類似人類的對(duì)話。這項(xiàng)創(chuàng)新技術(shù)開(kāi)辟了新的可能性。
一、ChatGPT的介紹
1.1
ChatGPT的體系結(jié)構(gòu)
ChatGPT由OpenAI(OpenAI,2023)開(kāi)發(fā),是一種語(yǔ)言模型,能夠創(chuàng)建會(huì)話式人工智能系統(tǒng),能夠理解人類語(yǔ)言輸入并提供有意義的響應(yīng)。用它自己的話來(lái)說(shuō)(于2023年3月29日發(fā)布):“我是ChatGPT,這是一個(gè)由OpenAI開(kāi)發(fā)的語(yǔ)言模型,旨在對(duì)各種問(wèn)題和提示產(chǎn)生類似人類的反應(yīng)。我的目的是以一種交流的方式幫助用戶并與他們互動(dòng),為他們的詢問(wèn)提供有用和信息豐富的回復(fù)?!?/p>
ChatGPT利用由編碼器-解碼器層組成的轉(zhuǎn)換器架構(gòu),這些層協(xié)作處理和生成自然語(yǔ)言文本(Chen et al.,2023)。ChatGPT的體系結(jié)構(gòu)包括幾個(gè)重要組件,例如標(biāo)記器,它將原始文本劃分為更小的單元,稱為標(biāo)記,以便于處理。然后,輸入嵌入組件將這些標(biāo)記轉(zhuǎn)換為高維向量表示(Wang等人,2019)。
ChatGPT的轉(zhuǎn)換器架構(gòu)由兩個(gè)主要組件組成:編碼器和解碼器(Budzianowski和Vulic,2019)。盡管ChatGPT很受歡迎,也很有用,但它在研究人員和從業(yè)者中引起了關(guān)注,因?yàn)樗锌赡苌煽此坪侠淼狈κ聦?shí)準(zhǔn)確性的內(nèi)容(Borji,2023)。這一問(wèn)題可能導(dǎo)致產(chǎn)生反事實(shí)或無(wú)意義的回應(yīng),對(duì)在線內(nèi)容的可靠性構(gòu)成嚴(yán)重威脅。此外,ChatGPT產(chǎn)生的虛假敘述很容易被誤認(rèn)為是合法的,尤其是不熟悉手頭話題的人(NewsGuard,2023)。研究人員一直在探索和高度關(guān)注與ChatGPT相關(guān)的潛在危害,包括刻板印象的傳播、有偏見(jiàn)的反應(yīng)和誤導(dǎo)性信息的屏蔽(Liang et al.,2021;Nadeem等人,2020)。對(duì)使用ChatGPT也提出了道德問(wèn)題,特別是當(dāng)它被用來(lái)創(chuàng)建被操縱的內(nèi)容。
1.2
ChatGPT研究進(jìn)展
ChatGPT的初始迭代被稱為GPT-1,配備了1.17億個(gè)參數(shù),并在大量文本數(shù)據(jù)語(yǔ)料庫(kù)上進(jìn)行了訓(xùn)練(Ernst和Bavota,2022)。Sub-后續(xù)版本,如GPT-2、GPT-3和GPT-3.5,通過(guò)顯著增加參數(shù)數(shù)量,取得了顯著進(jìn)步。這種增強(qiáng)促進(jìn)了更準(zhǔn)確、更像人類的反應(yīng)的產(chǎn)生。ChatGPT的一個(gè)重要突破是其零樣本學(xué)習(xí)能力,這使模型能夠?qū)σ郧皬奈从龅竭^(guò)的提示產(chǎn)生連貫的響應(yīng)(Zhang和Li,2021)。這種非凡的能力是通過(guò)利用無(wú)監(jiān)督學(xué)習(xí)技術(shù)和一種稱為語(yǔ)言建模的新型訓(xùn)練目標(biāo)來(lái)實(shí)現(xiàn)的。
盡管ChatGPT有局限性,但它的應(yīng)用已擴(kuò)展到各個(gè)領(lǐng)域,包括醫(yī)療保?。ˋbdel Messih和Kamel Boulos,2023;Sallam,2022)、網(wǎng)絡(luò)安全(Mijwil等人,2023)、環(huán)境研究(Rillig等人,2022 3)、科學(xué)寫(xiě)作(Salvagno等人,2023;Dowling和Lucey,2023年;Biswas,2023e)。這些發(fā)展可能包括對(duì)ChatGPT進(jìn)行實(shí)時(shí)培訓(xùn),以提高其性能,并擴(kuò)展其領(lǐng)域特定知識(shí),使其更適合客戶服務(wù)、醫(yī)療保健、商業(yè)或金融等特定領(lǐng)域。
1.3
研究問(wèn)題和主要貢獻(xiàn)
撰寫(xiě)一篇關(guān)于ChatGPT及其未來(lái)貢獻(xiàn)的綜述,對(duì)于綜合知識(shí)、確定優(yōu)點(diǎn)和局限性、指導(dǎo)未來(lái)研究、告知從業(yè)者和解決倫理問(wèn)題至關(guān)重要。這篇綜述文章試圖回答以下研究問(wèn)題:
問(wèn)題一:ChatGPT研究的現(xiàn)狀是什么,包括其架構(gòu)、進(jìn)展和主要貢獻(xiàn)?
問(wèn)題二:與ChatGPT相關(guān)的出版物的多樣性如何,這一研究領(lǐng)域的最新趨勢(shì)是什么?
問(wèn)題三:ChatGPT在不同領(lǐng)域的各種應(yīng)用是什么,如醫(yī)療保健、營(yíng)銷(xiāo)和金融服務(wù)、軟件工程、學(xué)術(shù)和科學(xué)寫(xiě)作、研究和教育、環(huán)境科學(xué)和自然科學(xué)?
問(wèn)題四:如何利用多模式數(shù)據(jù)(如文本、音頻、視覺(jué))來(lái)增強(qiáng)ChatGPT的功能和性能,在這方面的關(guān)鍵技術(shù)挑戰(zhàn)是什么?
問(wèn)題五:在聊天機(jī)器人系統(tǒng)中部署GPT模型的主要挑戰(zhàn)、倫理考慮、潛在風(fēng)險(xiǎn)和正在進(jìn)行的研究工作是什么,以及如何解決這些問(wèn)題以確保公平、透明、可解釋性和以人為本。
為此,這項(xiàng)綜述工作首次對(duì)ChatGPT進(jìn)行了全面的批判性研究,涵蓋了8種不同的應(yīng)用、當(dāng)前問(wèn)題和未來(lái)挑戰(zhàn)。此外,文獻(xiàn)調(diào)查概述了需要改進(jìn)的領(lǐng)域,并提出了潛在的挑戰(zhàn)。最后,還介紹了該工具的未來(lái)應(yīng)用及其局限性的答案。
本文的結(jié)構(gòu)如下:第2節(jié)重點(diǎn)介紹ChatGPT的各種研究領(lǐng)域。第3節(jié)介紹ChatGPT相關(guān)文獻(xiàn)的出版趨勢(shì)和分類。第4節(jié)討論了ChatGPT的應(yīng)用。第5節(jié)和第6節(jié)分別概述了該工具的局限性和未來(lái)的增強(qiáng)功能。最后,第7節(jié)給出了結(jié)論性意見(jiàn)。
二、調(diào)查方法
由于ChatGPT研究在我們?nèi)粘I畹牟煌瑢用嫔系玫搅藦V泛的宣傳和接受,它的快速傳播導(dǎo)致了多樣化的研究格局。我們的研究強(qiáng)調(diào)需要進(jìn)行全面審查,概述其在不同應(yīng)用中的各個(gè)方面的用途、局限性和潛在的未來(lái)方向。
通過(guò)搜索查詢后,以Scopus數(shù)據(jù)庫(kù)中篩選出檢索到的文章創(chuàng)建了包含(IC)和排除(EC)標(biāo)準(zhǔn)。在應(yīng)用特定標(biāo)準(zhǔn)后,共有109篇文章包括在分析中。這些文章來(lái)自349位作者代表53個(gè)不同的國(guó)家,表明國(guó)際上廣泛參與了關(guān)于ChatGPT的討論文獻(xiàn)。值得注意的是,醫(yī)學(xué)領(lǐng)域的代表性最高,占出版物總數(shù)的23%。其次是社會(huì)科學(xué)(20%)和計(jì)算機(jī)科學(xué)(11%)。美國(guó)是已發(fā)表文章的來(lái)源國(guó),共有33篇出版物。緊隨其后的是英國(guó),共有10種出版物,澳大利亞和中國(guó)各有9種出版物。在合作方面,美國(guó)擁有最廣泛的網(wǎng)絡(luò),與24個(gè)不同的國(guó)家合作,占總語(yǔ)料庫(kù)的18%以上。瑞士在合作方面排名第二,有20個(gè)合作國(guó)家,其次是澳大利亞,有19個(gè)合作,英國(guó)有18個(gè)合作。
三、ChatGPT的出版物多樣性
ChatGPT推出后,很快在各種學(xué)科中廣受歡迎(Cox,2023;Dwivedi等人,2023年;Tlili等人,2022年),包括學(xué)術(shù)界(Chen,2023b)和科學(xué)界(Morreel等人,2024年)。然而,由于ChatGPT產(chǎn)生不準(zhǔn)確信息或被感知的情況,許多人提出了批評(píng)和強(qiáng)烈反對(duì)。
就出版途徑(期刊和會(huì)議)而言,《自然雜志》以13篇文章位居榜首。然而,沒(méi)有文章在NLP的頂級(jí)會(huì)議上發(fā)表,可能是因?yàn)闀?huì)議的宣布和接受通常需要更多的時(shí)間,因此未在網(wǎng)上發(fā)布。
四、與ChatGPT相關(guān)的出版物的最新趨勢(shì)
通過(guò)全面的文獻(xiàn)綜述,在Scopus數(shù)據(jù)庫(kù)中搜索ChatGPT的相關(guān)文章后共發(fā)現(xiàn)了109篇文章。截至2023年3月25日,主要有三類文章發(fā)表:1)對(duì)ChatGPT的評(píng)估,2)使用ChatGPT進(jìn)行的預(yù)測(cè),以及3)對(duì)ChatGPT的評(píng)論。最大的一組包括跨不同領(lǐng)域的ChatGPT評(píng)估。共發(fā)表了68篇文章來(lái)評(píng)估ChatGPT在提供準(zhǔn)確答案或知識(shí)深度方面的能力。使用ChatGPT對(duì)不同領(lǐng)域進(jìn)行預(yù)測(cè)是第二大文章組(39篇)和最少評(píng)論組(10篇出版物)。
同樣重要的是,提示正成為與ChatGPT相關(guān)的一個(gè)新興維度(White等人,2023)。研究人員探索了設(shè)計(jì)有效提示的各種技術(shù),以從該工具中獲得所需的反應(yīng)。另一個(gè)重要趨勢(shì)是發(fā)展促進(jìn)多樣性的辦法。倫理考慮在大多數(shù)論文中都有詳細(xì)或簡(jiǎn)要的討論。隨著人工智能系統(tǒng)與用戶的互動(dòng),對(duì)偏見(jiàn)、公平和道德問(wèn)題的擔(dān)憂變得突出。研究的重點(diǎn)是開(kāi)發(fā)方法來(lái)減少語(yǔ)言模型中的偏見(jiàn),并確保它們符合。
五、ChatGPT的應(yīng)用
本節(jié)概述了ChatGPT和生成聊天機(jī)器人的主要應(yīng)用程序。ChatGPT的常見(jiàn)應(yīng)用之一是作為個(gè)人助理(Bakker等人,2022)。在不同的領(lǐng)域,該工具被定制以滿足特定領(lǐng)域的需求。例如,在醫(yī)療保健領(lǐng)域,ChatGPT被用作虛擬醫(yī)療助理,為患者提供有關(guān)癥狀、醫(yī)療和一般醫(yī)療保健建議的信息。在市場(chǎng)營(yíng)銷(xiāo)中,ChatGPT是一個(gè)對(duì)話式聊天機(jī)器人,用于處理客戶咨詢、提供產(chǎn)品推薦和協(xié)助訂單跟蹤。
5.1
醫(yī)療保健
盡管ChatGPT可以訪問(wèn)有限的醫(yī)學(xué)數(shù)據(jù),但它在醫(yī)學(xué)執(zhí)照考試中的表現(xiàn)相當(dāng)于醫(yī)學(xué)三年級(jí)本科生。Stokel-Worker和van Noorden在他們的文章中描述了生成人工智能對(duì)科學(xué)的影響,以及ChatGPT如何回答一些開(kāi)放式醫(yī)學(xué)問(wèn)題,幾乎與普通醫(yī)生一樣好(Sohail et al.,2023),但也有一些缺點(diǎn)和不可靠性(Stokel-WWalker和van Noorden,2023年)。當(dāng)明確提供臨床重要因素時(shí),ChatGPT能夠識(shí)別這些因素,但隨著場(chǎng)景的復(fù)雜性增加,它錯(cuò)過(guò)了相關(guān)問(wèn)題(Howard等人,2023)。ChatGPT的回答通常是連貫的,拼寫(xiě)和語(yǔ)法都很恰當(dāng)。該模型的回答包括對(duì)情景和問(wèn)題的理解總結(jié)、管理選項(xiàng)以及反映其信息來(lái)源的免責(zé)聲明,這些信息來(lái)源與患者信息網(wǎng)站的格式類似。ChatGPT經(jīng)常逐字逐句地重復(fù)問(wèn)題,包括任何錯(cuò)誤,盡管它偶爾會(huì)注意到并更正它們。
5.2
營(yíng)銷(xiāo)和金融服務(wù)
近年來(lái),人工智能在銀行業(yè)的使用變得越來(lái)越重要,ChatGPT為后端運(yùn)營(yíng)、數(shù)據(jù)分析和個(gè)性化客戶服務(wù)提供了機(jī)會(huì)。AI可用于了解消費(fèi)者需求并制定有效的營(yíng)銷(xiāo)策略,但由于金融服務(wù)行業(yè)的高監(jiān)管,僅依靠ChatGPT存在局限性。人力參與是驗(yàn)證見(jiàn)解和報(bào)價(jià)可信度的必要條件,銀行必須投資于基礎(chǔ)設(shè)施和人力資源,將人工智能融入其數(shù)字化轉(zhuǎn)型戰(zhàn)略。
許多研究,如Dwivedi等人(2023);Geerling等人(2023);Street和Wilck(2023);Rathore(2023)已經(jīng)研究了在銀行運(yùn)營(yíng)中使用ChatGPT的潛力,包括后端數(shù)據(jù)分析和營(yíng)銷(xiāo)溝通策略,以及前端運(yùn)營(yíng)與客戶接觸的潛力。
5.3
軟件工程
軟件工程是一個(gè)廣泛的領(lǐng)域,由軟件開(kāi)發(fā)、設(shè)計(jì)、測(cè)試、編碼等子過(guò)程組成。ChatGPT已被證明有助于軟件工程的所有這些子領(lǐng)域(Sobania等人,2023;Aljanabi等人,2022;Surameery和Shakor,2023,White等人,2021;White等人(2023)。研究人員已經(jīng)使用ChatGPT來(lái)自動(dòng)確定軟件錯(cuò)誤的程序(Sobania等人,2023;Surameery和Shakor,2023)。他們?cè)跇?biāo)準(zhǔn)QuixBugs基準(zhǔn)集上評(píng)估了ChatGPT的bug修復(fù)能力。
Ahmad等人(2023)使用ChatGPT來(lái)分析、綜合和評(píng)估面向服務(wù)的軟件應(yīng)用程序的體系結(jié)構(gòu)。他們得出的結(jié)論是,在人類觀察的情況下,ChatGPT可以代替全職的人類架構(gòu)師來(lái)執(zhí)行以架構(gòu)為中心的軟件工程過(guò)程。此外,White等人(2023)提出了一個(gè)使用ChatGPT實(shí)現(xiàn)軟件開(kāi)發(fā)過(guò)程自動(dòng)化的快速工程框架,包括創(chuàng)建API規(guī)范、與第三方庫(kù)脫鉤、需求規(guī)范、測(cè)試、部署等。
5.4
學(xué)術(shù)和科學(xué)寫(xiě)作
ChatGPT的一個(gè)應(yīng)用領(lǐng)域引起了許多人的興趣,那就是語(yǔ)言摘要和闡述。自發(fā)布以來(lái),ChatGPT已被廣泛用于論文寫(xiě)作、申請(qǐng)起草、電子郵件內(nèi)容生成和研究論文寫(xiě)作。此外,Kitamura(2023)指出,人工智能輔助工具非常有用,可以為未來(lái)的醫(yī)療內(nèi)容寫(xiě)作發(fā)揮作用。也就是說(shuō),人類的判斷對(duì)于證實(shí)ChatGPT的輸出是必不可少的。同樣,Kumar(2023)斷言,如果受到人類的指導(dǎo),ChatGPT在研究寫(xiě)作方面具有巨大潛力。
除此之外,Bishop(2023)在與ChatGPT的一系列對(duì)話中表明,人工智能機(jī)器人可以用人類風(fēng)格寫(xiě)作,也可以復(fù)制作者的寫(xiě)作風(fēng)格。作者(Salvagno等人,2023)推斷,在如何規(guī)范人工智能輔助工具在學(xué)術(shù)寫(xiě)作中的使用需要達(dá)成共識(shí),因?yàn)樵诳茖W(xué)寫(xiě)作中使用聊天機(jī)器人會(huì)帶來(lái)與剽竊、不準(zhǔn)確和不平等相關(guān)風(fēng)險(xiǎn)的倫理問(wèn)題。Gao等人的一項(xiàng)實(shí)驗(yàn)(2023)使用了50篇科學(xué)期刊的摘要,并要求ChatGPT根據(jù)標(biāo)題生成摘要。有趣的是,人類評(píng)論者發(fā)現(xiàn)聊天機(jī)器人寫(xiě)的摘要和人寫(xiě)的摘要之間很難區(qū)分。
5.5
研究和教育
對(duì)于chatGPT正在研究的許多應(yīng)用領(lǐng)域來(lái)說(shuō),研究和教育是最突出的。Rahman和Watanobe(2023)通過(guò)實(shí)驗(yàn)表明,ChatGPT既可以用于解決技術(shù)問(wèn)題,如工程和計(jì)算機(jī)編程,也可以用于解決非技術(shù)問(wèn)題,例如語(yǔ)言和文學(xué)。然而,他們警告要意識(shí)到其局限性,如偏見(jiàn)和歧視、隱私和安全、技術(shù)濫用、問(wèn)責(zé)制、透明度和社會(huì)影響。
Megahed等人(2023)從他們的研究中得出結(jié)論,ChatGPT在翻譯代碼和解釋眾所周知的概念等結(jié)構(gòu)化任務(wù)中表現(xiàn)良好,但在解釋不太熟悉的術(shù)語(yǔ)和從頭開(kāi)始創(chuàng)建代碼等細(xì)微任務(wù)中表現(xiàn)不佳。他們認(rèn)為,雖然使用人工智能工具可以提高效率和生產(chǎn)力,但目前的結(jié)果可能具有誤導(dǎo)性和不正確性。因此,生成性人工智能模型必須經(jīng)過(guò)適當(dāng)?shù)尿?yàn)證,并與軟件過(guò)程改進(jìn)中的其他方法結(jié)合使用,以確保準(zhǔn)確的結(jié)果。
5.6
環(huán)境科學(xué)
到目前為止,有一些關(guān)于ChatGPT在環(huán)境科學(xué)中的潛在用途的研究。Rillig等人(2023)概述了該LLM工具的潛在好處和風(fēng)險(xiǎn)。他們認(rèn)為,ChatGPT可以幫助簡(jiǎn)化環(huán)境研究的工作流程,環(huán)保主義者可以更多地專注于設(shè)計(jì)實(shí)驗(yàn)以及發(fā)展新的想法,而不是他們寫(xiě)作的質(zhì)量。
它還將使非英語(yǔ)國(guó)家在環(huán)境科學(xué)領(lǐng)域擁有更大的代表性,加快相關(guān)環(huán)境問(wèn)題的研究步伐。朱等人(2023)也提出了類似的觀察結(jié)果,考慮到環(huán)境研究涉及的各種決策過(guò)程,在將ChatGPT等人工智能工具集成到其中時(shí),必須謹(jǐn)慎行事。在解決對(duì)社會(huì)福利有重大影響的環(huán)境問(wèn)題時(shí),這一點(diǎn)尤為重要。
Biswas(2023d)提到了使用ChatGPT來(lái)解決全球變暖問(wèn)題。據(jù)他說(shuō),環(huán)境研究人員可以利用ChatGPT的能力來(lái)分析和解釋大量的氣候變化數(shù)據(jù),并隨后根據(jù)分析預(yù)測(cè)氣候變化模式。此外,ChatGPT可以用于以易于理解的格式向更廣泛的受眾呈現(xiàn)復(fù)雜的氣候變化信息。它有可能為決策者提供相關(guān)信息和建議,以緩解氣候變化。
5.7
自然語(yǔ)言處理
ChatGPT已顯示出其作為各種面向NLP的任務(wù)的有價(jià)值工具的潛力,包括自殺傾向檢測(cè)、仇恨言論檢測(cè)和假新聞檢測(cè)。特別是,Qin等人(2023)認(rèn)為,像ChatGPT這樣的大型模型可以執(zhí)行NLP任務(wù),而不需要特定的數(shù)據(jù)自適應(yīng)。他們?cè)?0個(gè)常見(jiàn)NLP數(shù)據(jù)集上對(duì)ChatGPT的零樣本學(xué)習(xí)能力進(jìn)行了評(píng)估,涵蓋了推理、自然語(yǔ)言推理、問(wèn)答、對(duì)話、摘要、命名實(shí)體識(shí)別和情感分析等類別。
Hendy等人(2023)對(duì)機(jī)器傳輸任務(wù)的GPT模型(包括ChatGPT)進(jìn)行了全面評(píng)估。評(píng)估涵蓋了18個(gè)翻譯方向,涉及法語(yǔ)、德語(yǔ)、冰島語(yǔ)、漢語(yǔ)、日語(yǔ)等多種語(yǔ)言。結(jié)果表明,GPT模型可以生成對(duì)資源豐富的語(yǔ)言具有高度競(jìng)爭(zhēng)力的翻譯輸出。然而,對(duì)于低資源語(yǔ)言,GPT模型的當(dāng)前狀態(tài)顯示出局限性,這表明需要進(jìn)一步改進(jìn)。
鑒于各種NLP任務(wù)之間的相似性,上述研究的結(jié)果可以外推到其他相關(guān)領(lǐng)域,ChatGPT的應(yīng)用正在各個(gè)領(lǐng)域迅速擴(kuò)展(Mijwil等人,2023;Aljanabi等人,2021),這表明這種增長(zhǎng)趨勢(shì)將在可預(yù)見(jiàn)的未來(lái)持續(xù)下去。
六、ChatGPT面臨的挑戰(zhàn)和問(wèn)題
研究人員已經(jīng)確定了關(guān)于ChatGPT的幾個(gè)問(wèn)題,可以大致分為兩組:內(nèi)在限制和使用相關(guān)問(wèn)題。這些限制使得ChatGPT在現(xiàn)實(shí)世界場(chǎng)景中的使用和部署變得困難。
6.1
固有的內(nèi)部問(wèn)題指的是ChatGPT固有的局限性
它包括五個(gè)主要局限性,即幻覺(jué)、內(nèi)容偏頗、非實(shí)時(shí)性、誤傳性和不可解釋性。ChatGPT可能會(huì)產(chǎn)生幻覺(jué),即創(chuàng)建不存在的新數(shù)據(jù)/信息(Deng和Lin,2022)。另一個(gè)類似的擔(dān)憂是錯(cuò)誤信息(Borji,2023)。這兩個(gè)問(wèn)題都可能導(dǎo)致產(chǎn)生反事實(shí)或無(wú)意義的回應(yīng),從而嚴(yán)重威脅生成內(nèi)容的可靠性。研究證明,通過(guò)人的反饋強(qiáng)化學(xué)習(xí),算法改進(jìn)、正確輸入查詢以及驗(yàn)證生成的響應(yīng)可能有助于克服這些問(wèn)題。
也有人擔(dān)心ChatGPT引起的刻板印象和偏見(jiàn)反應(yīng)的潛在危害(Liang等人,2021;Nadeem等人,2020)。除了算法改進(jìn)和人類反饋之外,重新定義訓(xùn)練數(shù)據(jù)以刪除或標(biāo)記有偏見(jiàn)的內(nèi)容可能有助于朝著這個(gè)方向發(fā)展。ChatGPT有許多關(guān)鍵應(yīng)用,需要對(duì)邏輯推理步驟進(jìn)行合理的推理和解釋。它包括各種容錯(cuò)領(lǐng)域的決策,如社會(huì)服務(wù)、環(huán)境科學(xué)、醫(yī)療保健等。在這種情況下,ChatGPT不僅必須提供可用于決策的準(zhǔn)確信息,還必須提供邏輯推理過(guò)程中涉及的步驟。
6.2
使用相關(guān)
與使用相關(guān)的問(wèn)題類別包括不道德地使用該工具、侵犯版權(quán)的內(nèi)容以及過(guò)度依賴ChatGPT。此外,法律和法規(guī)應(yīng)旨在懲罰不道德地使用ChatGPT的行為。由于有許多與ChatGPT相關(guān)的倫理考慮,我們?cè)谙乱还?jié)中分別進(jìn)行了討論。
6.3
倫理問(wèn)題
ChatGPT能夠通過(guò)從眾多互聯(lián)網(wǎng)來(lái)源提取信息來(lái)自動(dòng)生成響應(yīng),通常無(wú)需用戶進(jìn)一步輸入。這引發(fā)了人們對(duì)其潛在濫用的擔(dān)憂,因?yàn)閾?jù)報(bào)道,個(gè)人利用該系統(tǒng)創(chuàng)作大學(xué)論文和學(xué)術(shù)文章,甚至在提示時(shí)包括參考文獻(xiàn)(Ali和Djalilian,2023a)。與使用ChatGPT相關(guān)的倫理問(wèn)題之一是產(chǎn)生虛假文本和敘事(NewsGuard,2023;Dugan等人,2022)。Curtis等人(Curtis,2023)提出了用于識(shí)別由ChatGPT生成的文本的各種方法。這些方法包括簡(jiǎn)單的二進(jìn)制分類器以及先進(jìn)的深度學(xué)習(xí)模型。一些技術(shù)利用統(tǒng)計(jì)特征或語(yǔ)法模式,而另一些技術(shù)則結(jié)合語(yǔ)義和上下文信息來(lái)提高準(zhǔn)確性。這些研究的主要目的是對(duì)ChatGPT特有的最新檢測(cè)技術(shù)進(jìn)行全面和最新的評(píng)估。
ChatGPT的使用日益增多,突顯出學(xué)術(shù)出版迫切需要嚴(yán)格的人工智能作者指南。當(dāng)人工智能生成學(xué)術(shù)文本時(shí),存在與版權(quán)、歸屬、剽竊和作者身份相關(guān)的倫理問(wèn)題。這些擔(dān)憂尤其相關(guān),因?yàn)楫?dāng)前的技術(shù)允許人類讀者或反剽竊軟件進(jìn)行區(qū)分人工智能生成的內(nèi)容和人類創(chuàng)作的內(nèi)容之間的差異(Rahimi和Abadi,2023)。我們的觀點(diǎn)是,ChatGPT的可用性、易用性和多語(yǔ)言能力可以顯著提高學(xué)術(shù)產(chǎn)出,從而使知識(shí)傳播民主化。然而,聊天機(jī)器人可能產(chǎn)生誤導(dǎo)或不準(zhǔn)確的內(nèi)容,這引發(fā)了人們對(duì)學(xué)術(shù)錯(cuò)誤信息的擔(dān)憂(Mhlanga,2023)。OpenAI承認(rèn),ChatGPT可能會(huì)產(chǎn)生聽(tīng)起來(lái)合理但不正確或無(wú)意義的答案。
七、未來(lái)可能性
在本節(jié)中,我們將探討與ChatGPT相關(guān)的一些未來(lái)可能性。我們?cè)O(shè)想,ChatGPT的未來(lái)迭代可能會(huì)包含各種額外的變量,這有助于開(kāi)發(fā)更復(fù)雜和增強(qiáng)的人工智能語(yǔ)言模型。
7.1
提高會(huì)話能力
ChatGPT可能會(huì)更好地理解和反應(yīng)人類的語(yǔ)音,使其聽(tīng)起來(lái)更具對(duì)話性S.S.Sohail、F.Farhat、Y.Himeur等人。自然的這可能需要在情感分析、自然語(yǔ)言處理和上下文理解等學(xué)科中進(jìn)行發(fā)展。以下是一些可以幫助人工智能變得更具對(duì)話性的基本策略。
7.1.1 增加訓(xùn)練數(shù)據(jù)的數(shù)量和種類
人工智能語(yǔ)言模型從提供的數(shù)據(jù)中學(xué)習(xí)。因此,通過(guò)讓他們接觸更廣泛的語(yǔ)言模式和語(yǔ)言文本,擴(kuò)大訓(xùn)練數(shù)據(jù)的規(guī)模和多樣性有助于提高他們的會(huì)話能力。通常,增加訓(xùn)練數(shù)據(jù)的數(shù)量和種類可以幫助提高ChatGPT的性能。通過(guò)提供更多的數(shù)據(jù),該模型可以提高對(duì)語(yǔ)言以及單詞和短語(yǔ)之間關(guān)系的理解(Cao et al.,2023)。更具體地說(shuō),增加訓(xùn)練數(shù)據(jù)量可以幫助模型更多地了解不同的主題和上下文,這可以使其更加通用,能夠處理更廣泛的查詢。此外,提供更多不同的數(shù)據(jù)可以幫助模型學(xué)會(huì)重新計(jì)算。
然而,同樣重要的是,僅僅增加數(shù)據(jù)的數(shù)量和種類并不總是能提高性能。數(shù)據(jù)的質(zhì)量也至關(guān)重要,重要的是要確保用于訓(xùn)練的數(shù)據(jù)準(zhǔn)確、相關(guān)且多樣,足以代表各種語(yǔ)言和語(yǔ)音模式。此外,其他因素,如模型架構(gòu)、訓(xùn)練方法和超參數(shù),也會(huì)影響模型的性能。
7.1.2 微調(diào)
微調(diào)方法包括將現(xiàn)有的人工智能語(yǔ)言模型通過(guò)一系列任務(wù)或領(lǐng)域。該模型可以接受培訓(xùn),通過(guò)參與客戶服務(wù)或個(gè)人助理等對(duì)話任務(wù),得出更相關(guān)、更有用的答案(Bakker等人,2022;Himeur等人,2022b)。這個(gè)過(guò)程包括向模型提供會(huì)話數(shù)據(jù)集,并使用會(huì)話對(duì)作為輸入和輸出通過(guò)反向傳播對(duì)其進(jìn)行優(yōu)化。因此,該模型變得更加準(zhǔn)確、有效,并對(duì)生成會(huì)話響應(yīng)的特定任務(wù)做出響應(yīng)。
7.1.3 包含人的反饋
可以收集人工智能語(yǔ)言模型產(chǎn)生的反應(yīng)的人工輸入,以幫助模型的對(duì)話技能。這可以通過(guò)要求用戶對(duì)答案的質(zhì)量進(jìn)行評(píng)分來(lái)實(shí)現(xiàn),也可以通過(guò)讓人類對(duì)模型產(chǎn)生的回答進(jìn)行審查、編輯和提供反饋來(lái)實(shí)現(xiàn)。如果模型理解上下文(如先前的對(duì)話歷史或用戶的意圖)的能力得到提高,它們可以產(chǎn)生更相關(guān)、更個(gè)性化的響應(yīng)。結(jié)合人類反饋是提高ChatGPT性能的有效方法。
7.1.4 融入人類情感
人類經(jīng)常通過(guò)幽默、同理心和諷刺來(lái)表達(dá)自己的感受。人工智能語(yǔ)言模型的對(duì)話技能可以通過(guò)添加情感來(lái)增強(qiáng),使其更具相關(guān)性和趣味性。盡管這是人工智能領(lǐng)域一個(gè)復(fù)雜且有爭(zhēng)議的主題(Pahl et al.,2022;Domnich和Anbarjafari,2021),但將人類情感納入人工智能的語(yǔ)言模型是一個(gè)挑戰(zhàn)。因?yàn)樵谌斯ぶ悄苷Z(yǔ)言模型中添加情感會(huì)帶來(lái)意想不到的后果和風(fēng)險(xiǎn),如偏見(jiàn)和歧視、操縱、隱私泄露以及不恰當(dāng)或冒犯性的反應(yīng)。因此,在將情緒納入人工智能語(yǔ)言模型之前,必須充分考慮風(fēng)險(xiǎn)和道德分歧。
7.1.5 基于風(fēng)格的高級(jí)文本分析技術(shù)
通過(guò)將利用復(fù)雜網(wǎng)絡(luò)的基于風(fēng)格的技術(shù)與Chat GPT相結(jié)合,該模型可以利用風(fēng)格屬性的分析來(lái)增強(qiáng)其文本生成能力。這種組合允許Chat GPT識(shí)別、理解和復(fù)制風(fēng)格模式,從而生成不僅與內(nèi)容一致,而且與所需風(fēng)格一致的文本。在Chat GPT框架中集成基于風(fēng)格的分析,可以更全面地理解和生成文本,為個(gè)性化、風(fēng)格豐富和適合上下文的交互開(kāi)辟了可能性。
除此之外,Chat GPT還可以通過(guò)集成單詞嵌入(Quispe et al.,2021)來(lái)增強(qiáng)其對(duì)風(fēng)格元素的理解和融入,從而做出創(chuàng)新性貢獻(xiàn)。此外,將基于風(fēng)格的文本分析集成到ChatGPT的對(duì)話框架中(Stella et al.,2019)可以幫助生成感覺(jué)更自然、更個(gè)性化的文本,從而在用戶和人工智能系統(tǒng)之間建立更牢固的聯(lián)系。然而,當(dāng)前的主要挑戰(zhàn)是熟練地將Chat GPT生成以內(nèi)容為中心的文本的能力與復(fù)雜的基于網(wǎng)絡(luò)的方法所促進(jìn)的風(fēng)格分析相結(jié)合。它需要將Chat GPT的內(nèi)容生成能力與復(fù)雜網(wǎng)絡(luò)技術(shù)提供的全面風(fēng)格分析無(wú)縫集成。
7.2
個(gè)性化
ChatGPT的未來(lái)迭代可能會(huì)適應(yīng)每個(gè)用戶,利用他們之前的互動(dòng)來(lái)個(gè)性化答案并創(chuàng)建更親密的對(duì)話。因此,用戶體驗(yàn)和數(shù)據(jù)保護(hù)都可以得到改善。增強(qiáng)ChatGPT的自定義能力的方法如下:
7.2.1 通過(guò)各種來(lái)源增加個(gè)性化的用戶體驗(yàn)
可以提供更多的信息來(lái)提高對(duì)語(yǔ)言模式的理解,并使答案更符合用戶需求。許多來(lái)源,包括社交媒體、客戶支持互動(dòng)和其他在線對(duì)話,都可以提供這些信息。
7.2.2 特定域的微調(diào)
增加特定主題或領(lǐng)域的領(lǐng)域知識(shí),如客戶服務(wù)、醫(yī)療保健、商業(yè)或金融,可以通過(guò)微調(diào)特定數(shù)據(jù)集來(lái)實(shí)現(xiàn)。對(duì)于用戶特定領(lǐng)域,這可能會(huì)導(dǎo)致更精確的答案和量身定制(Batko和Slezak,2022;Himeur等人,2022a)。
7.2.3 包含個(gè)性化提示
包括個(gè)性化提示,如用戶名或?qū)ο惹皩?duì)話的引用,可以提高用戶滿意度并提高理解。如ChatGPT可以在答案中使用用戶名,從而使交互更加自定義。例如,其中一個(gè)名叫John的用戶之前曾與ChatGPT進(jìn)行過(guò)一次對(duì)話,在對(duì)話中他提到了自己的名字。如果約翰問(wèn):“今天天氣怎么樣?”ChatGPT可以回應(yīng):“當(dāng)然,約翰!今天的天氣預(yù)報(bào)是晴天,氣溫為75度?!蓖ㄟ^(guò)結(jié)合John的名字和之前的對(duì)話,ChatGPT能夠提供更個(gè)性化和定制的響應(yīng),從而提高用戶對(duì)所提供信息的整體滿意度和理解力。
7.2.4 提供文化和地區(qū)多樣性的實(shí)例
ChatGPT可以根據(jù)各種數(shù)據(jù)集進(jìn)行培訓(xùn),這些數(shù)據(jù)包括各種文化規(guī)范和傳統(tǒng)的詳細(xì)信息,如問(wèn)候語(yǔ)、社會(huì)習(xí)俗和文化實(shí)踐。這有助于ChatGPT更好地理解和處理來(lái)自不同文化背景的用戶,并確保其反駁被考慮和尊重各種文化規(guī)范和標(biāo)準(zhǔn)。
7.2.5 用戶對(duì)會(huì)話響應(yīng)的反饋
收集用戶對(duì)會(huì)話響應(yīng)的反饋可以幫助確定使其更加個(gè)性化的方法。調(diào)查、用戶試用以及對(duì)用戶與模型交互的分析都是收集反饋的方法。
7.2.6 持續(xù)培訓(xùn)和更新
為了增強(qiáng)ChatGPT提供個(gè)性化答案的能力,可以對(duì)其進(jìn)行新的數(shù)據(jù)訓(xùn)練。例如,如果出現(xiàn)新的趨勢(shì),可以對(duì)與該趨勢(shì)相關(guān)的數(shù)據(jù)進(jìn)行訓(xùn)練,以增強(qiáng)其提供個(gè)性化回答的能力。具體而言,有幾種方法可以實(shí)現(xiàn)對(duì)ChatGPT的持續(xù)訓(xùn)練和更新。一種方法是定期向模型中輸入新數(shù)據(jù),方法是向現(xiàn)有訓(xùn)練集添加新數(shù)據(jù),或者根據(jù)新數(shù)據(jù)對(duì)模型進(jìn)行微調(diào)。另一種方法是持續(xù)監(jiān)控ChatGPT的性能,并根據(jù)需要對(duì)模型進(jìn)行調(diào)整。這可能包括監(jiān)控準(zhǔn)確性、困惑度和語(yǔ)言生成質(zhì)量等指標(biāo),并使用這些反饋來(lái)更新模型。
7.3
多式聯(lián)運(yùn)設(shè)計(jì)
與ChatGPT的多模式集成將實(shí)現(xiàn)更自然、更人性化的直觀、引人入勝和有效的溝通。它需要?jiǎng)?chuàng)建能夠處理和組合各種數(shù)據(jù)的機(jī)器學(xué)習(xí)模型和算法,包括文本、音頻和圖像??梢詫⑦@些不同的模式結(jié)合起來(lái),以各種方式創(chuàng)造更具吸引力的有效的用戶體驗(yàn)。
7.3.1 基于圖像的設(shè)計(jì)
使用圖像作為交流的主要工具是基于圖像的設(shè)計(jì)的重點(diǎn)。為了傳達(dá)某種信息或想法,這可能涉及使用圖像、插圖和其他視覺(jué)組件。視覺(jué)識(shí)別、圖像字幕和基于圖像的搜索可以與ChatGPT集成,使其成為多模式人工智能。圖像識(shí)別和基于圖像的搜索是功能強(qiáng)大的工具,在不同領(lǐng)域都有大量應(yīng)用。例如,學(xué)生可以利用這些技術(shù)來(lái)定位和分析相關(guān)圖像,用于學(xué)術(shù)研究目的。
7.3.2 基于音頻的設(shè)計(jì)
可以與ChatGPT結(jié)合的音頻功能的幾個(gè)例子是語(yǔ)音識(shí)別、音頻字幕和基于內(nèi)容的音頻檢索。通過(guò)處理聽(tīng)覺(jué)輸入并將其翻譯成軟件或其他設(shè)備可能使用的文本,語(yǔ)音識(shí)別技術(shù)使ChatGPT能夠理解和識(shí)別口語(yǔ)。
7.3.3 基于視頻的設(shè)計(jì)
集成基于視頻的設(shè)計(jì)技術(shù),如視頻內(nèi)容分析、視頻字幕和視頻索引,是開(kāi)發(fā)多模式人工智能系統(tǒng)的關(guān)鍵方面。通過(guò)結(jié)合視頻內(nèi)容分析,多模式ChatGPT可以分析和處理視頻片段,檢測(cè)對(duì)象,并跟蹤視頻中的運(yùn)動(dòng)。視頻字幕可以添加到ChatGPT中,在對(duì)話過(guò)程中提供隱藏字幕或字幕,使視頻內(nèi)容更容易訪問(wèn)。此外,視頻索引允許用戶使用關(guān)鍵字或時(shí)間戳搜索視頻中的特定內(nèi)容,從而更容易快速查找相關(guān)信息。
7.3.4 人機(jī)交互設(shè)計(jì)
創(chuàng)建多模式人工智能的下一步將是結(jié)合人機(jī)交互的特征,包括面部表情、觸覺(jué)。
7.4
可信度
當(dāng)今最緊迫的需求之一是開(kāi)發(fā)值得信賴的人工智能。為了實(shí)現(xiàn)這一點(diǎn),ChatGPT的未來(lái)迭代可以包含保證公正和公平答案的功能。隨著人工智能倫理和公平變得越來(lái)越重要,可以考慮三個(gè)關(guān)鍵類別:計(jì)算技術(shù)、倫理考慮和社會(huì)考慮。深度學(xué)習(xí)、機(jī)器學(xué)習(xí)和人工神經(jīng)網(wǎng)絡(luò)等升級(jí)的技術(shù)發(fā)展應(yīng)該集成到計(jì)算方法中,以提高人工智能的性能。然而,還必須考慮倫理因素,包括數(shù)據(jù)倫理,以確保人工智能系統(tǒng)培訓(xùn)的數(shù)據(jù)收集、存儲(chǔ)和使用是以道德和負(fù)責(zé)任的方式進(jìn)行的,同時(shí)防止未經(jīng)授權(quán)的訪問(wèn)或?yàn)E用。為了防止基于宗教、種族或性別等特征對(duì)個(gè)人或群體的歧視,機(jī)器學(xué)習(xí)的公平性也必須是優(yōu)先事項(xiàng)。
7.4.1 公平
在人工智能系統(tǒng)的創(chuàng)建和應(yīng)用過(guò)程中,應(yīng)納入人工智能的公平性,以避免偏見(jiàn)和歧視。它需要確保人工智能系統(tǒng)平等地處理每個(gè)人,沒(méi)有歧視,不會(huì)加劇現(xiàn)有的偏見(jiàn)和不平等。這需要全面考慮用于訓(xùn)練人工智能模型的數(shù)據(jù),以及人工智能系統(tǒng)中使用的算法和決策程序。作為一種AI語(yǔ)言模型,ChatGPT可以通過(guò)考慮和解決其訓(xùn)練數(shù)據(jù)、決策過(guò)程和輸出中的偏見(jiàn)來(lái)努力實(shí)現(xiàn)公平。解決訓(xùn)練數(shù)據(jù)中的偏見(jiàn)的一種方法是確保用于訓(xùn)練模型的數(shù)據(jù)是多樣的,并能代表人群。這可以通過(guò)使用各種來(lái)源和包括代表性不足群體的數(shù)據(jù)來(lái)實(shí)現(xiàn)(Hassani和Silva,2023)。培訓(xùn)數(shù)據(jù)也應(yīng)仔細(xì)策劃和過(guò)濾,以消除任何有偏見(jiàn)或有問(wèn)題的數(shù)據(jù)。
7.4.2 透明度
人工智能系統(tǒng)的決策過(guò)程和基本數(shù)據(jù)對(duì)用戶透明和可用的程度被稱為人工智能的透明度。因?yàn)橥该鞯娜斯ぶ悄芟到y(tǒng)更容易理解和分析,它們鼓勵(lì)信任,使系統(tǒng)更有可能做出道德和法律選擇。為了確保ChatGPT使用的透明度,必須清楚該模型的局限性及其功能。此外,重要的是要對(duì)用于訓(xùn)練模型的數(shù)據(jù)源和任何潛在的偏差保持透明。
7.4.3 可解釋性
可解釋的人工智能可以為其選擇和決策提供全面的解釋。因此,人類可以理解和驗(yàn)證系統(tǒng)的決策過(guò)程,這對(duì)于建立人工智能系統(tǒng)的信心至關(guān)重要。增加可解釋性的一種方法是使用固有的可解釋性模型,如決策樹(shù)或線性回歸模型。這些模型更容易理解,因?yàn)樗鼈兠鞔_地顯示了每個(gè)特征對(duì)模型輸出的貢獻(xiàn)。
另一種方法是計(jì)算并呈現(xiàn)模型輸入的特征重要性分?jǐn)?shù)。這允許用戶查看哪些因素該模型正在使用進(jìn)行預(yù)測(cè)。
7.4.4 以人為本的設(shè)計(jì)
它指的是創(chuàng)建符合人類價(jià)值觀、需求和偏好的人工智能系統(tǒng)的過(guò)程。這需要考慮人工智能系統(tǒng)的倫理和社會(huì)影響,并在設(shè)計(jì)時(shí)強(qiáng)調(diào)透明度、公平性和問(wèn)責(zé)制。以人為中心的設(shè)計(jì)原則通常應(yīng)用于研發(fā)過(guò)程中,例如進(jìn)行用戶研究以了解使用語(yǔ)言模型的人的需求和行為,測(cè)試不同的設(shè)計(jì)原型,以及根據(jù)用戶反饋迭代設(shè)計(jì)。
八、結(jié)論
在這篇綜述文章中,我們通過(guò)全面回顧關(guān)于ChatGPT的100多篇Scopus索引出版物,展示了未來(lái)GPT語(yǔ)言模型在各個(gè)領(lǐng)域的巨大潛力。盡管有其潛力,但早期的ChatGPT研究仍然面臨一些局限性。我們確定了一些可能需要解決的問(wèn)題,這些問(wèn)題被歸類為內(nèi)在的和以使用為中心的問(wèn)題。此外,我們還討論了倫理問(wèn)題。最后,為克服這些挑戰(zhàn)并提高ChatGPT的效率,我們發(fā)現(xiàn)了一些潛在的未來(lái)發(fā)展方向。