由于ChatGPT帶來(lái)的風(fēng)潮,各大科技公司無(wú)不爭(zhēng)相在自己的產(chǎn)品,加入大型語(yǔ)言模型,由于這類語(yǔ)言模型技術(shù)的既有限制,使得用戶容易獲得具偏見(jiàn)、冒犯性,甚至是與事實(shí)不符的輸出,現(xiàn)在OpenAI開(kāi)始著手一系列改進(jìn),試圖解決當(dāng)前ChatGPT存在的系統(tǒng)限制。
官方解釋,ChatGPT是一個(gè)大型神經(jīng)網(wǎng)絡(luò),模型行為學(xué)習(xí)自廣泛且龐大的資料,并非是由明確的程序代碼寫死。ChatGPT模型經(jīng)過(guò)預(yù)訓(xùn)練和微調(diào)兩階段,在預(yù)訓(xùn)練階段,模型會(huì)從網(wǎng)際網(wǎng)絡(luò)資料集中,學(xué)習(xí)預(yù)測(cè)語(yǔ)句下一個(gè)單詞的方法,但是在這個(gè)學(xué)習(xí)的過(guò)程,同時(shí)也學(xué)習(xí)了網(wǎng)際網(wǎng)絡(luò)中帶有偏見(jiàn)言論。
因此在微調(diào)階段,OpenAI需要用較小的資料集微調(diào)ChatGPT,以規(guī)范模型的行為,這些小資料集由人工審查者根據(jù)OpenAI指引創(chuàng)建而成。
不過(guò),由于OpenAI無(wú)法預(yù)測(cè)所有用戶的可能輸入,因此僅在指引中概述幾個(gè)類別,人工審查者根據(jù)這些指引類別,審查和評(píng)分一系列輸入可能的模型輸出,之后再由模型總結(jié)這些審查者的反饋,套用在給用戶的回應(yīng)中。
即便經(jīng)過(guò)微調(diào)階段,ChatGPT仍然無(wú)法解決偏見(jiàn)問(wèn)題,官方提到,雖然他們的指引里面,明確規(guī)范審查者不應(yīng)該偏袒任何政治團(tuán)體,但在當(dāng)前的微調(diào)階段,仍可能在過(guò)程中加入偏見(jiàn)。
目前OpenAI解決偏見(jiàn)的方法,是盡可能在指引中,向?qū)彶檎咔宄忉屍?jiàn)的潛在陷阱和挑戰(zhàn),以及具有爭(zhēng)議的人物和主題,并且使微調(diào)過(guò)程變成一個(gè)反饋循環(huán),每周通過(guò)會(huì)議來(lái)解決遇到的問(wèn)題,并且一再澄清指引,通過(guò)迭代讓模型表現(xiàn)越來(lái)越好。
除了偏見(jiàn)之外,ChatGPT還存在多個(gè)問(wèn)題,像是拒絕不應(yīng)該拒絕的請(qǐng)求,或是無(wú)法在應(yīng)該拒絕的時(shí)候拒絕請(qǐng)求,甚至?xí)幵靸?nèi)容,OpenAI承諾會(huì)繼續(xù)改進(jìn)這些ChatGPT的默認(rèn)行為。而由于每個(gè)用戶對(duì)于人工智能的期待都不同,因此OpenAI正在改進(jìn)ChatGPT,將讓用戶有更多自定義空間。
另外,OpenAI也希望讓用戶甚至是公眾,能夠影響ChatGPT的系統(tǒng)規(guī)則,避免言論權(quán)力過(guò)度集中的問(wèn)題,最終使得ChatGPT能夠廣納觀點(diǎn),但OpenAI坦言,這項(xiàng)功能有其挑戰(zhàn)性,目前先以紅隊(duì)的形式來(lái)查看ChatGPT,不過(guò)他們正在創(chuàng)建機(jī)制,希望以公眾意見(jiàn)教育人工智能。