ChatGPT在短時間內(nèi)生成內(nèi)容的能力使其越來越受到內(nèi)容創(chuàng)作者的歡迎。然而,像任何強(qiáng)大的技術(shù)一樣,人工智能語言模型也可能被濫用。
在人們對這個問題掉以輕心之前,要知道濫用人工智能可能會導(dǎo)致法律問題、聲譽(yù)損害和錯誤的輸出。以下探討了內(nèi)容創(chuàng)建者使用ChatGPT的錯誤方式,以便可以避免這些問題。
1.不要過度依賴ChatGPT
假設(shè)用戶是第一次使用ChatGPT,就會發(fā)現(xiàn)它的響應(yīng)速度非??臁R郧盎ㄙM(fèi)幾個小時創(chuàng)造的東西現(xiàn)在只需要幾秒鐘。隨著時間的推移,用戶可能會開始嚴(yán)重依賴,通常只是進(jìn)行一些修改,并沒有費(fèi)心去研究。
這種現(xiàn)象就是人們所說的對人工智能的過度依賴,對于那些被迫快速生產(chǎn)內(nèi)容的創(chuàng)作者來說,這是一條誘人的途徑。然而,微軟公司發(fā)表的有關(guān)人工智能過度依賴的文獻(xiàn)綜述警告說,過度依賴人工智能會導(dǎo)致用戶接受錯誤的結(jié)果。
以網(wǎng)絡(luò)媒體CNET的爭議為例。CNET發(fā)表了人工智能撰寫的財務(wù)分析文章,署名為“CNET Money Staff”。不幸的是,一些專業(yè)人士在人工智能生成的文章中發(fā)現(xiàn)了明顯的錯誤。它指責(zé)這家媒體機(jī)構(gòu)發(fā)布可怕的財務(wù)建議,并大量生產(chǎn)廉價內(nèi)容來操縱谷歌搜索結(jié)果牟利。
不知道CNET是過度依賴人工智能還是過度自信,或者沒有人會注意到。無論如何,這一事件應(yīng)該成為一個警告,不要過度依賴人工智能的輸出。
需要記住的是,ChatGPT可能會大量輸出過時的信息。正如ChatGPT公司自己所說,訓(xùn)練ChatGPT所采用的知識的截止日期為2021年9月,所以用戶反復(fù)檢查信息的真實是很好的措施。
OpenAI公司的CEO Sam Altman也在美國廣播公司新聞的視頻采訪中提到,用戶應(yīng)該對ChatGPT的“幻覺問題”更加謹(jǐn)慎。它可以自信地陳述虛構(gòu)的想法,就好像它們是事實一樣。像CNET網(wǎng)絡(luò)這一事件可能會損害用戶將其作為權(quán)威消息來源的可信度。
當(dāng)用戶沒有足夠的知識來評估結(jié)果時,很容易盲目地接受ChatGPT輸出的內(nèi)容。此外,當(dāng)ChatGPT的答案與用戶的理念一致時,可能不會費(fèi)心去檢查不同的觀點(diǎn)。為了避免這些尷尬的情況,需要核實事實,尋求不同的觀點(diǎn),并獲得專家的建議。
用戶正在學(xué)習(xí)使用ChatGPT進(jìn)行內(nèi)容創(chuàng)作,包括什么是人工智能幻覺,以及如何在要掌握的主題列表中發(fā)現(xiàn)它。更重要的是,不要忽視人類的判斷力和創(chuàng)造力。需要記住的是,人工智能應(yīng)該增強(qiáng)其思維,而不是取代它。
2.不要向ChatGPT索取研究鏈接
如果用戶要求ChatGPT提供研究資源的互聯(lián)網(wǎng)鏈接,那么可能會感到失望。ChatGPT也許提供鏈接,但它們可能是錯誤的,或者不一定是網(wǎng)絡(luò)上最好的內(nèi)容。
為了進(jìn)行測試,研究人員讓ChatGPT提供JSTOR的研究論文鏈接,這些論文是關(guān)于英國年輕奇幻作家撰寫的成長故事。ChatGPT提供了5種資源,包括標(biāo)題、卷號、頁碼和作者。
乍一看,這份名單似乎可信。JSTOR上的文章有一些聽起來令人印象深刻的標(biāo)題,例如《構(gòu)建混合身份:薩莉·格林三部曲中的種族與民族》。但是谷歌搜索很快就會顯示大多數(shù)鏈接指向錯誤的JSTOR文章,其中一個鏈接指向404頁面。
在另一個例子中,提供給ChatGPT一個更具體的主題來研究,看看它是否會產(chǎn)生更好的結(jié)果。這是使用的提示:“我正在寫一篇關(guān)于‘英國青年和成年當(dāng)代小說中的女主角’的文學(xué)研究論文,你能給我一篇關(guān)于這個話題的文獻(xiàn)綜述嗎?”
ChatGPT給出了一個包含五部作品的列表,并附有作者的姓名和摘要。然而,人們在網(wǎng)上找不到它列出的任何作品。
為了更好地理解這些信息,研究人員要求提供鏈接。ChatGPT這一次卻拒絕了,聲稱這只是一個沒有網(wǎng)頁瀏覽功能的人工智能語言模型。然而,它提供了書目信息,盡管這些作品據(jù)稱是在2004~2018年期間創(chuàng)作的,但無法在網(wǎng)上核實。
當(dāng)被提示提供鏈接以驗證其提供的信息時,ChatGPT這次斷然拒絕了。OpenAI公司表示,它沒有網(wǎng)絡(luò)瀏覽功能,而是提供了一份書目信息列表。然而,其數(shù)據(jù)仍然是錯誤的。
OpenAI公司上最新的ChatGPT發(fā)布說明顯示它現(xiàn)在具有網(wǎng)頁瀏覽功能。但是這些功能還沒有普及到每一個用戶。此外,正如研究人員所指出的那樣,ChatGPT的搜索結(jié)果不一定是互聯(lián)網(wǎng)上最好的,因為專業(yè)人士可以操縱搜索引擎的結(jié)果。
為了避免這個問題:
·用戶可以為其研究使用更合適的在線資源。
·如果需要學(xué)術(shù)研究的資源,可以查看Google Scholar或人工智能研究助手Elicit。
·在選擇引用哪篇文章時,記住要批判性地評估結(jié)果并做出判斷。
3.不要用ChatGP代替職場關(guān)系
用戶可以使用ChatGPT做的一些事情可能會誘使用戶將其擬人化或賦予其人類屬性。例如,可以向ChatGPT尋求建議,如果需要找人聊天,可以和它聊天。
在下面的例子中,可以讓ChatGP作為十年來最好的朋友,提供關(guān)于職場倦怠的建議,它似乎傾聽并感同身受。
但無論它聽起來多么富有同情心,ChatGPT都不是人類。聽起來像人類生成的句子只是ChatGPT根據(jù)其訓(xùn)練數(shù)據(jù)預(yù)測序列中的下一個單詞或“標(biāo)記”的結(jié)果。它不像人類那樣有知覺,有自己的意志和思想。
也就是說,ChatGPT并不能代替工作場所中的人際關(guān)系和協(xié)作。正如哈佛大學(xué)“工作與幸福倡議”所言,這些人際關(guān)系讓人受益,有助于提高幸福感,免受工作壓力的影響。
學(xué)習(xí)使用最新的技術(shù)工具很重要,但與團(tuán)隊其他成員的互動也是必不可少的,而不是依靠ChatGPT復(fù)制社會關(guān)系,建立人際關(guān)系技能,與同事互動,并找到能夠一起更好地完成工作的人。
4.不要向ChatGPT發(fā)送無效提示
在創(chuàng)建內(nèi)容時,是否發(fā)現(xiàn)很難從ChatGPT中獲得最佳響應(yīng)?提供場景和給出精確的指示應(yīng)該能解決這個問題。
在下面的例子中,可以讓ChatGPT總結(jié)一下美國鄉(xiāng)村音樂歌手Eric Allen在Hackernoon上寫的一篇有趣的博客。這篇冗長的文章描述了Allen在ChatGPT中改進(jìn)人工智能提示的過程,以創(chuàng)建一個名為BeatBrain的音樂推薦系統(tǒng)。
然而,ChatGPT并不熟悉Allen的文章。當(dāng)要求ChatGPT分享鏈接并做出總結(jié)時,ChatGPT卻錯誤地聲稱Eric Allen創(chuàng)立了BeatBrain公司,該公司利用GPT-3技術(shù)創(chuàng)作人工智能生成的音樂。
為了幫助ChatGPT,將文章分幾部分進(jìn)行復(fù)制粘貼,并要求在每次上傳后提供摘要。ChatGPT這一次能夠準(zhǔn)確地完成任務(wù)。還有一次,ChatGPT提供了評論而不是摘要,但是研究人員用另一個提示對它進(jìn)行了重定向。
這個例子是一個關(guān)于如何使用ChatGPT有效地總結(jié)長篇技術(shù)文章的實驗。然而,人們現(xiàn)在可以訪問許多互聯(lián)網(wǎng)資源,并學(xué)習(xí)提示技術(shù)來改進(jìn)其ChatGPT響應(yīng)。
使用推薦的提示并不是防止ChatGPT產(chǎn)生幻覺的萬無一失的方法,但它可以幫助服務(wù)商提供準(zhǔn)確的結(jié)果,還可以查看GitHub上最好的ChatGPT提示,以獲取有關(guān)提示技術(shù)的更多信息。
最大化ChatGPT的功能,但要注意它的局限性
ChatGPT提供了前所未有的速度和便利,但使用它也需要謹(jǐn)慎和負(fù)責(zé)。避免過度依賴ChatGPT,需要使用更合適的工具進(jìn)行研究,更好地與團(tuán)隊合作,并學(xué)會有效地使用提示以最大限度地獲得其好處。
接受ChatGPT的力量,但要始終注意其局限性。通過最大化ChatGPT的潛力,同時最小化它的缺陷,可以產(chǎn)生有影響力的、有創(chuàng)意的內(nèi)容,從而提高工作質(zhì)量。