新的AI內(nèi)容工具層出不窮。這些工具可以幫助您撰寫社交帖子或整篇博文,回答任何問題,甚至創(chuàng)建全新形象!當您只有一點時間或需要更多靈感時,這非常有用。但最大的問題是,人工智能工具真的在幫助我們嗎?我們應該使用它們來創(chuàng)建我們的內(nèi)容嗎?這篇博文將討論AI內(nèi)容以及為什么我們應該注意我們?nèi)绾问褂盟?/p>
人工智能生成的內(nèi)容正在飛速增長
AI,即人工智能,是指執(zhí)行通常需要人類智能的任務的系統(tǒng),例如感知、學習、推理、問題解決和決策制定?,F(xiàn)在,各種形式和大小的AI工具呈爆炸式增長。AI驅(qū)動的內(nèi)容生成器的廣泛采用使得大規(guī)??焖偕蓛?nèi)容比以往任何時候都更加容易。只需點擊幾下,任何人都可以生成一篇半心半意的通用文章,一個人必須對其進行編輯以適應他們的業(yè)務基調(diào)并使其符合事實。
使用這些閃亮的新工具很容易被所有的興奮所吸引并生成大量內(nèi)容。然而,在使用這些AI時,我們不能也不應該忽視一些事情。使用AI工具創(chuàng)建您的內(nèi)容會產(chǎn)生與其他人類似的內(nèi)容,您可能不會感到驚訝。首先,這對您的SEO不利。它還會導致一個更大的問題,影響到我們所有人。這些內(nèi)容通常根本不多樣化和包容性。它是由接受過偏見內(nèi)容訓練的AI創(chuàng)建的。而且這些內(nèi)容往往是同一類型的人寫的。讓我們深入研究一下,看看可以做什么!
使用人工智能工具將創(chuàng)建一個回音室
人工智能生成內(nèi)容的主要問題之一是缺乏原創(chuàng)性和真實性。雖然算法可以模仿現(xiàn)有內(nèi)容的風格和基調(diào),但它們無法取代真人的創(chuàng)造力和獨創(chuàng)性。人工智能生成的內(nèi)容往往缺乏細微差別、深度和原創(chuàng)性,這可能會損害品牌的信譽和聲譽。此外,使用人工智能生成的內(nèi)容可能會延續(xù)刻板印象、偏見和排他性做法,因為算法往往會復制現(xiàn)有的模式和偏好。
由于AI內(nèi)容工具讓創(chuàng)建內(nèi)容變得如此簡單,現(xiàn)在比以往任何時候都更容易制作與其他人相同的內(nèi)容。如果每個人都使用相同的AI來創(chuàng)建內(nèi)容,那么就沒有人在創(chuàng)建新內(nèi)容。實際上,我們將創(chuàng)建一個回音室,沒有新的想法或主意進來。這導致了一個狹隘和非包容性的世界觀。Fran?ois Chollet發(fā)布了一條令人愉快的推文,表達了他對AI內(nèi)容的看法:
與此相關,F(xiàn)uturism的Maggie Harrison寫了一篇有趣的文章,內(nèi)容是關于ChatGPT本質(zhì)上是一臺自動人工解釋機器。只有這種遠非包容性的世界觀在很多方面對社會有害。它沒有考慮到我們這個世界上人和觀點的巨大差異。它也不支持過去經(jīng)常被忽視和邊緣化的人群。
人工智能訓練集有偏差
為Google Bard、微軟的Bing助手和OpenAI的ChatGPT等提供支持的大型語言模型(LLM)是根據(jù)當今互聯(lián)網(wǎng)的內(nèi)容進行訓練的。雖然大多數(shù)人愿意相信互聯(lián)網(wǎng)是多元化和包容性的,但它也有一些非常值得懷疑的角落。我們應該努力爭取一個比今天更具包容性的世界。使用互聯(lián)網(wǎng)上的公共論壇來訓練您的AI可能不是最好的主意。近年來,這導致人工智能變得種族主義和有偏見。
幾個例子
使用當今的互聯(lián)網(wǎng)來訓練AI存在多個包容性問題。這意味著AI本身會成為種族主義、性別歧視或能力歧視,因為他們接受培訓的內(nèi)容是種族主義、性別歧視或能力歧視。讓我們看幾個例子。
1.亞馬遜的AI招聘失敗
以亞馬遜的招聘人工智能為例。他們將此工具開發(fā)為招聘的“圣杯”,以幫助他們找到合適的人選。亞馬遜使用十年來主要是男性的簡歷來訓練人工智能。當然,這是整個科技行業(yè)的反映,但這也意味著該工具變得性別歧視。他們可能無意創(chuàng)造一個性別歧視的人工智能,但因為它所提供的數(shù)據(jù)偏向于更多的男性雇員,它認為它在做正確的事情。如果他們用來訓練的數(shù)據(jù)是有偏見的,人工智能將永遠有偏見。
2.圖像創(chuàng)建也可能有問題
AI走向種族主義的另一個例子是AI圖像創(chuàng)作。如果你想生成一對牽手的浪漫情侶的圖像,你會發(fā)現(xiàn)所有的生成器都以白人為主,這一點并不少見。2021年7月,Dall-E 2更新了其工具,以“更準確地反映世界人口的多樣性”。不幸的是,它仍然會生成非多樣性的照片。當您在提示中添加“差”一詞時,它只會顯示有色人種。
這不僅限于有色人種;LGBTQI+社區(qū)也成為這些非包容性圖像的犧牲品。當然,這些工具可以對其系統(tǒng)進行調(diào)整。要反映我們所處的世界,我們還有很長的路要走。正如Zoe Larkin(Levity)在關于AI偏見的博客文章中所寫:“不幸的是,AI無法避免人類偏見的傾向。它可以幫助人類做出更公正的決定,但前提是我們努力工作以確保人工智能系統(tǒng)的公平性?!?/p>
不要忘記人工編輯
在某種程度上,使用AI工具作為捷徑是可以接受的。然而,今天,內(nèi)容創(chuàng)作者在使用它們時沒有考慮為AI提供數(shù)據(jù)的數(shù)據(jù)。這導致回音室的加強和擴展,并有助于創(chuàng)建相似的內(nèi)容以及產(chǎn)生種族主義和非包容性/多樣化的圖像。因此,內(nèi)容創(chuàng)作者需要更多地了解人工智能工具使用的數(shù)據(jù)和算法,以確保他們的內(nèi)容真實、多樣化和包容,并且不會延續(xù)刻板印象或排他性做法。
網(wǎng)上很多內(nèi)容不具有代表性
亞馬遜的招聘工具和Dall-E 2是AI內(nèi)容生成器走向流氓的幾個例子。人工智能內(nèi)容工具走同樣的路也就不足為奇了,因為互聯(lián)網(wǎng)上充斥著由說英語的平庸的白人順勢男性編寫的內(nèi)容。例如,牛津大學互聯(lián)網(wǎng)研究所的一項研究發(fā)現(xiàn),世界西方地區(qū)的編輯(主要是男性)為維基百科做出了大部分貢獻,從而造成了一種扭曲的世界觀。即使這是您的目標受眾的一部分,也不是唯一的受眾。目前,來自各種背景、各種經(jīng)歷的人只占所聽到聲音的一小部分。如果我們想打破這種不斷重復相同內(nèi)容的循環(huán),我們需要改進寫作和創(chuàng)造更具包容性的內(nèi)容。這樣,我們就可以在更具包容性和多樣性的互聯(lián)網(wǎng)上訓練未來的人工智能。
讓今天的內(nèi)容更適合未來
盡量不要成為會議上重復別人所說的那個人。用您的聲音制作內(nèi)容,并讓盡可能多的觀眾可以訪問它。所有這一切都為每個人創(chuàng)造了一個更好的互聯(lián)網(wǎng)。與您想要接觸的受眾進行適當?shù)臏贤ā.斈园莸姆绞綄懽鲿r,您,我的朋友,正在幫助創(chuàng)建將使未來的互聯(lián)網(wǎng)變得更美好的內(nèi)容。
注意你自己的偏見
不僅AI有這種偏見;我們都有一種無意識的偏見,我們正在努力消除和進化。這就是讓我們來到這里的首要原因。我們都需要做得更好,才能編寫更具包容性的內(nèi)容。只有花時間編寫包容性內(nèi)容,我們才能塑造今天的互聯(lián)網(wǎng)。反過來,這意味著我們可以使用更具包容性和更少貶損性的語言來訓練未來的人工智能工具。我們知道,這是一項重大責任。這不會在一夜之間改變。需要花時間。我們無疑會弄錯。但是,通過現(xiàn)在努力創(chuàng)建多樣化和包容性的內(nèi)容,我們將開始朝著更好的互聯(lián)網(wǎng)前進。
所以,我們能做些什么?
您可以在內(nèi)容創(chuàng)建過程中使用AI工具。但是,您必須在點擊發(fā)布之前進行人工編輯。對AI工具推出的內(nèi)容持批評態(tài)度。確保進行事實核查。并進行急需的調(diào)整。您不應該只調(diào)整內(nèi)容中的語氣,還應該檢查它的多樣性和包容性。您應該查明任何有問題的內(nèi)容。將它改進到任何人都可以與之相關并且您對此感到滿意的程度。
如何使您的內(nèi)容更具包容性
可能很難知道從哪里開始。這就是工具可以幫助您走上更具包容性和多樣化的互聯(lián)網(wǎng)之路的地方。例如,我們在SEO中的包容性語言分析。這種新的分析可以幫助您發(fā)現(xiàn)您何時可能無意識地使用了一個不具有包容性的術語,或者實際上是種族主義、性別歧視或能力歧視的術語。
就像我們的可讀性分析一樣,它會在您的文本中查找我們數(shù)據(jù)庫中的種族主義、性別歧視、非包容性或貶損性詞語。它將幫助您了解那些非包容性的單詞和短語。您將獲得反饋和適當?shù)奶娲桨?,這些替代方案可以改進您的內(nèi)容,以確保網(wǎng)站訪問者感到與您交談。只要朝著正確的方向邁出幾小步,我們就有希望讓世界和網(wǎng)絡成為子孫后代更具包容性和多樣性的地方,以及未來的人工智能。