展會信息港展會大全

人工智能無法勝任的“臟活”——商業(yè)性內容審核
來源:互聯(lián)網   發(fā)布日期:2023-07-23 07:47:28   瀏覽:19641次  

導讀:當人工智能將取代人類工作的威脅論甚囂塵上之際,有一種長期被遮蔽的工作目前卻只有人類能勝任商業(yè)性內容審核員。審核員之所以隱秘,是因為商業(yè)互聯(lián)網從誕生之際就在打造一種自由幻象:用戶可以直接上傳內容到平臺,并抵達所有人。標榜自由的互聯(lián)網巨頭們當...

當人工智能將取代人類工作的威脅論甚囂塵上之際,有一種長期被遮蔽的工作目前卻只有人類能勝任商業(yè)性內容審核員。審核員之所以隱秘,是因為商業(yè)互聯(lián)網從誕生之際就在打造一種自由幻象:用戶可以直接上傳內容到平臺,并抵達所有人。標榜自由的互聯(lián)網巨頭們當然不愿意讓用戶覺察這一點。人工智能目前無法勝任,是因為這項工作靈活性極高,評估一條內容是否符合發(fā)布標準需要綜合文化、宗教等各種因素考慮。

今年初,美國《時代》雜志發(fā)布了一項調查報道,這篇報道揭示了ChatGPT開發(fā)過程中,其開發(fā)者OpenAI(美國人工智能研究公司)動用第三世界國家的勞動力進行人工內容審核的一段隱秘往事。根據這篇報道,在ChatGPT的前身GPT-3的開發(fā)過程中,調用了互聯(lián)網上數千億單詞的語料,但由于這些語料中存著大量的惡意、不良內容,使得GPT-3經常會輸出暴力、性別歧視和種族主義言論。為了調試出可以大范圍推廣的人工智能,OpenAI需要額外訓練一個能夠識別有害內容的人工智能模型,并將其內置到ChatGPT之中,以便在這些不良內容到達用戶之前將其過濾掉,并從人工智能的訓練數據中把有害文本集中清除。

為了獲得構建這個人工智能模型所需要的包含有害內容的標注數據,OpenAI以每小時不到2美元的價格,外包了一批肯尼亞勞工來進行數據標注的工作。這些標注員每天的工作就是從OpenAI發(fā)來的大量文本中,標注出包含性、暴力與仇恨言論的內容,他們每天工作9個小時,需要閱讀并標注150到250段文字。而這些文字中的大部分內容都極其惡毒、黑暗,詳細描述了性虐待、暴力、酷刑、謀殺、亂倫等情節(jié)。在標注這些數據的工作過程中,很多標注員都遭受了極大的心理創(chuàng)傷。

2010到2018年,美國加州大學洛杉磯分校教育與信息研究院助理教授莎拉羅伯茨(Sarah T. Roberts)對互聯(lián)網商業(yè)內容審核員(commercial content moderation)群體進行了長達八年的田野調查,并將自己的研究結果寫成《幕后之人》這本書。商業(yè)性內容審核員是全球性的數字零工,薪酬微薄,卻要在機械重復的工作中承受嚴重心理創(chuàng)傷。

《幕后之人:社交媒體時代的內容審核》,[美]莎拉羅伯茨 著,羅文 譯,萬有引力|廣東人民出版社,2023年5月。

他們每天要評估用戶上傳的成千上萬份圖片、視頻和文本,其中充斥著大量令人不適的內容:如淫穢畫面、虐待兒童和動物的畫面、極端的仇恨言論和血腥暴力畫面。他們是硅谷光鮮形象的陰暗面。隨著主流社交媒體平臺規(guī)模和影響力越來越大,商業(yè)性內容審核員的境況也開始被媒體曝光。

在《幕后之人》完成時,像ChatGPT這樣的人工智能尚未問世。而即便是人工智能迅速發(fā)展的現在,情況也并不樂觀。在一個自動化、智能化的時代,互聯(lián)網的商業(yè)性內容過濾機制為何仍然需要大量人力的投入?審核員對自己的勞動和互聯(lián)網文化有哪些理解和洞察?

被掩藏的數字勞動:

商業(yè)性內容審核

多年來,很少有人了解商業(yè)性內容審核及審核員的生活狀況。但最近,這類話題登上了國際新聞的頭條。在2016年美國總統(tǒng)大選之后,社交媒體平臺的角色以及它們在線傳播的信息,引發(fā)了公眾的廣泛質疑。這是公眾第一次如此大規(guī)模地對社交媒體的內容生產方式感到擔憂。“假新聞”(fake news)一詞進入公眾的話語之中。

2017年,一系列暴力和悲劇事件在臉書和其他社交媒體平臺上傳遍了世界,有的內容還是用直播的方式“廣而告之”。自那以后,商業(yè)性內容審核就成了一個熱門話題。這些事件在公共領域引發(fā)了疑問:什么內容能夠在線上傳播?它們是怎樣傳播的?如果有人把關的話,那么是誰在負責這方面的工作?

現在我們知道,完成大部分內容審核工作的并不是先進的人工智能和深度學習算法,而是薪資低微的普通人,這種工作的性質還讓他們不得不承受過度勞累、感情麻木和其他更為嚴重的風險。這一點讓公眾極為震驚。一些心懷不滿的審核員渴望讓公眾了解他們的角色和工作環(huán)境,向各大報刊透露了他們的經歷,臉書等大型網絡平臺也因此飽受批評。越來越多的計算機學者和社會學家開始關注社交媒體及其算法的局限性及影響。

商業(yè)性內容審核多年來一直隱藏在幕后,這個機制包括提供勞動力的外包公司、有相關需求的大型網絡平臺,以及將有害畫面和有害信息擋在用戶視野之外的審核員。現在,這個機制在學術研究、新聞報道、技術研究、政策制定等層面得到了人們的關注,然而它的真實面目依然非常模糊,依靠這個機制來開展業(yè)務的社交媒體公司也不愿意討論這方面的問題。

紀錄片《網絡審查員》( Im Schatten der Netzwelt ,2018)畫面。

我意識到,要想穿過科技公司設置的重重阻礙,了解它們在背后用了哪些手段來決定你在屏幕上看到的內容,我必須和審核員直接對話;要找到他們,并說服這些人把自己的經歷講出來。鑒于雇主為他們設置了很多法律上的限制,這個過程很有挑戰(zhàn)性,但也極其重要。此外還有一些麻煩:審核員的工作大都不太穩(wěn)定;公司通常還會強迫他們簽署保密協(xié)議;崗位有期限限制,致使他們在就業(yè)大軍中進進出出。還有一個挑戰(zhàn)是,這些數字勞動會“改頭換面”、以不同的名義在全球范圍內轉移,審核員分散在全球性的外包公司網絡中,與最終從他們的勞動中受益的平臺相距甚遠。

阿德布洛克(Aad Blok)在《信息革命時期的勞動,17502000》(Uncovering Labour in Information Revolutions,17502000)中講過,許多有關信息通信技術的發(fā)展與變革的學術研究,都忽視了同時期勞動方式的演變。他進一步提到:“在勞動方面,研究者把絕大部分精力放在了發(fā)明家、革新者和系統(tǒng)構建者所做的高度專業(yè)化的’知識性工作’上面。”本書旨在填補以往對商業(yè)性內容審核員的忽視,把他們的貢獻擺在與其他那些更廣為人知、更受推崇的知識性工作同等重要的位置。

后面我會講到,這種審核工作能夠揭示互聯(lián)網的現狀,以及互聯(lián)網到底在做些什么。實際上,如果說本書有什么中心論點,那就是我認為任何關于當代互聯(lián)網性質的討論都繞不開以下問題:用戶創(chuàng)建的哪些內容是允許保留的?哪些要刪除?由誰來決定?決定是怎樣做出來的?誰是這些決定的受益者?缺少了這些問題的討論必然是不完整的。接受訪談的內容審核員認為,他們的工作對于當代社交媒體環(huán)境的形成非常重要。

而作為用戶,我們理所當然地接受了這樣的環(huán)境,認為其中的內容一定是設計好的,因為它們是經過嚴格審查、有內在價值的“優(yōu)質”內容。審核員們則講述了完全不同的故事,而他們的講述往往體現出矛盾:審核員們殫精竭慮地遏制不良的、令人反感的、非法的內容傳播,但他們也知道,自己所接觸到的內容只是冰山一角,社交媒體上還有數以億計的可變現視頻、圖片、直播,而正是這些內容讓我們相互聯(lián)結,并最終成為廣告商的目標對象。

商業(yè)性內容審核

為什么依賴人工

商業(yè)性內容審核可能在內容發(fā)布之前進行,也可能在內容發(fā)布之后,用戶的投訴尤其會觸發(fā)平臺的內容審核機制,引發(fā)職業(yè)審核員介入。投訴可能來自第三方的網站審核員和管理員(比如有些公司聲稱該內容涉嫌侵權),或者來自不堪其擾的其他用戶。

對于需要通過用戶生成內容(UGC)來維系在線業(yè)務的商業(yè)性網站、社交媒體平臺和媒體來說,商業(yè)性內容審核是它們生產周期中關鍵一環(huán)。內容審核對于需要這項服務的公司來說至關重要,它可以(通過強制用戶遵守網站規(guī)則)保護公司和平臺的品牌,確保公司的運營符合法律法規(guī)的規(guī)定,幫助公司留住愿意在平臺上瀏覽和上傳內容的用戶。

不過,處理這些內容的過程往往只能說是馬馬虎虎。在許多高流量網站上,用戶生成內容的數量非常驚人,而且還在持續(xù)增長。撇開規(guī)模不談,對用戶生成內容進行恰當篩選的過程就非常復雜,遠遠超出了軟件和算法的能力。這不僅是個技術或計算的問題,由于信息分類的理論難題長時間沒得到解決,如此大規(guī)模的內容審核仍然是個挑戰(zhàn)。

困難的地方在于,一條內容的基本信息(它是什么,它描述的是什么)、意圖(它的出現和傳播有何目的)、無意中的后果(除了最初的意圖之外,它還會造成哪些后果)、意義(在不同的文化、地區(qū)和其他因素下,意義會有很大差異)都交織在一起,同時還要用各種“規(guī)則”去衡量它,包括平臺規(guī)則和當地情況(社交規(guī)范、期望和容忍度等),還要考慮更廣大開放世界中的社會、文化、商業(yè)、法律制度和行政命令等因素。

紀錄片《網絡審查員》( Im Schatten der Netzwelt ,2018)畫面。

有些內容適合進行局部批量處理,或者通過其他自動化手段過濾,尤其是那些已經出現過、在數據庫中被標記為不良的內容。但這個過程非常復雜,需要同時兼顧和平衡的因素太多,因此,絕大部分由用戶上傳的內容還是需要人工干預才能得到恰當的甄別,特別是包含視頻和圖片的內容。人工審核員要運用一系列高級的認知功能和文化素養(yǎng)來判斷內容是否適合這個網站或平臺。

重要的是,大多數依賴用戶參與的主流社交媒體平臺一般都不會在內容發(fā)布之前進行嚴格的審核,這意味著除個別情況外,對于特定視頻、圖片和文本的審核都是在它們發(fā)布到平臺一段時間后才進行的。這是社交媒體公司自己制定的商業(yè)決策,與技術和其他因素無關,用戶也已經習慣了這種做法。

職業(yè)審核員需要熟知網站目標用戶群的品味,了解平臺和用戶所在地的文化。審核員工作的地點可能離平臺總部或用戶所在地非常遙遠,地區(qū)間的文化差異可能也很大。審核員必須通曉網站內容的語種(可能是審核員學過的外語或第二語言),精通平臺發(fā)源地國家的相關法律,熟悉用戶守則和平臺上極其詳細的內容發(fā)布規(guī)則。

對于那些違反網站規(guī)則或法律的內容,審核員可以做出快速簡單的判斷。他們可以運用一些計算機工具對用戶生成內容進行大規(guī)模處理,比如運用文本屏蔽詞自動搜索工具來搜索違禁詞(常見于對文字評論區(qū)的審核),通過“皮膚過濾器”(skin _lters)識別圖片和視頻中的大面積裸體來判定色情內容(盡管不一定都準確),或者使用一些工具來匹配、標記和刪除侵權內容。這些工具能夠加快整個流程,甚至自動完成審核任務,但大部分用戶生成內容還是需要進行人工審核評估,尤其是被其他用戶舉報的內容。

對圖片和視頻來說,機器自動檢測仍然是個極其復雜的計算問題。“計算機視覺”,即計算機對圖像和物體的識別,仍在發(fā)展、充滿技術挑戰(zhàn),要想把它大規(guī)模全面運用在眾多的內容審核場景當中,在技術和資金上還不可行。因此,這些工作只能由人力完成,由審核員運用他們自己的決策流程處理一批批的數字內容,并在有必要時進行干預。

紀錄片《網絡審查員》( Im Schatten der Netzwelt ,2018)畫面。

無論審核內容的主體是機器、人類還是兩者的結合,人們在使用依賴用戶生成內容的社交媒體、網站和服務時,往往對這種有組織的職業(yè)化全職工作所知甚少。許多依靠用戶生成內容來營利的社交媒體和其他平臺都把內部審核活動和政策細節(jié)當做專有信息來保護。

在它們看來,完全披露這些政策的真實性質,可能會導致不懷好意的用戶鉆空子,或者被競爭對手曝光這些被視為機密的行為和流程,從而取得競爭優(yōu)勢。將這些政策保持在內部秘密狀態(tài),也可以讓它們免受用戶、民間活動人士和監(jiān)管者的監(jiān)督和討論。事實上,內容審核員往往要簽署保密協(xié)議,不能泄露工作的內容。

對于這些依賴用戶生成內容的公司來說,至少還有一個原因使得它們不愿意公開其內容審核活動。它們對于大規(guī)模、產業(yè)化的內容審核的依賴是一種無奈之舉,如果這種需求被人們知曉并完全掌握,平臺的陰暗面就有可能暴露,即用戶會利用它們的分發(fā)機制來傳播令人反感和不適的內容,而大多數主流平臺都不愿意給公眾留下這種印象。

另外,現有行業(yè)體制幾乎完全被有商業(yè)性內容審核需求的社交媒體公司所支配,在這種體制下,審核員的地位和薪酬通常比較低,比其他科技工作者,甚至是同一座大樓里的工作者都要低。

商業(yè)性內容審核對于互聯(lián)網作為自由表達空間的形象構成了直接的挑戰(zhàn)和沖擊。從事內容審核工作的人工決策者在社交媒體的生產流程中至關重要,但絕大部分用戶都看不見且不知道他們的存在。用戶們普遍覺得自己與平臺之間是一對一的關系,但審核員的隱秘存在破壞了這種令人覺得舒適平常的認知。

可惜的是,社交媒體以及商業(yè)化、規(guī)范化的互聯(lián)網離不開這種煩人的工作。商業(yè)性內容審核員的工作條件以及平臺對他們的依賴,構成了并不光彩的幕后圖景,很少有社交媒體公司、平臺和網站愿意公開討論它。

美國全國公共廣播電臺的記者麗貝卡赫舍(Rebecca Hersher)在早年調查這種規(guī);膬热輰徍斯ぷ鲿r曾試圖采訪微軟和谷歌的審核員,卻遭到了拒絕。在她2013年的報道《阻止兒童色情內容的幕后工作者》中,一位微軟方面的發(fā)言人輕描淡寫地將內容審核工作稱為“臟活”。

無論采用哪種用工方式和策略,在各個層面、在所有審核用戶生成內容的地方都有一些共同的特征。審核工作通常由半永久或臨時的合同工完成,他們的薪酬和地位都比較低。商業(yè)性內容審核是一個全球性的產業(yè)和實踐,這些工作通常會被拿到離內容創(chuàng)作或到達的地方(通常是某個國家或地區(qū))很遠的地方來處理。

紀錄片《網絡審查員》( Im Schatten der Netzwelt ,2018)畫面。

商業(yè)性內容審核除了需要大量的勞動力之外,并不需要特別高的技能,因為這只是一份重復性的無聊工作。隨著社交媒體公司在全球范圍內招募那些愿意從事數字計件工作的勞動者,審核員的薪酬甚至進一步降低了。由此看來,在線內容審核更像是在經歷一種反烏托邦式的、由技術進步導致的惡性競爭。

后工業(yè)時代的早期理論家曾經設想,從工業(yè)化的20世紀轉變?yōu)楹蠊I(yè)化的21世紀,美國勞動者可以獲得更大的靈活性和流動性、擁有地位更高的工作和更多的休閑時間。他們會利用從生產技能中鍛煉出來的分析力和技術力,在以知識為基礎的經濟中從事地位和薪酬較高的工作。

但是,對于由貝爾和在他之后的技術決定論未來主義者(technological deterministic futurist)提出的這個愿景,現實還在不斷地潑著冷水。21世紀的勞動力配置非但沒有提升全球勞動者的地位,反而引發(fā)了全球性的惡性競爭,為了在這個7天24小時不間斷運作的全球化市場中取得優(yōu)勢,人們不斷地尋求更便宜、響應更快、數量更多的人力資源和物質資源。

后工業(yè)時代的勞動經濟需要地理空間上的重組和人們的遷徙,如同邱林川等學者所指出的那樣,“靈活”通常等同于“缺乏保障”“不穩(wěn)定”和“邊緣化”。蒂齊亞納泰拉諾瓦曾說過,知識經濟之下的勞動可能不會像人們最初設想的那樣有趣。為了應對和改善當下社會經濟結構中的勞動問題,我們必須在全球范圍的各個層面上繼續(xù)揭示知識數字經濟下的勞動狀況和各種成本(比如環(huán)境成本)。

審核員無法影響審核標準

MegaTech(一家美國互聯(lián)網巨頭的化名)的審核員在審核內容時需要遵守一套內部政策,這些政策是由他們的上級一安全與政策部門(簡稱SecPol)的全職員工制定的。這些極其詳細的內部政策是商業(yè)性內容審核員判斷內容的標準,它們沒有向社會公開,而是作為商業(yè)機密在內部使用,服務于公司的品牌管理。保密的部分原因是防止不懷好意的用戶鉆空子,通過打擦邊球或者故意規(guī)避規(guī)則的方式在平臺上發(fā)布不良內容。

此外,披露商業(yè)性內容審核政策也會讓局外人獲悉公司審核員的工作性質。如果內部政策被曝光,觸發(fā)審核機制的內容種類也會被曝光,擁有光鮮形象的平臺就會暴露出它極其丑陋的一面,畢竟在人們眼中,平臺的功能是提供娛樂、樂趣和自我表達的渠道,用戶可以直接通過平臺將內容傳播到全世界。曝光內部政策還可能會引發(fā)關于政策所依據的價值觀的難題,審核員們肯定懂得這一點。

盡管MegaTech的名字本身就象征著互聯(lián)網,而且它擁有全球性的影響力和用戶群,但它關于用戶生成內容的政策是在特定的、少有的社會文化環(huán)境中制定出來的,即教育程度高、經濟發(fā)達、政治上信奉自由主義、種族單一的美國硅谷。公司的內部政策往往首先反映了公司對品牌保護的需求,同時它也是一種用鮮明的美國自由主義來解釋言論自由、信息自由等概念的機制。社會規(guī)范也是通過美國和西方文化的視角折射出來的,傾向于反映白種人的觀念。

因此,對于平臺所青睞的這些復雜的價值觀和文化體系而言,商業(yè)性內容審核員可以被理解為它們的載體和代理人,即使在公司的規(guī)則和審核員自身的價值觀相沖突的時候也是如此。馬克斯(一位受訪的審核員)解釋說:

“我們擁有逐條羅列、非常具體的內部政策。它們是保密的,否則人們就能很容易規(guī)避它們。我們會經常討論一些非常具體的內部政策,每周要和安全與政策部門開一次會。比如說,系統(tǒng)不會將涂黑臉(blackface)默認為仇恨言論,這總是讓我很惱火,讓我崩潰了差不多十次。我們開會討論政策時,平心而論,他們總是傾聽我的意見,從來不會禁止我發(fā)言。他們不同意我的看法,也沒有改變過政策,但總是讓我暢所欲言,真令人驚訝。就是這樣,我們用來審核視頻的內部政策有好幾十頁。”

他繼續(xù)解釋說,那些模糊的語言“從根本上說給了我們回旋的余地”。在MegaTech,關于內容刪除的內部政策會根據多方面的動態(tài)因素進行調整,包括面向所有用戶的社區(qū)準則、內容創(chuàng)作者對于未經同意發(fā)布內容的刪除請求,以及公司內部對社區(qū)準則的解釋。審核員需要遵守這些解釋,它們會經常變化。

紀錄片《網絡審查員》( Im Schatten der Netzwelt ,2018)畫面。

喬希(一位受訪的審核員)解釋說:“政策與社會氛圍息息相關,如果某樣事情在社會上變得可以接受,那么我們就會調整政策。政策還會根據全球的社會氛圍進行調整;旧希覀兊恼叨际菫榱吮Wo某類特定的群體。”

事實上,雖然有政策和規(guī)則存在,但一些群體還是能夠獲得MegaTech的特殊對待,因為他們有利于MegaTech的商業(yè)利益。他們通常是較大的“合作伙伴”,作為內容創(chuàng)作者,他們能夠為公司吸引大量用戶,從而為自己和平臺創(chuàng)造廣告收益。馬克斯介紹了這種關系:

“如果你是個非常優(yōu)秀的用戶,你可以申請合作伙伴計劃,這樣可以從廣告中賺取收益分成。合作伙伴可以直接聯(lián)系安全與政策部門和法律支持部門。有時候我們會遇到一個合作伙伴的違規(guī)視頻,通常來說我們應該刪除視頻并向他們的賬號發(fā)出警告,(按照規(guī)則)警告三次無效,賬號就會被封禁。但也許他們是重要的合作伙伴,公司不想封禁他們,所以我們會將視頻發(fā)送給安全與政策部門,讓他們去跟合作伙伴溝通。

我得說得清楚一些:他們不會讓這些視頻留在平臺上,他們會讓合作伙伴撤下視頻,并且會比政策頁面更詳細地說明這個視頻違反了哪些規(guī)則。據我所知,我們從來都不會為了合作伙伴而破壞規(guī)則。頂多是處理方式更靈活一些,但不會做出實質性的讓步,不會讓令人反感的內容留在平臺上。”

平臺上處于灰色地帶的內容和行為是MegaTech公司商業(yè)性內容審核工作持續(xù)面臨的挑戰(zhàn)。馬克斯介紹說,有一類內容使他特別苦惱,但它們又剛好沒有違背公司內部政策的字面含義。他們花了很大工夫來處理和評估這類內容。

紀錄片《網絡審查員》( Im Schatten der Netzwelt ,2018)畫面。

喬希是MegaTech的合同工而非全職員工,這種身份上的差別在內部政策制定中會有一定的影響。級別更高的安全與政策團隊和其他與審核相關的全職員工經常會表示,他們在制定未來政策或者對現有政策進行修改和微調時,會重視審核員們的意見。

但喬希覺得這只是在嘴上說說而已。雖然他對于不良內容和MegaTech的內部政策有專業(yè)的見解,但卻無力推動真正的改變,這讓他感到沮喪。造成這種境況的直接原因是公司的商業(yè)性內容審核員是有固定期限的合同工。

喬希這種審核員所做的工作幾乎完全是對內部政策的執(zhí)行,并沒有決定MegaTech平臺政策的能力,為此他們感到沮喪。

MegaTech公司也錯失了一個機會,如果它能夠尋求并重視內部審核員的反饋,就能夠查明許多情況,比如地區(qū)性政治沖突、違規(guī)行為的新發(fā)展趨勢,以及惡意用戶對平臺的狡猾操縱。但總體來說,它沒有這樣做。

他們是互聯(lián)網平臺的真實代價

有了這本書、其他學者的研究、許多記者的調查報道以及像《網絡審查員》這樣的藝術作品,事實上,我們已經不再能聲稱商業(yè)性內容審核是一種“看不見”的工作了。但它的地位和員工勞動條件必須要有所改變。我對社交媒體幕后的商業(yè)性內容審核的理解,影響了我自己在工作和休閑之余對社交媒體和各種數字平臺的參與。

商業(yè)性內容審核工作對于雇主和所有平臺的用戶都不可或缺,我希望可以通過發(fā)掘這些不為人知的中間工作者,來引出這樣一個問題:數字媒體的幕后還有哪些人存在?我確信我們對數字媒體當中廣泛存在的人為痕跡所知甚少,如果真的想衡量我們在數字平臺中逃避現實(escapism)所造成的影響,就必須了解得更多。數字平臺的特點是有趣、迷人、容易訪問、永遠在線,但我們卻不曾對它們的真實代價進行誠實的評估。

我們都身在其中,那些登錄臉書、上傳內容、在新聞下面評論、給帖子點贊和點踩的人,就是我們。作為人類,我們渴望獲得參與感和融入感,這種渴望創(chuàng)造了由商業(yè)性內容審核員來填補的商機,他們滿足了我們的需求。我常常會想起喬希桑托斯,他敏銳地發(fā)現了MegaTech上自殺傾向的問題,而這種傾向毫無疑問會自我延續(xù)下去,看不到解決的辦法。

如果公司搭建了那些平臺那些準備好被填滿、被重新命名、在全球網絡上傳播的空容器,我們就會蜂擁而至。我們會把我們的用戶生成內容、偏好、行為、人口特征和欲望填充在里面。我們與商業(yè)性內容審核的聯(lián)系甚至比與平臺更加直接,畢竟觸發(fā)MegaTech商業(yè)性內容審核流程的就是舉報視頻的用戶。審核的對象也是用戶生成的內容。除非我們離開平臺或者與平臺重新商討雙方的關系,否則作為用戶的我們也許才是社交媒體生產周期中最關鍵的部分,因為我們是內容的生產者,也是永不饜足的消費者。

商業(yè)性內容審核員使平臺變得舒適有趣,他們是我們看不見的合作伙伴,和我們有著共生的關系,類似于陰和陽。他們對內容進行平衡和展示,努力讓我們在網絡活動中感到輕松愉悅,讓我們流連忘返。

我們可以點贊、舉報、分享視頻,但是,我們的參與是一種自由意志的假象,我們正處于一系列不斷縮孝不斷分隔的封閉空間中,這些空間受到社群規(guī)則和服務條款的約束,其中的人工干預被保密協(xié)議所隱藏,人為痕跡一旦顯露出來,就會被當做系統(tǒng)中的異常錯誤而被清除。這本書跟人類活動相比雖然微不足道,但我希望它能夠將這些人為痕跡發(fā)掘出來,就像書籍掃描頁面中誤入的手指一樣。

商業(yè)性內容審核員的工作條件有可能得到改善嗎?在計算能力和計算機視覺產生飛躍式發(fā)展之前,在可預見的未來,審核工作仍然需要人類介入。即使到了那個時候,人力勞動可能仍然是首選,它會沿著全球化的軌跡,轉移到擁有大量廉價勞動力資源的地方。

紀錄片《網絡審查員》( Im Schatten der Netzwelt ,2018)畫面。

商業(yè)性內容審核員對每條用戶生成內容都要做出一系列決策,其復雜程度是任何算法和過濾器都難以完成的。文化上的細微差別和語言上的特殊性更是加大了這種難度。人類大腦是無與倫比的超級計算機,儲存著海量的文化知識和生活經驗數據,而我們的思維相當于復雜的意義識別軟件,因此人類員工在成本和能力上仍然優(yōu)于任何機器。

承載用戶生成內容的社交媒體平臺沒有顯示出任何即將消失的跡象,反而隨著移動設備的普及和全球聯(lián)網人數的增加而繼續(xù)發(fā)展。人性也不太可能發(fā)生什么改變。所以商業(yè)性內容審核的需求將繼續(xù)存在。

這種工作的地位很低,經常會被種種方式所掩蓋,它還會使員工接觸到人性陰暗齷齪的一面,幾乎肯定會導致精神上的損害,但還是會有人愿意從事這種工作。我要感謝所有從事這份工作的商業(yè)性內容審核員,因為我很慶幸做這些工作的不是自己。我希望他們可以離開陰影處,從屏幕后面走出來,走到有光亮的地方來。

原文作者/[美]莎拉羅伯茨

摘編/荷花

編輯/荷花

導語部分校對/柳寶慶

贊助本站

人工智能實驗室
AiLab云推薦
推薦內容
展開

熱門欄目HotCates

Copyright © 2010-2024 AiLab Team. 人工智能實驗室 版權所有    關于我們 | 聯(lián)系我們 | 廣告服務 | 公司動態(tài) | 免責聲明 | 隱私條款 | 工作機會 | 展會港