(受到一位朋友啟發(fā),意識(shí)到保持輸出是一種很好的學(xué)習(xí)方式。新聞與傳播專業(yè)有大量分析與評(píng)論的題目,僅在此作為練習(xí)。此前從未接觸過(guò)這方面知識(shí),瞽言芻議,不要見(jiàn)笑)
Facebook扎克伯格宣布將會(huì)雇傭3000名員工處理網(wǎng)站上不良內(nèi)容。他們會(huì)監(jiān)控Facebook的所有內(nèi)容,不只是直播視頻。
Facebook上為何會(huì)有大量不良內(nèi)容
Facebook作為社會(huì)化媒體,融人際傳播、群體傳播、大眾傳播等傳播類型于一體,同時(shí)擁有龐大的、彼此相連的用戶群體,使信息能夠迅速、廣泛的大面積覆蓋。而海量的信息中泥沙俱下,一一核實(shí)要求極高的成本與技術(shù)支持,造成了平臺(tái)中的內(nèi)容良莠不齊。
社會(huì)化媒體中信息接收者同時(shí)也是信息生產(chǎn)與傳播者,去中心化的傳播機(jī)制也意味著專業(yè)媒體機(jī)構(gòu)、專業(yè)組織的話語(yǔ)權(quán)被不同程度解構(gòu),把關(guān)權(quán)力泛化,信息的篩選機(jī)制發(fā)生了變化,用戶的投票、轉(zhuǎn)發(fā)量決定了一條消息被關(guān)注的程度。但多數(shù)人的意志不一定指向正確的方向,炒作、水軍、自動(dòng)發(fā)帖器的干擾也會(huì)營(yíng)造出虛假的信息環(huán)境。
社會(huì)化媒體具有交流結(jié)構(gòu)上的開(kāi)放性,每個(gè)人都是一個(gè)節(jié)點(diǎn),每個(gè)節(jié)點(diǎn)與其他節(jié)點(diǎn)相連通,既保證個(gè)人中心又可以將外界的信息隨時(shí)隨地的吸收進(jìn)來(lái),更容易形成持續(xù)刺激。轉(zhuǎn)發(fā)的簡(jiǎn)便性促進(jìn)了信息的“病毒式傳播”,所以一條不良內(nèi)容可以裂變式傳播到更大范圍中。
盡管Facebook對(duì)用戶采取實(shí)名制,但社會(huì)化媒體中的關(guān)系畢竟不同于現(xiàn)實(shí)社會(huì),心理上的“匿名”與互動(dòng)方式的符號(hào)化會(huì)使人們傾向于忽視現(xiàn)實(shí)社會(huì)的約束,傳播不良信息。而用戶的媒介素養(yǎng)不夠使他們?nèi)菀资艿将C奇、盲從等心里的影響,輕信并對(duì)不良內(nèi)容進(jìn)行二次傳播。
此外,F(xiàn)acebook并非專業(yè)媒體,其管理者可能也不是專業(yè)媒體從業(yè)人員,缺乏專業(yè)素質(zhì)與職業(yè)道德標(biāo)準(zhǔn),在商業(yè)利益的驅(qū)動(dòng)下,難以做到經(jīng)濟(jì)與責(zé)任的平衡。
Facebook為何要對(duì)不良內(nèi)容進(jìn)行處理
首先可能會(huì)損害用戶知情權(quán),平臺(tái)被大量不實(shí)、低俗、娛樂(lè)化的信息充斥,使用戶難以獲得真正有價(jià)值的信息。其次,造成文化消費(fèi)的媚俗、低級(jí)敗壞了大眾的品味和文化修養(yǎng)。第三,可能會(huì)誤導(dǎo)受眾,使其無(wú)法對(duì)現(xiàn)實(shí)世界做出正常的判斷,也分散了他們對(duì)真正重要的社會(huì)信息的注意力。第四,媒體容易被利益集團(tuán)操控,不利于良好網(wǎng)絡(luò)秩序的建設(shè)。由此帶來(lái)的聲譽(yù)下滑與用戶流失將直接影響其日后的發(fā)展。
Facebook為何要引入人工處理
Facebook此前嘗試過(guò)用算法把關(guān)和社交把關(guān)來(lái)處理不良內(nèi)容,但效果并不理想。算法看上去是機(jī)器的力量,但決定算法的是人。人的失誤會(huì)帶來(lái)算法的偏差。其常見(jiàn)陷阱之一,是它會(huì)帶來(lái)偏見(jiàn)與歧視,而且是采用更隱蔽的方式。機(jī)器算法之下的擬態(tài)環(huán)境未必會(huì)更接近真實(shí)社會(huì)。另外,內(nèi)容與特定接受者之間“算法為媒”進(jìn)行匹配,可能會(huì)來(lái)帶信息繭房效應(yīng)。應(yīng)警惕機(jī)器算法與個(gè)人興趣雙重過(guò)濾下人們對(duì)外界認(rèn)識(shí)與判斷產(chǎn)生的偏差。
社交把關(guān)也有問(wèn)題。首先是用戶媒介素養(yǎng)問(wèn)題,難以辨別不良信息和用戶本能的獵奇與媚俗心理將成為社交把關(guān)的障礙。而社會(huì)化媒體的高聚類系數(shù),使觀點(diǎn)、興趣相近的用戶密集聚合,回音壁效應(yīng)更加明顯,造成群體極化。人們只選擇與自己態(tài)度相近的聲音,意見(jiàn)趨于極端,反而可能助長(zhǎng)不良信息。
由此,人的價(jià)值得到凸顯。
人工把關(guān)應(yīng)注意哪些問(wèn)題
Facebook并非專業(yè)媒體,那么他們的員工按照怎樣的原則來(lái)篩選就值得探討。一方面,監(jiān)測(cè)所有內(nèi)容是否會(huì)造成用戶數(shù)據(jù)泄露,侵犯?jìng)€(gè)人隱私。另一方面,人工把關(guān)下如何保證用戶的表達(dá)權(quán)。或許這些人員也應(yīng)該接受類似新聞教育的培訓(xùn)和監(jiān)督,使其更好地履行責(zé)任。
(本文為了考試而練習(xí),是在閱讀過(guò)參考書(shū)目的基礎(chǔ)上運(yùn)用書(shū)中的知識(shí)寫(xiě)成的,與純粹原創(chuàng)文章有別,如有侵權(quán)內(nèi)容,將及時(shí)刪除)