fb準則曝光放生自殘虐兒片

全球擁有20億用戶的社交網站facebook(fb),因沒致力監管涉及暴力等冒犯性內容,包括近期頻頻出現的殺人及自殺直播,備受各方批評。英國《衛報》取得fb內部文件,公開fb就如何管理帶有歧視、色情、暴力等內容的指引。不過,部分指引被形容為前後矛盾、難以理解,界線如何定斷惹來各方質疑。

有關文件包括逾100份內部培訓手冊、電子表格和流程圖,指引範疇甚至涉及比賽造假及食人肉等情況。文件顯示,由於美國總統特朗普為國家元首,屬於受保護範圍,當有人在fb表示要「槍斃特朗普」,內容均會被刪除。不過,用戶卻可表達「折斷那壞女人的頸」及「滾開,去死吧」,因這些言論不被視為實質性威脅。

危害觀眾會刪 具新聞價值保留

至於牽涉有人死於非命,包括意外、自殺及謀殺的影片,雖然會標籤為令人不安,但不一定會被刪除,因fb認為這可提高人們對這些突發事件的意識,例如精神病引發自殺的問題。至於虐打和欺凌兒童的照片,除非牽涉性虐待,否則未必會刪除。

fb亦容許用家在網上直播自殘過程,原因是不想審查或懲罰受困擾的人,加上專家曾建議,自殘人士一直和觀眾在網上互動,可以確保安全。不過,fb同時指出,自殘影片會引發別人仿傚,若無法幫助他們打消念頭,為顧及觀眾安危,也會刪除影片,但影片具新聞價值則另當別論。文件顯示,管理人員曾在兩周內上報4,531宗自殘個案。

fb在文件中承認,網民使用強烈措辭以表達不滿情緒,並認為不用就言論負責,即使向別人作出威脅也當平常。fb全球政策主管比克特同時為指引護航,指fb用戶數目龐大,難以就他們的內容作分類,必然有灰色地帶,故fb會致力提供安全的網絡環境,就違規內容作出舉報的人也會被授予更大權力。

此外,fb管理人員每周要處理650萬個假賬號的舉報,使他們疲於奔命,經常只有10秒時間決定內容去留。fb現有4,500名內容管理人員,並計劃增聘3,000人。

公開指引可減種族歧視言論

fb被批評為假新聞溫床,且充斥侮辱女性和種族歧視言論,有意見認為,原因在於fb一直不肯公開構成違規內容的指引,致透明度不足,令用戶無所適從,今次文件曝光後,用家可以得知fb規定,公眾亦可展開討論,以改善指引。 ■《衛報》/《泰晤士報》

© 2017, 免責聲明:* 文章不代表本網立場,如有侵權,請盡快聯繫我們 info@uscommercenews.com * 讀者評論僅代表其個人意見,不代表本網立場。評論不可涉及非法、粗俗、猥褻、歧視,或令人反感的內容,本網有權刪除相關內容。.