Tumblr自動檢測演算法錯給一些無害內容打上色情標籤
據外媒報道,今天早些時候,Tumblr宣佈將從12月17日起禁止該平臺上的所有成人內容。不過這家公司的自動檢測演算法卻遭到了長期使用者的批評,因為這些演算法似乎錯誤地將一些無害的影象也標記為了色情影象。對此,Tumblr要求使用者在本月晚些時候禁令生效之前提出上訴,然而這些不準確之處仍舊在使用者中引發了擔憂,即對此類內容的全面禁令可能會犧牲掉一些無害的帖子並在創作者和Tumblr平臺之間繼續製造隔閡。
據瞭解,這些演算法原本是安全模式的一部分,但現在則完全被成人內容禁止工具所取代。禁令包含所有露骨的性內容和裸體,不過有少數例外如母乳餵養和裸體經典雕像等。
從技術上來講,任何以性行為為主題的插畫都是被禁止的,但裸體插畫則可以。不過Twitter和其他論壇上湧現出的一系列例子還是突顯出了這個底層軟體是如何犯下嚴重錯誤的。
但看起來Tumblr似乎也預見了這些會出現的錯誤。這家公司CEO Jeff D'Onofrio在部落格中表示:“我們依靠自動化工具來識別成人內容和人以此來幫助培訓和控制我們的系統。我們知道會出現錯誤。”Tumblr的職工帖子則進一步解釋稱:“電腦在縮放過程中會做得比人類更好--我們需要它們來完成這個--但它們在作出細微差別、與環境相關決定方面卻不如人類。”這家公司表示,這將是一個不斷髮展的過程,他們承諾將讓事態朝好的方面發展。