隨著AI人工智慧越來越新進,倫敦警方表示未來兩三年內將開始利用圖像辨識技術來偵測虐兒事件。不過就目前來看,這項技術的實用性尚未明朗,因為系統連裸體和沙漠 (如下圖) 之間的差異都還分不出來:
倫敦市警電子辦案部門組長Mark Stokes表示:「有時它 (系統) 會把一張無傷大雅的沙漠照片判定為猥褻影像。」
「基於某些原因,有許多人會用沙漠照片當螢幕保護裝置,結果就這樣被系統判定為膚色。」
冰冷的系統也缺乏情理法、法理情的概念,例如去年臉書的自動辨識系統就強制移除了下圖這張贏得普立茲獎的越戰照片,只因照片包含一名裸身女孩,就被自動演算法判定為「猥褻」。經多人抗議後,臉書官方終於解除了該圖的封鎖,並承認這不是一張兒童色情照片。
AI行車辨識技術:
參考資料:9GAG
布編:臉書別再打壓人了…QQ
(往下還有更多精彩文章!)