中國日報網(wǎng)10月7日電 蘋果近期發(fā)布了三項保護兒童安全的新功能,其中一項為"信息通信安全",會掃描13歲以下用戶的iMessages,識別和模糊化色情圖片,并在孩子打開或發(fā)送含有此類圖片的信息時提醒父母。乍聽之下,這可能會是保護兒童不受性侵的一個好方法,事實上,這種方法可能會得不償失。
雖然所有的父母都希望孩子安全,但對許多孩子來說,這是不現(xiàn)實的。尤其是LGBTQ+的青少年面臨著父母實施暴力和虐待的危險,離家出走的可能性是其他青少年群體的兩倍,而這一類孩子占總寄養(yǎng)人數(shù)的三成。此外,他們更有可能因缺乏性教育而發(fā)送露骨圖片。一旦父母發(fā)現(xiàn)了這些短信,就會暴露孩子們的性偏好,可能會導(dǎo)致兒童遭受家庭暴力,甚至無家可歸。
由于這一功能所依托的技術(shù)在檢測有害圖像方面不太可能特別準(zhǔn)確,因此此功能的弊也許會大于利。據(jù)稱,蘋果將使用“設(shè)備上的機器學(xué)習(xí)來分析圖像,并確定照片是否具有性暗示”。由13歲以下的用戶持有的蘋果賬戶發(fā)送或接收的所有照片都將被掃描,如果該賬戶與指定的父母賬戶相連,則將向家長發(fā)送通知。
目前還不清楚這種算法的效果,也不清楚它能準(zhǔn)確檢測到什么。一些性暴露內(nèi)容的檢測算法是根據(jù)皮膚顯示的百分比來標(biāo)記內(nèi)容的。例如,該算法可能標(biāo)記出一對穿著泳衣的母女在海灘上的照片。如果兩個年輕人互相發(fā)送一張衣著暴露的名人照片,蘋果就可能向他們的父母發(fā)送通知。
計算機視覺存在眾所周知的難題,而現(xiàn)有的算法(如檢測人臉的算法)有諸多缺點,包括經(jīng)常無法檢測到非白人的臉。蘋果的系統(tǒng)出現(xiàn)誤差的風(fēng)險特別高,因為大多數(shù)學(xué)術(shù)界發(fā)表的裸體檢測算法都是以成年人的圖像作為檢測對象的。蘋果沒有提供任何有關(guān)所使用算法的詳細信息,所以不知道效果如何,特別是在檢測年輕人自己拍攝的圖像方面。
這些算法準(zhǔn)確性的問題令人擔(dān)憂,因為它們有可能對年輕人產(chǎn)生誤導(dǎo)。當(dāng)人們過分熱衷于判定行為“壞”或“危險”時——甚至是青少年之間分享泳裝照片,會干擾年輕人的判斷能力,讓他們無法察覺真正什么對他們真正有害。
事實上,這個功能還告訴年輕人,他們沒有隱私權(quán)。剝奪年輕人的隱私和同意權(quán),與聯(lián)合國兒童基金會關(guān)于防止在線和離線兒童性剝削和虐待的循證指南所建議的完全相反。此外,這一功能不僅會造成傷害,還會讓私人談話暴露在光天化日之下,包括政府的監(jiān)視。
在設(shè)計技術(shù)以保護年輕人的網(wǎng)絡(luò)安全方面,需要做得更好,并從讓可能受傷害的人自己參與安全系統(tǒng)的設(shè)計開始。讓受技術(shù)影響最大的人參與進來,是防止傷害和讓技術(shù)更有效的解決途徑。到目前為止,青少年還沒有成為技術(shù)企業(yè)或研究人員所考慮的因素。
必須記住,單憑技術(shù)不能解決社會問題。重要的是將資源和努力集中在預(yù)防有害情況的發(fā)生上。例如,通過遵循聯(lián)合國兒童基金會的指導(dǎo)方針和基于研究的建議,推進實施全面的、人們同意的性教育計劃,可以幫助青少年安全地了解性行為,培養(yǎng)健康的性觀念。
(編譯:金怡蘿 編輯:王旭泉)