アップルがiCloud上の児童虐待画像を検出する新技術「NeuralHash」導入へ

アップルがiCloud上の児童虐待画像を検出する新技術「NeuralHash」導入へ

 Appleは、児童性的虐待素材(CSAM)の検出は同社のサービスを使用する子どもたちをオンライン危害から守ることを目的とした新機能の一環であるとTechCrunchに語った。子どものiMessageアカウントを通じて送受信される性的に露骨な画像をブロックするフィルターもその1つだ。 Read More
続きはこちら!