Apple ka njoftuar detajet e një sistemi për të gjetur materialin e abuzimit seksual të fëmijëve (CSAM) në pajisjet e klientëve. Para se një imazh të ruhet në iCloud Photos, teknologjia do të kërkojë përputhje të CSAM -it të njohur tashmë. Apple tha se nëse gjendet një përputhje, një shqyrtues njerëzor do të vlerësojë dhe raportojë përdoruesin në zbatimin e ligjit. Megjithatë, ka shqetësime për privatësinë se teknologjia mund të zgjerohet për të skanuar telefonat për përmbajtje të ndaluar apo edhe fjalime politike. Ekspertët shqetësohen se teknologjia mund të përdoret nga qeveritë autoritare për të spiunuar qytetarët e saj. Apple tha se versionet e reja të iOS dhe iPadOS, që do të dalin më vonë këtë vit, do të kenë “aplikacione të reja të kriptografisë për të ndihmuar në kufizimin e përhapjes së CSAM në internet, ndërsa dizajnojnë për privatësinë e përdoruesit”. (A2 Televizion)
Abuzimi seksual me fëmijët, Apple do të skanojë Iphone-t, shqetësime për privatësinë
