Deel dit artikel
-

Electronic Frontier Foundation wil dat Apple stopt met fotodetectie

De Electronic Frontier Foundation wil dat Apple helemaal gaat stoppen met het scannen van foto’s van gebruikers op ongepaste content.

Het bedrijf heeft de plannen voor CSAM scanning (Child Sexual Abuse Material) al uitgesteld, maar de EFF wil ze definitief van tafel gaan.

De technologie was vooral bedoeld om kinderen te beschermen tegen exploitatie. Apple gebruikt intelligentie om foto’s te vergelijken met een database van reeds bekende foto’s. Deze gegevens worden versleuteld.

Een verdacht account zal direct worden geblokkeerd na een handmatige inspectie. Gebruikers kunnen protest aantekenen.

Maar experts vrezen dat de controle wel eens verder zou kunnen gaan, terwijl Apple zich al jarenlang inzet voor de privacy van gebruikers.

Deel dit bericht

Plaats een reactie

Uw e-mailadres wordt niet op de site getoond