Protection des enfants / CSAM : un actionnaire d’Apple exige davantage de surveillance – Mac4Ever.com

Ainsi, le gestionnaire du fonds, Jeff McCroy, a envoyé en août une lettre à Apple (via Bloomberg) pour demander des mesures spécifiques concernant les vidéos CSAM. Il indique ainsi que « le secteur de la technologie dans son ensemble a mis du temps à résoudre ce problème important », précisant que les entreprises devraient partager des technologies d’intelligence artificielle et d’autres outils pour lutter contre les vidéos contenant des images de violence sexuelle.

Selon lui, l’attitude à adopter est évidente : « C’est décevant d’apprendre qu’Apple retarde ses efforts de changement. Plus il faut de temps pour agir, plus les enfants risquent d’être exposés et blessés. Nous espérons qu’Apple accélérera ces améliorations prévues et prendra des mesures le plus tôt possible ».

Rappelons qu’en effet, Cupertino a décidé de « prendre plus de temps au cours des prochains mois pour recueillir des commentaires et apporter des améliorations », au vu des protestations assez importantes. Les fonctionnalités présentées fin août prévoient la numérisation des bibliothèques de photos iCloud des utilisateurs à la recherche de matériel d’abus sexuel d’enfants, le renforcement de la sécurité des communications pour avertir enfants et parents lors de la réception / envoi de photos sexuellement explicites, et ainsi que l’élargissement des directives CSAM via la recherche Siri .

Soyez le premier à commenter

Laisser un commentaire