Overblog
Editer l'article Suivre ce blog Administration + Créer mon blog

          Global Informatique Securite

Global Informatique Securite

Suivez les dernières actualités, sécurité informatique "Bugs & failles". Tenez-vous Informé des dernières Technologies et Optimisation système


Siri vous enregistre et les contractants l'entendent

Publié par ANNA WASHENKO Adapation Yomane sur 27 Juillet 2019, 06:35am

Catégories : #Assistant Vocal, #Apple, #Sécurité, #Confidentialité, #Intelligence Artificielle

PUBLIC VISE IPHONE SIRI

Les assistants vocaux gagnent en popularité, mais la technologie connaît une augmentation parallèle des préoccupations concernant la confidentialité et la précisionSiri d'Apple est le dernier en date à entrer dans cet espace gris de technologie. Cette semaine, The Guardian a indiqué que les sous-traitants qui examinent les enregistrements Siri pour en vérifier l'exactitude et apporter des améliorations peuvent être des conversations personnelles.

L'un des contractuels a déclaré au Guardian que Siri enregistrait parfois des enregistrements audio après des activations erronées. Le mot de réveil est la phrase "hé Siri", mais la source anonyme a déclaré qu'il pourrait être activé par des mots similaires ou par le bruit d'une fermeture à glissière. Ils ont également déclaré que lorsqu'une Apple Watch est déclenchée et qu'une parole est détectée, Siri s'active automatiquement.

 "Il y a eu d'innombrables exemples d'enregistrements comportant des discussions privées entre médecins et patients, des accords commerciaux, des relations apparemment criminelles, des relations sexuelles, etc.", a déclaré la source. "Ces enregistrements sont accompagnés de données utilisateur indiquant l'emplacement, les coordonnées et les données d'application."

Apple a indiqué qu'elle prenait des mesures pour empêcher les utilisateurs d'être connectés aux enregistrements envoyés aux sous-traitants. L'audio n'est pas lié à un identifiant Apple et moins de 1% des activations quotidiennes de Siri sont examinées. Il établit également des exigences de confidentialité pour ces contractuels. Nous avons demandé à Apple de commenter davantage et mettrons à jour l'histoire si nous la recevons.

Apple, ainsi que Google et Amazon, appliquent des règles similaires pour les contractuels qu’elle embauche pour réviser ces extraits audio. Mais les trois responsables de l'IA vocale ont également fait l'objet d'atteintes à la vie privée similaires, que ce soit par des lanceurs d'alerte qui se tournent vers la presse ou par des erreurs qui donnent aux utilisateurs accès à des fichiers audio incorrects.

Les sociétés de technologie ont également toutes fait l’objet d’enquêtes sur des plates-formes vocales enregistrant des conversations qu’elles n’étaient pas supposées faire. Amazon a récemment décrit ses politiques en matière  de conservation et de révision des enregistrements en réponse aux questions du sénateur Chris Coons (D-Delaware). Un dénonciateur d' un fournisseur de Google a déclaré que des travailleurs avaient entendu des conversations entre parents et enfants, des informations personnelles et identifiantes et au moins un cas d'agression sexuelle possible.

Ces cas soulèvent une série de questions. Que peuvent faire Apple et ses collègues pour mieux protéger la confidentialité des utilisateurs lorsqu'ils développent leurs systèmes vocaux? Les utilisateurs doivent-ils être avertis lorsque leurs enregistrements sont examinés? Que peut-on faire pour réduire ou éliminer les activations accidentelles? Comment les entreprises doivent-elles gérer les informations accidentelles que leurs sous-traitants entendent? Qui est responsable lorsqu'une activité dangereuse ou illégale est enregistrée et découverte, le tout par accident?

Les assistants vocaux semblent constituer un autre cas où une technologie a été développée et adoptée plus rapidement que ses conséquences n’ont été pleinement réfléchies.

 

Source :arstechnica

---***---

Pour être informé des derniers articles, inscrivez vous :

Commenter cet article

Archives

Nous sommes sociaux !

Articles récents