Alexa respecte-t-elle la vie privée ?

Alexa et la protection des données
Catégories :

Protection des données avec Alexa Amazon : Quel est notre niveau de sécurité ?

Alexa est l'assistant vocal numérique d'Amazon, dont le logiciel est intégré dans des dizaines de haut-parleurs intelligents (p. ex. Amazon Echo, Echo Dot). Alexa dispose d'une série de fonctionnalités et de capacités, parmi lesquelles le contrôle et la coordination de la maison intelligente, la gestion des listes de choses à faire, la lecture de musique ou de livres audio, le shopping sur Amazon ou la recherche d'informations ou d'événements d'actualité. Outre tous les avantages d'une maison intelligente, la question de la compatibilité entre Alexa et la protection des données ou la protection des données Alexa Amazon se pose de plus en plus.

Alors que les assistants vocaux sont de plus en plus présents dans de nombreux foyers, la question de l'intrusion dans la vie privée et de la protection des données d'Alexa se pose de plus en plus.

Pour pouvoir exécuter les commandes vocales, Alexa doit pouvoir les entendre et les reconnaître. C'est pourquoi elle a toujours une oreille ouverte pour pouvoir réagir à d'éventuelles commandes vocales. Dans la pratique, les microphones sont activés en permanence pour qu'Alexa puisse réagir au code d'activation (p. ex. "Alexa"), ce qui résout le traitement de la commande vocale. Les informations ne sont traitées et transmises aux serveurs backend d'Amazon qu'après la prononciation du code d'activation.

Du point de vue de la protection des données d'Alexa, il existe toujours un risque d'activation involontaire de la transmission de données en prononçant un mot similaire au code d'activation correct (par exemple "Alexandre" au lieu de "Alex"), ce qui pourrait entraîner une intrusion involontaire dans la vie privée des personnes écoutées (l'utilisateur d'Alexa, ses invités ou ses cohabitants). Les centres de consommateurs ont déjà attiré l'attention sur ces problèmes et ces risques dans une vaste enquête / étude[1].

Une préoccupation concernant l'utilisation de l'assistant vocal concerne également le contrôle que les personnes concernées ont sur leurs données. Conformément au Consid. 7 du RGPD, les personnes concernées doivent avoir le contrôle de leurs propres données. Compte tenu de la quantité, de la sensibilité (la "voix" est un fichier biométrique au sens de l'article 9 du RGPD) et de l'interconnexion des données traitées, des finalités initiales et ultérieures du traitement (par exemple, l'exécution de la commande, l'amélioration du service, la création de profils d'utilisateur personnalisés), du nombre de personnes impliquées dans le traitement des données (le fournisseur et les tiers), les personnes concernées pourraient perdre le contrôle de leurs données.

Il est donc extrêmement important de respecter les principes de protection des données (minimisation des données, limitation du stockage, limitation des finalités) et de permettre aux personnes concernées d'exercer leurs droits en matière de protection des données, notamment le droit d'accès et le droit à l'effacement. Les enregistrements vocaux peuvent déjà être gérés par les personnes concernées dans l'application Alexa (accès aux données enregistrées ; possibilité d'effacer automatiquement les données ou de fixer une durée de conservation limitée, etc.)

Afin de permettre une utilisation des assistants vocaux respectueuse de la vie privée, le Comité européen de la protection des données[2] ("CEPD") et l'autorité de contrôle française[3] ont publié les principaux défis liés à la conformité au RGPD et formulé des recommandations. Alexa et la protection des données ou la protection des données Alexa Amazon vont donc très bien ensemble sous certaines conditions.

 

Sources : 

  1. [1] Centre de protection des consommateurs, "En sourdine ou à l'écoute ? Protection des données avec Amazon Echo et Google Home", mars. www.verbraucherzentrale.de/sites/default/files/2019-11/hintergrundpapier_digitale_sprachassistenten_technisch_2.pdf
  2. [2] Comité européen de la protection des données, Guidelines 02/2021 on virtual voice assistants, 7 juillet 2021. edpb.europa.eu/system/files/2021-07/edpb_guidelines_202102_on_vva_v2.0_adopted_en.pdf
  3. [3] CNIL, Exploration des enjeux éthiques, techniques et juridiques des assistants vocaux, septembre 2020. www.cnil.fr/sites/default/files/atoms/files/cnil_livre-blanc-assistants-vocaux.pdf
Les tags :
Partager ce post :
fr_FRFrench