Que fait l’IA d’Apple avec vos données

Que fait l’IA d’Apple avec vos données ?

L’annonce éclatante d’Apple lors de la Worldwide Developers Conference cette semaine, selon laquelle elle ajouterait de l’intelligence artificielle à ses produits et s’associerait à OpenAI, le créateur de ChatGPT, a soulevé de nombreuses questions sur le fonctionnement des offres d’IA d’Apple.

La confusion est compréhensible. Apple lance simultanément une suite propriétaire de modèles d’IA tout en intégrant ChatGPT dans ses appareils et logiciels. Il est donc naturel de se demander où l’un finit et où l’autre commence et – peut-être plus urgent encore – ce que les deux entreprises feront des informations personnelles qu’elles reçoivent des utilisateurs.

Les enjeux sont particulièrement élevés pour Apple, une entreprise qui a fait de la sécurité et de la confidentialité une marque de fabrique de sa marque.

Voici ce que nous savons.

La différence entre Apple Intelligence et ChatGPT
Si Apple a sa propre IA, pourquoi a-t-elle besoin de ChatGPT ? La réponse est que chacune est censée faire des choses différentes.

Que fait l’IA d’Apple avec vos données

Apple Intelligence, le nom de marque collectif de tous les outils d’intelligence artificielle d’Apple, est destiné à être davantage un assistant personnel qu’autre chose, en mettant l’accent sur le « personnel ». Il recueille des informations spécifiques sur vos relations et vos contacts, les messages et les e-mails que vous avez envoyés, les événements auxquels vous avez assisté, les réunions de votre calendrier et d’autres éléments de données très individualisés sur votre vie. Et il utilise ensuite ces données pour, espère Apple, vous faciliter un peu la vie, en vous aidant à retrouver une photo que vous avez prise lors d’un concert il y a des années, à trouver la bonne pièce jointe à mettre dans un e-mail ou à classer vos notifications mobiles par priorité et urgence.

Mais si Apple Intelligence sait que vous êtes parti en randonnée l’année dernière, il lui manquera ce que les dirigeants de l’entreprise appellent la « connaissance du monde » – des informations plus générales sur l’histoire, les événements actuels et d’autres choses qui sont moins directement liées à vous. C’est là qu’intervient ChatGPT. Les utilisateurs pourront demander à Siri de transmettre des questions et des invites à ChatGPT sur la base du consentement – ​​ou de demander à ChatGPT de vous aider à rédiger des documents dans les applications Apple. Apple a déclaré qu’il prévoyait également d’intégrer d’autres modèles d’IA tiers à terme. L’intégration supprime essentiellement une étape pour accéder à ChatGPT et offre aux utilisateurs d’Apple une rampe d’accès plus transparente à cette plateforme.

Qu’est-ce que cela signifie pour mes données ?


Étant donné qu’Apple Intelligence et ChatGPT seront utilisés à des fins très différentes, la quantité et le type d’informations que les utilisateurs envoient à chaque IA peuvent également être différents.

Apple Intelligence aura accès à un large éventail de vos données personnelles, de vos communications écrites aux photos et vidéos que vous avez prises en passant par un enregistrement des événements de votre calendrier. Il ne semble pas y avoir de moyen d’empêcher Apple Intelligence d’accéder à ces informations, à moins de ne pas utiliser ses fonctionnalités ; un porte-parole d’Apple n’a pas immédiatement répondu aux questions sur ce sujet.

ChatGPT n’aura pas nécessairement ou automatiquement accès à vos informations très personnelles, bien que vous puissiez choisir de partager certaines de ces données et plus encore avec OpenAI si vous décidez d’utiliser ChatGPT via Apple. Dans la démo de lundi, Apple a montré à Siri la permission d’envoyer une invite à ChatGPT avant de le faire.

Dans le cadre de son accord avec Apple, OpenAI a fait une concession importante : OpenAI a accepté de ne pas stocker les messages des utilisateurs d’Apple ni de collecter leurs adresses IP, même si tout est possible si vous décidez consciemment de vous connecter et de connecter un compte ChatGPT existant. Certains utilisateurs peuvent choisir de le faire pour profiter de leur historique ChatGPT ou des avantages associés aux forfaits de compte payants de ChatGPT.

Faut-il faire confiance à Apple avec vos données ?


Maintenant que nous avons établi ce qu’OpenAI fera et ne fera pas avec vos données, qu’en est-il d’Apple ?

Alors que les utilisateurs d’Apple devront envoyer leurs informations personnelles et leurs requêtes d’IA à OpenAI s’ils veulent utiliser ChatGPT, Apple a déclaré que la plupart du temps, Apple Intelligence n’enverra pas de données utilisateur où que ce soit. Dans la mesure du possible, Apple essaiera de traiter les messages d’IA directement sur votre appareil à l’aide de modèles d’IA plus petits.

Cela ressemble à la façon dont Apple traite déjà FaceID et d’autres données sensibles, l’idée étant que le traitement des données directement sur l’appareil limite l’exposition aux risques. Vos données ne peuvent pas être interceptées ou piratées à partir d’un serveur central si elles ne vont nulle part.

Si votre tâche d’IA nécessite plus de puissance de traitement, Apple Intelligence enverra votre requête et vos données à une plate-forme de cloud computing contrôlée par Apple, où un modèle d’IA plus performant répondra à la demande.

C’est là qu’Apple affirme avoir réalisé une avancée majeure en matière de confidentialité. L’annonce de l’entreprise a reçu relativement peu de temps d’antenne lors de son discours d’ouverture bien rempli de lundi, mais l’entreprise est manifestement fière de l’avancée qu’elle a clairement planifiée avec soin.

Apple a déclaré lundi avoir développé une nouvelle façon de faire du cloud computing qui signifie qu’Apple peut exécuter des calculs sur des données sensibles tout en garantissant que personne, pas même l’entreprise elle-même, ne peut savoir quelles données sont traitées ou quel calcul est effectué. Connu sous le nom de Private Cloud Compute, la nouvelle architecture d’Apple emprunte certains concepts de matériel et de sécurité à l’iPhone, notamment l’enclave sécurisée qui protège déjà les données sensibles des utilisateurs sur les appareils mobiles Apple.

Avec Private Cloud Compute, « vos données ne sont jamais stockées ni rendues accessibles à Apple », a déclaré Craig Federighi, vice-président senior de l’ingénierie logicielle d’Apple, lors de la keynote de lundi. Après avoir satisfait à la demande d’IA d’un utilisateur, Private Cloud Compute se débarrasse de toutes les données utilisateur impliquées dans le processus, a déclaré Apple.

Apple affirme que Private Cloud Compute n’est « possible » que grâce au contrôle strict qu’elle exerce sur l’ensemble de son écosystème technologique, des puces informatiques spécialisées et propriétaires au logiciel qui relie tout cela.

S’il est vrai qu’Apple ne peut pas voir les données personnelles que ses grands modèles d’IA traitent (une affirmation qu’Apple a invité les chercheurs à tester par eux-mêmes car la conception du système est censée être examinée), alors cela distingue l’implémentation d’Apple de celle des autres entreprises. Par exemple, lorsque vous utilisez ChatGPT, OpenAI révèle qu’il utilise vos données pour entraîner davantage ses modèles d’IA. Avec le Cloud Compute privé, vous n’aurez théoriquement pas à croire Apple sur parole lorsqu’il dit qu’il n’utilise pas vos données pour la formation de l’IA.

Qu’en est-il des données de formation d’Apple ?


Les modèles d’IA d’Apple ne sont pas sortis de nulle part. Ils ont dû être formés, eux aussi, tout comme les modèles proposés par d’autres entreprises. Et cela soulève des questions sur les données utilisées par Apple et comment.

Dans un document technique publié cette semaine, Apple a déclaré que ses modèles sont formés « sur des données sous licence, y compris des données sélectionnées pour améliorer des fonctionnalités spécifiques ».

« Nous n’utilisons jamais les données personnelles privées de nos utilisateurs ni leurs interactions lors de la formation de nos modèles de base », a ajouté l’entreprise, ” et nous appliquons des filtres pour supprimer les informations personnellement identifiables comme les numéros de sécurité sociale et de carte de crédit qui sont disponibles publiquement sur Internet” .

Apple a cependant admis avoir récupéré des données sur Internet public pour ensuite les utiliser pour la formation de ses modèles propriétaires, ce qui la rend quelque peu similaire à d’autres entreprises d’IA, dont certaines ont fait l’objet de poursuites pour atteinte aux droits d’auteur et ont déclenché un débat sur la question de savoir si les startups d’IA ont profité injustement du travail des humains.

Apple n’a pas précisé quelles informations Web elle avait ingérées. Elle a toutefois précisé que les éditeurs pouvaient ajouter du code à leurs sites pour empêcher le robot d’indexation d’Apple de collecter leurs données. Mais cela impose aux éditeurs la responsabilité de protéger leur propre propriété intellectuelle, et non à l’entreprise.

Similar Posts

Leave a Reply

Your email address will not be published. Required fields are marked *