Passer au contenu principal

Comment Clio analyse-t-il les modèles d'utilisation tout en protégeant les données des utilisateurs ?

Mis à jour il y a plus d’une semaine

Anthropic effectue des analyses agrégées et préservant la confidentialité des données pour obtenir des informations sur les impacts réels des systèmes d'IA et les modèles d'utilisation de nos produits, tout en maintenant rigoureusement la confidentialité des utilisateurs et la confidentialité des informations sensibles. Un exemple de notre approche est Clio, un système qui nous permet de comprendre les tendances et comportements importants sans compromettre la confidentialité individuelle ou la confidentialité des clients.

Lorsque nous utilisons Clio à des fins de recherche ou pour analyser comment nos produits sont utilisés de manière agrégée, le système :

  • Anonymise et agrège automatiquement les informations, extrayant uniquement les modèles et tendances généraux tout en omettant les détails privés ou sensibles

  • Applique plusieurs mesures de protection de la confidentialité, y compris des seuils d'agrégation minimaux et une vérification automatisée pour s'assurer que les résultats ne révèlent pas d'informations sur des individus ou de petits groupes de clients

  • Ne fournit aucun accès aux employés d'Anthropic aux conversations brutes des utilisateurs ou aux données spécifiques aux clients

  • Concentre toutes les informations uniquement sur des modèles agrégés larges, n'analysant jamais le comportement d'un individu ou d'un client spécifique

Nous avons mené des tests, audits et évaluations comparatives approfondis pour valider que les résultats de Clio ne contiennent aucune information privée identifiable lorsqu'ils sont utilisés à ces fins. Pour des informations détaillées sur l'architecture de Clio et nos évaluations rigoureuses de la confidentialité, veuillez consulter notre article de recherche.

Pour faire progresser davantage notre mission, nous pouvons également partager des informations agrégées et préservant la confidentialité sur la façon dont nos systèmes d'IA sont utilisés avec des audiences externes ou avec le public. Clio met en œuvre des seuils d'agrégation soigneux qui exigent que chaque information représente une diversité significative d'utilisateurs et d'entrées, ce qui protège contre l'identification des modèles d'utilisation spécifiques d'un individu.

Comme décrit dans notre article de recherche, nous utilisons également une version différente de Clio pour améliorer nos systèmes de sécurité. Les résultats des exécutions de Clio axées sur la sécurité peuvent être reliés à des comptes individuels. Nous mettons en place des contrôles d'accès stricts pour limiter qui peut consulter ces résultats à un petit nombre de personnel autorisé.

Avez-vous trouvé la réponse à votre question ?