Les chats de Claude seront désormais utilisés pour la formation IA, mais vous pouvez vous échapper

Les chats de Claude seront désormais utilisés pour la formation IA, mais vous pouvez vous échapper

Claude – l'un des chatbots d'IA les plus populaires et un candidat potentiel pour Apple pour améliorer Siri – commencera bientôt à enregistrer une transcription de tous vos chats à des fins de formation en IA. Le changement de politique annoncé par Anthropic a déjà commencé à apparaître aux utilisateurs et leur donne jusqu'au 28 septembre pour accepter les conditions.

Qu'est-ce qui change?

Anthropic affirme que le journal des interactions des utilisateurs avec Claude et son outil de code Claude axé sur les développeurs seront utilisés pour la formation, l'amélioration du modèle et le renforcement des gardiens de sécurité. Jusqu'à présent, la société d'IA n'a pas exploité les données des utilisateurs pour la formation de l'IA.

«En participant, vous nous aiderez à améliorer la sécurité des modèles, ce qui rend nos systèmes pour détecter le contenu nocif plus précis et moins susceptible de signaler les conversations inoffensives», explique la société. Le changement de politique n'est pas obligatoire et les utilisateurs peuvent choisir de vous retirer.

Les utilisateurs verront une alerte de notification sur la politique d'utilisation des données jusqu'au 28 septembre. La fenêtre contextuelle les permettra de désactiver facilement le basculement qui dit «vous pouvez aider à améliorer Claude», puis enregistrer leur préférence en frappant le Accepter bouton. Après le 28 septembre, les utilisateurs devront changer manuellement leur préférence par rapport au tableau de bord des paramètres de formation du modèle.

Quel est le résultat net?

La politique de formation mise à jour ne couvre que de nouvelles conversations avec Claude, ou celles que vous reprenez, mais pas de vieilles chats. Mais pourquoi le renversement? La route vers la suprématie de l'IA est assez simple. Plus vous pouvez mettre la main sur le matériel de formation, meilleur est les performances du modèle d'IA.

L'industrie rencontre déjà une pénurie de données, donc le mouvement d'Anthropic n'est pas surprenant. Si vous êtes un utilisateur de Claude existant, vous pouvez vous retirer en suivant ce chemin: Paramètres> Confidentialité> Aide à améliorer Claude.

La nouvelle stratégie de données utilisateur d'Anthropic couvre les plans Claude Free, Pro et Max. Cependant, il ne s'applique pas à Claude pour le travail, Claude Gov, Claude pour l'éducation, l'utilisation de l'APU ou lorsqu'il est connecté à des plates-formes tierces telles que Google's Vertex IA et Amazon Bedrock.

En plus de cela, Anthropic modifie également ses règles de rétention des données. Maintenant, l'entreprise peut conserver une copie des données des utilisateurs jusqu'à cinq ans. Les chats qui ont été supprimés manuellement par les utilisateurs ne seront pas utilisés pour la formation de l'IA.

Rate this post
Total
0
Shares
Previous Post
L'Apple Crayer Pro a un prix à deux chiffres pour une durée limitée

Si votre iPad travaille avec l'Apple Crayer Pro, prenez le stylet pour moins de 100 €

Next Post
Qu'est-ce que Copilot Labs? Tout ce que vous devez savoir sur les fonctionnalités expérimentales de l'IA de Microsoft

Qu'est-ce que Copilot Labs? Tout ce que vous devez savoir sur les fonctionnalités expérimentales de l'IA de Microsoft

Related Posts