Microsoft, un investisseur principal dans OpenAI, explore maintenant si la société chinoise Deepseek a utilisé des méthodes néfastes pour former ses modèles de raisonnement. Selon Bloomberg Law, la société estime désormais que Deepseek a violé ses conditions d'utilisation en utilisant son interface de programmation d'application (API) pour former son modèle R1 récemment annoncé.
La nouvelle intervient peu de temps après que l'IA de la Maison Blanche et la crypto-tsar, David Sacks, ont déclaré à Fox News dans une interview mardi qu'il était «possible» de la propriété intellectuelle de Deepseek aux États-Unis ».
« Il y a des preuves substantielles que ce que Deepseek a fait ici, c'est qu'ils ont distillé les connaissances des modèles d'Openai », a déclaré Sacks à The Outlet.
L'industrie de l'IA a déliré sur la capacité de Deepseek à former rapidement et rentable les modèles d'IA en un an avec seulement 5,6 millions de dollars. Il existe une possibilité sous-jacente, la raison de l'efficacité de l'entreprise est qu'elle a utilisé le modèle d'une autre entreprise comme référence.
Deepseek peut avoir utilisé un processus appelé distillation, lequel implique deux modèles ayant une dynamique enseignant-étudiant afin que l'un puisse collecter des informations de l'autre. D'une part, cela pourrait expliquer les coûts d'exploitation bon marché de l'entreprise et l'utilisation de puces NVIDIA H800 moins puissantes. Deepseek pourrait maintenant être sur le crochet pour prouver s'il a fallu toutes les actions illégales lors du développement de ses modèles.
Avant ce développement récent, les experts de l'industrie ont précédemment émis l'hypothèse que Deepseek utilisait probablement l'ingénierie inverse pour former ses modèles. Ce processus analyse les modèles pour identifier leurs modèles et leurs biais pour améliorer les futurs modèles. L'ingénierie inverse est une pratique courante parmi les développeurs open source qui est considérée comme légale.
Les chercheurs en sécurité sanctionnés par Microsoft ont déjà reconstitué que Deepseek a peut-être exhumé une quantité considérable de code de l'API d'Openai au cours de l'automne 2024. Microsoft aurait informé OpenAI de la violation à l'époque. Le modèle R1 a été annoncé la semaine dernière, attirant l'attention sur la société d'IA chinoise et les parties associées.
Deepseek a également été salué comme une application d'IA open source, sur laquelle n'importe qui peut se développer. C'est à partir de la présente excitation entourant la plate-forme – en plus de sa comparaison avec les meilleurs outils tels que Chatgpt et Google Gemini. OpenAI n'est pas un service open-source; Cependant, n'importe qui peut s'inscrire pour accéder à son API. La société indique clairement dans ses conditions de services que d'autres entités ne peuvent pas utiliser la production pour former d'autres modèles d'IA, a noté TechCrunch.
Un porte-parole d'OpenAI a déclaré à Reuters que, quelle que soit la réglementation, diverses entreprises internationales essayant de copier des modèles de sociétés bien connues aux États-Unis sont désormais courantes.
«Nous nous engageons dans des contre-mesures pour protéger notre IP, y compris un processus minutieux pour les capacités frontalières à inclure dans les modèles publiés, et croyons que nous allons de l'avant qu'il est extrêmement important que nous travaillions en étroite collaboration avec le gouvernement américain pour protéger au mieux le Les modèles les plus compétents des efforts des adversaires et des concurrents pour prendre la technologie américaine », a déclaré le porte-parole.








