Il s'avère que ce n'est pas si difficile de faire ce que fait Openai pour moins

Le changement de marque d'Openai est censé faire apparaître l'entreprise «plus humaine»

Même si Openai continue de s'accrocher à son affirmation selon laquelle le seul chemin vers AGI réside dans les dépenses financières et énergétiques massives, les chercheurs indépendants tirent parti des technologies open source pour correspondre aux performances de ses modèles les plus puissants – et le font à une fraction du prix.

Vendredi dernier, une équipe unifiée de l'Université de Stanford et de l'Université de Washington ont annoncé avoir formé un modèle de grande langue axé sur les mathématiques et le codage qui se produit ainsi que les modèles de raisonnement R1 d'Openai et de Deepseek. Il ne coûte que 50 € en crédits de calcul cloud à construire. L'équipe aurait utilisé un modèle de base standard, puis distillé le modèle expérimental de la pensée Flash de Google de Google. Le processus de distillation AIS consiste à tirer les informations pertinentes pour effectuer une tâche spécifique à partir d'un modèle d'IA plus grand et à le transférer à un modèle plus petit.

Mardi, des chercheurs de Hugging Face ont publié un concurrent à la recherche en profondeur d'Openai et des outils de recherche profonds de Google Gemini (également), surnommé Open Deep Research, qu'ils ont développé en seulement 24 heures. « Bien que les LLM puissants soient désormais disponibles gratuitement en open source, Openai n'a pas beaucoup révélé le cadre agentique sous-jacent à des recherches approfondies », a écrit Hugging Face dans son article d'annonce. « Nous avons donc décidé de nous lancer dans une mission 24h / 24 pour reproduire leurs résultats et open source le cadre nécessaire en cours de route! » Il coûterait environ 20 € en crédits de calcul cloud et nécessiterait moins de 30 minutes pour s'entraîner.

Le modèle de Hugging Face a ensuite décroché une précision de 55% sur la référence générale des assistants AI (GAIA), qui est utilisée pour tester les capacités des systèmes d'IA agentiques. En comparaison, les recherches approfondies d'Openai ont obtenu une précision entre 67 et 73%, selon les méthodologies de réponse. Certes, le modèle 24 heures sur 24 ne fonctionne pas aussi bien que l'offre d'Openai, mais il n'a pas non plus pris des milliards de dollars et la capacité de production d'énergie d'une nation européenne de taille moyenne à s'entraîner.

Ces efforts suivent des nouvelles de janvier qu'une équipe de l'Université de Californie, Berkeley's Sky Computing Lab a réussi à former son modèle de raisonnement Sky T1 pour environ 450 € en crédits de calcul cloud. Le modèle Sky-T1-32B-Preview de l'équipe a prouvé l'égal de la version du modèle de raisonnement précoce précoce. Alors que de plus en plus de ces concurrents open source à la domination de l'industrie d'Openai émergent, leur simple existence remet en question si le plan de l'entreprise de dépenser un demi-milliard de dollars pour construire des centres de données d'IA et des installations de production d'énergie est vraiment la réponse.

Rate this post
Total
0
Shares
Previous Post
Google dit que les applications informatiques quantiques sont à cinq ans

Google dit que les applications informatiques quantiques sont à cinq ans

Next Post
Asus a publié un téléphone avec un nom Samsung dessus

Asus a publié un téléphone avec un nom Samsung dessus

Related Posts