L'expert révèle les téléphones que les fans d'IA ont besoin pour pousser Gemini et Chatgpt à la limite

L'expert révèle les téléphones que les fans d'IA ont besoin pour pousser Gemini et Chatgpt à la limite

L'une des tendances les plus évidentes – et honnêtement les plus ternes – de l'industrie des smartphones au cours des deux dernières années a été le discours incessant des expériences de l'IA. Silicon Warriors, en particulier, a souvent présenté comment leur dernier processeur mobile permettait des processus d'IA à disposition tels que la génération de vidéos.

Nous sommes déjà là, mais pas complètement. Au milieu de tous les écorces de battage médiatique avec des astuces d'interface graphique pour les utilisateurs de smartphones, le débat a à peine dépassé les présentations fastueuses sur les nouveaux processeurs et les chatbots en constante évolution.

Ce n'est que lorsque l'absence de Gemini Nano sur Google Pixel 8 a haussé les sourcils que les masses ont connu sur l'importance critique de la capacité RAM pour l'IA sur les appareils mobiles. Bientôt, Apple a également clairement indiqué qu'il gardait Apple Intelligence verrouillé sur les appareils avec au moins 8 Go de RAM.

Mais l'image du «téléphone AI» ne concerne pas la capacité de mémoire. La façon dont votre téléphone peut effectuer des tâches alimentées par l'IA dépend également des optimisations invisibles de RAM, ainsi que des modules de stockage. Et non, je ne parle pas seulement de la capacité.

Les innovations de mémoire se dirigent vers les téléphones IA

Le dernier de la société basée en Idaho comprend le stockage G9 NAND Mobile UFS 4.1 et les modules RAM LPDDR5x 1γ (1-Gamma) pour les smartphones phares. Alors, comment ces solutions de mémoire poussent-elles exactement la cause de l'IA sur les smartphones, en plus d'augmenter la capacité?

Commençons par la solution de stockage G9 NAND UFS 4.1. Le La promesse globale est une consommation d'énergie frugale, une latence plus faible et une bande passante élevée. La norme UFS 4.1 peut atteindre des vitesses de lecture et d'écriture séquentielles maximales de 4100 Mbps, ce qui représente un gain de 15% par rapport à la génération UFS 4.0 tout en réduisant les numéros de latence.

Un autre avantage crucial est que les modules de stockage mobile de nouvelle génération de Micron vont jusqu'à une capacité de 2 To. De plus, Micron a réussi à réduire leur taille, ce qui en fait une solution idéale pour les téléphones pliables et les téléphones minces de nouvelle génération tels que le bord Samsung Galaxy S25.

En se déplaçant vers la progression de la RAM, Micron a développé ce qu'il appelle les modules RAM LPDDR5X 1γ. Ils offrent une vitesse de pointe de 9200 MT / s, peuvent emballer 30% de transistors en plus en raison de la diminution de la taille et consomment une puissance inférieure de 20% pendant qu'il y était. Micron a déjà servi la solution de RAM 1β (1-bêta) légèrement plus lente emballée à l'intérieur des smartphones de la série Samsung Galaxy S25.

L'interaction du stockage et de l'IA

Ben Rivera, directeur du marketing de produit dans l'unité commerciale mobile de Micron, me dit que Micron a apporté quatre améliorations cruciales au sommet de leurs dernières solutions de stockage pour assurer des opérations d'IA plus rapides sur les appareils mobiles. Ils incluent les UFS zonés, la défragmentation des données, le pino-booster épinglé et le tracker de latence intelligent.

« Cette fonction permet au processeur ou à l'hôte d'identifier et d'isoler ou de » épingler « les données les plus fréquemment utilisées d'un smartphone dans une zone du dispositif de stockage appelé tampon WriteBooster (semblable à un cache) pour permettre un accès rapide et rapide », explique Rivera à propos de la fonction WriteBooster épinglée.

Chaque modèle d'IA – pensez à Google Gemini ou Chatgpt – qui vise à effectuer des tâches sur les appareils a besoin de son propre ensemble de fichiers d'instructions qui sont stockés localement sur un appareil mobile. Apple Intelligence, par exemple, a besoin de 7 Go de stockage pour tous ses manigances.

Pour effectuer une tâche, vous ne pouvez pas députer l'intégralité du package d'IA à la RAM, car il aurait besoin d'espace pour gérer d'autres tâches critiques telles que l'appel ou l'interaction avec d'autres applications importantes. Pour gérer la contrainte sur le module de stockage du micron, une carte mémoire est créée qui ne charge que les poids AI nécessaires à partir du stockage et sur la RAM.

Lorsque les ressources se serrent, ce dont vous avez besoin est un échange de données et une lecture plus rapides. Cela garantit que vos tâches AI sont exécutées sans affecter la vitesse des autres tâches importantes. Grâce à WriteBooster épinglé, cet échange de données est accéléré de 30%, garantissant que les tâches AI sont gérées sans aucun retard.

Disons donc que vous avez besoin de Gemini pour retirer un PDF pour analyse. L'échange de mémoire rapide garantit que les poids AI nécessaires sont rapidement déplacés du stockage vers le module RAM.

Ensuite, nous avons des données défrag. Considérez-le comme un organisateur de bureau ou d'Almirah, qui garantit que les objets sont soigneusement regroupés dans différentes catégories et placés dans leurs armoires uniques afin qu'il soit facile de les trouver.

Dans le contexte des smartphones, car davantage de données sont enregistrées sur une période d'utilisation prolongée, tout cela est généralement stocké dans une affaire plutôt aléatoire. L'impact net est que lorsque le système embarqué a besoin d'accéder à un certain type de fichiers, il devient plus difficile de les trouver tous, conduisant à un fonctionnement plus lent.

Selon Rivera, les données Defrag aident non seulement au stockage ordonné des données, mais modifient également la voie d'interaction entre le stockage et le contrôleur de périphérique. Ce faisant, ça Améliore la vitesse de lecture des données par un impressionnant 60%ce qui accélère naturellement toutes sortes d'interactions utilisateur-machine, y compris les flux de travail de l'IA.

Le tracker de latence de renseignement est une autre caractéristique qui garde essentiellement un œil sur les événements et les facteurs qui pourraient ralentir le rythme habituel de votre téléphone. Il contribue par la suite à déboguer et à optimiser les performances du téléphone pour garantir que les tâches régulières, ainsi que les tâches d'IA, ne se heurtent pas à des ralentisseurs.

L'amélioration finale du stockage est les UFS zonées. Ce système garantit que les données avec une nature d'E / S similaire sont stockées de manière ordonnée. Ceci est crucial car il permet au système de localiser plus facilement les fichiers nécessaires, au lieu de perdre du temps à fouiller dans tous les dossiers et répertoires.

«La fonctionnalité ZUFS de Micron aide à organiser des données afin que lorsque le système doit localiser des données spécifiques pour une tâche, c'est un processus plus rapide et plus lisse», nous a déclaré Rivera.

Aller au-delà de la capacité de RAM

En ce qui concerne les flux de travail de l'IA, vous avez besoin d'une certaine quantité de RAM. Plus il y a, mieux c'est. Alors qu'Apple a réglé la ligne de base à 8 Go pour sa pile d'intelligence d'Apple, les joueurs de l'écosystème Android sont passés à 12 Go de défaut de défaut. Pourquoi alors?

«Les expériences de l'IA sont également extrêmement à forte intensité de données et donc avides de puissance. Ainsi, afin de tenir la promesse de l'IA, la mémoire et le stockage doivent offrir une faible latence et des performances élevées à la plus grande efficacité électrique», explique Rivera.

Avec sa solution de RAM LPDDR5X 1γ (1-gamma) de nouvelle génération pour les smartphones, Micron a réussi à réduire la tension opérationnelle des modules de mémoire. Ensuite, il y a la question trop importante de la performance locale. Rivera dit que les nouveaux modules de mémoire peuvent bourdonner jusqu'à 9,6 gigabits par seconde, assurant des performances d'IA de premier ordre.

Micron affirme que des améliorations du processus de lithographie ultraviolet extrême (EUV) ont ouvert les portes non seulement pour des vitesses plus élevées, mais aussi un bond de 20% de l'efficacité énergétique.

La route vers des expériences d'IA plus privées?

Les solutions de RAM et de stockage de nouvelle génération de Microns pour les smartphones visent non seulement à améliorer les performances de l'IA, mais aussi au rythme général de vos tâches de smartphone quotidiennes. J'étais curieux de savoir si le stockage G9 NAND Mobile UFS 4.1 et les améliorations de RAM LPDDR5X 1γ (1-Gamma) accéléreraient également les processeurs IA hors ligne.

Les fabricants de smartphones ainsi que les laboratoires d'IA se déplacent de plus en plus vers le traitement local de l'IA. Cela signifie qu'au lieu d'envoyer vos requêtes à un serveur cloud où l'opération est gérée, puis le résultat est envoyé à votre téléphone à l'aide d'une connexion Internet, l'ensemble du flux de travail est exécuté localement sur votre téléphone.

De la transcription des appels et des notes vocales au traitement de votre matériel de recherche complexe dans les fichiers PDF, tout se passe sur votre téléphone, et aucune donnée personnelle ne quitte votre appareil. C'est une approche plus sûre qui est également plus rapide, mais en même temps, elle nécessite des ressources de système de renommée. Un module de mémoire plus rapide et plus efficace est l'une de ces conditions préalables.

Les solutions de nouvelle génération de Micron peuvent-elles aider le traitement local de l'IA? Ça peut. En fait, il accélérera également les processus qui nécessitent une connexion cloud, tels que la génération de vidéos à l'aide du modèle VEO de Google, qui nécessitent toujours de puissants serveurs de calcul.

«Une application AI native fonctionnant directement sur l'appareil aurait le plus de trafic de données, car non seulement il lira les données utilisateur du dispositif de stockage, mais il mène également l'inférence de l'IA sur l'appareil. Dans ce cas, nos fonctionnalités aideraient à optimiser le flux de données pour les deux», me dit Rivera.

Alors, combien de temps pouvez-vous vous attendre à des téléphones équipés des dernières solutions Micron pour atterrir sur les étagères? Rivera affirme que tous les principaux fabricants de smartphones adopteront les modules de RAM et de stockage de nouvelle génération de Micron. En ce qui concerne l'arrivée du marché, les «modèles phares lancés fin 2025 ou au début de 2026» devraient être sur votre radar d'achat.

Rate this post
Total
0
Shares
Previous Post
Google démos ses lunettes intelligentes et nous fait hanker pour l'avenir

Google démos ses lunettes intelligentes et nous fait hanker pour l'avenir

Next Post
L'iPhone 17 pourrait conserver cette spécification existante iPhone 16 Pro

L'iPhone 18 peut augmenter de prix… mais pas pour la raison que vous pensez

Related Posts