Google Lens fait désormais partie de l'interface AI native de Chrome

Google Lens fait désormais partie de l'interface AI native de Chrome

Google essaie d'apporter des modifications majeures au fonctionnement de l'IA dans Chrome, notamment en mélangeant Google Lens avec le panneau latéral IA natif du navigateur. À l’heure actuelle, cela apparaît dans Chrome Canary – le terrain de jeu expérimental où Google teste de nouvelles fonctionnalités avant qu’elles ne soient généralisées.

Le grand changement ici est que Lens n’agit plus seulement comme un outil autonome pour rechercher des images. Au lieu de cela, il déclenche désormais l'interface IA complète de Chrome directement dans le panneau latéral, mélangeant la recherche d'images, la lecture de pages et le chat en un seul endroit unifié.

Dans cette nouvelle configuration, l’activation de Lens fait plus que simplement mettre en évidence une image. Il ouvre le panneau IA sur la droite, vous offrant une boîte de discussion, des suggestions de questions et des actions rapides. Étant donné que le panneau peut « lire » la page Web sur laquelle vous vous trouvez actuellement, vous pouvez poser des questions sur l'article sans jamais quitter l'onglet.

Lors des tests, l'IA gère les résumés et le contexte assez instantanément, en gardant tout dans un seul thread. Il est également lié au système d'IA plus large de Chrome, ce qui signifie que vos recherches visuelles et vos sessions de chat vivent enfin dans le même historique, renforçant l'idée que Google souhaite que la recherche, la vision et le chat ressemblent à une expérience continue.

Pourquoi c'est important et ce qui va suivre

Pourquoi c'est important : cette mise à jour est un signe clair que Google souhaite que Chrome soit plus qu'une simple fenêtre passive sur le Web ; ils veulent que ce soit un espace de travail actif. En fusionnant Lens avec le « Mode AI », ils positionnent le navigateur comme un assistant intelligent qui accompagne tout ce que vous lisez. Il cesse d'être un outil distinct vers lequel vous devez basculer et commence à être une aide qui comprend réellement le contexte de votre écran.

Pourquoi vous devriez vous en soucier : Idéalement, cela signifie moins d’onglets encombrés et des réponses plus rapides. Que vous soyez plongé dans un trou de recherche, dans des achats en ligne ou dans la lecture d'un article complexe, disposer d'une IA capable de voir ce que vous voyez – et de l'expliquer – sans vous faire quitter la page constitue une mise à niveau massive du flux de travail. Cela semble être une étape naturelle vers l’expérience de navigation « assistant d’abord » que Google propose sur Android et la recherche.

Et ensuite : cela est encore dans la phase de « brouillon » chez Canary, et l'interface est clairement un travail en cours. Cependant, la façon dont il relie le panneau latéral, la barre d'adresse et l'historique de vos tâches suggère que Google souhaite sérieusement créer une couche d'IA unifiée sur Chrome. S'il survit aux tests, ce panneau alimenté par Lens pourrait changer fondamentalement le rythme de nos recherches et de nos lectures sur le Web.

Rate this post
Total
0
Shares
Previous Post
Google Translate comprend enfin ce que vous vouliez dire, pas seulement ce que vous avez tapé

Google Translate comprend enfin ce que vous vouliez dire, pas seulement ce que vous avez tapé

Next Post
Votre prochain téléphone Samsung Galaxy série A pourrait être plus cher

Votre prochain téléphone Samsung Galaxy série A pourrait être plus cher

Related Posts