DeepMind est déjà en train de trouver des moyens de nous garder à l'abri d'Agi

DeepMind est déjà en train de trouver des moyens de nous garder à l'abri d'Agi

L'intelligence générale artificielle est un sujet énorme en ce moment – même si personne n'a accepté ce qu'est vraiment AGI. Certains scientifiques pensent qu'il est encore à des centaines d'années et aurait besoin d'une technologie que nous ne pouvons même pas commencer à imaginer, tandis que Google Deepmind dit qu'il pourrait être ici d'ici 2030 – et qu'il planifie déjà des mesures de sécurité.

Il n'est pas rare que la communauté scientifique ne soit pas d'accord sur des sujets comme celui-ci, et c'est bien d'avoir toutes nos bases couvertes par des personnes qui planifient à la fois pour l'avenir immédiat et l'avenir lointain. Pourtant, cinq ans est un numéro assez choquant.

À l'heure actuelle, les projets «Frontier IA» connus du public sont tous des LLM – de petits devineurs de mots et des générateurs d'images. Chatgpt, par exemple, est toujours terrible en mathématiques, et chaque modèle que j'ai jamais essayé est horrible à écouter les instructions et à modifier leurs réponses avec précision. Claude d'Anthropic n'a toujours pas battu Pokémon et aussi impressionnant que les compétences linguistiques de ces modèles, ils sont toujours formés sur tous les pires écrivains du monde et ont pris de nombreuses mauvaises habitudes.

Il est difficile d'imaginer sauter de ce que nous avons maintenant à quelque chose qui, selon les mots de Deepmind, affiche des capacités qui correspondent ou dépassent «celle du 99e centile d'adultes qualifiés». En d'autres termes, Deepmind pense que AGI sera aussi intelligent ou plus intelligent que les 1% des humains du monde.

Alors, quel genre de risques Deepmind pense-t-il qu'un AGI de niveau Einstein pourrait poser?

Selon le document, nous avons quatre catégories principales: utilisation abusive, désalignement, erreurs et risques structurels. Ils étaient si proches de quatre ms, c'est dommage.

DeepMind considère que «l'abus» est des choses comme influencer les races politiques avec des vidéos DeepFake ou une usurpation d'identité de personnes pendant les escroqueries. Il mentionne dans la conclusion que son approche de la sécurité «se concentre sur le blocage de l'accès des acteurs malveillants à des capacités dangereuses».

Cela semble génial, mais DeepMind fait partie de Google et le géant de la technologie américaine développe ces systèmes lui-même. Bien sûr, Google n'essaiera probablement pas de voler de l'argent aux personnes âgées en usurpant l'identité de leurs petits-enfants – mais cela ne signifie pas qu'il ne peut pas utiliser AGI pour lui apporter des bénéfices tout en ignorant l'intérêt supérieur des consommateurs.

Il semble que le «désalignement» soit la situation du terminateur, où nous demandons une IA pour une chose et il fait quelque chose de complètement différent. Celui-ci est un peu mal à l'aise à penser. DeepMind dit que la meilleure façon de contrer cela est de s'assurer que nous comprenons comment nos systèmes d'IA fonctionnent autant que possible, afin que nous puissions dire quand quelque chose se passe mal, où il se passe mal et comment le réparer.

Cela va à l'encontre de toute «l'émergence spontanée» des capacités et du concept selon lequel AGI sera si complexe que nous ne saurons pas comment cela fonctionne. Au lieu de cela, si nous voulons rester en sécurité, nous devons nous assurer de savoir ce qui se passe. Je ne sais pas à quel point ce sera difficile, mais cela est vraiment logique d'essayer.

Les deux dernières catégories se réfèrent à des dommages accidentels – soit des erreurs de la part de l'IA, soit des choses qui deviennent désordonnées lorsque trop de gens sont impliqués. Pour cela, nous devons nous assurer que nous avons des systèmes en place qui approuvent les actions qu'un AGI veut prendre et empêcher différentes personnes de le tirer dans des directions opposées.

Bien que le papier de Deepmind soit complètement exploratoire, il semble qu'il existe déjà de nombreuses façons d'imaginer Agi se tromper. Ce n'est pas aussi mauvais que cela puisse paraître – les problèmes que nous pouvons imaginer sont les problèmes auxquels nous pouvons mieux nous préparer. Ce sont les problèmes que nous ne prévoyons pas qui sont plus effrayants, alors espérons que nous ne manquerons rien de grand.

Rate this post
Total
0
Shares
Previous Post
Les fuites de caméra Pixel 10 montrent une mise à niveau prometteuse rencontrée avec des déceptions potentielles

Les fuites de caméra Pixel 10 montrent une mise à niveau prometteuse rencontrée avec des déceptions potentielles

Next Post
Oppo trouve X8 Ultra pour inclure la mise à jour du système de caméra «innovant»

Oppo trouve X8 Ultra pour inclure la mise à jour du système de caméra «innovant»

Related Posts