L'étude indique que le battage médiatique de l'IA entrave de véritables recherches sur l'intelligence artificielle

L'étude indique que le battage médiatique de l'IA entrave de véritables recherches sur l'intelligence artificielle

Une nouvelle étude AAAI (Association for the Advancement of Artificial Intelligence) avec des centaines de chercheurs contributifs d'IA a été publiée ce mois.

L'IA est un mot à la mode depuis quelques bonnes années maintenant, mais l'intelligence artificielle en tant que domaine de recherche existe depuis de nombreuses décennies. Le célèbre papier «Machinerie et intelligence informatique» d'Alan Turing et le test de Turing Nous parlons toujours d'aujourd'hui, par exemple, ont été publiés en 1950.

L'IA, tout le monde, parle aujourd'hui, est née de ces décennies de recherche, mais elle les diverge également. Plutôt que d'être une poursuite scientifique, nous avons maintenant également une branche déviante de l'intelligence artificielle que vous pourriez appeler «IA commerciale».

Les efforts dans l'IA commerciale sont dirigés par de grands monopoles Tech comme Microsoft, Google, Meta, Apple et Amazon – et leur objectif principal est de créer des produits AI. Cela ne devrait pas avoir à être un problème, mais pour le moment, il semble que ce soit le cas.

Premièrement, parce que la plupart des gens n'ont jamais suivi la recherche sur l'IA il y a quelques années, tout ce que la personne moyenne sait sur l'IA provient de ces entreprises plutôt que de la communauté scientifique. L'étude Couvre ce sujet dans le chapitre «perception de l'IA contre réalité», 79% des scientifiques impliqués croyant que la perception actuelle des capacités de l'IA ne correspond pas à la réalité de la recherche et du développement de l'IA.

En d'autres termes, ce que le grand public pense que l'IA peut faire ne correspond pas à ce que les scientifiques pensent que l'IA peut faire. La raison en est aussi simple que malheureuse: lorsqu'un grand représentant technologique fait une déclaration sur l'IA, ce n'est pas une opinion scientifique – c'est le marketing de produit. Ils veulent éprouper la technologie derrière leurs nouveaux produits et s'assurer que tout le monde ressent le besoin de sauter dans ce train.

Quand Sam Altman ou Mark Zuckerberg Selon des emplois en génie logiciel, les emplois seront remplacés par l'IA, par exemple, c'est parce qu'ils veulent influencer les ingénieurs pour acquérir des compétences en IA et influencer les entreprises technologiques pour investir dans des plans d'entreprise coûteux. Jusqu'à ce qu'ils commencent à remplacer leurs propres ingénieurs (et à en profiter), cependant, je n'écouterais personnellement un mot qu'ils disent sur le sujet.

Ce n'est pas seulement la perception du public que l'IA commerciale influence cependant. Les participants à l'étude estiment que le «battage médiatique» fabriqué par Big Tech nuise aux efforts de recherche. Par exemple, 74% conviennent que l'orientation de la recherche sur l'IA est motivée par le battage médiatique – cela est probablement dû au fait que la recherche qui s'aligne sur les objectifs d'IA commerciale est plus facile à financer. 12% estiment également que la recherche théorique d'IA souffre en conséquence.

Alors, quel problème est-ce? Même si les grandes entreprises technologiques influencent le type de recherche que nous faisons, vous penseriez que les sommes extrêmement importantes d'argent qu'elles pompent sur le terrain devraient avoir un impact positif dans l'ensemble. Cependant, la diversité est essentielle en ce qui concerne la recherche – nous devons poursuivre toutes sortes de voies différentes pour avoir une chance de trouver la meilleure.

Mais Big Tech ne se concentre vraiment que sur une chose en ce moment – de grands modèles de langue. Ce type extrêmement spécifique de modèle d'IA est ce qui place à peu près tous les derniers produits d'IA, et des chiffres comme Sam Altman croient que la mise à l'échelle de ces modèles de plus en plus (c'est-à-dire leur donner plus de données, plus de temps de formation et plus de puissance de calcul) nous donnera éventuellement une intelligence générale artificielle.

Cette croyance, surnommée l'hypothèse de mise à l'échelle, dit que plus nous nourrissons de puissance dans une IA, plus ses capacités cognitives augmenteront et plus ses taux d'erreur diminueront. Certaines interprétations disent également que les nouvelles capacités cognitives émergeront de façon inattendue. Donc, même si les LLM ne sont pas excellentes pour planifier et réfléchir à des problèmes en ce moment, ces capacités devraient émerger à un moment donné.

Il n'y a pas de mur

– Sam Altman (@Sama) 14 novembre 2024

Au cours des derniers mois, cependant, l'hypothèse de mise à l'échelle a subi un incendie important. Certains scientifiques croient que les LLM à l'échelle ne mèneront jamais à AGI, et ils croient que toute la puissance supplémentaire que nous nourrissons de nouveaux modèles ne produit plus de résultats. Au lieu de cela, nous avons frappé un «mur de mise à l'échelle» ou une «limite de mise à l'échelle» où de grandes quantités de puissance de calcul supplémentaire et les données ne produiraient que de petites améliorations dans les nouveaux modèles. La plupart des scientifiques qui ont participé à l'étude AAAI sont de ce côté de l'argument:

La majorité des répondants (76%) affirment que «la réduction des approches actuelles de l'IA» pour produire AGI est «improbable» ou «très peu probable» pour réussir, suggérant des doutes quant à savoir si les paradigmes actuels d'apprentissage automatique sont suffisants pour obtenir une intelligence générale.

Les modèles actuels de grands langues peuvent produire des réponses très pertinentes et utiles lorsque les choses vont bien, mais elles s'appuient sur des principes mathématiques pour le faire. De nombreux scientifiques pensent que nous aurons besoin de nouveaux algorithmes qui utilisent le raisonnement, la logique et les connaissances du monde réel pour atteindre une solution si nous voulons progresser plus près de l'objectif d'AGI. Voici une citation épicée sur LLMS et AGI à partir d'un journal 2022 par Jacob Browning et Yann LeCun.

Un système formé sur la langue seul ne se rapprochera jamais de l'intelligence humaine, même s'il est entraîné à partir de maintenant jusqu'à la mort thermique de l'univers.

Cependant, il n'y a aucun moyen réel de savoir qui est ici – pas encore. D'une part, la définition d'AGI n'est pas réglée dans la pierre et tout le monde ne vise pas la même chose. Certaines personnes croient que l'AGI devrait produire des réponses de type humain à travers des méthodes de type humain – ils devraient donc observer le monde qui les entoure et trouver des problèmes de manière similaire à nous. D'autres croient que l'AGI devrait se concentrer davantage sur les réponses correctes que les réponses de type humain, et que les méthodes qu'ils utilisent ne devraient pas avoir d'importance.

À bien des égards, cependant, peu importe la version d'AGI qui vous intéresse ou si vous êtes pour ou contre l'hypothèse de mise à l'échelle – nous devons toujours diversifier nos efforts de recherche. Si nous nous concentrons uniquement sur la mise à l'échelle des LLM, nous devrons recommencer à zéro si cela ne fonctionne pas, et nous pourrions ne pas découvrir de nouvelles méthodes plus efficaces ou efficaces. De nombreux scientifiques de cette étude craignent que l'IA commerciale et le battage médiatique de l'entourer ralentiront les progrès réels – mais tout ce que nous pouvons faire, c'est espérer que leurs préoccupations sont traitées et que les deux branches de la recherche sur l'IA peuvent apprendre à coexister et à progresser ensemble. Eh bien, vous pouvez également espérer que la bulle AI Les rafales et tous les produits technologiques alimentés par l'IA disparaissent dans la non-pertinence, si vous préférez.

Rate this post
Total
0
Shares
Previous Post
J'apprends enfin à coder - et je n'ai pas commencé par un cours de programmation

J'apprends enfin à coder – et je n'ai pas commencé par un cours de programmation

Next Post
L'iPad n'a pas besoin d'interstance AI, mais Apple doit réparer autre chose

L'iPad n'a pas besoin d'interstance AI, mais Apple doit réparer autre chose

Related Posts