March Madness, revisité : le modèle d'IA a bien fonctionné. Mais des choses folles arrivent encore

March Madness, revisité : le modèle d'IA a bien fonctionné. Mais des choses folles arrivent encore

(NOTE: Cet article fait partie d'une série en cours documentant une expérience avec utiliser l'IA pour remplir les tranches de la NCAA et voyez comment il se comporte par rapport à des années d'expérience humaine. L'article original est le suivant.)

Il y a une semaine, j'ai écrit sur l'entrée dans une poule de tournoi de la NCAA avec un processus plus discipliné que celui que j'utilise habituellement.

Au lieu de m'appuyer sur des mascottes, des vibrations ou sur toute autre équipe qui avait fière allure samedi après-midi, j'ai essayé de penser à la tranche comme le ferait un investisseur ou un analyste : séparer les prévisions brutes de la valeur attendue, construire une tranche autour de la probabilité de succès la plus élevée, en construire une autre autour de la dynamique du pool et prendre des décisions avec au moins une certaine conscience de l'incertitude.

Ce processus a produit deux tranches. L’une d’elles était la tranche « la plus probable », conçue pour maximiser les chances d’obtenir un bon score si le tournoi suivait une voie essentiellement rationnelle. L’autre était un support EV pour un pool d’environ 70 entrées – pas un coup de lune sauvage à contre-courant, mais quelque chose conçu pour gagner un véritable concours plutôt que simplement avoir l’air raisonnable.

Alors, comment ça s’est passé ?

Plutôt bien, en fait. Mais pas parfaitement.

Le modèle a donné raison à 13 des équipes du Sweet 16, ce qui est objectivement fort dans un tournoi conçu pour punir la confiance et récompenser le chaos. L’architecture globale de la prévision a résisté. Il a identifié la plupart des véritables poids lourds. C’était la bonne direction concernant les équipes les plus susceptibles de survivre au premier week-end. Il est généralement entendu que la forme du champ.

Mais comme le mois de mars a tendance à le faire, il a également découvert les points faibles.

Les échecs les plus évidents ont été l’État de l’Ohio, le Wisconsin et la Floride. Ohio State a perdu un match 66-64 contre TCU lors d'un lay-up tardif. Le Wisconsin a chuté 83-82 au n ° 12 High Point. La Floride, championne nationale en titre et tête de série n°1, a perdu 73-72 contre l'Iowa sur un feu vert à trois points dans les dernières secondes. Il ne s’agissait pas d’effondrements lents et évidents. Il s’agissait de défaites d’une seule possession, décidées dans les derniers instants, exactement le genre de résultats qui vous rappellent qu’aucun modèle de tournoi ne peut fonctionner en laboratoire.

Cela laisse deux interprétations possibles.

La première est que le modèle était erroné.

L’autre est que le modèle était en grande partie correct, mais le basket-ball à élimination simple est un environnement terrible pour la certitude.

La réponse, comme d’habitude, est les deux.

La bonne nouvelle est que le fait d’avoir réussi 13 des 16 équipes Sweet 16 suggère que le cadre de base était utile. Ce n’était pas aléatoire. Ce n'était pas décoratif. Il ne s’agissait pas simplement d’utiliser des mots plus sophistiqués pour arriver aux mêmes suppositions intuitives que tout le monde fait. Au niveau de l'identification de la qualité, cela a fonctionné.

La nouvelle la moins rassurante est que les ratés étaient également instructifs.

Avec le recul, le processus penchait encore un peu trop vers « la meilleure équipe avance généralement ». C'est souvent vrai sur une saison. C'est moins vrai sur 40 minutes dans une salle de sport neutre, surtout lorsque l'opprimé peut créer de la volatilité. La défaite du Wisconsin en est l’exemple le plus frappant. Un modèle bouleversé plus fort n'aurait pas nécessairement choisi High Point pour gagner, mais il aurait probablement traité le Wisconsin comme plus fragile que moi : plus sensible au genre de jeu où un outsider s'échauffe à partir de trois, étire le favori et transforme les deux dernières minutes en un tirage au sort.

La défaite de la Floride dit quelque chose de similaire à un niveau supérieur. Une tête de série n°1 n’est jamais censée être « susceptible » de perdre tôt, mais il y a une différence entre être fort et être invulnérable. Le modèle a eu raison de respecter la Floride. C’était probablement une erreur de considérer la Floride comme étant sûre.

Cette distinction est importante si vous essayez de remporter une poule plutôt que de simplement défendre votre dignité.

C’est là que l’exercice devient intéressant. Sur les marchés, en matière d'investissement et dans les pools par tranches, il existe une grande différence entre être globalement correct et être correctement positionné. Une prévision peut être intelligente sans toutefois parvenir à déterminer où se situe la véritable fragilité. Le tournoi n'attribue pas de points de style pour avoir le meilleur cadre si vous sous-évaluez toujours la possibilité qu'un outsider en direct commence à réussir des tirs.

Alors qu'est-ce que je changerais ?

Ce n'est pas l'idée de base. Je continue de penser que la bonne façon d’aborder une fourchette est de séparer les prévisions de probabilité la plus élevée de la stratégie de valeur attendue. La plupart des gens les mélangent sans s’en rendre compte. Ils choisissent un champion qu’ils pensent pouvoir gagner, mais font ensuite quelques choix arbitraires pour « pimenter les choses », ce qui n’est en réalité qu’une autre façon d’admettre qu’ils n’ont pas de processus cohérent.

Ce que j'améliorerais, c'est la couche de volatilité.

Une meilleure version de cette approche accorderait plus d'attention aux favoris qui sont véritablement robustes et à ceux qui semblent simplement forts dans une feuille de calcul. Il mesurerait plus explicitement l'écart sur trois points, le risque de turnover, les problèmes de faute, la dépendance à l'égard d'un seul buteur et la fréquence à laquelle les résultats d'une équipe varient énormément d'un match à l'autre. Cela respecterait toujours les meilleures têtes de série. Ce serait simplement plus méfiant à leur égard.

Cela compte encore plus maintenant car, bien entendu, les supports d’origine sont verrouillés.

À ce stade, personne ne peut prétendre qu’il « aurait eu l’Iowa » s’il n’avait pas réellement eu l’Iowa. Cela fait partie de la beauté et de la cruauté de toute cette entreprise. Une fois les jeux lancés, votre brillant cadre devient un document historique.

Mais cela ne veut pas dire que le processus cesse d’être utile.

D’une part, il peut y avoir des pools de la seconde chance. De nombreux concours sont réinitialisés au Sweet 16 ou au Final Four, ce qui est vraiment un cadeau pour tous ceux qui aiment le processus. Une piscine de la seconde chance élimine le théâtre qui consiste à prétendre que nous savons tout à l'avance. Nous disposons désormais de nouvelles informations, d'un champ plus restreint et d'une nouvelle opportunité de séparer les équipes vraiment fortes de celles qui ont simplement survécu.

Plus important encore, cet exercice offre toujours la principale leçon que j’espérais explorer dans cette série : la prévision disciplinée ne consiste pas à éliminer l’incertitude. Il s’agit de rendre lisible l’incertitude.

Le modèle a bien fonctionné. March avait encore d’autres idées.

Ce n'est pas un échec. C'est le point.

Et s'il y a un pool de la deuxième chance, j'y serai de retour – plus âgé, plus sage et légèrement moins disposé à faire confiance à un favori vulnérable simplement parce que sa graine me dit que je devrais le faire.

Rate this post
Total
0
Shares
Previous Post
Apple a tué Launchpad, maintenant il bloque votre remplacement

Apple a tué Launchpad, maintenant il bloque votre remplacement

Next Post
Google vient de publier la première version d'Android 17, et elle est prête pour les téléphones Pixel

Android 17 a une nouvelle astuce sympa pour empêcher les assistants IA de crier dans vos oreilles

Related Posts