Ces jeux combinent l'intrication quantique, l'infini et l'impossibilité de calculer la probabilité de gagner. Mais si les chercheurs parviennent à les comprendre, ils nous dévoileront les secrets profonds des mathématiques.

Dans les années 1950, quatre passionnés de mathématiques de l'armée américaine ont utilisé des calculatrices électroniques primitives
pour calculer la stratégie optimale de blackjack. Leurs résultats ont ensuite été
publiés dans le journal de l'American Statistical Association et décrivent les meilleures décisions qu'un joueur peut prendre dans n'importe quelle situation du jeu.
Cependant, une telle stratégie, que les amateurs de jeux de hasard appellent plus tard les «règles» [le livre], ne garantit pas la victoire d'un joueur. Le blackjack, ainsi que le solitaire, les dames ou de nombreux autres jeux, ont un certain «plafond» pour le pourcentage de jeux qu'un joueur peut gagner, même s'il joue parfaitement à chaque fois.
Cependant, il existe des jeux particulièrement étranges dans lesquels, en principe, il est impossible de calculer la probabilité maximale de gagner. Au lieu de cela, les mathématiciens et les informaticiens tentent de déterminer s'il est possible de donner au moins une estimation approximative du pourcentage de gains pour de tels jeux. Et l'existence de cette possibilité dépend de la compatibilité de deux approches très différentes de la physique.
De tels jeux "non locaux" ont été inventés pour la première fois en 1960 par le physicien
John Stuart Bell , essayant de comprendre un phénomène
quantique aussi étrange que
l'intrication quantique . Bien que la confusion soit une chose compliquée, les jeux non locaux sont intrinsèquement simples. Il y a deux joueurs, chacun d'eux est posé une question simple. Ils gagnent si leurs réponses sont liées d'une certaine manière. Malheureusement, ils ne peuvent pas communiquer entre eux, ils doivent donc deviner la réponse de l'autre. Bell a prouvé que si les joueurs peuvent utiliser des paires de particules quantiques enchevêtrées, ils peuvent améliorer la corrélation des réponses et gagner des parties plus souvent que prévu.
Ces dernières années, les chercheurs ont développé les travaux de Bell, dont nous avons déjà parlé dans l'article «
Les jeux quantiques simples révèlent la complexité primaire de l'univers ». Les travaux de William Slofstra de 2016 et Andrea Coladangelo et Yaleks Stark de 2018 ont prouvé que dans certains jeux non locaux, le schéma est observé - plus les joueurs ont de paires de particules enchevêtrées, mieux ils jouent. Et cette relation est maintenue à l'infini, c'est-à-dire que pour le meilleur jeu possible, les joueurs auront besoin d'un nombre infini de paires de particules (ou de particules avec un nombre infini de propriétés indépendantes).
L'une des conséquences de ces résultats est qu'il est impossible de calculer la probabilité d'un pourcentage maximum de gains pour certains jeux non locaux. Les ordinateurs ne fonctionnent pas avec des quantités infinies, donc si une stratégie idéale nécessite un nombre infini de particules enchevêtrées, l'ordinateur ne peut pas calculer la fréquence à laquelle la stratégie se justifie.
"Il n'y a pas d'algorithme généralisé de ce type pour saisir une description du jeu et obtenir une réponse sous la forme de la probabilité d'un pourcentage maximal de gains", a déclaré
Henry Yuyen , spécialiste en informatique théorique de l'Université de Toronto.
Mais si nous ne connaissons pas la probabilité exacte du pourcentage maximum de gains, ne pouvons-nous pas le calculer avec au moins une erreur?
Les mathématiciens travaillent activement sur cette question. Curieusement, leur succès dépend de la compatibilité de deux approches très différentes de la physique.
Rappelez-vous que les joueurs d'un jeu non local ne peuvent pas coordonner les réponses. Il y a deux façons d'y parvenir. La première consiste à les isoler physiquement les uns des autres en les plaçant dans différentes pièces ou à différentes extrémités de l'univers. L'isolement spatial ne garantit aucune communication. Les chercheurs analysent cette situation à l'aide du modèle de
produit tensoriel .
Cependant, il existe un autre moyen d'empêcher les joueurs de conspirer. Au lieu de les séparer, une autre exigence peut être avancée: la séquence dans laquelle deux joueurs mesurent des particules enchevêtrées et donnent une réponse ne peut pas affecter leurs réponses. "Si l'ordre dans lequel ils prennent les mesures n'a pas d'importance, alors ils ne peuvent évidemment pas communiquer entre eux", a déclaré Yuyen.
Lorsque l'ordre des actions en mathématiques n'affecte pas la réponse, ils disent que l'opération est commutative: a × b = b × a. Cette approche des jeux non locaux - basée sur l'indépendance de la séquence plutôt que sur la séparation spatiale - est appelée le modèle «opérateur de navettage».
Le produit des tenseurs et l'opérateur de navettage sont utilisés en physique, en particulier lors de l'étude des interactions des particules subatomiques dans la théorie quantique des champs. Ces modèles sont deux approches différentes du raisonnement sur l'indépendance causale des phénomènes physiques. Et bien que le modèle du produit des tenseurs soit plus intuitif - nous imaginons généralement la causalité comme une séparation spatiale - le modèle de l'opérateur de navettage fournit une plate-forme mathématique plus logique. En effet, «l'indépendance spatiale» est une idée vague et la relation de navettage peut être clairement décrite.
"Pour les personnes qui étudient la théorie quantique des champs, le concept de séparation spatiale des objets n'est pas naturel", a déclaré Yuyen. "Au niveau mathématique, il n'est pas toujours possible de placer deux choses indépendantes dans deux endroits distincts de l'Univers."
Et voici comment tout cela se rapporte aux jeux non locaux.
Les informaticiens peuvent utiliser le modèle de produit tensoriel pour calculer la probabilité minimale du pourcentage maximal de gains. L'algorithme qu'ils utilisent garantit que cette probabilité est supérieure à un certain seuil. De même, les chercheurs peuvent utiliser le modèle d'opérateur de commutation pour limiter la probabilité d'en haut. Cet algorithme garantit que la probabilité ne dépasse pas un certain seuil.
Avec de tels outils, les chercheurs veulent rapprocher ces limitations au plus près de deux pistons. Ils savent qu'il est impossible de mettre ces limites en contact et de donner la seule valeur exacte de la probabilité du pourcentage maximum de gains - dans un travail récent de Slofstra, Coladangelo et Stark a prouvé qu'il est impossible de calculer la probabilité exacte - mais plus ils les rapprochent, plus ils peuvent déterminer cette probabilité avec précision.
En effet, plus ces algorithmes fonctionnent longtemps, plus les deux pistons se rapprochent, donnant une approximation de plus en plus précise de la moyenne inexprimable qu'ils n'atteindront jamais. Cependant, il est difficile de savoir si ce rapprochement apparent sera observé pour toujours. «Ces algorithmes sont complètement mystérieux. Ce n'est pas une amélioration progressive et régulière des valeurs. Nous ne comprenons tout simplement pas à quelle vitesse ils se rapprochent », a déclaré Yuyen.
La stratégie des pistons est basée sur l'équivalence des deux modèles. Elle suggère que les limites supérieure et inférieure réduisent la moyenne. Si ces deux modèles sont vraiment équivalents, alors les deux pistons se rejoindront vraiment à une distance arbitrairement petite. Et vice versa, si vous prouvez que les deux pistons se rejoindront à une distance arbitrairement petite, cela prouvera l'équivalence des modèles.
Cependant, il est possible que ces deux modèles ne soient pas des manières différentes de désigner la même chose. Il est possible qu'ils soient incommensurables et qu'en fin de compte il s'avère que la limite supérieure tombe en dessous de la limite inférieure. Les informaticiens perdront alors leur meilleure stratégie d'approximation des probabilités. Malheureusement, personne ne sait avec certitude.
Au cours des deux dernières années, les progrès les plus marqués se sont manifestés par deux éléments de preuve, qui ne démontrent que la complexité de l'ensemble de cette tâche.
En 2018,
Thomas Vidik et
Anand Natarajan ont prouvé qu'il était au moins aussi difficile d'estimer les probabilités du pourcentage maximal de gains dans un jeu non local que de résoudre des tâches incroyablement complexes telles que le problème des vendeurs ambulants. La même année, Yuyen, Vidik, Joseph Fitsimons et
Zhengfeng Ji ont prouvé que dans le processus de rapprochement des pistons, les ressources informatiques nécessaires à leur rapprochement croissent de façon exponentielle.
Une autre tournure de l'histoire - la question de l'équivalence des modèles est une analogie directe du problème ouvert important et complexe des mathématiques appelé l'hypothèse Connes de l'intégration. Cette situation met les mathématiciens et les informaticiens dans une position où vous pouvez tuer trois oiseaux avec une pierre. Ayant prouvé l'équivalence des modèles de produits tensoriels et de l'opérateur de navettage, ils recevront immédiatement un algorithme de calcul des probabilités du pourcentage maximum de gains et détermineront la vérité de l'hypothèse Conn. Une telle réalisation méritera d'être reconnue dans tous les domaines qui y sont liés.
Il conviendrait de dire que toutes ces questions sont profondément enchevêtrées entre elles.