lundi 31 décembre 2007

Peter Woit : Même pas pédagogue...

Je viens d'achever (enfin!) la lecture du livre "Même pas fausse" écrit par Peter Woit, un professeur de mathématique de l'université de Columbia.

Le livre, à priori fait par un vulgarisateur, dans le but de vulgariser la théorie des cordes et ses limites m'a malheureusement déçu. Voici en quelques lignes les points forts du livre, et les points qui m'ont déçu.

Autant l'avouer tout de suite, je n'ai pas du tout aimé ce livre. Je dirais même que j'ai haï certains passages, à commencer par le début où l'auteur se gargarise de sa propre compétence et de sas grandes capacités, il m'a semblé d'entrée de jeu que Monsieur Woit ne connaissait pas la modestie.

Le livre est très peu accessible aux non-initiés, notament à la théorie des groupes. De nombreuses notions sont jetées sur le tapis sans aucune explication : boson de Higgs, supersymétrie, doublets ou triplets, groupe E8...

Je me suis même demandé à un moment si ce professeur enseignait vraiment à ses élèves et si ce livre s'adressait aux non initiés, où s'il s'agissait d'une discussion entre experts...

Bref, j'ai vraiment souffert en lisant ce livre, et je pense qu'il me faudra sûrement un relecture pour l'apprécier à sa juste valeur et comprendre tous les arguments techniques qui y sont avancés.

Un autre point qui m'a profondément agacé et le rejet sans appel du travail de Igor et Grishka Bogdanov, qui sont lapidairement évoqués dans un chapître de 3 pages, présentés comme "un canular à la Sokal" (d'après le nom du physicien qui avait sousmis un article volontairement fantaisiste à la publication dans un grand journal scientifique).

Pire, l'université de Bourgogne, qui a délivré la thèse des jumeaux est taxée de laxiste, ses professeurs "d'incompétents" ! J'ai reconnu là tous les reproches caractéristiques du complexe de supériorité malheureusement si fréquent chez les américains...

Encore pire, malgré la rapidité du chapître, il arrive à livrer un nombre incommensurable d'âneries , comme par exemple : "Aucun spécialiste ne s'est risqué à soutenir les travaux des Bogdanov". Ceci est tout simplement faux. Leur directeur de thèse Moshé Flato, décédé peu avant leur thèse les à bien sûr encouragé, mais surtout leur dernier directeur de thèse, le Dr Sternheimer, directeur de recherche au CNRS, vous trouverez un article édifiant à cette adresse : http://users.skynet.be/catherinev/sternheimer.htm

Un autre aspect négatif du livre est qu'il passe presque 2/3 des pages à raconter - voire à encenser - le modèle standard des particules. Il faudra attendre autour de la page 200 pour entendre enfin parler de la théorie des cordes...

Pour terminer sur une note plus positive, voici les points positifs que j'ai trouvé à ce livre :
- Un bel historique de l'évolution de la physique du début du siècle à nos jours.
- Une longue explication du modèle standard, plus complète que dans d'autres livres
- De belles anecdotes sur les plus grands physiciens (notament Edward Witten)
- Des arguments précis contre la théorie des cordes (on va au delà du simple "elle ne fait aucune prédiction")

Je lis en ce moment "Rien ne va plus en physique", écrit par Lee Smolin, qui traite du même sujet (l'échec de la théorie des cordes). Je n'en suis qu'au début, mais il est clair que ce livre est de bien meilleure qualité. Toutes les explications sont claires, expliqués simplement et accessibles au premier venu : il identifie par exemple, dès le premier chapître, les "5 grands problèmes fondamentaux de la physique".

Je ferai prochainement un petit post sur ce livre qui m'a l'air bien plus instructif et surtout à ma portée, que le précédent. Cependant, je pense que je relirai tout de même "Même pas fausse", après celui-ci, histoire de voir si je comprends mieux les arguments de Monsieur Woit.

Pour terminer, quand Peter Woit critique les Bogdanov pour leur manque de clarté et de pédagogie, je pense qu'il ferai mieux de relire ce qu'il écrit et de penser à ceux qui ne sont pas dans sa tête. J'ai lu "Avant le Big Bang", et le livre et d'une clarté incomparable par rapport à "Même pas fausse". Il est possible que monsieur Woit ne sache pas expliquer la "vérité" clairement, mais il est certainement impossible que les Bogdanov puisse expliquer clairement quelque chose "qui n'a aucun sens" (citation de Monsieur Woit).

Sur ce, bon réveillon à tous et à très bientôt !

vendredi 7 décembre 2007

P = NP : problème ou illusion ?

D'après le livre "Les énigmes mathématiques du 3ème millénaire" (Keith Devlin), le problème P = NP serait, parmi les sept, le problème le plus accessible au commun des mortels, voire, pourquoi pas, le seul problème qu'un non spécialiste pourrait éventuellement résoudre.

Etant moi-même un éminent non-spécialiste, voici ma conception de ce problème et, si on peut dire, la réponse que je pense pouvoir y apporter. Mais avant, je vais tenter de planter le décor, que signifie P = NP ?

Théorie de la complexité

La théorie de la complexité est une méthode qui permet, quel que soit le problème que l'on ait à résoudre, de calculer le temps qu'il faudra pour trouver la ou les réponses.

Plus précisément, on ne calcule pas le temps (en secondes), car cela dépend bien-sûr de la vitesse du calculateur (ordinateur ou humain), mais plutôt le nombre d'opérations simples nécéssaires pour effectuer un calcul.

Qu'est-ce qu'une opération "simple" : en fait, cela n'a pas d'importance, on pourrait prendre n'importe quelle opération comme étant "l'unité". Prenons par exemple une des opérations les plus simples qui existe : l'addition entre deux chiffres décimaux. (nombres compris entre 0 et 9)

Soient A et B deux chiffres compris entre 0 et 9, le calcul de A+B, sans retenue, nécéssite une seule opération, donc le temps T de ce problème est de 1 : T(A+B) = 1

Si l'on souhaite maintenant calculer la somme avec la retenue, il nous faut une opération supplémentaire : T(A+B+R) = 2

Combien de temps faut-il pour calculer la somme de deux nombres décimaux composés chacuns de N chiffres ?

Soient A et B deux nombres décimaux, on note A(n) le n-ième chiffre de A et B(n) celui de B (on prendra n entre 1 et n pour simplifier les formules).

Additionner A et B revient à additionner leurs chiffres respectifs, en ajoutant la retenue précédente, on notera R(n), la retenue de l'opération A(n)+B(n)+R(n-1)

A+B = (A(1)+B(1))*10^0 + (R(1)+A(2)+B(2))*10^1 + ... + (R(n-1)+A(n)+B(n))*10^(n-1) + R(n)*10^n

Autrement dit :

A+B = Somme ((A(k+1)+B(k+1)+R(k))*10^k), pour k allant de 0 à n, avec R(0)=A(n+1)=B(n+1)=0

Comme nous sommes en base 10, l'opération 10^k revient simplement à écrire les chiffres à différents emplacements (unités, dizaines, centaines...), cette partie n'entre donc pas dans le calcul de compexité de A+B.

Pour calculer T(An+Bn), il suffit de compter le nombre d'additions entre deux chiffres, dans la formule ci-dessus : chaque étape comporte 2 additions et il y a (n+1) étapes. La première et la dernière étape, ne comptent qu'une opération, on pourra donc enlever 2 au résultat final, en résumé :

T(An+Bn) = 2*(n+1) - 2 = 2*n

Cette formule signifie que le temps de calcul de l'addition de deux nombres composés de n chiffres est proportionnel à 2 fois le nombre de chiffres.

On dira que l'addition est un calcul à temps (ou à complexité) linéaire : le temps nécéssaire au calcul est proportionnel à la quantité de données en entrée, à un facteur k près. Pour l'addition de deux nombres, nous avons k = 2.

Cet indice k, représente tout simplement le nombre d'opérations nécéssaires à ajouter, à chaque fois que l'on rajoutera une donnée en entrée dans notre calcul (ici, un chiffre de plus à A et B).

Nous allons maintenant calculer la complexité de la multiplication entre deux nombres A et B composés chacuns de n chiffres décimaux : T(An*Bn)

Calculons d'abord la complexité de l'opération T(A*B), soit le cas n = 1 :

A * B = A + A + ... + A

Nous avons ici (B-1) additions, on aurait tout aussi bien pu dire (A-1). D'où :

T(A*B) = k * T(A+B), où k est une valeur qui dépend des données A et B.

A suivre ...

mercredi 28 novembre 2007

Tout est dans le NON !

Aujourd'hui, j'ai décidé de vous présenter le pouvoir du NON. Pour être plus précis, je vais tenter d'expliquer comment créer l'algèbre de Boole, à partir du chiffre 0 et du seul opérateur logique NON.

Cette propriété connue est utilisée chaque jour pour créer les circuits logiques des puces de nos ordinateurs. Mais au delà de çà, ce principe me fascine car il permet de penser que "tout existe à partir du zéro et du NON".

Définissons tout d'abord quelques notions.

Opérateur : loi de transformation d'un ou plusieurs éléments d'un ensemble, vers un ou plusieurs éléments d'un autre ensemble (éventuellement le même).

Soit O un opérateur quelconque, on écrira :

O : E^a -> F^b

Ce qui signifie que l'opérateur O prend en entrée a éléments de l'ensemble E et génère en sortie b éléments de l'ensemble F.

Construire l'algèbre de Boole revient à exprimer tous les opérateurs logiques unaires et binaires, à partir de l'opérateur NON.

A partir de la définition d'un opérateur, on se place dans le cas suivant :

E = F = {0, 1}
b = 1
a = 1 (pour les opérateurs unaires)
a = 2 (pour les opérateurs binaires)

Autrement dit : les opérateurs logiques
unaires sont les transformations d'un élément 0 ou 1 en un autre élément valant 0 ou 1. Les opérateurs logiques binaires sont les transformations d'un couple d'éléments (0,0) , (0,1) , (1,0) ou (1,1) en un seul élément valant 0 ou 1.

Tables de vérité

La table de vérité d'un opérateur est le tableau qui donne pour chaque élément en entrée, l'élément correspondant en sortie. Voici quelques exemples :

Table de vérité de l'opérateur unaire identité :
00
11


Table de vérité de l'opérateur unaire négation :
01
10


Pour les opérateurs binaires, on peut représenter la table de vérité sous la forme d'un tableau à deux dimensions :

Table de vérité de l'opérateur binaire OU :


01
001
111


Table de vérité de l'opérateur binaire ET :


01
000
101

Les nombres en gras représentent les éléments en entrée, les autres les éléments en sortie. Pour connaître le résultat, il suffit de choisir une ligne et une colonne et de lire le résultat. Par exemple : 1 ET 1 = 1

Ici l'ordre des éléments en entrée n'a pas d'importance, mais lorsque ce sera le cas, on lira en premier la ligne, puis la colonne.

Codage des opérateurs logiques

Comment connaître tous les opérateurs logiques ? Pour cela, nous allons utiliser une méthode de codage qui va nous permettre de les compter et de n'en oublier aucun. Pour coder un opérateur, nous allons d'abord réécrire sa table de vérité de manière "compacte".

Par exemple, pour les opérateurs unaires, on constate que la première colonne est inutile : le 0 et le 1 seront toujours à la même place. On va donc accoler les chiffres restants, c'est à dire :

Codage de l'opérateur unaire identité : 10
Codage de l'opérateur unaire négation : 01

Vous constaterez qu'on a inversé les nombres, afin que le résultat de l'élément 0 soit situé à droite et celui de l'élément 1 à gauche. Ce choix est plus logique, car on lit les nombres de droite à gauche.

On peut en déduire qu'il existe seulement 4 opérateurs logiques unaires :
  • 00 : L'opérateur zéro
  • 01 : L'opérateur négation
  • 10 : L'opérateur identité
  • 11 : l'opérateur un
On remarque que le premier opérateur est la négation du dernier (1 n'est pas nécéssaire car c'est la négation du 0).

De même, le deuxième opérateur (le fameux NON) est la négation du troisième (l'identité).

Donc seul la moitié de ces opérateurs semble utile (0 et NON) puisque les deux autres peuvent s'obtenir en rajoutant l'opérateur NON.

Nous pouvons donc exprimer tous les opérateurs unaires en utilisant le 0 et le NON (que nous noterons "!") :

On note A l'élément de départ, appliqué à chaque opérateur unaire (souvenez-vous que A peut prendre la valeur 0 ou 1) :
  • 00(A) = 0
  • 01(A) = !A
  • 10(A) = A
  • 11(A) = !0 (non, je n'utiliserai pas le 1 !)
Codage des opérateurs logiques binaires :

Nous allons maintenant appliquer cette méthode pour d'abord coder, puis pour exprimer tous les opérateurs logiques binaires en fonction de l'opérateur NON.

En reprenant les tables de vérité, on va supprimer les éléments en entrée, comme on l'a fait pour les opérateurs unaires, puis on va accoler les 4 éléments en sortie. De maniuère générale, la table suivante :


01
0A
B
1C
D

Deviendra le code : DCBA

Par exemple, les codes des opérateurs OU et ET sont respectivement 1110 et 1000.

A nouveau, on voit qu'il ne peut y avoir que 16 opérateurs logiques binaires distincts (il y a quatres chiffres binaires, soit 2^4 = 16 possibilités).

Comme nous l'avons fait pour les opérateurs unaires, il nous suffira de calculer les 8 premiers opérateurs, les 8 suivants étant symétriques (à l'opérateur NON près)

Avant de pouvoir coder les opérateurs, il nous faut cependant étendre le domaine de validité de l'opérateur logique unaire NON aux opérateurs logiques binaires, en mathématiques, on noterait :

NON : E -> F
NON(A) = !A

NON ET : E^2 -> F
NON ET(A,B) = A!B = NON(A) ET NON(B)

Je dois reconnaître ici que j'ai un peu triché en annonçant que l'on n'aurait besoin que du NON et du 0. En effet, pour étendre l'opérateur NON aux opérateurs binaires, nous devons le combiner avec un opérateur binaire quelconque , ici on a choisi ET.

Mais ce qui est important, c'est que l'on aurait pu prendre n'importe quel opérateur non trivial (comme 0 ou 1) : l'opérateur ET est donc uniquement là pour faire la figuration, bien qu'il nous permette d'accéder au monde merveilleux des opérateurs binaires.

Donc muni de notre opérateur étendu "!" (à la fois unaire et binaire), tentons d'exprimer les opérateurs binaires logiques en utilisant toujours uniquement les symboles 0 et "!" avec un peu de calcul, on obtient :
  • 0000(A,B) = 0
  • 0001(A,B) = !(!A!!B)
  • 0010(A,B) = !(!A!B)
  • 0011(A,B) = !A
  • 0100(A,B) = !(A!!B)
  • 0101(A,B) = !B
  • 0110(A,B) = (!A!B)!(A!!B)
  • 0111(A,B) = A!B
  • 1000(A,B) = !(A!B)
  • 1001(A,B) = (A!B)!(!A!!B)
  • 1010(A,B) = B
  • 1011(A,B) = A!!B
  • 1100(A,B) = A
  • 1101(A,B) = !A!B
  • 1110(A,B) = !A!!B
  • 1111(A,B) = !0 (on n'a toujours pas besoin du 1...)
En exprimant tous les opérateurs logiques à l'aide de 0 et "!", nous pouvons maintenant réaliser n'importe quel calcul dans l'algèbre de Boole. Il suffit d'assembler les différents opérateurs dont on a besoin, d'obtenir la formule écrite avec les symboles "!", "0" et bien sûr les éléments en entrée (par exemple A et B).

Remarque : Pour exprimer une opération quelconque en fonction de A, B 0 et "!", il suffit de la décomposer en des opérateurs dont on connait le code, d'effectuer l'opération sur le code des opérateurs, puis de lire l'expression correspndante dans le tableau ci-dessus, par exemple :
A correspond à l'opérateur 1100, B, à l'opérateur 1010, donc l'expression A OU B correspond à l'opérateur (1100 OU 1010) = 1110, soit l'expression !A!!B

On peut ensuite réaliser le circuit de portes logiques en utilisant uniquement la porte NON ET : c'est la dernière étape dans la conception d'un circuit électronique.

Ci dessous, un circuit logique simple qui réalise l'opération OU (opérateur 1110 dans notre liste), avec les entrées E1 et E2, la sortie S et trois portes logiques NON ET. Les entrées sont d'abord reliées chacune à une porte NON, puis les sorties respectives sont reliées entre elles à une même porte NON ET, qui donne le résultat final S.



En lisant ce schéma, on peut tout à fait vérifier la formule 1110(E1,E2) = !E1!!E2 ou si vous préférez 1110(E1,E2) = (!E1)!(!E2).

Cliquez-ici pour voir les circuits d'autres opérateurs logiques, réalisés avec la porte NON ET (également appelé NAND).

Enfin, on peut bien sûr étendre cette méthode pour manipuler autant d'entrées qu'on le souhaite et ainsi réaliser des circuits plus élaborés (sommateurs, compteurs, multiplexeurs...) comme on en trouve au coeur des puces électroniques...

Voilà, cet article est terminé. J'espère que cela vous aura intéressé. J'aimerais avoir votre avis ou vos réflexions sur ce sujet ou sur l'algèbre de Boole en général... Que pensez-vous également de cette méthode de codage (on pourrait presque parler de classification) des opérateurs logiques ? Que changeriez-vous dans le codage pour obtenir une classification des opérateurs plus élégante ?

Pour terminer sur une note plus spirituelle, je pense sincèrement que derrière l'opérateur NON se profile toute la puissance génératrice du zéro. Une sorte de preuve que tout ce qui existe peut-être généré à partir de ce qui n'existe pas (à partir de rien en fait)... mais il s'agit bien sûr d'un sentiment personnel.

Pour plus d'informations sur l'opérateur NON et sur l'histoire du zéro, je vous recommande le livre "A propos de rien, une histoire du zéro" (Robert Kaplan).

A très bientôt.

mardi 27 novembre 2007

De l'ordre des nombres ...

Une des activités des mathématiques qui me fascine le plus est l'étude des nombres premiers. Il m'arrive parfois de prendre un carnet, de calculer les nombres premiers dans l'ordre, puis de tracer toutes sortes de représentations graphiques, ou suite logique basée sur les nombres premiers (par exemple une suite composé d'un "0" pour chaque nombre non premier et un "1" pour chaque nombre premier) en espérant pouvoir y déceler une sorte de structure secrète des nombres, voire de l'univers, d'être le MAITRE DU MONDE !!! ... Mais un peu de sérieux.

Malheureusement, comme la plupart de mes tentatives naïves pour trouver une réponse là où les plus grands spécialistes n'ont pas encore trouvé grand chose, cela échoue systématiquement.

Mais avant de vous raconter ma dernière tentative, je tiens d'abord à vous donner deux formules, qui sont parmi les plus belles dans l'étude des nombres premiers.

Le Théorème des Nombres Premiers (TNP)

Il s'agit d'une formule qui permet d'estimer le nombre de nombres premiers (non, ce n'est pas une répétition) inférieurs à un certain nombre. La voici :

PI(n) ~ Li(n)

Ce qui signifie "le nombre de nombres premiers inférieurs à n est environ égal au logarithme intégral de n".

Cette formule permet d'estimer, avec une précision de plus en plus fine au fur et à mesure que n est grand, le nombre de nombres premiers inférieurs à n.

Il est vrai que ce théorème ne donne pas une estimation exacte. Pour obtenir LA formule exacte il faudrait résoudre la "conjecture de Rieman". Je ne vais pas entrer dans les détails (je vous conseille plutôt le livre "Dans la jungle des nombres premiers" de John Derbyshire), mais en résumé : en résolvant cette conjecture, on pourrait (peut-être) découvrir le petit quelque chose qu'il manque pour que le "environ égal" se transforme en "égal" (le "terme correctif", pour les puristes...)

Pour conclure sur ce théorème et sur cette conjecture, l'intérêt de connaître exactement le nombre de nombres premiers inférieurs à n, permettrait de déterminer de manière très simple si un nombre est premier ou pas.

Imaginons qu'on sache calculer PI(n) (le nombre de nombres premiers inférieurs à n), alors pour savoir si n est premier, il suffit de calculer PI(n+1) - PI(n) : si le résultat est un, alors bingo ! n est premier.

La formule d'Euler

zêta(s) = produit(1/(1-p^-s))

Cette formule se lit "zêta de s est égal au produit de un divisé par un moins p à la puissance moins s, pour p parcourant l'ensemble des nombres premiers". Mais avant d'en donner une lecture plus compréhensible, je dois rappeler la définition de la fonction zêta de Rieman (tiens, ce nom m'est familier ?...)

En réalité la fonction zêta de Rieman n'a pas été inventée par Rieman, mais par Euler. Voici cette définition :

zêta(s) = somme(1/n^s)

En français : La fonction zêta est la "somme de 1 sur n à la puissance s, lorsque n parcoure l'ensemble des nombres entiers". Enfin, l'argument de la fonction, "s", est un nombre complexe quelconque différent de 1 (sinon la somme tend vers l'infini et la fonction est indéfinie).

Donc, la puissance de cette formule d'Euler, est de mettre en relation l'ensemble des nombres entiers naturel avec l'ensemble des nombres premiers (le fameux motif que je recherchais aussi naïvement avec mon carnet). Elle est donc à priori la meilleure candidate pour connaître répartition des nombres premiers et pour compléter le TNP.

En réalité, cela s'avère très difficile et on peut dire que l'hypothèse de Rieman consiste en gros, à partir de la formule d'Euler, à compléter le TNP (ou du moins à faire une partie du boulot).

Pour conclure cette première partie, je ne peux pas m'empêcher de citer l'hypothèse de Rieman, qui même si elle n'est qu'une hypothèse, est bien entendu une formule très belle :

Pour tout s!=-2n, zêta(s) = 0 => s = 1/2 + ik

Expliquer cette formule en détail serait trop long, je donnerais simplement cette même hypothèse de Rieman en Français :

"Tout les zéro non triviaux de la fonction zêta se trouvent sur la droite critique du plan complexe y = 1/2"

J'ai bien conscience que présenter tous ces outils sans donner plus d'explication rend la compréhension bien difficile, c'est pourquoi je vous invite à consulter wikipédia ou même à livre ce livre ("Dans la jungle des nombres premiers") pour une avoir une meilleure approche du sujet.

J'ai cependant tenu à présenter d'abord brièvement l'approche "standard" des nombres premiers, qui est certes très prometteuse et très rigoureuse, mais assez peu accessible pour les non spécialistes (comme moi) : la résolution de l'hypothèse de Rieman est d'aileurs l'un des problèmes du millénaire, irrésolu depuis près de deux cent ans ! AI-je une chance avec mon carnet ? ... Après tout j'ai rien d'autre à faire pour l'instant...

Mon approche naïve : Les nombres premiers...oui mais dans quel ordre ?

Cet été, lorsque je m'aventurai "Dans la jungle des nombres premiers", il m'est venu une question un peu stupide :

Plutôt que de s'intéresser uniquement aux nombres premiers, pourquoi ne s'intéresse t'on pas à tous les nombres : les nombres "seconds", les nombres "troisièmes", etc. ?

J'ai donc défini (bien que j'imagine que cette fonction existe déjà quelque part...), ce que j'ai appelé la "fonction d'ordre", que j'appelerai originalement "o".

o(n) est une fonction qui pour un nombre entier donné, nous retourne le nombre de diviseurs premiers qui composent ce nombre. Autrement dit :

o(p) = 1 <=> p est premier

Exemples :
o(2)=1
o(3)=1
o(4)=2 (2 et 2)
o(5)=1
o(6)=2 (2 et 3)
o(7) = 1
o(8) = 3 (2, 2 et encore 2)
...
o(n) = k <=> n à k diviseurs premiers

Est-il possible, en étudiant cette fonction un peu bizarre, non seulement d'étudier la répartition des nombres premiers, mais aussi la répartition de tous les nombres d'ordre 2, 3 ? Peut-être cette fonction a-t'elle une schéma plus simple et cohérent que le schéma chaotique (ou du moins Riemaniesque) de la fonction PI(n) ?

Etant donné qu'il est déjà deux heures du mat' passées et que je dois bosser demain, je me contenterai pour l'instant de donner deux éléments qui pourraient être intéressants sur la fonction d'ordre :

Cette fonction possède les mêmes propriétés qu'une fonction logarithmique, c'est à dire :

o(a*b) = o(a) + o(b)
o(a/b) = o(a) - o(b)
o(a^n) = n*o(a)
...
et bien sûr o(1) = 0 , le nombre 1 ne possédant aucun diviseur premier
enfin, o(0) = infini, puisque 0 est divisible par tous les nombres premiers

Enfin, le dernier élément est un joli graphique, qui montre l'allure de la fonction d'ordre (en bleu) entre 1 et 132 (pourquoi 132 ? et bien parce que j'ai eu la flemme d'aller plus loin...)

Fonction d'ordre
Cliquez sur l'image pour l'aggrandir


Lorsque j'ai vu cette courbe, j'ai d'abord pensé à une sorte de fractale et puis j'ai essayé de borner de différentes manières la fonction d'ordre, histoire d'en savoir un peu plus. (courbes en rouge, vert et jaune) Pour la petite histoire, ce magnifique graphique a été réalisé avec le logiciel libre VisualMaths, que vous pouvez télécharger gratuitement sur sourceforge

En travaillant sur ce graphique, j'ai donc essayé de calculer une suite de fonctions qui permettent de majorer la fonction d'ordre à plusieurs niveaux :

La fonction d'ordre atteint un maximum local à chaque fois que n est une puissance de deux : en effet, le plus petit nombre entier ayant k diviseurs premiers n'est autre que 2^k. Avec un peu de calcul, on obtient que la fonction qui majore au mieux o(n) est f2(t) = ln(t)/ln(2), il s'agit de la fonction en
rouge sur le graphique.

Ensuite, si on élimine ces maximums, que reste t'il ? Quels sont les nombres les plus petits, d'ordre k, mais n'étant pas de la forme 2^k ? Les nombres de la forme 3*2^(k-1) (autrement dit, on remplace un deux par un trois)

On obtient alors la fonction f3, qui majore les points restants (en vert) : f3(t) = ln(t/3)/ln(2)+1

Ma supposition est qu'on pourrait (peut-être) trouver une formule générale de la fonction fa (a étant l'indice, nous connaissons déjà f2 et f3).

Je n'ai malheureusement pas encore eu le temps (ou le courage) de creuser cette question, j'ai juste calculé f4 (en orange) :

f4(t) = ln(t/4.5)/ln(2)+1

Il me paraît encore difficile de faire un pronostic sur la généralisation de cette formule, car la fonction f4 par exemple a un gros inconvénient : elle ne majore pas 5 (f4(1) = 4.5). Pourtant elle majore au mieux tout le reste de la fonction d'ordre.

En conclusion, je ne sais pas si cette approche peut réellement m'apporter quelque chose à la compréhension de la répartition des nombres premiers. Mais j'aime assez l'idée d'étudier la fonction d'ordre et peut-être de pouvoir avoir plus d'informations sur la répartition des nombres premiers en étudiant également la répartition des autres nombres.

Je pense en fait que cette approche est un peu similaire à celle du crible d'eratosthène (supprimer tous les nombres divisibles par deux, puis par trois ... afin qu'il ne reste que les nombres premiers). Mais quand on sait que le crible d'érathosthène est un algorithme à temps exponentiel, cela ne présage rien de bon quant à l'efficacité de cette méthode pour étudier les nombres premiers. A moins peut-être de savoir généraliser et utiliser correctement les fonctions que j'ai appelé fa, ou éventuellement de tenter une autre approche sur cette fonction d'ordre.

Si vous n'avez rien, mais vraiement rien d'autre à faire ;) vous pouvez m'envoyer vos tables de la fonction d'ordre pour des valeurs supérieurs à 132, cela me permettra de continuer mon délire...euh je veux dire mon étude !

J'attends aussi vos commentaires sur l'approche "standard", sur mon approche modeste et sur d'autres approches qui pourraient être intéressantes, le but étant d'essayer de trouver l'approche la plus simple sans pour autant qu'elle soit triviale.

Amusez-vous bien et à très bientôt.

dimanche 25 novembre 2007

A quoi ressemble l'univers ?

J'ai eu envie de faire le point sur ce que je "pense savoir" (ou que mon intuition me dicte) de l'Univers, voici une petite liste pêle-mêle de ce que je pense être vrai concernant l'Univers :
  1. L'Univers est de dimension finie
  2. L'Univers n'est pas borné (il ne contient pas sa frontière)
  3. L'affirmation selon laquelle l'Univers n'est pas borné est équivalente à dire que L'Univers est borné par l'ensemble vide (le néant)
  4. L'Univers est né du néant (conséquence du point 3)
  5. Le néant est un point de dimension nulle
  6. L'Univers est une hypersphère de dimension 3, plongée dans un espace à 4 dimensions (qu'on ne peut visualiser)
Les points 1 et 2 sont suggérés par Stephen Hawking, dans l'excellent livre "Une Brêve Histoire du Temps", il s'agit bien sûr d'une hypothèse mais qui m'a bien séduite. Il semble y avoir un consensus à ce sujet, mais je ne sais pas si ces points sont réellement reconnus par le modèle standard.

Le point 3 est une manière que j'ai trouvé pour reformuler le point 2. Cela m'a semblé correct d'un point de vue strictement logique.

Les points 4 et 5 m'ont été "inspirés" du livre très controversé "Avant le Big Bang" écrit par les frères Bogdanov (j'écrirai prochainement un petit billet sur ce bouquin histoire que tout le mon de puisse se défouler...) :
  • Le point 4 est comme indiqué, une conséquence du point 3, mais également une application du principe d'économie pour un modèle du Big Bang plus "élégant". Malheureusement, ce point ne semble pas applicable à la "réalité" (mur de planck).
  • Le point 5 me semble correct , mais un peu paradoxal : le néant (ensemble vide) peut-il réellement être considéré comme un point de dimension nulle ? Il faudrait creuser la question à l'aide de la topologie...
Le dernier point est une hypothèse assez communément admise, également évoquée dans "Une brève histoire du temps" et que j'ai pu appronfondir grâce à une livre de vulgarisation en topologie, "Grigori Perelman face à la conjecture de Poincaré", qui retrace entre-autres la résolution d'un des septs problèmes du millénaire.

Je lis en ce moment "Même pas fausse" (Peter Woit) qui explique plus en détail la théorie des cordes, des avancées et ses limites. Je complèterai peut-être ma liste à la fin de la lecture.

En attendant, n'hésitez pas à mettre en ligne votre propre liste, à me dire quels points vous pensez vrais, faux ou indécidables, ou encore à me dire quels points vous modifierez et dans quel ordre vous les mettriez.

Théorie du Tout Espace-Temps

J'ai eu tout à l'heure une idée apparemment "folle" (quoi que peut-être pas tant que çà, vu que je ne suis apparemment pas le seul à avoir eu cette idée là...) bref, voici cette idée :

Est si la matière n'était qu'une propriété (plus précisément une courbure extrêmement locale) de l'espace-temps ?

Voici maintenant quelques unes des idées connexes à cette hypothèse :

La physique actuelle n'arrive pas à unifer d'un côté l'approche discrète de la matière (chromodynamique quantique) de l'approche continue de l'espace-temps (relativité générale). L'objectif de la théorie du "Tout" est cette unification, donc on sera à terme amené à conclure soit que la matière est une propriété de l'espace, soit l'inverse.

J'ai alors repensé à la théorie de la relativité générale, qui affirme que la gravité est en fait une propriété de l'espace-temps. C'est la matière, répartie de manière "irrégulière" (cet aspect là est également un mystère, bien qu'on puisse peut-être le justifier avec l'argument anthropique, mais c'est un autre débat...), donc c'est la matière qui courbe l'espace-temps. Autrement dit, dans cette approche, on considère que la gravité est une conséquence de la matière, sans qu'il y ait la moindre justification à cette assertion logique.

Ne pourrait-on pas dire, avec la même rigueur que la présence de matière est une conséquence de la courbure de l'espace-temps ?

Etudier l'univers reviendrait à étudier la courbure de l'espace-temps en tout point (avec un champs de vecteur j'imagine...).

Ou bien, ce qui revient évidemment au même étudier l'énergie (ou la masse) en tout point.

Je vais tenter d'étayer cette hypothèse, avec des arguments plus ou moins personnels dont certains, je le reconnais, tiennent plus de l'intuition que du raisonnement, mais allons y à fond :

- Le modèle standard suggère que les trous noirs sont des déchirures de l'espace temps, donc ce ne sont pas eux-mêmes de la matière. Pourtant, on peux calculer leur masse, ce qui montre bien que la courbure de l'espace-temps peut engendrer de la masse (donc, mais je n'ose le dire, de la "matière").

- L'approche continue pourrait sembler plus appropriée et plus élégante pour fournir une théorie du Tout : la mécanique quantique et la physique expérimentale ont engendré des dizaines (voire des centaines) de particules "élémentaires", ce qui à mon avis devrait suffire à démontrer que ce n'est pas une théorie assez "élégante".

- La théorie des cordes, pour corriger ce problème, amène l'idée d'une particule élémentaire : la corde (ou membrane suivant les variantes). Le problème de la théorie des cordes - d'après les faibles connaissances que j'en ai - serait que pour générer toutes les particules observées expérimentalement, elle a dû introduire 6 dimensions supplémentaires qui existent à des échelles quantiques et qui s'ajoutent aux quatre dimensions "macroscopiques" que nous suggèrent notre intuition. Elle est valable localement, mais les calculs sont apparemment tellement complexes qu'il semble difficile de l'appliquer à la compréhension globale de l'univers. La théorie des cordes là encore, me semble un peu trop complexe et pour tout dire assez peu intuitive : à moins d'une erreur de ma part, la corde est une particule de dimension 1, autrement dit, un fil.

- Il faut cependant reconnaître que la matière à des petites échelles se comporte de manière corpusculaire (électrons, photons, nucléons ...) la question que je me pose est : existe t-il une fonction d'onde pour chaque particule qui pourrait remplacer son aspect corpusculaire, quitte éventuellement à ce que cette fonction soit composée de fonctions non continues comme la fonction delta de Dirac ? Il faudra très certainement que je me documente davantage sur cette question.

En résumé, dans cette hypothèse, je vois la théorie du Tout comme une équation qui donne l'évolution d'un champs de vecteurs, généré à partir de l'ensemble vide, à l'échelle 0 (ou au temps zéro si vous préférez) vers l'état actuel de l'univers.